AI prompt engineering- A deep dive 参考资料https://www.youtube.com/watch?v=T9aRN5JkmL8 正文03月05日_1_智能规整 Basically this entire roundtable session here is just gonna be focused mainly on prompt engineering, variety of perspectives at this tab 2026-03-13 AI
MiroFish MiroFish的作者MiroFish的作者是中国大学生,10天完成开发主要靠AI辅助编程+前作技术积累+高效开发模式。 一、作者信息 姓名:郭航江(网名 BaiFu) 身份:中国科学技术大学大四学生,20岁(00后) 国籍:中国 前作:BettaFish(多智能体舆情分析工具,GitHub爆款) 二、为什么10天就能开发出来 前作技术打底MiroFish是在BettaFish的基础上迭代,从“ 2026-03-12 AI
小腕、中腕、大腕 在创业、创投及商业领域中,小腕、中腕、大腕是对创业者/创业项目、企业创始人,或是行业从业者实力、行业地位、项目阶段及资源量级的通俗分级说法,核心是依据商业价值、发展规模、行业影响力、资源掌控力来划分,是圈内的口语化表述,具体释义如下: 小腕指初创阶段的创业者/项目,核心特征是: 项目处于早期,仅有初步的产品理念、原型,或刚启动小规模试运营,尚未形成稳定的商业模式和收入; 团队 2026-03-10
(6 月招生)创业之路规划 —— 数码港项目分享会 数码港创意微型基金(CCMF)香港计划数码港培育计划 一段话总结本次分享围绕香港数码港的创业扶持体系展开,介绍了数码港2004年成立的发展背景、超2300家入驻企业、超460亿港币融资规模的生态成果,以及即将开幕的第五期大楼、3000P算力、低空基地等硬件资源,重点讲解了微型基金(CCM)和培育计划两大核心创业扶持计划,最高可提供130万港币资助、还有最高2000万港币的投资基金支持,明确了202 2026-03-09 创业 数码港
openAI如何使用codex 上一篇:2026.2.3 codex参考资料: https://cdn.openai.com/pdf/6a2631dc-783e-479b-b1a4-af0cfbd38630/how-openai-uses-codex.pdf OpenAI 的众多技术团队(如安全、产品工程、前端、API、基础设施及性能工程团队)每天都在使用 Codex。各团队借助它加速各类工程任务,从理解复杂系统、重构大型代码库 2026-03-09 AI
Deep Dive into LLMs like ChatGPT - 8 豆包AI总结出的笔记大语言模型(LLM)核心技术全解析章节一:大语言模型整体介绍与训练总流程核心内容翻译本视频旨在为普通观众全面介绍ChatGPT这类大语言模型,搭建理解该工具的思维框架——它在某些方面表现卓越,在另一些方面却不尽如人意,同时还存在诸多需要注意的“技术短板”。视频将拆解大语言模型的完整构建流程,兼顾认知心理学层面的应用启示,且全程保持内容的通俗性,让非专业观众也能理解。 大语言模型 2026-03-08 vibe coding
Deep Dive into LLMs like ChatGPT - 7 本文为 Stanford 大语言模型公开课讲稿片段,格式为一段英文、一段中文对照。仅处理约 1 小时阅读量内的内容,后续保持原样。 一、多模态:音频与图像也是 tokenSo it’s not a fundamental change. It’s just, we have to add some tokens. So as an example, for token, as an audi 2026-03-08 vibe coding
Deep Dive into LLMs like ChatGPT - 6 本文为 Stanford 大语言模型公开课讲稿片段,格式为一段英文、一段中文对照。仅处理约 1 小时阅读量内的内容,后续保持原样。 一、AlphaGo:围棋里的监督学习 vs 强化学习One more connection that I wanted to bring up is that the discovery that reinforcement learning is extrem 2026-03-08 vibe coding
Deep Dive into LLMs like ChatGPT - 5 本文为 Stanford 大语言模型公开课讲稿片段(续篇),格式为一段英文、一段中文对照。阅读至约 1 小时后附「上文总结」,后续英文建议另起一篇续写。 一、回顾:预训练与监督微调,接下来是强化学习Okay, so we have now covered two major stages of training of large language models. We saw that in 2026-03-08 vibe coding
Deep Dive into LLMs like ChatGPT - 4 本文为 Stanford 大语言模型公开课讲稿片段(第 4 部分),格式为一段英文、一段中文对照。阅读至约 1 小时后附「上文总结」,后续英文建议另起一篇续写。 一、幻觉从哪来:训练集里没有「我不知道」So in particular, the first one I want to talk to is hallucinations. So you might be familiar wi 2026-03-08 vibe coding