7月17

当你还在一个词一个词地调教 Prompt 时,硅谷的大佬们已经在布局上下文工程(Context Engineering)啦

| |
09:11编程杂谈  From: 本站原创
当你还在一个词一个词地调教 Prompt 时,硅谷的大佬们已经在布局上下文工程(Context Engineering)了。

推特上的 AI 架构师 @HeyNina101 一针见血地指出:「提示词工程是给爱好者玩的,上下文工程(Context Engineering)才是专业生产力。」这条推文迅速引爆了硅谷技术圈,Shopify CEO Tobi Lutke 和前特斯拉 AI 总监 Andrej Karpathy 等大佬纷纷点赞。

Prompt vs 上下文

你在对话框里敲下的指令,就是 Prompt。

但一个能打的 AI 应用,需要的远不止 Prompt。还需要为模型构建整个世界观,这就是「上下文工程」。

上下文工程包括:

任务设定:明确告诉 AI 要干嘛
案例示范:给它几个栗子学学
外部文档:挂载知识库,让它变身专家
对话历史:让 AI 拥有短期记忆
工具输出:调用 API 后的结果反馈
系统状态:应用当前的运行情况
长期记忆:跨越对话周期的记忆
信息压缩:在有限的上下文中高效传递信息
多模态:不止文本,还有图片、声音等等

上下文给的太少,AI 就是人工智障;给的太多,系统就运行变慢、或者烧光你的预算。如何拿捏好这个平衡,不仅仅是简单的指令艺术,更是一个系统设计的挑战。

真正的LLM应用,远不止套壳

一个生产级的 LLM 应用,不仅仅是上面这些,还需要:

控制流:设计 AI 的思考和行动路径
上下文打包:智能筛选、组合信息喂给模型
模型路由:根据任务,自动切换最合适的模型
UI 与生成验证:确保输出的内容能看、能用
安全护栏、评估、预取、并行计算...

这个复杂的系统,我们称之为 LLM 软件工程,而「上下文」正是这个新世界的核心层。

到底是谁在控制 LLM?

Google DeepMind 的工程师 Philipp Schmid 用一张图给出了答案:真正决定 LLM 行为的,是一个由指令、用户输入、历史、文档、工具等共同构成的庞大上下文系统。

所以,别再只盯着那个小小的输入框了。

你认为上下文工程会是下一个风口吗?
独立开发者如何抓住这个机会?
评论区聊聊你的看法
点击在新窗口中浏览此图片点击在新窗口中浏览此图片点击在新窗口中浏览此图片点击在新窗口中浏览此图片



来源:Heck's Blog
地址:https://www.heckjj.com/post/675/
转载时须以链接形式注明作者和原始出处及本声明,否则将追究法律责任,谢谢配合!
阅读(132) | 评论(0) | 引用(0)