【导读】新年第一弹,OpenAI研发副总裁Jerry Tworek官宣离职,这位七年老兵给出的理由让人细思恐极:想做在OpenAI做不了的研究。从Dario Amodei出走创立Anthropic,到Ilya政变后离开,再到安全团队负责人摔门而出——OpenAI的核心大脑们正在以惊人的速度流失。
OpenAI又双叒叕走人了。
新年刚开工,一个重磅消息就给AI圈投下了一枚炸弹——
OpenAI研发副总裁Jerry Tworek正式宣布离职,结束了他在这家公司长达七年的征程。
Jerry Tworek绝对属于OpenAI的殿堂级技术灵魂人物。
他的分量不仅仅在于职位(研发副总裁),更在于他是OpenAI编程和两大核心技术路线的奠基人和掌舵者。
简单来说,是他让ChatGPT学会了写代码,也是他让AI学会了像人类一样慢思考。
Jerry Tworek的研究直接攻克了LLM(大语言模型)最难的两个商业化落地场景——编程和复杂推理。
- 「推理模型」之父(o1/o3系列):根据其个人主页记录,他是OpenAI o1项目的团队负责人。
- 「编程代码」之父(Codex):他是Codex模型的核心研究员。
- GPT-4的核心贡献者:专门负责让GPT-4具备解决复杂编程挑战的能力。
- GPT-5与Agent(智能体):他在2025年主导了GPT-5的部署以及ChatGPT Agent的研发。
- 解决数学难题:他参与发表的论文是让AI能够做对数学题的关键研究。
- 高引用影响力:他在GoogleScholar上的论文引用数极高,特别是在「代码生成」和「强化学习(RLHF)」领域。
<< 滑动查看下一张图片 >>
Jerry Tworek离职声明&各位大佬送上祝福
七年是什么概念?
OpenAI到今天也才成立不到十年。
可以说,Tworek是看着这家公司从一个理想主义的非营利研究机构,一步步走到今天这个估值千亿的商业巨兽的亲历者。
然而,就是这样一位「开国功臣」级别的人物,选择在2026年的第一个周末,用一封内部备忘录,为自己的OpenAI生涯画上了句号。
离开的理由,细品之下耐人寻味——
「我想探索那些在OpenAI内部难以开展的研究类型。」
这话说得相当委婉,但懂的都懂。
翻译一下就是:这里的研究方向,已经不是我想走的路了。
走的何止是一个人,离的是一颗心
如果只是Tworek一个人离开,或许还可以用个人发展来解释。
但问题是,这已经不是OpenAI第一次流失核心人才了——
先盘一盘这几年走的大佬们:
Dario Amodei,OpenAI前研究副总裁,2021年出走创立Anthropic,现在是Claude的掌门人。
没错,就是那个让OpenAI睡不着觉的Claude!
Ilya Sutskever,OpenAI联合创始人兼首席科学家,那个曾经发动政变差点把奥特曼干下去的男人,后来也离开创业去了。
John Schulman,强化学习大牛,ChatGPT背后的核心技术推手之一,去年也跑了。
Jan Leike,超级对齐团队负责人,因为安全理念不合直接撂挑子。
还有产品、政策、安全等各条线的VP级别人物,走马灯似的换。。。
现在又加上七年老兵Tworek。
你品,你细品。
如果说一个人离开是偶然,两个人是巧合,那这么多核心骨干前赴后继地出走,是不是说明了些什么?
为什么大佬们都在逃离AI第一大厂?
有人可能会问:OpenAI现在不是如日中天吗?
GPT-5各种秀肌肉,Sora惊艳全球,估值都快追上特斯拉了,怎么人还往外跑?
答案可能藏在三个字里:商业化。
OpenAI最初是以确保AGI造福全人类为使命成立的非营利组织。
但随着ChatGPT的爆火,微软百亿美金的注入,这家公司已经彻底变了味:
从理想主义的研究圣地,变成了一台需要不断推出产品、追求商业回报的赚钱机器。
当年那群相信慢工出细活、追求技术突破的研究员们,突然发现自己的工作变成了:
- 赶发布deadline
- 卷产品化功能
- 讨好投资人和用户
这和他们最初加入的那个研究乌托邦,完全不是一回事。
更关键的是,安全问题。
Jan Leike离开时几乎是摔门而出,公开表示OpenAI把安全放在了次要位置。
当你负责保证AI不会伤害人类,但公司却觉得你在拖后腿,这种撕裂感可想而知。
Tworek说想做在OpenAI做不了的研究,某种程度上,也是在说同样的话。
奥特曼:越走越多的人,越来越空的王座
说完离开的人,我们来聊聊留下的那个:Sam Altman。
2023年年底那场宫斗大戏,相信大家都还记得。
Ilya联合董事会把奥特曼撸下去,结果不到一周又被迎回来,上演了一出硅谷版的二进宫。
当时奥特曼赢了,笑到了最后。
但现在回头看,他真的赢了吗?
发动政变的Ilya走了。
反对他的董事们被清洗了。
质疑安全问题的Jan Leike走了。
老资格的研究骨干们一个接一个走了。
是的,奥特曼牢牢掌控着OpenAI的权力。
但这个权力,正在变得越来越孤独。
当年一起打天下的元老们,要么因为理念不合离开,要么在权力斗争中被边缘化。
留下来的,有多少是真心追随,又有多少只是在等待股票解锁?
与此同时,OpenAI的竞争对手们却在疯狂壮大:
Anthropic招揽着OpenAI的得力干将,Claude在编程方面把GPT逼得喘不过气;
谷歌的Gemini不断迭代,在多模态领域虎视眈眈;
Meta、xAI、以及一大群开源势力在后面穷追猛打。
奥特曼手里的牌,真的还像以前那么好吗?
2026年,OpenAI还行不行?
这个问题,可能连奥特曼自己也说不准。
但有意思的是,就在老兵们纷纷离去的同时,OpenAI也在迎来一批新鲜血液。
Lexica创始人Sharif Shameem刚刚宣布加入OpenAI!
这位AI图像搜索引擎的开创者认为,现在是一个堪比70年代施乐PARC定义桌面计算的历史性转折点。
他的愿景是实现真正的人机共生——用智能模型增强人类的智力和创造力,而不是简单替代。
一边是老将出走,一边是新人涌入。
一边是这里做不了想做的研究,一边是这里是改变世界的最佳舞台。
这种冰火两重天的景象,或许正是OpenAI当下处境的最真实写照。
看多的人会说:
- GPT系列依然领先
- 微软是坚定的盟友
- 用户规模和商业收入都在增长
- 技术积累和人才储备依然雄厚
看空的人会说:
- 核心人才持续流失
- 安全问题悬而未决
- 商业化透支技术信用
- 竞争对手日益逼近
而我想说的是:
一家科技公司最核心的资产是什么?
不是代码,不是数据,不是GPU集群。
是人。
当那些最聪明的大脑开始用脚投票,当创始团队的元老们一个个转身离去,当做不了想做的研究成为离职的理由——
这本身就是一个危险的信号。
Tworek的离开,可能只是2026年的第一滴雨。
至于后面会不会变成暴风雨,就让时间来回答吧。
唯一可以确定的是:那个理想主义的OpenAI,已经一去不复返了。
留下的,是一个在商业利益和技术理想之间不断撕扯的庞然大物,以及一个不断需要证明自己的Sam Altman。
当初一起仰望星空的人,如今纷纷转身离去。
奥特曼,你还好吗?
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。