新智元报道
编辑:KingHZ
【新智元导读】OpenAI宫变之日,奥特曼突遭解雇,两位关键人物Jakub Pachocki与Szymon Sidor挺身而出、力助奥特曼翻盘!而随着AI能力的不断增强,OpenAI波兰双雄对技术进步与安全问题的双重关注,将引领AI走向更有意义的发展。
OpenAI早期,据说午餐时大家太紧张,以至于不敢说话,现在的氛围轻松许多。
甚至OpenAI早期有个「波兰帮」,比如联合创始人Wojciech Zaremba(下图左),后来在编程竞赛击败ChatGPT的信息学奥赛金牌选手Przemysław Debiak(下图右)。
展开剩余90%还有两位黄金级搭档Jakub Pachocki和Szymon Sidor:
现首席科学家Jakub Pachocki,奥特曼称赞为「我们这一代最杰出的头脑之一」;
OpenAI技术Fellow、前者的高中同学Szymon Sidor。
最近,在《Before AGI》播客节目中,两人一起回忆了OpenAI的峥嵘岁月。
两位还和MIT教授、OpenAI前小组负责人Aleksander Mądry讨论了ChatGPT时代、推理模型、可扩展的安全。
这对OpenAI「双子星」分享了他们的合作模式:
Jakub通常会在办公室或公寓里走来走去,陷入深度思考,探索如何理解某个现象;而Szymon则更倾向于立刻动手,采集数据,试试各种实验。
有时候,解决问题最难的地方,其实「要相信它真的能被解决」。而Szymon拥有一种乐观、果断的气质,他总是愿意动手干、愿意去采集数据。
而这次节目中,最珍贵的是OpenAI「宫变」当日的个人回忆。
OpenAI宫变当日
2023年11月17日中午,OpenAI董事会突然宣布罢免奥特曼的CEO职位。
当时,午饭时间Szymon Sidor突然看到了这个消息,他第一反应是去找Jakub。
Szymon Sidor直接打断了正埋头跟别人讨论研究问题的Jakub。
Jakub马上走出大楼,直接给奥特曼打电话,询问发生了什么?
这个决定太突然了,也没有任何事先解释或预警。
接下来的几天,大家都处于混乱中,试图搞清楚:董事会为什么会做出这种决定?它对我们未来意味着什么?
顺便插入一句,在奥特曼被解雇后,Jakub Pachocki、Szymon Sidor和Aleksander Mądry随即追随奥特曼,一起辞职。
回过头看,这件事最重要的教训是:治理结构真的很重要。
我们花了接近十年时间建设的OpenAI,居然可以因为一次治理决策而差点完全偏离轨道。
如果治理没有提前规划清楚,哪怕你技术再领先,也很脆弱。
虽然在设立机构结构时已经很认真了,但后来证明,OpenAI仍然低估了它真正的重要性。
在公司刚起步时做出的决定,即便当下看起来无关紧要,将来也可能影响深远。
高中已相识
OpenAI再聚首
他们在波兰高中相识,因为热爱编程参加同一所计算机夏令营。
在到美国留学后,两人友情升温,分别求学于哈佛、MIT、CMU;2017年,再于OpenAI 重聚,成为横跨算法、系统、推理研究的最佳搭档。
俩人加入OpenAI的契机都因为AlphaGo的冲击。
从高中起,Jakub Pachocki就非常沉迷于探索「计算机能力的极限」。
加入OpenAI前,他认为要实现具有推理能力的AI,条件并不成熟。
但AlphaGo的成功让他意识到:AI的潜力远超原先的判断,原来我们真的已经进入一个新AI阶段了。
从那一刻起,他就知道:是时候行动了。
早在OpenAI成立前,联合创始人Wojciech Zaremba就试图拉Jakub入坑深度学习。当时OpenAI还有其他熟人,而且面试也很顺利,所以Jakub在8年前下定决心加入OpenAI,顺利入职。
Szymon Sidor则起步于机器人系统,最初的兴趣竟源于电影《钢铁侠》。
他申请过美国一堆大学的机器人项目,最后因为英语考试,只有MIT没有拒绝他。
虽然被录取了,但他对机器人逐渐感到失望,甚至一度想退学。唯一让他坚持下来的是:他开始对深度学习感兴趣,全情投入AI前沿。后来又接触了强化学习(RL)。
AlphaGo更是坚定了他要做AI的决心。
Szymon原本想去DeepMind,但面试时被一堆理论机器学习问题给刷下来了。而OpenAI更「工程务实」,加上朋友们都去,就一门心思奔OpenAI而去。
不过,最初他对「短期就能实现AGI」的时间线完全不信。
ChatGPT并非临时起意
虽然现在的氛围明显更轻松了,但我还是觉得早期那种「笨拙」的感觉有一种特别的魅力。
当时大家说话都很慎重,一句句地在脑子里排练,最后说出来的通常都非常深刻,有时甚至挺有意思的。
在OpenAI, Jakub参与的第一个大项目是Dota 2。他们直接Scaling现有R算法,无脑放大最后竟然奏效了!
他们花了两年,主要是解决工程瓶颈,而不是算法瓶颈。
Szymon则介绍了OpenAI早期的「集体冒名顶替综合征」:
午饭时大家安静如鸡,每个人都在脑子里把要说的话排练十遍,然后才开口。
现在回头看,那种「尴尬」也体现在技术路线:OpenAI东戳一下、西试一下,迟迟找不到聚焦点,直到GPT范式出现。
外界常说关于GPT的诞生,是Alec「偶然」发现。
真相是,Ilya和Alec早就盯上语言模型。
真正的跳跃是2017年的《情感神经元》论文。
当时,还没有没Transformer,但他们发现:只要用大量影评无监督训练,模型就能自发学会「正面/负面」情感概念。
那一刻大家意识到:原来不用语法规则,只靠数据也能捕捉到语义。此后,Alec持续在语言模型上深耕,最终发明了GPT。
Alec Radford:GPT开山论文作者,AI领域最强本科生之一
这个实验颠覆了大家对语言建模的看法:此前大家还停留在「基于语法规则」的思路上。而这个结果表明,模型可以完全靠数据就学出语义。
不过,大部分OpenAI的研究员是在修bug。
OpenAI研究员
每天都在找bug
深度学习独特之处在于:我们既完全掌控代码与架构,却又无法彻底理解网络内部的优化机制。于是哪怕一个小小的实现错误,模型也会「强行学出来」,导致结果看起来还行,实则偏差很大。
像研究自然现象一样,两人设计实验:每一步都得验证「是不是我们以为的那样」。
比如,他们在训练深度强学习算法DQN时,由于将游戏画面转成灰度图,错误地校准了绿色通道的系数,结果游戏中的鱼「消失」了,导致模型性能显著下降。
比如,之前他们发现网络偶尔会莫名其妙地「数值爆炸」。有一天他俩决定死磕,把每一个标量都打印出来,最后发现是某个梯度裁剪阈值在极端batch下失效。
从此之后,OpenAI招了一批「debug狂魔」,专门啃这种幽灵bug。
向推理模型的范式转移
如果说GPT-3展现的是「语言生成能力」,那过去两年,Jakub和Shimon领导团队,正在推动「推理能力」。
他们的目标不是让模型模仿人类的解题步骤,而是教模型学会用它自己的方式来思考。
这是「Chain of Thought」(思维链)范式的本质突破 —— 不再只是预测「人类怎么说」,而是尝试生成「它自己该怎么想」。
虽然推理模型的实用性在提升,但离最终目标还有距离。
预计未来几年进展会更快。
锯齿智能:不断定义的AGI
在过去,「AGI」是理想主义者口中的「智能奇点」。、
2017年,OpenAI对AGI的描述:「一个能完成绝大多数经济价值任务的AI」。
看似是可衡量的技术目标,其实是一种情绪目标。
而现在,他们更倾向于把它视为:
一组不断出现的新能力;
一条从「能聊天」到「能做科研」的技术演进路径。
一组不断出现的新能力;
一条从「能聊天」到「能做科研」的技术演进路径。
Jakub提出,「能自主进行科学研究的系统」是他心中最像AGI的形态,而这种能力将在未来几年内出现。
如果AGI定义为「引发大规模经济转型的AI」,那么它很快就要来了。
AGI 不仅是技术目标,也是一种情绪目标,是一直追逐的星辰大海。
而「自动研究员」正是我们这个推理方向的核心终点。
当然,越接近这个终点,「对齐问题」也就变得越重要。
未来
他们强调,对齐问题(AI Alignment)不仅是「技术问题」,更是「哲学难题」。
随着模型越来越复杂,规则、监督、惩罚这套体系将逐步失效。
他们举了一个现实例子:社交媒体推荐系统。
AI不断优化「用户参与感」,结果可能导致信息茧房、社会撕裂 —— 即便一开始的目标听起来没毛病。
我们如何确保模型真正做的是我们希望它做的事?这是一个巨大的挑战。
而在那之前,其实还有一个更紧迫的问题: 如果一套极具研发能力的系统可以由少数人掌控,它能自己发明新技术……
那它对治理结构和权力平衡的影响,将是空前的。
最意外的是:原本怀疑「AI安全可行性」的Szymon,现在对安全问题最乐观。
我们现在必须同时解决「能力」与「安全」,否则连有用的产品都做不出来。
他们用谨慎与热忱提醒我们:
真正的AI进步,不只是「智能」,而是「让世界更美好」。
参考资料:
https://x.com/aleks_madry/status/1950934417591181430
https://www.youtube.com/watch?v=LauSf7HoxwM
发布于:北京市新玺配资提示:文章来自网络,不代表本站观点。