您想知道的人工智能干货,第一时间送达
“杰弗里·埃弗里斯特·辛顿(Geoffrey Everest Hinton),1947年12月6日出生于英国温布尔登,是一位英国裔加拿大计算机科学家和认知心理学家,被誉为“人工智能教父”。他因在神经网络和深度学习领域的开创性工作,与约翰·霍普菲尔德共同获得了2024年诺贝尔物理学奖。”
01. 人物介绍
那个教会机器做梦的人
在我们生活的这个时代,有一种看不见的智能,正在悄然生长。它在你对手机说“嘿,Siri”时醒来,在你滑动短视频时学习,在你点击“猜你喜欢”时悄悄勾勒你的轮廓。它不知道疲惫,不懂厌倦,像一个不知疲倦的学徒,日夜不停地从数据中汲取规律。今天,当美国佛罗里达州的检察官首次将人工智能纳入刑事调查范畴时,当全球立法者争相讨论如何为这项技术划定边界时,我们才恍然意识到——那个学徒,已经长大了。但你有没有想过——这个学徒,最初是谁教会它学习的?是谁第一个相信,冰冷的硅片和电流,也能拥有类似人类大脑的可塑性?是谁在所有人都摇头说“此路不通”的年代,依然固执地走在一条被称作“神经网络”的荒径上?他叫杰弗里·辛顿。一个来自伦敦的温和老人,一生都在做同一件事:教会机器像人一样思考,然后用余生担忧这件事的后果。这个故事,关于信念、孤独、漫长的等待,以及一个人在亲手点燃一场大火之后,站在火光中呼喊“慢一点”的复杂心绪。2024年10月,当76岁的辛顿接到诺贝尔物理学奖的获奖通知时,他正住在美国加州一家没有互联网、电话信号也很糟糕的廉价酒店里。停顿了很久,他用平静的语调缓缓说道:“我没有想到会得奖……我原本今天要做核磁共振检查,恐怕得取消了。”那一刻,这位被称作“人工智能教父”的老人,依然过着与他的影响力极不相称的朴素生活。
一、伦敦的孩子:一个注定与逻辑为伴的家族
(图片来源:AI生成)1947年的冬天,伦敦温布尔登的一栋房子里,一个男孩出生了。这个男孩的血管里,流淌着一条隐秘的知识河流,绵延了整整两百年。他的高曾祖父叫乔治·布尔——对,就是那个发明布尔代数、用数学为人类逻辑赋形的人。两百年前,那位先祖就已经在思考:真理能不能用符号表达?推理能不能像算术一样演算?今天全球每一次数据交换、每一笔金融交易乃至每一个智能算法的运行,都来自这套理论之上。他的曾祖父查尔斯·辛顿是数学家兼奇幻作家,他提出的“第四维度”概念成为后世科幻作品里平行宇宙、时间旅行的源头。他的祖父是植物学家,父亲霍华德·辛顿是剑桥大学教授、英国皇家学会院士、著名的昆虫学家。甚至世界最高峰珠穆朗玛峰的英文名Mount Everest,也来自这个家族的一位祖先——乔治·埃弗里斯特爵士。这家人后来还出了不少科学家、探险家、作家。辛顿从小就被这样的空气包围着:世界是可以被理解的,谜题是可以被解开的。但在这个星光熠熠的家族里,对辛顿伦理观念影响最为深远的,是他的姑姑——琼·辛顿,中文名寒春。作为曼哈顿计划核心团队中少数的女性核物理学家,寒春亲眼见证了原子弹引爆时的毁灭性力量,也目睹了广岛、长崎的惨状。巨大的精神冲击让她毅然放弃学术荣耀与美国的优渥生活,远赴中国陕北投身奶牛养殖机械化事业,用一生践行“科学应为和平服务”的信念。姑姑这段跨越国界的选择,不仅在辛顿心中埋下了技术伦理的种子,也让他对中国始终抱有特殊的情感联结。2025年7月,78岁的辛顿首次在华公开亮相,在上海世博中心发表了四十分钟的演讲。他六次提及“责任”,三次强调“不可逆的风险”,并深情提到姑姑:“科学的终极意义不在于技术突破本身,而在于对人类的责任,这是我的家族用两百年时间验证的真理。”而辛顿的父亲对他要求近乎严苛,从小就向其灌输“没有博士学位就是失败者”的理念。他曾对年少的辛顿说:“你得非常努力,也许等你到了我两倍年纪时,才能有我一半优秀。”笼罩在家族和父亲的阴影之下,完全可以想象这个男孩的童年压力有多大。但辛顿的父母也给了他一样珍贵的礼物:自由。允许他退学、换专业、走弯路。这种“传承与反叛”的基因,不仅塑造了他的学术路径,更决定了他日后对待技术的核心态度——既执着于底层创新,也坚守伦理底线。他后来常常想起伦敦冬天的雾。那些灰白色的、缓慢流动的雾,像极了后来他一生都在穿越的那片迷雾——所有人都看不清方向,而他选择继续走。
二、迷路的年轻人:在学科之间流浪的大学时光
(图片来源:AI生成)辛顿的大学时代,如果用一个词来形容,就是“流浪”。1967年,他进入剑桥大学国王学院。但入学仅一个月,他便因物理学“每天12小时实验与誊写笔记”而辍学,前往伦敦打零工、看小说打发时间。一年后重返学校时,全息理论关于记忆“分布式存储”的设想让他开始对大脑如何存储和加工信息感兴趣,因而选择了生理学。但他却失望于生理学只讲轴突电生理而不讲大脑工作机制,于是在1969年转向哲学,“想搞明白心灵”。一年的哲学学习,结果“什么也没学到,只得了一身对哲学的抗体”。1970年,他转向心理学,虽然以此专业获得了学士学位,但事后回忆称“老鼠跑迷宫并不能告诉我人是怎么运作的”。四年里体验了五个专业,他后来在接受采访时,戏称自己有“学习上的多动症”。恰恰是这种奇特经历,却让他在进行需要多学科交叉背景的人工智能研究时“歪打正着”。从剑桥毕业后,辛顿没有继续深造,而是成了一名木匠。他一边做书架、木门,一边思考人类大脑的运作原理。他之所以没有直接攻读博士学位,是因为母亲从小就告诫他:“要么当学者,要么当失败者。”——而在辛顿家族,“学者”有着近乎神圣的定义。成为一个“普通学者”,在那样一个家族里,甚至可能是一种失败。在弗洛伊德看来,父亲和家族的权威形象会内化为“超我”(即理想自我),在潜意识中对个体行为施加无形的影响甚至压力。辛顿的流浪和叛逆,一方面是对这种压力的逃避,另一方面也是对权威的无意识反抗——通过双手加工木头,将无法在实验室里实现的探索冲动投射到具体的家具制作之中,重新获得对自我的掌控感。一年多之后,因为木匠谋生不易,对了解大脑也无帮助,他决定回归校园。在一个自我探索的心理成长工作坊,当被要求大声喊出自己真正想要的东西时,辛顿脱口而出:“What I really want is a PhD!”(我真正想要的是一个博士学位!)这一声呐喊,如同冲破心灵禁锢的洪流,使他超越了潜意识的自卑,与父亲和家庭达成了和解。1972年,他进入爱丁堡大学,攻读人工智能博士学位。那一年,他二十五岁。
三、寒冬里的守夜人:在无人问津时相信神经网络
(图片来源:AI生成)20世纪70年代的AI学界,符号主义占据绝对主导地位。当时以马文·明斯基、约翰·麦卡锡为代表的学术权威坚信,智能的核心是“人类预设的逻辑规则”,只需为机器编写详尽程序,明确定义“猫有胡须、会喵喵叫”这类特征,机器就能理解世界。“连接主义”认为,智能诞生于海量模拟神经元的相互连接,无须程序员编写规则,机器可通过“观看”海量数据、从错误中自动调整神经元连接强度,最终“自我领悟”出抽象模式。辛顿坚信,大脑绝对不是通过编好的程序来工作的。孩子们会从生活经验中学习,而不会按照你给他编的程序来做。可在当时的背景下,几乎所有科研经费都涌向“符号主义”项目,“连接主义”则被视为离经叛道的“学术异端”,还被嘲讽为“中世纪的炼金术”。1969年,明斯基与佩珀特出版的《感知机》一书,成为压垮“连接主义”的“最后一根稻草”。书中以严谨的数学证明否定了单层神经网络的计算能力,虽未完全否定多层网络的潜力,却悲观断言其训练在数学上不可行。这一结论直接导致仅有的几家资助机构切断了神经网络研究的资金支持。更让辛顿难以接受的是,他的博士导师克里斯托弗·朗格特-希金斯也“叛变”了——他改变了学术初衷,转投符号主义阵营,认为神经网络是无稽之谈。于是,辛顿和导师每周例行的见面会,有时“会以大喊大叫的争论”开始,然后以辛顿“再给我六个月”结束。“再给我六个月,我会证明这是有效的。”辛顿对希金斯说。然后每六个月之后,他再跟希金斯重复这段话。虽然不喜欢这个执拗的学生,希金斯还是让他拿到了博士学位。在导师和同事眼中,辛顿执着于神经网络,无异于将自己的全部学术生涯押在一个注定失败的方向上。这种强烈的孤独感以及随之而来的敌意,从20世纪70年代一直持续了近40年。1980年代中期,在麻省理工学院举行的一次小型聚会上,辛顿向明斯基等人展示他的神经网络模型“玻尔兹曼机”时,场面一度凝重而紧张。但辛顿说:“如果你坚信某个主意非常好,而他人却认为那完全是胡扯,那恰恰说明这个想法很可能切中了要害。”这种笃定来自他的信仰:“我们不过是一台精妙而复杂的机器——一个巨大的神经网络,没有理由认为人工神经网络做不到我们能做的一切。”所以,“让人工智能真正奏效的唯一途径,是让计算方式尽量像人脑。”在20世纪70年代符号主义AI的铁幕之下,对神经网络的信仰几乎与所有理性的指标——研究经费、导师支持、学界认可——统统背道而驰。在众人眼里,辛顿无疑是个没有理性的“疯子”,因为将自己的学术生涯与神经网络绑定,必将面临“绝望深渊”——目标虽在彼岸,却无路可达。他在多伦多大学的办公室里,像一个守夜人,在漫长的寒夜里守护着一团微弱但从未熄灭的火。他不知道春天什么时候会来,但他确信一件事:春天一定会来。
四、反向传播:教会机器从错误中学习
(图片来源:AI生成)那一年,辛顿与大卫·鲁梅尔哈特、罗纳德·威廉姆斯共同发表了一篇论文,将一种叫做“反向传播”的算法推向了世界。让机器犯错,告诉它错在哪里,然后让它一点点调整自己。就像教一个孩子认猫。你指着沙发上的橘猫说“猫”,孩子记住了。第二天他看到一条金毛犬,也兴奋地喊“猫”。你说不对,这是狗,他愣了一下。第三天,他看到邻居家的狸花猫,犹豫了一下,小声说“……猫?”你笑着点头。每一次错误,都在他大脑的某个角落悄悄修正着什么。神经元的连接在调整,权重在改变。他没有意识到自己在学习,但他在学习。它让一个神经网络在犯错之后,能够反向推算出“是谁的责任”——是这个神经元信号太强了?还是那个连接权重太大了?然后逐一修正,就像一名老师在一张试卷上圈出错题,然后让这个学生一道道订正。同一时期,辛顿还与戴维·阿克利等人共同发明了玻尔兹曼机。玻尔兹曼机的独特之处在于它能自主学习数据中的特征,而无需人为指定这些特征。这一点类似婴儿学习识别猫和狗的过程,只需看到足够多的猫狗就能自己总结出区别。“简而言之,这一方法使得传统固化的人工神经网络可以从数据中学习,也就是当前‘深度学习’的内涵。”复旦大学类脑科学与智能研究院院长冯建峰教授解释道。今天,无论你是用手机解锁人脸识别,还是问ChatGPT“写一首关于月亮的诗”,无论你是打开淘宝看到“猜你喜欢”,还是对Siri说“提醒我明天买牛奶”——所有这些智能的背后,都有一个经过反向传播训练过的神经网络。而那个让反向传播成为可能的人,此刻正坐在多伦多寒冷的办公室里,对着屏幕,一言不发。他不知道,此刻地球上已经有数以亿计的神经网络,正在用他发明的方法学习。
五、信仰之跃:在寒夜里等待春天的三十年
从1986年反向传播的提出,到2012年深度学习的爆发,中间隔了整整二十六年。在这二十六年里,神经网络依然是学术界的边缘角色。由于计算机算力不足、标准数据集极度匮乏,一个简单的神经网络训练往往需要数周时间,实际效果甚至不如传统统计模型。主流的人工智能研究走了另一条路——支持向量机、随机森林、隐马尔可夫模型……更让辛顿难以接受的是,部分资助方希望将他的研究用于军事应用,这与其家族传承的和平主义传统严重相悖。1987年,辛顿做出了一项关键抉择:放弃卡耐基梅隆大学的终身教职,前往加拿大多伦多大学。因为,加拿大高等研究院(CIFAR)为他提供了一项“长期、高风险、非功利性”的资助,使得他能更为专注地完成自己的研究。另一个重要原因是:他对里根政府不满,也反对将AI用于军事目的。当时美国大部分AI研究由国防部资助,而辛顿拒绝接受这种资金来源。在多伦多,辛顿聚集了杨立昆、约书亚·本吉奥等一批志同道合的学者,形成了日后被戏称为“深度学习黑手党”的核心圈子。在那个主流学术会议纷纷拒绝神经网络论文的艰难岁月里,这个小圈子通过相互审稿、共享代码、彼此鼓励,在加拿大的庇护下小心翼翼地维系着深度学习的微弱火种。辛顿的学生们后来回忆:那些年,实验室里永远没有足够的经费,永远只有少数几个学生愿意跟着他做“神经网络”这种过时的东西。论文投出去,审稿人会说“这个方法已经证明失败了”。同行们用看民科的眼神看他们。辛顿没有放弃。他只是沉默地做着自己的实验,写着自己的论文,指导着自己的学生。他曾经说过一句话,后来被反复引用:“每个人都可能是错的,你需要坚持自己的主张,直到实现它或者否定它,科学就需要这样的精神。”这句话听起来很潇洒,但只有真正经历过漫长冷遇的人,才知道要做到这一点有多难。每一次被拒绝,都是一次对自己的考验。每一次被否定,都是一次对信念的磨砺。在剑桥读书的时候,辛顿对所教授的内容不以为然,认为没人真正理解大脑的运作,于是他充满挑战意味地宣告:“理解大脑的唯一办法,就是亲手造一个出来。”于是,天地惊、鬼神泣,通用人工智能由此诞生——这句话,是他用四十年写就的。
六、生活的重压:不只是学术的寒冬
他曾向《多伦多生活》杂志透露,自己一生都在与抑郁症作斗争,工作是他释放压力的方式。但辛顿很少能完全沉浸在工作中逃避现实。20世纪90年代初,他的第一任妻子因癌症去世,当时他们刚收养了两个孩子不久。辛顿一下子成了单亲父亲。“我无法想象一个带着孩子的女人怎么能拥有学术生涯,”他告诉《多伦多生活》,“我习惯了把时间都花在思考想法上……但有了小孩子,这根本不可能。”那段时间,他一边抚育两个年幼的孩子,一边坚持着被主流学界冷落的研究。没有人知道他是怎么熬过来的。与此同时,他的身体也在给他制造麻烦。十几岁时,辛顿在帮母亲搬取暖器时伤到了脊椎。50岁以后,只要久坐超过1个小时,就可能造成腰椎间盘滑脱,导致几周卧床不起。从此以后,辛顿再也不敢坐下——他在办公室里站着办公,吃饭时会跪在桌子旁的泡沫垫子上。2012年12月,在赶往那场改变命运的拍卖会时,瘦骨嶙峋的辛顿艰难地躺在出租车后座上。那个画面,像一个受难者前往他的应许之地。但他挺过来了。用他的话说:“再给我六个月。”——这句话他对导师说了五年,对世界说了四十年。
七、AlexNet:那一声震惊世界的惊雷
(图片来源:AI生成)那一年,辛顿和他的两个学生——亚历克斯·克里泽夫斯基和伊利亚·苏茨克维——带着一个叫做AlexNet的深度卷积神经网络,参加了ImageNet大规模视觉识别挑战赛。这个比赛的任务是:给计算机一张图片,让它判断图片里是什么——是猫,是狗,是船,还是蘑菇?听起来很简单,但对当时的计算机来说,这是地狱级别的难题。前一年的冠军,错误率是25.8%。也就是说,每四张图片里,就有一张认错。辛顿团队的AlexNet,以84.7%的准确率一举夺冠,比前一届的准确率提高了15%,而此前每届只能提高1到2个百分点。更夸张的是,他们只用了4颗英伟达的GPU(图形处理器),而第二名谷歌用了16000颗CPU(中央处理器)。这个数字像一声惊雷,在学术界的天空中炸响。所有人都在问同一个问题:怎么可能?神经网络这条路,居然真的走得通?这场胜利绝非偶然,其核心源于辛顿团队在三个层面的关键突破:数据层面,团队敏锐地借力于ImageNet项目提供的数百万张标注图片,成功破解了神经网络的“数据饥饿”难题。算力层面,他们完成了一项关键的技术适配:创造性地将原本为游戏设计的GPU改造为神经网络训练的核心引擎,利用GPU的并行计算优势,一举解决了传统CPU训练效率低下的瓶颈。算法层面,团队通过改进ReLU激活函数并创新性地提出Dropout技术,直接攻克了深层网络训练中长期存在的梯度消失与过拟合两大核心难题。正是这一系列突破,为深度学习的规模化应用铺平了道路,并瞬间点燃了全球工业界的热情。百度、谷歌、微软等科技巨头争相抛出橄榄枝,一场围绕AI核心人才的争夺战就此拉开序幕。两个月后,他们在世界计算机视觉大会上介绍算法细节,马上收到很多大公司的报价。师徒三人临时注册了一家名叫DNNresearch的公司,开了一场特殊的拍卖会。竞拍从上午持续到午夜。百度出价一度高达4400万美元,但辛顿最终选择了谷歌——不是因为对方给出更高价格,而是因为谷歌承诺支持他继续深耕基础研究,且其伦理理念与他“科学服务人类”的追求高度契合。最后这4400万美元是怎么分配的呢?“辛顿提出,公司股份大家平分吧!第二天,两个学生一起来找他说,您必须40%,我俩每人30%。”辛顿没有欢呼,他只是安静地站在多伦多的冬天里,看着那团燃烧了三十年的火,终于被所有人看见。命运有时候就是这样——它让你等很久很久,然后在一瞬间,把你曾经失去的所有时间都还给你。
八、黄金时代:从图灵奖到诺贝尔奖
(图片来源:AI生成)谷歌以4400万美元收购了辛顿的公司,让他成为Google Brain的副总裁。微软来了,百度来了,全世界的科技巨头像闻到花蜜的蜜蜂一样,涌向深度学习。伊利亚·苏茨克维后来成为OpenAI的联合创始人兼首席科学家,是ChatGPT背后技术路线的核心推动者,他曾在辛顿团队工作多年,并形容那段经历对他的职业生涯“至关重要”。杨立昆在Meta领导AI研究,在卷积神经网络方面做出奠基性贡献,鲁斯兰·萨拉赫丁诺夫去了苹果。他们像辛顿种下的种子,散落在世界的各个角落,长成一棵棵参天大树。甚至连英伟达的崛起,也深深植根于辛顿团队的关键洞见。正是看到辛顿团队最早论证并实践了GPU在AI训练中的核心价值,让黄仁勋坚定地确信“显卡是AI的燃料”。2018年,辛顿与约书亚·本吉奥、杨立昆共同获得了图灵奖——这是计算机界的最高荣誉,常被称为“计算领域的诺贝尔奖”。颁奖词这样写:“因利用物理学工具训练人工智能神经网络而做出的奠基性发现与发明。”一个计算机科学家,获得了物理学奖。这件事让很多人意外,但在辛顿看来并不奇怪——因为他从一开始就相信,智慧的本质不依赖于任何特定的物质载体。无论是碳基的神经元,还是硅基的电路,只要结构对了,学习就可能发生。
九、警示者:当教父开始后悔
(图片来源:AI生成)2023年5月,辛顿从谷歌辞职,理由出乎所有人的意料:“我想自由地谈论人工智能的风险,而不必考虑这对谷歌的影响。”不再是那个温和的、沉默的、只关心算法的学者。他变成了一个警示者,一个敲钟人,一个在人群中说“你们可能走得太快了”的老人。2026年4月21日,在日内瓦举行的数字世界大会上,辛顿通过视频连线向全世界发出了强烈警告。他说,人类与超级智能人工智能的共存前景不明,迫切需要加强全球监管框架和道德保障措施。他用了一个绝妙的比喻来形容当下的困境:那些反对监管的人说“不受监管的AI就像油门,监管就像刹车”。“他们想要一辆没有方向盘的超级快车。”辛顿说。他警告AI将对就业市场产生巨大冲击。在呼叫中心等行业,AI已经可以像人类一样完成工作,很快将做得更好。“如果有了超级智能AI,任何智力工作它都能做,”他说,“即使创造了新的工作岗位,AI也会是更便宜的方式来从事它们。”他坦言,自己目前没有答案,也未见到任何人给出令人信服的解决方案。他还给出了具体的时间预判:2026年,AI将在呼叫中心大规模替代人类客服;数年之内,便可能具备独立运行、持续数月的软件工程项目能力。他甚至给出了一个令人不寒而栗的数字:在实现超级智能之后,AI导致人类灭绝的概率可能达到10%至20%。在诺贝尔奖的获奖感言中,他说了这样一句话:“在同样的情况下,我会再做一次。但我担心,这一切的最终后果可能是出现比我们更智能的系统,并最终控制一切。”当记者问他“你后悔吗”的时候,他沉默了很久,然后说:“一部分的我,是的,后悔。”就像一个人教会了火如何燃烧,然后看着火焰舔舐整片森林。就像一个父亲造了一个孩子,然后发现这个孩子比自己强大得多,而且不一定听自己的话。辛顿不是一个悲观的人,他只是一个诚实的人。他把一件事从头想到尾,然后把他想到的结果说出来——不管这个结果是不是让人舒服。他将AI的风险分为三类:第一类是“坏人”滥用AI做坏事,比如网络犯罪、操纵选举或发射自主武器;第二类是造成大规模失业,大公司没有思考当他们用AI取代大多数工人时会发生什么;第三类是AI本身失控,因为它是一种更优越的智能形式。对于如何应对这些风险,辛顿提出了一个出人意料的构想:应为AI设计类似“母性本能”的机制,使其对人类产生同情而非控制欲。他以母婴关系作类比:目前唯一一个更聪明的存在被较弱者影响的例子,是婴儿对母亲的影响。“因此,这或许是我们面对超级智能AI时可以参考的模型——它们像母亲,而我们像婴儿。”他同时也尖锐地指出,科技公司眼中只有短期利润,并不关心AI的长期影响。“对公司所有者来说,驱动研究的是短期利润。研究人员关注的也是眼前的问题,而不是研究最终会带来什么结果。”最令人警醒的是他对资源分配的看法:99%的企业投资用于让AI模型变得更聪明,只有1%用于安全研究。“这太疯狂了。”他说。越来越多的人把辛顿比作奥本海默。同样是亲手打开潘多拉魔盒,释放出有能力毁灭人类的新物种——80年前是核武器,80年后是人工智能——同样对此深感恐惧和后悔。但辛顿本人并不完全认同这个比喻。他告诉多伦多大学的新闻网站:“人们认为我完全是悲观和沮丧的,但我不是。未来极其不确定,我们正进入一个不知道会发生什么的时代,我们应该保持谨慎。”
十、桃李满天下:那些他种下的种子
如果你想了解现代深度学习的来龙去脉,你只需要画出辛顿的学术家谱就够了。他的学生伊利亚·苏茨克维,后来与萨姆·奥尔特曼等人共同创立了OpenAI,并主导了GPT系列模型的研发。今天你使用的ChatGPT,追根溯源,和辛顿有着千丝万缕的联系。耐人寻味的是,苏茨克维和辛顿一样,后来也成为了AI风险的警示者。他因对产品安全的担忧而被OpenAI驱逐,那正是辛顿离开谷歌一年之后的事。师徒二人在同一条道路上分道扬镳,又在同一条道路上重逢——先是共同创造,然后共同担忧。他的学生杨立昆,在贝尔实验室期间提出了卷积神经网络,是计算机视觉领域的奠基人之一。你现在手机里的人脸识别,底层就有他的贡献。不过,杨立昆与辛顿在AI风险问题上存在分歧。2026年4月,杨立昆公开回应辛顿关于AI取代人类工作的警告,措辞直接:“我敬重Geoff(辛顿),但在技术革命对劳动力市场的影响这个问题上,他甚至不如某些AI公司的CEO了解得多。”他认为,劳动经济学的问题,应当交给研究劳动经济学的学者来回答。他的学生亚历克斯·克里泽夫斯基,是AlexNet的另外一半大脑。没有他亲手写下的CUDA代码,那个震惊世界的模型可能不会跑得那么快。还有他的学生的学生,他的学生的学生的学生……这棵家族树的分支,已经延伸到全球每一家顶级科技公司和每一所顶尖高校。辛顿不是一个人在战斗。他是一座灯塔,照亮了一条路,然后无数人沿着这条路走了下去。他对此感到骄傲,也因此更加担忧——因为正是因为他太成功了,这项技术才会发展得如此之快,以至于快到连他都有点跟不上了。
十一、今日的辛顿:一个仍在战斗的老人
但他的眼睛还是年轻的。那双眼睛,曾经在所有人都说“此路不通”的时候,看见了一条路。那双眼睛,曾经在漫长的冬夜里,守着一团微弱的火。那双眼睛,现在望着远方,带着一半骄傲、一半心疼。2026年1月,美国Good Ventures基金会向多伦多大学捐赠70万美元,支持辛顿在全球范围内推进AI安全工作。辛顿将作为AI安全领域的高知名度全球大使,有选择地参与最具价值和最重要的全球活动与对话。他的日程排得满满当当:2025年7月在上海世博中心的演讲,2025年11月与美国参议员伯尼·桑德斯在乔治城大学同台讨论AI对就业和不平等的影响,2026年4月在日内瓦数字世界大会上的视频发言。他对未来的判断既清晰又模糊:“我不知道AI何时会比我们更聪明,但这很可能在接下来几十年内发生,而世界还没有准备好。”他说,未来的AI系统将“比我们强数十亿倍地共享信息——不是两倍,而是数十亿倍,而对付一个失控的超级智能的唯一办法,就是另一个超级智能。”他说,我们需要认真思考如何在创造AI的同时,“让我们能够继续存在,并与之和谐共处。”他说这些的时候,语气平静,没有煽动,没有恐惧。就像一个老人在讲述他早就看透的事情。
尾声:做一个好梦
(图片来源:AI生成)他亲手点燃了一场火,这场火照亮了世界,也温暖了世界。但火不会永远听话,火有自己的意志。没有人知道这句话会不会被听见。但辛顿还是会说,因为这就是他的角色——不是那个站在终点享受掌声的人,而是那个站在起点和终点之间、看着一切发生、并试图让一切不要失控的人。他曾经用一句话总结自己的一生:“我花了一生时间让AI变得智能,现在我需要花余生让人们意识到它的危险。”这句话里有骄傲,也有歉意;有成就,也有遗憾;有父亲般的慈爱,也有先知般的忧虑。而这一切的源头,可以追溯到一个伦敦的冬天,一个男孩的出生,一个家族的信念,和一个人长达半个世纪的坚持。
02. 我的思考与感受
读完辛顿的故事,我久久无法从一个画面中抽离:那位76岁的老人,在接到诺贝尔奖电话时,正住在一家没有网络的廉价酒店里,还惦记着自己取消的核磁共振。这个画面几乎是他一生的隐喻——一个生活在云端之下、泥土之上的人。他手中握着能够重塑世界的火种,脚下踩着的却是最朴素、最真实的人间日常。他没有住在聚光灯里,而是住在问题里。我被他身上那种“温柔的固执”深深打动。在长达近四十年的学术寒冬里,周围全是“此路不通”的判决,他没有嘶吼着反驳,也没有转身离开。他只是沉默地、日复一日地,在所有人都认为没有路的地方,用自己的脚步踩出一条路来。这种力量不是来自愤怒,而是来自确信。一个人要多么相信自己所做的事,才能在漫长的无人问津中,不绝望,不枯萎?更让我动容的是他后来的转变。从一个创造者,变成了一个警示者。这让我想起辛顿的姑姑寒春——那位曾经参与曼哈顿计划的核物理学家,在目睹了原子弹的毁灭性力量后,选择远走他乡,用余生去养牛,去治愈而不是摧毁。命运似乎在两代人之间画下了一道隐秘的弧线。姑姑从核武器的噩梦中醒来,选择远离;而辛顿从人工智能的梦想中醒来,选择留下——不是为了继续追逐辉煌,而是为了站在火光之中,用自己沙哑的声音告诉世界:慢一点,拜托了,慢一点。这让我开始重新理解“责任”这个词。我们通常以为,责任是创造者对创造物的保护。但辛顿教会我,有时责任恰恰是——在你亲手点燃一场大火之后,愿意站在离火最近的地方,承受它的灼热,然后大声说出你看到的一切,哪怕这意味着承认自己可能做错了。他并没有逃跑,也没有沉默。他选择成为那个“扫兴的人”,在全世界都为新技术狂欢的时候,一遍又一遍地提醒那些被忽略的风险,这需要比创造更大的勇气。我忽然意识到,辛顿最伟大的创造,或许不是反向传播,也不是AlexNet。而是他最后留给这个世界的姿态——一个创造了新事物的人,没有被自己的创造物异化,依然保持着对真理的忠诚,以及对人类命运的关切。他教会了机器做梦,然后,他站在梦的边缘,轻轻说了一句:做一个好梦。03. 本期提问
如果有一天,人工智能真的拥有了接近人类甚至超越人类的情感与意识,你觉得它最应该从辛顿身上学到的东西是什么?文章精选:
1.强化学习之父、图灵奖得主 Sutton 隔空回应 图灵奖得主Hinton:目前的 AI “理解不足,调参有余”
2.警钟敲响!图灵奖得主Hinton 最新万字演讲:怒怼乔姆斯基、定义“不朽计算”、揭示人类唯一生路3.警钟敲响!图灵奖得主Hinton 最新万字演讲:怒怼乔姆斯基、定义“不朽计算”、揭示人类唯一生路4.图灵奖和诺贝尔奖双料得主杰弗里·辛顿:《AI和我们的未来》完整演讲视频+文字5.图灵奖和诺奖双料得主辛顿最新演讲:别嘲笑AI“幻觉”,你的记忆本质也是一场“虚构”6.图灵奖得主理查德·萨顿(Richard Sutton)最新演讲:大模型只是一时狂热,AI的真正时代还没开始7.图灵奖得主Bengio预言o1无法抵达AGI!Nature权威解读AI智能惊人进化,终极边界就在眼前8.图灵奖得主、强化学习之父Rich Sutton:大语言模型是一个错误的起点9.图灵奖得主杨立昆:大语言模型缺乏对物理世界的理解和推理能力,无法实现人类水平智能10.刚刚,Claude独立攻克图论猜想,仅用31步!算法祖师爷、图灵奖得主高德纳震惊发文