如何跨越AI引发的智能危机?|《WAIC UP!》辑趣
发布时间:2026-04-07来源:世界人工智能大会
温州市委党校副校长
温州市人工智能学院副院长
中国社会科学院人工智能研究促进中心特约专家
《自主论:何为自主以及何以自主》的作者和践行者,法国海归硕士,一个集智库工作者、终身学习者、公益志愿者、TED策展人和演讲人、AI音乐创作者和推广者于一身的跨界实践者。他发起的“高温青年”是中国最活跃的公共外交志愿者组织之一,他还是2024和2025年AI春晚的主创之一。
全文共6,326字,预计阅读时间25分钟
在人类历史上,每一次重大技术革命都会改变社会运行方式,也会在更深层次上重塑人类认知结构。如果说工业革命主要改变了人类的体力结构,使机器成为人类体力的延伸,那么正在迅速发展的人工智能技术,则正在改变人类的认知结构,使算法逐渐成为人类认知能力的重要外部支撑。从这一意义上看,人工智能革命不仅是一场技术革命,也可能是一场深刻的认知革命,甚至可能引发新的文明风险。本文将这种潜在风险称为“第二次智能危机”。之所以称为“第二次”,是因为在人类认知演化史上,类似的危机并非首次出现。诺贝尔奖得主、心理学家丹尼尔·卡尼曼(Daniel Kahneman)在研究人类决策机制时提出,人类认知系统大体可以划分为两种模式:系统1(System 1)和系统2(System 2)。系统1是一种快速、自动、依赖经验的思维方式,它通过模式识别帮助人类迅速做出判断;系统2则是一种缓慢、理性、具有反思能力的思维方式,能够进行推理、怀疑与自我修正。在人类进化早期,系统1极大提高了生存效率,使人类能够在复杂环境中迅速识别危险、积累经验并形成合作机制。然而,系统1高度依赖既有经验,这也意味着它容易形成路径依赖。当环境发生变化时,过去有效的经验未必能够解决新的问题,从而产生认知上的局限性。在这一背景下,人类逐渐发展出系统2。系统2通过反思与推理对系统1进行修补和升级,使人类能够在经验失效时重新构建问题并寻找新的解决方案。正是这种从经验到反思的跃迁,使人类跨越了条件反射和路径依赖的动物阶段,进入到以自我意识与自由意志为特征的文明阶段。从这一角度看,人类历史上实际上已经经历过一次智能危机,而系统2的形成正是人类跨越危机、实现跃迁的重要机制。人工智能的发展,则使人类认知结构再次发生重要变化。在传统认知框架中,人类主要依赖系统1与系统2完成认知活动,而人工智能技术的出现,使人类开始广泛依赖一种新的认知工具,即由算法、算力与数据构成的外部智能系统。本文将这一新型认知结构称为系统0(System 0)。系统0并不是人类大脑内部的认知机制,而是一种外部化的认知系统,它不仅包括人工智能模型本身,也包括由人工智能塑造的外部环境。借助系统0,人类可以更高效地处理复杂信息,例如预测复杂系统变化、生成解决方案、提供默认选项以及优化决策路径。随着人工智能能力不断提升,在许多领域中系统0已经表现出超越人类经验系统的能力。在这种情况下,人类认知结构可能逐渐演变为一种新的层级关系:系统0(外部智能)、系统1(经验与技能)、系统2(注意与反思)。这一变化带来的潜在风险在于,当系统0能够高效完成大量认知任务时,人类可能越来越依赖这一外部系统,从而逐渐弱化自身的系统1能力,并减少系统2的介入。如果这一趋势持续发展,人类可能习惯于直接接受系统0提供的默认答案,而不再主动进行反思与选择。由此可见,人工智能时代的核心问题并不只是技术能力问题,而更可能是一种自主性问题。从这一意义上说,第二次智能危机本质上是一场关于人类自主性的危机。从更宏观的思想传统来看,这一问题也与马克思主义技术观密切相关。马克思在分析机器大工业时曾指出,技术本身既可能成为解放人的力量,也可能在一定条件下反过来支配人、剥削人。马克思主义始终强调,技术进步必须服务于人的全面发展,而不是使人沦为技术体系的附属。在现代社会中,技术不仅是一种生产工具,也是一种社会结构力量。人工智能作为一种高度复杂的技术体系,如果缺乏相应的制度与价值引导,确实可能在一定程度上弱化人的主体地位;但如果能够在制度和技术架构层面进行合理设计,它同样可能成为促进人类能力扩展和文明跃迁的重要力量。因此,如何在技术发展过程中维护人的主体性与自主性,实际上是人工智能时代必须面对的重要理论与实践问题。理解这一问题,还需要从安全与自由的张力出发进行分析。从进化角度看,人类天然具有安全优先的倾向。在面对不确定环境时,多数个体倾向于通过放弃部分自由来换取稳定与安全。系统1通常偏好安全,因为经验能够提供稳定性,而系统2则更倾向于追求自由与创新,因为反思意味着打破既有路径。在人工智能时代,系统0提供了前所未有的效率与便利。当面对复杂环境和认知压力时,一部分人可能选择将决策权交给系统0,以减少自主决策的成本。然而,如果系统2长期缺席,人类将逐渐丧失对技术系统进行反思与修正的能力,丧失自主性。此时,人类不再决定问题的方向,而只是执行既有答案。这正是第二次智能危机最值得警惕之处。如果第二次智能危机的核心是自主性问题,那么跨越这一危机的关键,就在于重新构建系统0、系统1与系统2之间的关系。首先,需要强化系统2。系统2代表人类的反思能力与自由意志。在复杂环境中,人类必须保持提出问题、重新定义问题以及承担选择后果的能力。只有在这种情况下,人类才能在技术系统面前保持主体性。其次,需要巩固系统1。经验与技能仍然是人类认知能力的重要基础。即使在人工智能广泛应用的时代,扎实的知识结构与专业能力依然是人与技术协作的前提。只有具备一定的专业判断能力,人类才能对人工智能提供的结果进行有效评估。再次,需要优化系统0。人工智能系统的设计,应当以促进人类认知能力为目标,而不是简单替代人类思考。例如,在信息交互中,人工智能可以通过提供多种方案、引导式提示等方式帮助用户进行判断,而不是只给出唯一答案。在技术治理层面,也需要探索类似“人工智能宪章”或价值对齐机制,以确保人工智能系统的发展始终服务于人类社会的长期利益。总体而言,人工智能既不会自动带来乌托邦,也不必然导致灾难。关键在于,人类能否在技术发展过程中保持反思能力,并主动参与制度与技术结构的设计。如果人类能够守住自主性这一核心原则,并在此基础上重新构建认知系统与技术系统之间的关系,那么人工智能不仅不会削弱人类文明,反而可能成为推动文明跃迁的重要力量。跨越第二次智能危机,并非不可能,但留给人类进行制度与技术重构的时间,或许并不充裕。人工智能时代的文明分岔:
三类主体、四个阶段与三种未来
人工智能技术正在深刻改变人类社会的运行方式。从蒸汽机到电力系统,再到互联网技术,人类历史上的每一次重大技术革命都不仅改变生产方式,也会在更深层次上影响社会结构与思想观念。人工智能革命亦不例外。当算法系统逐渐成为人类认知活动的重要基础设施时,人类社会不仅面临技术层面的转型,也正在进入一种新的文明演化阶段。在这一过程中,不同社会主体对技术变革的反应并不相同,这种差异化反应将对未来文明形态产生深远影响。
从社会心理结构的角度观察,人类面对重大技术变革时通常会呈现出不同的主体类型。大体而言,可以将其概括为三种类型:依赖型主体、反思型主体与建构型主体。依赖型主体倾向于信任并依赖技术系统完成认知和决策任务。在人工智能时代,这类主体往往直接接受算法推荐与系统安排,从而减少自身的认知负担。反思型主体则对技术系统保持一定距离,对技术进步可能带来的社会后果保持警惕,并尝试在技术体系之外寻找新的生活方式。建构型主体则既不完全依赖技术,也不完全拒绝技术,而是试图通过制度设计和技术架构的创新,重新定义技术与社会之间的关系。历史经验表明,这三类主体在任何时代都同时存在,但数量比例并不相同。多数人通常属于依赖型主体,而能够主动参与制度建构与技术设计的主体则相对较少。然而,在文明演化的关键时刻,往往正是少数建构型主体的思想与行动,推动社会结构发生深刻变化。从技术革命的历史经验来看,社会对新技术的态度通常会经历若干阶段性的变化。工业革命时期曾出现类似的社会心理转变:在技术初期,人们普遍保持怀疑与观望;随着技术能力不断提升,社会逐渐进入乐观阶段,普遍相信技术能够解决大部分问题;当技术发展对社会结构产生冲击时,一部分人开始反思技术理性与现代文明;最终,在反思基础上,一些社会力量尝试通过制度创新与社会治理重构技术秩序。人工智能时代也可能经历类似的演化,包括四个阶段。第一阶段可以称为怀疑阶段。在这一阶段,技术能力尚未完全显现,社会整体对新技术保持观望态度。少数技术先锋开始尝试新的工具,而批评者则不断提出质疑,多数人则保持距离。第二阶段可以称为乐观阶段。随着技术能力迅速提升,社会逐渐形成对技术进步的高度期待。企业、机构和个人纷纷拥抱技术创新,技术被普遍视为推动效率提升和社会发展的重要力量。第三阶段可以称为反思阶段。当技术开始深刻影响就业结构、社会组织以及文化价值时,一部分人开始重新审视技术文明的影响。在这一阶段,社会内部的讨论与争论明显增加,技术发展开始受到伦理、制度与社会价值的约束。第四阶段可以称为建构阶段。在反思基础上,一部分社会力量开始尝试重新设计制度与技术架构,通过新的治理规则与技术结构,使技术发展能够更好地服务于人类社会的长期利益。如果将这一演化过程与人工智能技术的发展趋势相结合,可以发现人类社会正在逐渐接近这一结构中的关键转折点。人工智能系统正在成为一种新的基础设施,其影响范围不仅涉及经济效率,也涉及社会结构与认知方式。当技术能力持续提升并逐渐接近通用智能水平时,人类文明可能面临新的分岔。从理论上看,未来文明形态大致可能呈现三种不同方向。第一种可能是人机协同文明。在这一模式下,人类与人工智能形成新的认知分工。人工智能系统主要承担计算、预测与复杂信息处理任务,而人类则继续承担价值判断、目标设定与制度设计的角色。在这种结构中,人工智能成为人类认知能力的重要延伸,但并不取代人类主体地位。这种模式能够在效率与自主之间形成新的平衡,被许多人视为人工智能时代较为理想的发展方向。第二种可能是技术依附文明。在这种情况下,人类逐渐放弃部分自主决策能力,以换取更高效率与更稳定的社会秩序。技术系统承担越来越多的决策职能,而人类则主要执行系统安排的任务。从短期来看,这种模式可能带来高度稳定与安全,但长期来看,人类可能逐渐失去主动创造与自主选择能力,文明活力随之下降。第三种可能是技术冲突文明。如果技术发展速度远快于制度与伦理结构的调整,而人类社会又无法形成有效的治理机制,技术系统与社会结构之间可能产生持续张力。在这种情况下,不同国家、不同组织乃至不同社会群体之间可能围绕技术控制权产生竞争与冲突,从而使技术成为新的地缘政治与社会矛盾来源。从文明演化角度看,未来走向并不是预先确定的,而是在不同社会力量互动中逐渐形成。技术发展为社会提供新的可能性,但文明方向最终仍取决于人类自身的制度选择与价值判断。因此,人工智能时代真正重要的问题,并不仅仅是技术能否继续进步,而是人类能否在技术变革过程中保持反思能力,并主动参与制度与技术结构的设计。只有在这种情况下,技术革命才可能成为推动文明进步的力量,而不是削弱人类主体性的工具。人工智能时代的文明分岔,或许已经开始显现。人类社会如何回应这一变化,将在很大程度上决定未来文明的形态。人工智能技术正在深刻改变人类社会的运行方式。从历史经验来看,每一次重大技术革命不仅会带来生产力的跃升,也会推动社会结构和文明形态发生深刻变化。蒸汽机推动了工业文明的形成,电力与通信技术重塑了现代社会结构,而数字技术则在过去几十年中重构了信息传播与经济组织方式。人工智能的出现,使技术系统开始进入人类认知领域,算法逐渐成为重要的社会基础设施。在这一背景下,技术问题不再只是效率问题,而逐渐演变为文明秩序问题。如何在人工智能快速发展的条件下维护人的主体地位,已经成为当代社会必须回答的重要课题。
从技术史的角度看,技术既是推动社会进步的重要力量,也可能在特定条件下对社会结构产生深刻影响。马克思在分析机器大工业时曾指出,机器不仅是一种生产工具,同时也可能改变劳动关系与社会结构。后来的技术哲学与社会理论也不断强调,技术系统往往具有结构性力量,它不仅改变生产方式,还会影响社会制度与人的行为方式。人工智能作为一种高度复杂的技术体系,其影响已经超越单一产业或技术领域,逐渐成为一种新的认知基础设施。当算法系统开始参与信息筛选、知识生产以及决策支持时,人类社会的认知结构也随之发生变化。在人工智能时代,人类认知结构可以理解为一种新的层级关系。传统上,人类主要依赖经验系统与反思系统进行认知活动。经验系统通过长期实践形成稳定的判断模式,而反思系统则在经验失效时介入,对问题进行重新定义并寻找新的解决方案。随着人工智能技术的发展,一种新的认知层逐渐形成,即由算法系统构成的外部智能系统。这种系统不仅能够处理复杂信息,还能够提供预测结果和决策建议,从而在一定程度上承担原本属于人类经验系统的部分功能。在这一结构中,人工智能成为一种外部认知层,与人类自身的经验系统和反思系统共同构成新的认知体系。这种认知结构变化,使技术治理问题变得尤为重要。如果人工智能系统逐渐承担越来越多的认知任务,而人类社会又缺乏相应的制度设计,那么技术系统可能在不知不觉中影响甚至塑造社会决策结构。在这种情况下,技术系统不仅是工具,还可能成为一种新的权力结构。因此,人工智能时代的核心问题之一,就是如何在技术发展过程中维护人类的自主性,使技术系统始终服务于人的发展,而不是削弱人的主体地位。从治理角度看,人工智能时代的制度建构需要遵循若干基本原则。首先是人的主体性原则。技术发展必须以人的全面发展为目标,而不是使人沦为技术体系的附属。在人工智能广泛应用的情况下,社会制度仍然需要确保关键决策权掌握在人类手中。技术可以提供分析和预测,但价值判断与目标设定仍应由人类社会共同决定。其次是认知增强原则。人工智能的核心价值在于扩展人类能力,而不是替代人类思考。理想的技术系统应当帮助人类更好地理解问题,而不是简单提供唯一答案。例如,在人机交互过程中,人工智能可以通过多方案提示、推理过程展示以及引导式交互等方式,帮助用户形成更全面的判断,而不是直接替代人的思考过程。再次是选择权保障原则。技术系统在提供决策建议时,应当为人类保留多种选择空间,而不是将复杂问题简化为单一方案。社会治理与制度设计应确保人工智能系统在关键决策领域保持透明性与可解释性,使人类能够理解技术系统的运行逻辑,并在必要时进行干预。在上述原则基础上,人工智能时代的治理实践可以从多个方面展开。首先,在技术层面,需要推动人工智能伦理框架与价值对齐机制的建立。例如,通过人工智能治理准则或技术宪章的形式,明确人工智能系统的发展目标与基本原则,使其始终服务于人类社会整体利益。其次,在制度层面,需要探索更加完善的技术治理体系,包括算法监管机制、数据治理制度以及跨国技术合作框架,以应对人工智能带来的全球性挑战。再次,在教育层面,需要推动认知能力与技术素养的同步提升,使社会成员既能够有效使用技术工具,也能够对技术系统保持必要的理解与判断能力。总体来看,人工智能的发展并不会自动决定文明走向。技术只是提供新的可能性,而文明方向最终仍取决于人类社会的制度选择与价值判断。如果人类能够在技术发展过程中保持反思能力,并主动参与技术体系与制度结构的设计,那么人工智能不仅不会削弱人类文明,反而可能成为推动文明跃迁的重要力量。在这种情况下,人类社会有可能进入一种新的文明形态,即技术能力不断扩展,而人的主体性和自主性也得到进一步发展。人工智能时代的制度建构,正是在这一历史背景下展开的。如何在技术进步与人类自主之间形成新的平衡,将在很大程度上决定未来文明的形态。Hello:
世界人工智能大会(WAIC)推出首份刊物《WAIC UP!》,一部「AI时代进化指南」。
WAIC UP! WAKE UP MORE!
我们邀请全球AI及跨领域的先锋力量,共同释放思考的力量与智慧的主张,旨在唤醒更多人,探究关乎技术跃迁、自我边界和未来文明的无限可能。
准备好!释放你的思考,觉醒你的行动,与我们一同探究那些尚未显现的可能性,勾勒以人为中心的未来智慧文明全景图!
转载说明:本文系转载内容,版权归原作者及原出处所有。转载目的在于传递更多行业信息,文章观点仅代表原作者本人,与本平台立场无关。若涉及作品版权问题,请原作者或相关权利人及时与本平台联系,我们将在第一时间核实后移除相关内容。