「龙虾」时代,老板也没有免死牌
想象一下:某家市值千亿公司的 CEO,深夜对着电脑屏幕,不是在批报表,而是在和 AI Agent 一起疯狂敲代码,连夜跑完上百轮实验。
这就是
Shopify
的 Tobi Lütke,和 Y Combinator 的 Garry Tan 正在电脑前做的事。
硅谷不养闲人,CEO 狠起来连自己都卷。
YC 的 Garry Tan 这几天一直没闲着,他白天管团队,晚上就用自己开源的 Gstack(把 Claude Code 配成 CEO、工程经理、QA、设计师等一整套虚拟团队),花费 60 天时间写出 60 万+行生产代码,日均写 1-2 万行,眼看 GitHub stars 蹭蹭上涨,Garry Tan 自己都兴奋得每天只睡 4 小时。
另一位 Shopify 的老大 Tobi Lütke,亲自用 AI Coding Agent,对着自己 20 年前写的 Liquid 引擎反复实验,把解析渲染速度提速到 53%,内存节省到 61%。
一个越来越清晰的变化是:
这些原本处在决策层的企业管理者,正在亲自跑实验、开源工具、优化生产代码、搭建 Agent 团队,直接参与到这场 AI 的实际使用之中。
类似的动作,也开始在更多公司中出现。只是不少企业管理者对 AI 的接触还停留在基础问答层面,更多是寄希望于招募懂技术的团队来解决问题。
但 AI 从来不是一个静态工具,而是一种必须通过亲手试错、长期协作才能摸清真实边界的系统。
也正是这种认知差,开始拉开分水岭:有人还在“使用” AI,有人已经和 AI 一起“干活”。
在国内,360 集团创始人周鸿祎就是后者的典型代表。

01
AI 的不可预测,必须得亲自试用和踩坑
过去一段时间,管理者理解技术的方式是必要且稳定的:通过传递的信息获取认知后,再依靠汇报形成判断,而无需亲自参与研发和执行。
在这种模式下,技术的功能、性能、进度,都可以被整理成报告,被压缩进 PPT,再转化为决策依据。
但当 AI 开始进入真实开发与生产流程,想要建立精准的技术判断,仅仅依赖常规信息传递机制可能还不够。
在与耶鲁创新学者交流时,周鸿祎也进一步解释,如果没有深度参与 AI 的实际使用,很难在关键节点上做出有效判断。
也正因如此,他选择持
续亲自参与智能体开发、流程调试与 Skill 调整——其核心目的并非展示技术能力,而是获取更接近真实使用环境的一线体感。

周鸿祎在一次媒体访谈中提到,自己原本并不相信 AI 真能写复杂软件,直到今年亲自与 AI 合作写出一个复杂的软件智能体后,才改变了这一看法。
在真实的协作环境中,他观察到 AI 明显的两面性:它聪明时,就是“合作过水平最高的程序员”,理解力强,能快速写出几千行代码;但同时它也会犯错,不按常理出牌,甚至误删代码。
有次,在一项具体的开发过程中,周鸿祎也直观感受到 AI “出错”的一面:原本交付的 1200 多行代码,在最终核对时只剩下约 600 行。他当时的第一反应是:“是不是智能体又把代码改掉了?”
也正是在这些反复试错中,他逐渐意识到,很多问题不仅存在于开发者侧,在普通用户那里会被进一步放大。
这种认知,随后开始反过来影响产品形态。
普通用户在接触 AI 时,面临的不只是“会不会用”的问题,更多却是“装不装得上”“能不能稳定运行”“敢不敢长期使用”等具体而复杂的现实情况。
围绕这些真实需求,团队推出了“
360 安全龙虾
”,试图降低用户在部署和使用过
程中的门槛与不确定性。

这些真实的
协
作体验让周鸿祎再次确认了一个事实:“AI作为生产力新物种,它的系统边界和协作成本,需要亲自使用和踩坑来建立真实判断。
02
当企业家彻底开始一场“长期体感课”
外界看到的,是老周的“突然下场”;而实际上,周鸿祎的这条实践路径已经探索了有一段时间。
早在 2024 年 11 月,他就开始尝试将 AI 带入实际生产场景:出演 AI 主题短剧《重燃人生》,用 AI 工具参与内容制作,同时通过直播演示
纳米搜索
,展示 AI 在信息获取与处理上的能力。
但真正的转折,发生在老周开始深度参与 AI 开发之后。
“春节期间,我基本上是不眠不休,不吃不喝,每天所有的精力都用来跟 AI 一起在苦战。”周鸿祎曾对媒体表示。
也是从那之后,周鸿祎逐渐回到了一个更接近产品一线的位置
,在听得见炮火声的地方,砥砺躬行。
他不仅亲自“养龙虾”,
还在龙虾安全媒体交流会上系统聊安全风险、配置门槛和未来方向
,甚至推动 360
推出 OpenC
law 一键安装版,让普通人也能轻松上手。
这种状态并不是体验式的尝试,而是一种持续高强度的投入,周鸿祎在多个场合里提到,自己经常和 AI 一起编程。
有时一整天十几个小时,老周都在对着电脑不断给模型下指令,让它写代码、改程序、构建智能体、调整 Skill,再一遍遍调试流程。系统里一部分智能体和 Skill,并不是团队直接交付的结果,而是他一点点改出来的。
比如,
当下很多人都在讨论“龙虾”运行时的 Token 消耗,但如果只是听别人提起,很难对这种消耗建立具体感知。
“
纳米漫剧流水线
”,更像是一个典型的阶段性案例——它标志着多智能体开始真正进入具体生产场景,并驱动一个垂类内容行业的完整流程。
在这一过程中,周鸿祎深度参与智能体的构建与调试:前后“手搓”近百个智能体,对话超过 5000 次,总计消耗约 12 亿 Token。
在完整跑通系统之后,他更切实感受到,一个能够稳定运行的智能体,单次执行往往就需要消耗上千万 Token,而整套系统,也是在两三百个版本的反复迭代中才逐步成型。
这意味着,很多关键能力并不是一开始就设计完成的,而是在不断试错中被“跑出来”的:智能体逻辑需要反复调整,流程需要一遍遍重构,Skill 结构也在使用过程中不断被修改。
这种工程级别的参与,并不只停留在过程本身,也开始沉淀为具体结果。
前边提到的“纳米漫剧流水线”,正是在这样的反复试错中逐步形成。它基于多智能体协同运行,覆盖剧本、分镜、生图、配音与剪辑等环节,整套流程并非预设,而是在大量 Token 消耗和数百轮迭代中逐步跑通并稳定下来。
目前,这一流水线已经进入规模化使用阶段,并与国内头部影视、短剧公司和AI短剧创作者展开合作。
在这个过程中,周鸿祎发现,自己面对的不是一个可以被调用的 AI 工具,而是
一整套复杂的协作系统——
从任务拆解、模型调用,到流程衔接与结果验证,每一个环节都可能出现偏差,也都需要人为持续介入。

这种体验,在硅谷开发者社区中也有一个更形象的说法——“保姆式体验(Babysitter
Exp
erience)”。
开发者需要花大量时间与 AI 反复交互,纠正错误、补充上下文、修复问题。表面上看,效率似乎提升了,但实际投入的时间并未减少:AI 生成代码很快,但理解代码、调试错误以及修复问题,往往会把节省下来的时间再次消耗掉。
即便是 Garry Tan,在每天生成上万行代码的同时,也不得不为此专门搭建一套复杂的工作流框架(
Gstack
),用来约束 AI 的输出,避免系统在不知不觉中走向失控。
这些来自一线的真实体验,正在改写人们理解 AI 的方式。
03
AI 时代,判断力是最贵的资产
当全民养虾成为浪潮,“焦虑”也伴随而来:要不要参与?以及该怎么参与。
很多人困惑的是,面对一项快速变化的新技术,很难仅凭外部信息建立清晰判断。
这也正是 AI 对行业造成的核心冲击:面对同一套先进的工作流技术系统,无论企业老板还是基层员工,如果不亲自动手、不亲身入局,都将面临被技术淘汰的风险。在这场洗牌面前,没有任何人拥有特权,也不存在所谓的“角色豁免”。
破解这种“FOMO(错失恐惧)”感,唯一的解法就是亲自下场。当真正开始使用智能体,参与到具体任务中,才会逐渐理解它在工作中的作用方式,以及像 Token 消耗这样的关键成本是如何在实际运行中体现出来的。
这种一手体验的重要性,也在于 AI 的演进速度,从模型到 Agent,再到更复杂的协作系统,每一轮变化都在重构既有的工作方式。对于个体而言,很难长期置身事外。正如周鸿祎此前所说,拒绝使用AI的人可能会被时代淘汰。
以前是“遇事不决问模型”,现在 Agent 逐渐进入生产流程之后,人和 AI 的关系正在发生变化。智能体就像是人的“手和脚”,负责调用工具,而人转向目标设定、过程约束和结果评估。在这种结构下,决定效率上限的,是人对系统的理解和调度能力。
理解了这一层,就能懂得周鸿祎动手实践背后的深意。作为企业管理者,他需要对 AI 效率、成本与边界形成稳定判断,抛开管理者身份,作为普通人,他在多 Agent 协同、流程调试中遇到的问题,本质上也是所有使用者都会面对的问题——只是规模不同。
从这个意义上说,周鸿祎最近修的并不是一次个人层面的“补课”,更是一门 AI 时代稀缺的判断课。
在这场技术变革中,真实体感永远比二手经验更值钱。
而这门“判断课”真正稀缺的地方在于:不仅属于企业家们,也属于每一个需要在变化中做选择的人。(转载自AI科技评论)
