全部

20年生命vs2小时训练,Sam Altman 开始算“人肉成本”

如果几年前有人跟我说,「你以后可能会看到科技公司CEO,用人类的生存成本来为AI辩护」,我大概会觉得这是科幻小说里的情节。但这个看似荒诞的场景,真的发生了。不久前的印度AI峰会上,Sam Altman面对AI能源消耗的质疑时,给出了一个让人意外的回应:「训练一个人需要20年的生命和这期间吃掉的所有食物,相比之下,讨论AI的能源使用是『不公平』的。」这不是简单的狡辩,而是一种全新的叙事策略——当你的产品被指控太耗能时,不妨算算人类的「训练成本」。01「人肉成本」的精妙算计Altman的逻辑表面上很简单:一个人从出生到成年,需要消耗20年的食物、住房、教育资源,而训练一个AI模型只需要几个月。从「投入产出比」来看,AI似乎更划算。这个比较背后藏着一个巧妙的概念偷换。人类的成长不是纯粹的「训练」,而是生命本身。一个20岁的人不仅具备了工作能力,还有情感、创造力、道德判断,以及无法量化的人生体验。而AI模型无论多么强大,都只是在特定任务上的工具。但Altman的比较确实触及了一个有趣的角度。如果把人类社会看作一个巨大的「训练系统」,那么培养一名程序员的总成本确实惊人:20年基础教育、4年大学、若干年工作经验,再算上背后的社会基础设施投入。有开发者在Twitter上调侃:「按这个逻辑,我应该感谢公司没有直接用AI替代我,毕竟我的『训练成本』确实挺高。」02从万亿承诺到六千亿现实Altman选择在这个时间点抛出「人肉成本论」,背景颇为微妙。就在几天前,OpenAI刚刚大幅调整了财务预期——原本宣称的1.4万亿美元基础设施投入,悄悄缩水到6000亿美元。这个调整释放了一个信号:即使是OpenAI,也开始正视AI训练的成本压力。当初豪气万丈的万亿计划,在现实的能源账单面前变得谨慎。与此同时,OpenAI的商业化步伐在加速。从考虑在ChatGPT中加入「Instagram风格」的广告,到与Tata集团的战略合作,再到GPT-5.2-Codex的发布——每一步都在寻找更高效的盈利模式,以平衡巨额的训练成本。Altman的能源辩论,更像是为这种商业化转向提供理论支撑。如果AI训练比人类「培养」更环保,那么大规模投入AI就有了道德正当性。如果AI模型的能效比人类更高,那么用AI替代人工就不仅是商业选择,还是环保责任。这场能源辩论的背景,是整个科技行业对AI环境影响的集体焦虑。数据中心的耗电量正在以惊人速度增长。训练一个大型语言模型的碳排放,相当于几百次跨大西洋航班。当各国政府都在制定碳中和目标时,AI公司面临着前所未有的压力。Altman的「人肉成本论」,本质上是一种防御性的叙事策略——与其被动解释AI为什么耗能,不如主动重新定义「什么是合理的能源消耗」。这让笔者想起他在峰会上的另一个表态:需要类似国际原子能机构的组织来监管AI。表面上是呼吁监管,实际上是在为AI的「核能级」影响力做铺垫:既然AI像核能一样重要,那么相应的能源消耗就是必要代价。但这种叙事面临一个根本问题——AI和人类并不是非此即彼的关系。03被忽视的第三种可能Altman的比较预设了一个前提:AI和人类是竞争关系,我们必须选择更「高效」的那一个。但现实远比这个二元对立复杂。AI的价值不在于替代人类,而在于增强人类能力。一个经验丰富的程序员配合AI工具,产出效率远超纯AI或纯人工。从这个角度看,真正的问题不是「AI比人类更环保吗」,而是「如何让AI的能源消耗产生最大价值」。一位能源政策研究者在接受采访时指出:「关键不是AI用了多少电,而是这些电有没有用对地方。如果AI能帮助优化电网、减少能源浪费,那么训练成本就是划算的投资。」OpenAI最近推出的安全功能和风险标签,某种程度上也是在回应这个问题——通过更精准的应用,让每一分算力都用得更有意义。Altman的「人肉成本论」虽然听起来荒诞,但它揭示了一个深层次的哲学问题:在算法时代,我们如何衡量价值和成本?当AI能够在2小时内完成人类20年才能掌握的技能,传统的成本效益分析是否还适用?当机器学习的边际成本趋近于零,人类劳动的价值该如何重新定义?这些问题没有标准答案,但不能回避讨论。从印度AI峰会上Altman与Anthropic CEO Dario Amodei拒绝握手的紧张场面,到关于AI广告的口水战,再到如今的能源辩论——每一次争议背后,都是对AI未来形态的不同想象。Altman选择用「人肉成本」为AI辩护,实际上是在重新界定效率的含义。但效率从来不是唯一标准,还有公平、可持续、以及我们想要生活在什么样的世界。当科技CEO开始计算人类的「训练成本」时,也许我们该问的不是这笔账算得对不对,而是:我们是否愿意生活在一个把人类当作「低效AI」的世界里。
14分钟前
2

奥特曼:人类吃20年饭不如训练AI,全网炸了,网友:你再说一遍?

奥特曼又又又又口出狂言了。在印度Express Adda的论坛上,Sam Altman聊了很多AI话题,从AGI到中美AI竞争,再到数据中心用水问题。但最火的那段,是他回应AI能耗批评时说的:「人们总谈训练AI模型需要多少能源……但训练人类也需要大量能源,得花20年时间,消耗那么多食物,才能变聪明。」这话说错了——人吃了40年的饭都未必有这么聪明。这话听起来只是个比喻,但一传开,就被解读成AI vs人类的「效能大战」。Altman到底想表达什么?简单说,他觉得大家批评AI时,总拿「训练模型」的总能耗和人类「回答一个问题」的瞬间能耗比,这不公平。人类也不是生下来就是大聪明,从婴儿到成人,吃喝拉撒20年,还得加上学校教育、社会教育,这些都消耗食物、水、电等等能源。如果算「全生命周期成本」,AI其实挺高效的,训练一次,就能无限次回答问题,而人类每次思考还得再烧脑子——大脑耗能约20瓦。换言之,在他看来,AI不是能源杀手,而是未来文明的必需品,就像电灯发明时也有人担心蜡烛业失业一样。这个观点不是Altman首创。早在AI热潮前,就有专家比过生物大脑和硅芯片的效率。但Altman作为OpenAI老大,说出来的话影响力巨大,瞬间成了X热点,视频有两千多万次浏览,引爆了讨论。人类尊严,AI是工具还是「更好的人类」?Altman把人类成长比作「训练」,听起来像把人当机器。这让很多人不爽,觉得贬低了人类的价值——生命不是数据输入输出啊!人一生的自然进化中,不仅有产出,还有情感、教育、成长的喜悦,这些能量计算不来,在舆论场上,这点被放大。一个油管博主打出标题「OpenAI CEO Argues Energy Is More Wasteful On Humans Than AI,Goes Very Poorly」,说Altman的言论进行得很糟糕。X上,@BrianRoemmele直呼震惊,觉得这是给AI行业招黑,「片面思考,反人类。重视人类胜过AI——永远。」当然,也有用户帮忙解释,「这不是要取代人类,只是更准确计算自动化成本。」他也承认Altman这样说不好,但是要理性、中立、客观地看待。于是,真的有人认真算起来了,然后悲催的发现,自己一天什么都没做,就消耗了卡路里。不止他一个,还有很多支持派觉得Altman点醒了大家。信息总有成本,之前没有算过,现在算起来细思极恐,Altman的说法是让大家正视这件事。这些反应暗示了AI的价值大于成本,可是能不能跟人并列一起算呢?这引发了关于AI是否会取代人类的讨论。拿人跟AI比?荒唐!相比之下,负面的批评显然是更多的,就算这只是个比喻,也非常荒唐。Altman的这番话,看上去合理,但也有明显的逻辑谬误。人类确实要吃喝20年才能「变聪明」,但这20年的能量消耗是基线生存,用来维持生命、维持社会运转,不是专为「产生智能」而额外投入的。哪怕一个人一辈子啥都不学,躺平当咸鱼,他也得吃饭喝水呼吸。其次,规模和可复制性完全不同。Altman想强调「per query」的效率,但他忽略了:人类智能没法「复制部署」到数据中心里无限扩容。AI的真正优势恰恰在于「训一次,用一辈子」,而人类是「训一次,用一辈子还得继续喂」。如果真要比「单位智能产出每焦耳能量」,AI在规模化后确实可能碾压,但用「养孩子总成本」来类比,反而把这个优势给模糊掉了。把孩子成长比作「模型训练」,本质上是把人降格成「低效生物计算机」,这不只是逻辑问题,更是价值观滑坡。网上很多人直接说「这不是比喻选错了,而是把尊严换成效率的典型技术官僚思维」。总体看,从2月20日视频发出来后,这两天迅速扩散,大概有30%的回应是正面,中立20%,负面占50%。这反映了AI话题的两极化。一方面,它确实戳中了AI发展的痛点:能量是瓶颈,但技术的飞轮不能停。另一方面,技术也不能是真空的,最终得回到对人类生活的帮助和改善上。或许,如Altman所说,建设更多清洁能源是一种解法,但也如批评者所言,无论未来出路是什么,都要尊重人类独特价值。
29分钟前
1