
自主武器系统(LAWS)杀手机器人(图片来源:视频截图)
【看中国2026年2月18日讯】(看中国记者路克编译/综合)人工智能(AI)的黄金时代叙事,正遭遇越来越多的质疑声。据《巴伦周刊》(Barron's)报道,加州大学伯克利分校计算机科学教授、人工智能安全领域权威拉塞尔(Stuart Russell)近日在新德里举行的AI影响峰会上接受法新社采访时直言,全球科技巨头正陷入一场人工智能“军备竞赛”,其潜在后果可能威胁整个人类文明。
“让私人企业以类似‘俄罗斯轮盘赌’的方式拿全人类的命运下注,在我看来,是政府严重失职。”拉塞尔说。
与此同时,《TechRadar》指出,围绕AI的乐观宣言已持续数年——产业革命、效率飞跃、无摩擦生产力——但现实迹象表明,风险并非一次更新就能解决的小问题,而是伴随技术扩张而来的结构性挑战。
监管缺位与CEO困境:谁来踩刹车?
拉塞尔认为,全球主要AI公司掌门人并非对风险毫无认知。相反,他们“理解超级智能系统可能凌驾人类之上的危险”。但问题在于,单个企业无法率先“缴械”。
“我相信,每一家主要AI公司的CEO都希望解除这场竞赛,”他说,“但他们无法单方面这么做,否则会被投资人赶下台。”
他透露,部分高管曾私下表达类似担忧,公开层面上,OpenAI首席执行官奥特曼(Sam Altman)也曾承认,人工智能存在导致人类灭绝的理论可能性。
然而,迄今为止,国际峰会所达成的多为企业自愿承诺,缺乏强制约束力。拉塞尔强调,真正的责任在于各国政府采取集体行动,建立硬性监管框架。
资本狂奔:数据中心与2000亿美元投资
在政策博弈之外,资本正在全速前进。
各国与科技企业正投入数千亿美元建设高能耗数据中心,以训练和运行生成式人工智能模型。印度正试图借势突围。印度信息技术部长瓦伊什瑙(Ashwini Vaishnaw)表示,未来两年印度预计将吸引超过2000亿美元的AI投资,其中约900亿美元已落实。
但扩张同样带来就业焦虑。印度庞大的客服与技术支持外包产业近期股价下挫,市场担忧AI助理工具将取代大量后台岗位。对此,拉塞尔直言:“我们正在创造‘人类模仿者’,最自然的应用场景当然就是替代人类。”
他还观察到,年轻群体正出现对AI“去人性化”趋势的反弹。“当系统接管回答问题、制定决策、规划行动等认知功能时,你实际上是在削弱人的主体性。年轻人不愿意那样的未来。”
安全红灯:高管辞职、深度伪造与现实误判
《TechRadar》梳理了近期多起值得警惕的信号。
首先是安全领域高层的离职潮。Anthropic一名负责AI安全研究的高管本月公开辞职,并警告“世界正处于危险之中”。类似的离开并非孤例,xAI等实验室亦出现核心人员出走。这些离职往往伴随公开声明,质疑企业是否在竞争压力下牺牲安全标准。
其次是深度伪造技术的泛滥。监管机构已就部分平台生成涉及未成年人的不当图像展开调查。随着生成工具门槛降低,伪造图像与视频所需技术大幅简化。结果不仅是个体受害,更是公共信任基础的侵蚀——当任何影像都可能被质疑为合成,事实本身开始松动。
此外,AI“幻觉”问题正从屏幕走向现实世界。自动驾驶、仓储机器人与无人机等系统依赖视觉识别与实时决策。研究显示,微小环境干扰或刻意设计的标识变化,可能导致系统误判。例如将“停车”标志识别为“限速”标志——在实验室是错误,在公路上则可能是灾难。
商业化边界:当聊天机器人遇上广告
另一个争议焦点是商业模式。OpenAI近期开始在ChatGPT中测试广告产品,引发部分研究人员担忧。一名资深研究员公开辞职,指出当系统既掌握用户心理画像,又承载商业激励时,辅助与操控之间的界线将变得模糊。
社交媒体的发展史已提供前车之鉴——广告驱动的算法优化往往优先考虑参与度而非福祉。若AI助手在回答排序与推荐逻辑中加入营收权重,其影响或更为深远。
事故累积:108起事件与加速风险
根据AI事故数据库统计,仅2025年11月至2026年1月期间,就新增108起与AI相关的事故记录,涵盖欺诈、误导建议与系统滥用等问题。尽管部分案例规模有限,但数量增长本身构成趋势信号。
真正值得关注的是“加速度”。AI正迅速嵌入经济、教育、媒体乃至军事系统,而治理结构却明显滞后。
“末日”一词或许夸张,但动荡已然真实存在。正如报道所言,灾难并非必然,但自满才是最大的风险。