
教宗良十四世2026年1月25日在“全球大众传播日”文告中发出了震撼人心的警告:生成式AI正在侵蚀人类身分与社会关系的根基。图为教宗良十四世在梵蒂冈城圣彼得大教堂经教宗选举产生后向群众致意。(图片来源: Ivan Romano/Getty Images)
【看中国2026年1月25日讯】(看中国记者杨天资综合报导)当全世界仍沉浸在生成式人工智能带来的技术狂欢中时,来自梵蒂冈的声音如暮鼓晨钟般响起。教宗良十四世——这位首位来自美国的教宗——在“全球大众传播日”文告中发出了震撼人心的警告:生成式AI正在侵蚀人类身分与社会关系的根基。这份文告不仅是宗教领袖的道德呼吁,更是对当代数位文明病理的精准诊断,触及了AI时代最核心的哲学、伦理与社会问题。
自2023年那张让全网震惊的“羽绒衣教宗方济各”AI假照,短短三年间,我们见证了一个时代的转折:真实与虚拟的边界正在消融,而人类正站在一个前所未有的十字路口上。
当算法僭越真理 教宗良十四世警告:生成式AI 恐侵蚀人类
1月25日,教宗良十四世在文告中提出了一个极具洞察力的技术批评:他批评AI系统将“统计机率视为可靠知识”,但这些工具最终只能提供“近似值”。这一观点直指当前大型语言模型的本质缺陷。
从数学原理来看,生成式AI的核心运作机制基于条件机率预测,这种机制造成了一个危险的认知陷阱:真理被降格为流行度与统计规律的产物。
更深层的问题在于,当人类长期依赖这种“概率性知识”时,我们的思维模式可能被逆向塑造。人类智慧包含直觉、道德判断、创造性顿悟等无法量化的元素,这些都无法被简化为统计公式。教宗的警告提醒我们:当我们将思考外包给机器时,我们不仅是在放弃智力,更是在放弃作为人的主体性。
公共舆论重塑 算法操控民主
教宗指出AI能够“左右公共舆论并加深社会两极化”。这一警告在当前的资讯环境中显得格外紧迫。AI系统通过重复处理训练数据中的既有偏见,不仅会复制这些偏见,还会透过其高效传播能力将偏见放大和固化。
生成式AI让舆论操控进入了一个新阶段。过去社群媒体主要是“放大既有内容”,现在平台和用户可以“大规模自动生产内容”。机器可以24小时不眠不休地针对特定立场、候选人或议题生成大量图文影片,其数量足以“淹没”真实的公民讨论。
这种机制透过几个途径加深社会分裂:首先是确认偏误的自动化放大——AI被训练来最大化用户互动,因此会精准地提供最容易引起反应的内容;其次是人格化虚假叙事的量产——AI可以分析不同族群的恐惧与渴望,为每个人量身打造“最想听的话”;最后是辨识成本高而核实动机低——当AI生成内容已达到肉眼难辨的程度,而人们每天接收的资讯量巨大,多数人会选择相信符合自己立场的内容。
真实消逝
“区分现实与模拟之间的差异愈来愈难”——教宗的这句话触及了AI时代最根本的认识论危机。2023年的“羽绒衣教宗”事件标志着一个转折点:我们的视觉感官不再是通往现实的可靠路径。
从哲学角度来看,这是一种本体论危机。传统上,影像具有“指示性”,即它指向某个曾经真实存在的物理时刻。然而,生成式AI切断了符号与现实的连结。影像不再是现实的记录,而是调制解调器率的拼凑。当社会充斥着这种“无根”的影像与文字时,人类建立信任的基础——共享的客观现实——便开始瓦解。
这种现实感的丧失带来了多重后果:它为虚假资讯的传播创造了肥沃土壤;即使是真实资讯也可能被质疑为AI生成的假象,导致“真实性贬值”现象;最终,人们退回到各自的认知舒适区,只相信符合既有观念的资讯,从而加剧社会分裂。
教宗警告“目前仅少数企业掌握AI发展的庞大权力”,这揭示了AI时代的政治经济学本质。当前的AI发展高度依赖昂贵的算力资源与海量数据,造成极高的准入门槛,使得只有少数科技巨头能够主导AI发展方向。
这种权力集中产生了几个严重后果。首先是价值观的单一化:全球数十亿用户使用的AI模型,其价值观往往由硅谷少数工程师与企业高管决定,形成一种新型的“数位殖民主义”。其次是黑箱治理:这些企业的算法如同黑箱,外界无法得知其决策逻辑,当AI决定谁能获得贷款、看到什么新闻时,这种缺乏透明度的权力极度危险。最后是公共利益的私有化:人类累积的知识与文化遗产被科技巨头免费撷取,转化为私有的AI模型获利,而社会成本却由全民承担。
人类身份危机
教宗特别关切AI对“人类身分认同”的威胁。在传统社会中,人类身分认同建立在创造力、理性思考、情感体验和社会关系等核心要素之上。但AI的发展正在逐一挑战这些要素。
当AI能够创作艺术作品、撰写文章、谱写音乐,其产出有时甚至超越普通人类创作者时,一个根本问题浮现:如果机器能做人类能做的一切,那么人类存在的意义是什么?这不仅是哲学问题,也是实际的社会问题。当越来越多工作被AI取代时,人们失去的不仅是收入来源,还有通过工作获得的自我价值感和社会认同。
更微妙的危险在于“创作价值的贬低”。当一张风格成熟的插画可以由AI在10秒内生成,当一篇结构完整的文章可以由AI草拟时,社会可能开始贬低人类创作的时间成本与专业性。年轻人可能对长期训练一项技能失去耐性与信心,将创作视为“调参数、选风格”而非“生命经验的凝聚”。
人际关系异化
教宗强调保护“真实人际关系”的重要性,这个呼吁针对的是一个日益明显的趋势:人类社交互动正被技术中介改变甚至替代。AI聊天机器人、虚拟助手和数位伴侣正成为许多人日常互动的重要部分。
真实人际关系建立在相互性、脆弱性和不可预测性之上。当我们与另一个人建立关系时,面对的是同样复杂、有局限、在寻求意义的存在。这种关系充满误解、冲突、和解与成长的可能性。但与AI的互动本质上是不对称的:AI没有真正的需求、感受或意图,它只是按程式响应输入。
过度依赖AI互动可能削弱人们建立和维护真实人际关系的能力。社交技能需要在实践中培养,需要经历不适、冲突和和解的过程。如果人们越来越多地选择与AI互动来避免真实关系的复杂性,他们可能失去关键的社交能力,陷入更深的孤立。
军事AI的伦理深渊
教宗上月特别谴责AI在军事应用的快速发展,警告“不可将生死攸关的决策交由机器处理”。这涉及致命性自主武器系统的伦理底线问题。
战争虽然残酷,但传统战争仍受制于人类的道德与法律责任。将杀戮决策交给AI会产生“责任归属真空”:如果AI无人机错误攻击平民,谁来承担责任?更可怕的是,AI可能将战争“游戏化”与“高频化”。机器没有恐惧,不会疲惫,这可能导致冲突升级速度远超人类外交反应能力。
教宗的立场明确表明:剥夺生命的决定权必须永远掌握在具有道德良知的人类手中,而非冷冰冰的算法。这不仅是安全问题,更是维护人类尊严的最后底线。
面对这些挑战,教宗呼吁建立“有效治理架构”。
教宗特别强调教育年轻世代的重要性,呼吁帮助他们理解算法如何影响对现实的认知。在AI时代,数位素养和算法素养已成为公民教育的核心组成部分。
年轻人需要了解AI如何工作、能力与局限、如何可能被滥用。他们需要学会质疑AI生成内容、识别算法偏见、保护隐私数据。但教育作用不应仅限于技术层面,更重要的是培养那些使人区别于机器的能力:批判性思考、创造性想像、道德判断、同理心和建立真实人际关系的能力。