霍金和马斯克:人工智能可制造战争和杀人(图)

发表:2015-07-29 05:23
手机版 正体 打赏 1个留言 打印 特大


霍金教授(Professor Stephen Hawking,左)和Tesla公司的创始人伊隆•马斯克(Elon Musk)。(图片来源:合成图片)

【看中国2015年07月29日讯】(看中国记者许家栋编译)据英国《每日邮报》报道,7月28日,霍金教授(Professor Stephen Hawking)和Tesla公司的创始人、领导1000名机器人专家的伊隆•马斯克(Elon Musk)在一封公开信上警告说,今天的自动智能武器将会成为明天的卡拉什尼科夫冲锋枪(Kalashnikovs),变得无处不在和非常廉价。且人工智能可以有许多方法制造战争,甚至不需要创造新的工具就可以杀人。

他们在这封措辞强烈的信中呼吁,应该完全禁止“超出人控制的进攻性自动武器”,以防止全球性的AI军备竞赛。

智能武器将会变得无处不在

这两位专家指出,不同于核武器,人工智能武器不需要昂贵或难以取得的原材料。这意味着人工智能武器能够被所有军事强国大批量生产,从而会变得无处不在和非常廉价。

这封信称:“如果有任何军事大国推动人工智能武器的发展,一个全球性的军备竞赛几乎是不可避免的。”

专家们预测,智能武器出现在黑市和恐怖分子、独裁者和军阀手中也只会是一个时间问题。部署人工智能技术系统已经在未来几年就会成为可能,而不需要几十年。

军方进行人工智能军备竞赛不利于人类

这封信称:“对完成一些任务,如暗杀、破坏国家稳定、征服其它国家和选择性屠杀一个特定族群来说,自动武器的作用显得很理想。因此,我们认为,军方进行人工智能军备竞赛将不会有利于人类。”

这封信补充说,人工智能可以有许多方法制造战争,甚至不需要创造新的工具就可以杀人。

主要签署马斯克和霍金教授信的人包括,苹果联合创始人史蒂夫•沃兹尼亚克(Steve Wozniak)、Skype的联合创始人让•塔林(Jaan Talinn)和语言学家兼社会活动家诺姆•乔姆斯基(Noam Chomsky)

为了人类未来安全 需禁止攻击性自动武器

“生命未来研究所”(Future of Life Institute)的托比•沃尔什(Toby Walsh)教授称:“很多在我们这个领域的顶尖科学家已经签上了自己的名字。我们希望更多人能够认识到这个可怕的课题,毫无疑问,这个课题将会对整个人类产生恶劣的影响。我们可以在早期阶段就制止它,或者我们可以袖手旁观,见证在新时代发生战争。坦率地说,我们并不希望看到这些。我们的行动很简单:就是禁止攻击性自动武器,只有这样做,才能确保我们所有人拥有一个安全的未来。”

这封信与“生命未来研究所”的文件今天一起被提交给在布宜诺斯艾利斯举行的2015年“国际人工智能联合会议”(International Joint Conference on Artificial Intelligence)。

今年早些时候,同一组织曾经发布一封公开信警告民众,使用人工智能的危险性。该公开信文件称,目前的一个“广泛共识”就是:人工智能研究正在取得良好进展,将会对社会的影响越来越大。

这封信警告说:“我们的人工智能系统必须做我们希望他们做的事情。”

今年早些时候,马斯克就曾经警告说,使用人工智能控制的机器可能会导致“相当严重的危险”后果,而且可能会在短短五年之内。

来源:看中国

短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.



【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
荣誉会员


欢迎给您喜欢的作者捐助。您的爱心鼓励就是对我们媒体的耕耘。 打赏
善举如烛《看中国》与您相约(图)

看完这篇文章您觉得

评论



加入看中国会员

donate

看中国版权所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意