AI教父:“类人类”5年内问世(图)

发表:2024-03-03 16:19
手机版 正体 打赏 4个留言 打印 特大

人工智能 ai 机器人
OpenAI正在为其最终目标——创造人工通用智能Artificial general intelligence,AGI而努力。图片来源:adobe stock

【看中国2024年3月3日讯】(看中国记者杨天资编译/综合报导)OpenAI正在为其最终目标——创造人工通用智能(AGI)而努力。AI教父、芯片大厂辉达(Nvidia)执行长黄仁勋(Jensen Huang)3月1日受访时指出,在某些定义下,通用人工智能(Artificial general intelligence,AGI)有可能在短短5年内出现。

AI教父AGI:“类人类”有望5年内出现

AGI是一种可以在各种领域超越人类的智能系统。OpenAI认为,AGI有可能改变社会,带来巨大的利益,但也可能带来严重的风险。

美东时间3月1日,辉达CEO黄仁勋在美国加州参加史丹佛经济政策研究所高峰会时表示,他预计通用人工智能(AGI)最快将在五年内面世。通用人工智能(AGI)又称强人工智能(Strong AI),是AI的一种理论形式,指的是AI可以像人类一样学习和推理,有可能解决复杂的问题并独立做出决策。

他指出,答案主要取决于要如何定义这个目标。如果定义是能够通过人类测试,那AGI应该很快就会出现。

“如果你制作一项测试清单,放在电脑科学业界前,我猜大约5年,我们就能在每项测验取得好成绩”

AI目前能通过律师资格考试等测试,但是面对胃肠学等专业医学测试时仍相当吃力。但黄仁勋认为5年后,AI就能通过所有测试。

黄仁勋还在高峰会上回答了另一个问题,需要多少芯片代工厂来支持AI产业的扩张。有媒体报导称,OpenAI 执行长奥特曼(Sam Altman)认为需要更多的晶圆厂,而黄仁勋显然认为此举“大可不必”。他指出,虽然目前市场上对更多芯片有所需求,但随着时间的推移,芯片性能也会提高,这会限制所需芯片的数量。

“我们将需要更多的晶圆厂。但请记住,随着时间的推移,我们也在极大地改进(人工智能)的算法和处理。”黄仁勋表示,“运算效率并不会停留在现今的水平。在10 年内,我将会把计算能力提高一百万倍。”

黄仁勋也问起需要增加多少晶圆厂,才得以支持AI产业扩张。OPEN AI执行长奥特曼(Sam Altman)认为需要更多晶圆厂。黄仁勋表示,虽然确实需要更多晶圆厂,但芯片的算法和处理能力正在取得极大改善,这将有助于减少芯片的需要量。

AGI和AI有什么不同?

综合资料显示,AI是指能够执行特定任务或解决特定问题的智能系统,而AGI是指能够在任何任务或问题上达到或超越人类水平的智能系统。AGI具有通用的学习、推理、创造、沟通等能力。

由于目前仍没有公认的人类智慧定义,不同领域科学家对通用人工智能的定义和标准也各不相同。通用人工智能的概念是相对于目前我们已经广泛实现的“弱人工智能”来说的,后者指的是擅长执行单一任务、解决特定问题、但没有自主意识的人工智能,其应用包括智能客服、无人驾驶、算法推荐等。

实现AGI一直是硅谷长期以来追求的目标之一。OpenAI认为AGI是可以实现的,并且可能会在不久的将来出现。因此,OpenAI正在积极地探索如何建造AGI,并且已经取得了一些重要的进展。

然而,AGI的发展也面临着许多风险和担忧。首先,AGI可能会对人类社会造成巨大的冲击和变革,例如改变就业结构、经济分配、法律制度、伦理道德等。这些变化可能会带来正面或负面的影响,也可能会引发社会不稳定和冲突。

其次,AGI可能会对人类安全造成威胁,例如被恶意使用、发生意外、失控或反叛等。这些威胁可能会危及人类的生存和尊严,甚至导致人类的灭绝。

根据媒体报导,OpenAI正在与多个投资者进行新一轮的融资谈判,其估值可能高达1000亿美元或更高。微软的投资不仅为OpenAI提供了资金,还为其提供了在微软Azure云平台上开发和部署AGI的硬件和软件平台。

马斯克起诉OpenAI及其CEO奥特曼 :违背技术造福人类的初衷

人工智能的无限制发展已威胁到人类的安全,这已经不是将来时,而是现在进行时。全球科技巨头、特斯拉CEO埃隆.马斯克(Elon Musk)于当地时间2月29日晚间,向旧金山高等法院提起诉讼,由洛杉矶的律师事务所Irell&Manella代表,以违反合同为由起诉OpenAI及其CEO萨姆.奥特曼(Sam Altman)。

埃隆.马斯克(Elon Musk在诉讼中表示,奥特曼和OpenAI违背了这家人工智能研究公司成立时达成的一项协议,即开发技术以造福人类而不是利润。

马斯克声称OpenAI最近与科技巨头微软的关系损害了该公司致力于公共、开源的通用人工智能的初衷。

法院文件显示,马斯克对OpenAI提出了包括违约、违反信讬义务和不公平商业行为在内的指控,并要求该公司恢复开源。马斯克还要求法院下达禁令,禁止OpenAI、其总裁格雷戈里.布罗克曼和奥特曼(Sam Altman(此案的共同被告)以及微软从该公司的人工通用智能技术中获利。

马斯克说:“OpenAI已经转变为世界上最大的科技公司微软事实上的闭源子公司。在新董事会的领导下,它不仅是在开发,而且实际上是在完善AGI,以实现微软的利润最大化,而不是造福人类。”

BREAKING: Elon Musk has filed a lawsuit against Open AI and Sam Altman for breach of contract.

The lawsuit accuses Altman et al with having betrayed an agreement from Open AI's founding to remain as a non-profit company. pic.twitter.com/GPv8NFvsnt

— X News Daily (@xDaily) March 1, 2024

马斯克表示,AGI是一种被开发用于自主展现与人类相当认知水平的AI类型,其在OpenAI的GPT-4模型中得到了体现。马斯克指出,于2023年3月发布的GPT-4与之前的版本相比仍是一个封闭模型,而这一举措是出于商业考虑,而不是人类利益。

马斯克在诉讼中写道:“GPT-4的内部细节只有OpenAI知道,在信息和信念上,微软也知道。因此,GPT-4是‘开放式AI’的对立面,它的封闭是出于正当的商业原因:微软希望通过向公众出售GPT-4来赚钱,如果OpenAI——它被要求这样做——让公众免费使用这项技术,这将是不可能的......与创始协议相反,被告选择使用GPT-4不是为了人类的利益,而是作为专利技术,为世界上最大的公司实现利润最大化。”

马斯克还在诉讼中提及了2023年OpenAI的“政变”风波。马斯克称,奥特曼的短暂离职促使微软介入,并迫使试图罢免他的董事会成员辞职,OpenAI目前的董事会成员不再是支持和了解该技术的科学家和研究人员。

马斯克是OpenAI的联合创始人之一,但于2018年离开董事会。他表示,董事会与奥特曼之间的冲突源于GPT-4的开发和AGI技术可能出现的下一次迭代,马斯克担心这可能会危及公共安全。

奥特曼因激进研究恐致“AI灭绝人类”

去年11月,OpenAI人事大地震成为这个周末科技业界的大新闻,ChatGPT之父奥特曼(Sam Altman于11月17日被董事会解雇的消息震惊全球,并引起外界无限猜想。有消息披露奥特曼在开展AI研究时可能过于激进,这可能导致AI人工智能“终有一天会导致人类灭绝”

当时外界分析,奥特曼的突然遭炒鱿鱼确实暗示了未来业界将出现的一场争论,发展AI与安全的矛盾——有如一些科学研究、如基因改造的禁忌一样,AI的发展今后也会被设置道德的界限。

自前年,OpenAI建造的ChatGPT在科技业界引起革命,推动生成式AI的快速发展。在今天所有文字的生成式AI,包括微软所使用的AI软件,都是建立自ChatGPT上。

ChatGPT在2022年11月发布,短短一年全球使用者突破1亿,有200万人正参与开发,发展速度之快让人惊讶。

一些安全倡导者指出,OpenAI和其他公司发展AI的速度过快,忽视了提倡谨慎行事的声音。这争论在OpenAI的员工中已持续了多年,2020年一群OpenAI的员工因为担心公司过于商业化,把利益放置在安全之上而辞职,部份员工后来成立了Anthropic,他们认为奥特曼(Sam Altman)在开展AI研究时可能过于激进。

OpenAI在2015年成立,当时是一间非牟利研究机构,至2019年才成立一家有限盈利的子公司。OpenAI声称这是一种创新安排,投资者的回报受到限制,目的是让公司保留非营利组织的使命。公司赋予了董事会管理有限利润实体的权力。这与其它一般企业不同,奥特曼作为公司的领导者,不直接持有OpenAI的任何股份,而董事会有权投票直接开除他。

董事会成员中最少有两人、即是麦考利(Tasha McCauley)和托纳(Helen Toner)与有效利他主义(Effective Altruism)运动有关联,这是一个伦理运动,运动的成员推动了对AI的安全研究,他们认为失控的强大的AI终有一天会导致人类灭绝。

从英国著名理论物理学家史蒂芬.霍金(Stephen Hawking)到特斯拉创始人伊隆.马斯克(Elon Musk)等世界顶尖人工智能(AI)专家,都曾表示过人工智能对人类生存的威胁。

已经去世的史蒂芬.霍金于2015年8月在美国Reddit网站上,首次提出对人工智能的“威胁论”,他确信“优异的AI绝对会实现它的目标,因此当人类与它道不同时,绝对有间接或直接铲除人类的可能”。

后来又不断地警告:“人工智能系统会自行启动,并以前所未有的速度不断的重新设计、自我改良。”

“研究人工智能如同在召唤恶魔”

“全面性的开发人工智能有一天可能会导致人类灭亡!”。

马斯克(2002年创建私人太空发射公司SpaceX)于2017年7月,一次由美国各州、领地及联邦组成的“国家管理者协会”(National Governors Association)的会议上,再次重申了他对AI发展的远期担忧——“我接触过最先进的人工智能,我认为人类的确应该对它感到担心。”

他还说:“这是人类文明所面对过的最大挑战。”

马斯克海表示没人听他的警:“我试图说服人们降低AI的发展速度、监管AI,但是无效。我试了很多年,没有人听。”、“AI的发展似乎不受人类控制”

“人工智能比核能武器更危险”!

来源:看中国

短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.



【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
荣誉会员


欢迎给您喜欢的作者捐助。您的爱心鼓励就是对我们媒体的耕耘。 打赏
善举如烛《看中国》与您相约(图)

看完这篇文章您觉得

评论



加入看中国会员

donate

看中国版权所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意