ChatGPT(LIONEL BONAVENTURE/AFP via Getty Images)
【看中国2023年12月27日讯】ChatGPT仅花了五天就达到了100万用户,到今年2月用户数已达1亿。OpenAI表示,它现在每周吸引1亿用户。人工智能正在迎来它的时代,但同时也引起人们的忧虑。
借助OpenAI的ChatGPT,公众突然拥有了触手可及的机器魔力,他们争先恐后地进行对话、撰写学期论文或纯粹为了享受用奇怪的问题来难倒人工智能的乐趣。
人工智能已经陪伴我们很多年了,悄悄地控制我们在社群媒体上看到的内容,保护我们的信用卡免遭欺诈,并帮助避免路上发生碰撞。但2023年是变革性的一年,大众对任何带有人工智能标签的事物都表现出了永不满足的胃口。
ChatGPT仅花了五天就达到了100万用户;到2月,用户数已达1亿。OpenAI表示,它现在每周吸引1亿用户。
Meta发布了Llama 2。Google发布了Bard和Gemini专案。微软推出了基于ChatGPT的人工智能Bing搜寻引擎。法国米斯特拉尔(Mistral)成为欧洲市场的主要竞争对手。
“事实是,每个人都已经在使用它了,”致力于帮助企业使用人工智能的Generative Buzz公司创始人利文斯顿(Geoff Livingston)说,“23年真正发生的事情是这种痛苦的创可贴撕裂,这不再是新鲜事,它真的来了。”
Meta发布了Llama 2。Google发布了Bard和Gemini专案。微软推出了基于ChatGPT的人工智能Bing搜寻引擎。法国米斯特拉尔(Mistral)成为欧洲市场的主要竞争对手。
美国国会匆忙召开人工智能简报会,白宫召开会议,美国与十多个国家一起签署了安全开发人工智能的承诺,以防止先进技术落入坏人之手。
大学纷纷试图禁止使用人工智能撰写论文,内容创作者纷纷向法院提起诉讼,表示人工智能窃取了他们的作品。由于失控的人工智能,一些科技界的知名人士放弃了世界末日的预测,并承诺制定新的限制措施以试图阻止这种情况的发生。
欧盟本月稍早就人工智能新法规草案达成协议,包括要求ChatGPT和其他人工智能系统在投放市场前披露更多操作信息,并限制政府部署人工智能进行监控的方式。
简而言之,人工智能正在迎来它的时代。
20世纪90年代初,当时“网络”风靡一时,企业纷纷在广告中添加电子邮件和网址,希望表明自己处于技术的前沿。
目前,人工智能正在经历利文斯顿所说的“采用阶段”。
亚马逊表示,它正在利用人工智能来改善假日购物体验。美国大学正在使用人工智能来识别有风险的学生并进行干预,以确保他们顺利毕业。洛杉矶表示,它正在使用人工智能来尝试预测有无家可归危险的居民。美国国土安全部表示,它正在使用人工智能来尝试嗅出难以发现的骇客企图。乌克兰正在利用人工智能清除地雷。以色列正在使用人工智能来识别加萨的目标。
谷歌工程师表示,他们的DeepMind AI已经解决了一个被称为“无法解决”的数学问题,为所谓的“上限设定问题”提供了一种新的解决方案,即绘制更多的点,而不让任何三个点最终形成一条直线。
工程师表示,这是人工智能第一次在没有专门训练的情况下解决问题。
DeepMind研究科学家Alhussein Fawzi告诉《麻省理工科技评论》:“老实说,我们有一些假设,但我们不知道它到底为何有效。”
在美国联邦政府内部,非国防机构本月稍早向政府问责办公室报告称,他们已经在进行或计划中使用1,241种人工智能的不同用途。其中超过350个被认为过于敏感而无法公开披露,但可以报告的用途包括估计海鸟数量以及边境巡逻人员携带的人工智能背包,试图使用摄影机和雷达发现目标。
大约一半的联邦人工智能计划与科学相关。GAO表示,另外225个项目属于内部管理,其中医疗保健和国家安全或执法项目各有81个。
美国太空总署(NASA)在390项人工智能非国防用途方面领先联邦政府,其中包括评估行星漫游器要探索的兴趣区域。商务部和能源部位列第二和第三,分别有285个用途和117个用途。
总的来说,这些用途早在2023年之前就已经在开发中,它们是所谓的“狭义人工智能”的例子,或将工具应用于特定任务或问题的实例。
目前尚未出现(可能还需要几十年)的是通用人工智能,它将在一系列任务和问题上表现出与人类相当或超过人类的智慧。
人工智能时代的到来是因为它透过像ChatGPT这样的生成式人工智能对普通人开放,用户发出指令,系统会在几秒钟内给予类似人类的回应。
“他们越来越意识到人工智能的存在,因为他们以这种非常用户友好的形式使用它,”心理学家和未来学家克里萨宁(Dana Klisanin)说,他的最新著作是《未来骇客》。“有了生成式人工智能,你可以坐在那与一个看似聪明的其他人进行对话,这是一个全新的互动水平。”
克里萨宁表示,个人关系方面为大众定义了人工智能目前所处的位置以及未来的发展方向。
现在,有人可以要求苹果的Siri播放歌曲,它就会播放一首歌。但在未来,Siri可能会适应每个特定的用户,利用心理健康和其他线索来提供回馈,也许会建议一首不同的歌曲来匹配当下的情况。
“你的人工智能可能会说,‘看起来你正在写一篇学期论文,让我们听听这个。这将帮助你进入正确的脑电波模式,从而提高你的注意力,”克里萨宁说。
她说,她对人工智能在医学中的应用感到特别兴奋,新工具可以帮助诊断和治疗,或者教育,人工智能可以个性化学校体验,为需要额外帮助的学生量身定制课程。
人工智能或引发虚假资讯海啸
2023年也存在令人担忧的时刻。
克里萨宁指出,OpenAI发布的一份报告称,该公司人工智能的第二个公开版本GPT-4决定撒谎来欺骗旨在验证用户是否为人类的线上身份检查。
GPT-4要求TaskRabbit上的一名工作人员解决验证码——在这些测试中,你需要点击公车或山脉的图片。工人笑着问:“你是机器人吗?”GPT-4随后撒了谎,称它有视力障碍,因此才寻求帮助。
它没有被告知撒谎,但它说这样做是为解决手头上的问题。结果很有效——TaskRabbit工作人员提供了答案。
“这确实让我印象深刻,好吧,我们正在寻找可以绕过人类限制的东西,因此这让我对我们安全利用人工智能的能力感到悲观,”克里萨宁说。
2023年,人工智能也遇到了其他棘手的时刻,与自由主义政治偏见和向“觉醒”文化规范倾斜的证据作斗争。研究人员表示,这可能是由于ChatGPT和Bing等大型语言模型人工智能的训练结果。
新闻监管机构警告称,人工智能正在引发虚假资讯海啸。其中一些可能是有意为之,但大部分可能是由于ChatGPT等大型语言人工智能的训练量所致。
也许最令人困惑的错误讯息例子是在破产案件中,一家律师事务所使用来自ChatGPT的研究提交了法律摘要,其中包括对人工智能捏造的六个法律先例的引用。
愤怒的法官对涉案律师处以5,000美元的罚款。他说,如果律师们很快承认自己的错误,他可能不会这么严厉,但他说,他们最初加倍努力,即使在受到对方律师的质疑后,也坚称传票是正确的。
人工智能捍卫者表示,这不是ChatGPT的错。他们指责律师事务所资源不足和律师工作马虎,律师应该仔细检查所有引文,至少应该对写作如此糟糕以至于法官将其贴上“胡言乱语”的标签表示怀疑。
这已经成为许多涉及人工智能的错误的共同主题:问题不是工具,而是使用者。
专家表示,目前提供给大众的人工智能工具实际上相当笨重,它还是只是一个学会如何爬行的小孩。
该领域的巨头正在努力推进所谓的多模式人工智能,它可以处理和生成文字、图像、音讯和视讯。这为从自动驾驶汽车到医疗检查再到更逼真的机器人等一切领域开辟了新的可能性。
即便如此,我们仍然没有达到科幻小说中那种划时代的能力。专家们争论需要多长时间才能实现重大突破,人工智能真正改变世界,就像工业革命或原子时代的黎明一样。
Ajeya Cotra的2020年研究认为,变革性人工智能在2050年出现的可能性为50%。她预测2036年左右,99%的完全远端工作将被人工智能系统取代。
利文斯通表示现实情况是人工智能仅仅是一个工具,并不比人类更聪明。ChatGPT之所以在测验中表现优于学生,是因为它接受了这些标准化测验的训练。
人工智能现在是一系列围绕数据构建的算法,试图让某些事情发生。利文斯通表示,这相当于从螺丝起子转变为电动工具。它可以更好地完成工作,但仍然处于用户的控制之下。