人工智能(AI)技術公司OpenAI(OLIVIER DOULIERY/AFP via Getty Images)
【看中國2023年7月10日訊】人工智能(AI)技術公司OpenAI擔心,未來十年超級智能的實現可能導致人類滅絕,該公司正在正在組建團隊防止這一切的發生。
全球流行的聊天機器人ChatGPT的製造者OpenAI表示,人工智能將為新的超級智能提供動力,幫助解決世界上最重要的問題,並成為人類發明的最重要技術。
然而,OpenAI聯合創始人兼首席科學家蘇茨克韋爾(Ilya Sutskever)和OpenAI聯盟負責人雷克(Jan Leike)警告,人類還沒有準備好應付超級智能。「超級智能的巨大力量可能非常危險,可能導致人類喪失權力,甚至滅絕,」蘇茨克韋爾和雷克在OpenAI的博客上寫道,「雖然超級智能現在看起來還很遙遠,但我們相信它可能在十年內到來。」
OpenAI最頂尖的科學家表示尚無計畫阻止AI推動的世界末日即將到來。「目前,我們還沒有一個解決方案來引導或控制潛在的超級人工智能,並防止其失控,」兩人寫道,「我們目前調整人工智能的技術,如根據人類反饋進行強化學習,依賴於人類監督人工智能的能力。但人類無法可靠地監督比我們聰明得多的人工智能系統。」
兩人透露,公司正在招聘研究工程師、科學家和管理人員,以組建新團隊,並限期四年通過解決超級智能的技術挑戰來幫助預防世界末日。
OpenAI領導人表示,他們並不能保證能阻止人類潛在的終結,但仍持樂觀態度。
美國國會也擔憂AI的潛在風險。參議院多數黨領袖舒默(Charles E.Schumer)呼籲制定管理AI的新規則,參議院司法委員會將繼續舉辦AI監督的聽證會,包括對AI可能導致網絡攻擊、政治不穩定和部署大規模殺傷性武器的擔憂進行審查。
5月,OpenAI首席執行官奧爾特曼(Sam Altman)在參議院司法委員會作證時表示,他擔憂AI工具可能被濫用來操縱人類。
參議院司法主席德賓(Richard J.Durbin)表示有興趣創建「AI問責制度」,其中包括人工智慧工具造成損害時潛在的聯邦和州民事責任。
谷歌和微軟等大型科技公司(OpenAI的捐助者)也呼籲對AI進行新的監管,聯邦政府正在傾聽。
拜登政府正忙於制定國家AI戰略,白宮高級官員每週會就AI相關問題舉行多次會議。
OpenAI週四表示,它正在向公眾提供其「最強大」的人工智能模型GPT-4,以提高開發人員的可訪問性。