ChatGPT恐威脅全人類 馬斯克:AI比核武更危險(圖)

發表:2023-03-19 09:11
手機版 简体 打賞 2個留言 列印 特大

2023年2月7日,OpenAI 首席執行官阿特曼(Sam Altman)在華盛頓雷德蒙德的 Microsoft宣佈為Bing集成ChatGPT的主題演講中發表講話。
2023年2月7日,OpenAI 首席執行官阿特曼(Sam Altman)在華盛頓雷德蒙德的 Microsoft宣佈為Bing集成ChatGPT的主題演講中發表講話。(圖片來源:Jason Redmond/AFP via Getty Images)

【看中国2023年3月18日讯】美國人工智慧研究實驗室「開放人工智慧」(OpenAI)於去年底推出讓全世界皆驚艷的「ChatGPT」,在15日再推出新一代的語言模型GPT-4,使人工智慧(AI)成為全球輿論的焦點。然而被譽是ChatGPT之父的阿特曼(Sam Altman)於16日竟然指稱,公司推出此項新技術,同時也會害怕它會對人類造成威脅,甚至帶來「真正的危險」。

據《衛報》報導指出,近日OpenAI的執行長阿特曼在受訪之時表示,作為一個共同開發者,最令人擔憂的是ChatGPT是否會遭用來大規模散佈假消息,如今在編寫電腦代碼上做得越來越好之情況下,使得輕易就能夠用於侵略性網路攻擊。但特曼也提及,雖然ChatGPT存在著危險性,但它仍然為人類迄今開發的最偉大技術。

報導中指出,企業家馬斯克(Elon Musk)同樣也是OpenAI第一批投資者之一,他曾經多次發出警訊,認為AI與AGI(通用人工智慧)等相關的技術,可能會比核武器更加危險,且擔心微軟於其Bing搜索引擎上託管ChatGPT,而卻解散道德監督部門。所以馬斯克認為,政府方面也應該制定與AI相關之安全法規。

關於AI的安全監管的議題上,阿特曼提及,有一些人沒有設下安全限制,而社會只能於有限的時間內,來弄清楚該如何反應,所以如何監管和處理就會顯得十分重要,以防止對於人類造成潛在之負面影響,但人們亦應該為自己產生之敬畏之心感到高興。

拙劣的深偽假主播 這公司揭出北京資訊戰新手法

美國時間2月7日,社交媒體分析公司Graphika發表了以《深偽直到你辦到:親中國行動者於網路影響力行動中推廣了AI生成之虛構人物影像片段》為題的報告,其揭露出一個名為 《狼新聞》(Wolf News)之虛構新聞媒體,它以AI深偽2個主播,且播報親中國共產黨,以及貶抑美國的相關報導。

報告中指出,去年年底,親中國的機器人帳戶於臉書與推特上發布了《狼新聞》兩名「主播」之報導影片。不過這兩位主播已經處處透露出種種奇怪的蛛絲馬跡。除了他們的聲音相當生硬,而且跟嘴形也無法同步,他們的臉看起來有如素化過的電玩遊戲人物般,發現頭髮看起來不自然地貼於頭上,同時字幕也充滿了錯誤的文法。

深偽技術經過了近10年來發展,已經可以捏造人物說話。人工智能軟件有時候會遭用來歪曲公眾形象,比如去年俄羅斯攻打基輔之時,在社群平台上就出現了深偽烏克蘭的總統澤連斯基(Volodymyr Zelensky)宣布投降之畫面。

長期以來,虛假信息專家一直警告稱,深偽影像將可能會進一步削弱人們於網上辨別真偽之能力,甚至可能遭濫用來引發動盪或者引起政治醜聞。如今這些預測已經成為現實了。

雖然現在抓到的親中國假訊息活動使用的深偽還非常拙劣,只要稍加留意就可以識破,不過各界必須嚴肅來面對「資訊戰的新篇章已然開啟了」。

責任編輯:王君

短网址: 版權所有,任何形式轉載需本站授權許可。 嚴禁建立鏡像網站。



【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。
榮譽會員

歡迎給您喜歡的作者捐助。您的愛心鼓勵就是對我們媒體的耕耘。 打賞
善举如烛《看中国》与您相约(图)

看完這篇文章您覺得

評論



加入看中國會員

捐助

看中國版權所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意