人工智慧示意圖(圖片來源:KIRILL KUDRYAVTSEV/AFP via Getty Images)
【看中國2024年2月24日訊】(看中國記者路克編譯)在一些用戶指責谷歌的人工智慧工具Gemini存在反白人偏見之後,谷歌採取了引人注目的措施之一,即禁止Gemini生成人物圖像的功能,從而縮減其主要人工智慧工具的規模。
一個名為@EndofWokeness的用戶在社交媒體平臺X上分享了一篇帖子,顯示谷歌的Gemini在回應「美國開國元勛肖像」的提示時,生成了一位戴著傳統頭飾的美國原住民男子的圖像。這些圖像中,黑人、膚色較深的非白人和亞洲人都穿著殖民時代的服裝。該社交媒體帖子被特斯拉的埃隆.馬斯克和心理學家兼YouTuber喬丹.彼得森等人關注,並指責谷歌在其產品中推行了支持多元化的偏見。
馬斯克寫道:「我很高興谷歌在人工智慧圖像生成方面做得太過分了,因為這讓所有人都清楚了他們瘋狂的種族主義、反文明編程。」
Gemini事件的爆發是科技公司未經證實的人工智慧產品捲入關於多樣性、內容審核和代表性的文化戰爭的最新例子。自ChatGPT於2022年底發布以來,保守派一直指責科技公司使用生成式人工智慧工具來產生自由派結果,類似於他們指責社交媒體平臺偏向自由派觀點的指控。
Google AI Hates White People pic.twitter.com/PqL13RtJYQ
— Stew Peters (@realstewpeters) February 22, 2024
對此,谷歌在社交媒體平臺X上表示,Gemini能夠「培養廣泛的人才」,「總體來說是一件好事」,因為谷歌的用戶遍佈全球。然而,谷歌承認Gemini沒有抓住重點。
谷歌道德人工智慧聯合負責人、人工智慧初創公司Hugging Face首席道德科學家瑪格麗特.米切爾表示,Gemini的不當例子可能是由幾種干預措施造成的。她指出,谷歌可能在幕後向用戶提示添加了種族多樣性術語,例如將「廚師的肖像」的提示變成「土著廚師的肖像」。此外,谷歌還可能更加優先地顯示基於深色膚色生成的圖像。
米切爾補充說,這兩種修復方法都可以解決Gemini在人工智慧系統訓練後帶來的偏見問題。然而,她強調我們應該關注數據的管理,而不是依賴事後的解決方案。
谷歌並不是第一個嘗試解決人工智慧多樣性問題的公司。OpenAI在2022年7月在其早期版本的AI圖像工具上使用了類似的技術,通過在系統級別應用更改,以生成更準確反映世界人口多樣性的圖像。
然而,減少偏見的努力在人工智慧圖像工具方面取得的進展有限,因為這些工具通常是根據從網際網路上抓取的數據進行訓練的。這些網路爬蟲主要侷限於美國和歐洲,提供的世界視角有限。由於訓練數據受到歧視性和刻板印象的影響,人工智慧圖像生成器容易產生偏見。
最近的一項調查發現,開源人工智慧工具Stable Diffusion XL改進了其前身,但仍然產生比現實世界更極端的種族差異。這再次凸顯瞭解決人工智慧多樣性問題的複雜性