發表時間: 2010-03-13 22:46:35作者:
上週在德國漢諾威電腦展(CeBIT)出場表演的足球機器人技驚四座,吸引了全場目光。然而,美國智庫布魯金斯研究所(Brookings Institution)資深研究員辛格博士(Dr Peter Warren Singer)警告,看似蓬勃發展的機器人技術,隱藏著令人憂心的問題。
據英國科技網站v3.co.uk報導,辛格表示,機器人產業目前所處的位置,類似1909年的汽車產業。未來,人類的日常生活將出現越來越多機器人,人類正面臨一場機器人革命,機器人將被賦予更多人性,伴隨而來的道德問題,對人類社會將造成巨大衝擊。
2015年 半數美軍是機器人
法新社報導,除了家用及產業用之外,最早研究機器人的美國把重心放在軍事及太空用途。目前全球戰場佈署了不少具備智慧的機器人,從機動榴彈發射器到可發射飛彈的無人飛機,都可自行偵測並鎖定目標,不需人類協助。
在伊拉克戰場上,美軍於地面部署了4,000多個武裝機器人,無人飛機也累積了數十萬小時的飛行時數。
辛格指出,美國空軍招募的無人飛機領航員數量,已超過了載人飛機的飛行員。美國軍方亦規劃在2015年之前,軍隊的一半人員由機器人所取代。
據美國防部 2007——2032年無人系統計畫(Unmanned Systems Roadmap 2007-2032)資料顯示,預計美國投入無人技術系統的總花費將達240億美元。專家預測,美國在10年內就可佈署編製有150名士兵與2,000名機器人的特遣部隊。
然而,其中問題重重。2008年,南非一架電腦控制的防空大炮出現所謂的軟體失靈(software glitch),自動開炮至彈藥耗盡,導致9名南非士兵死亡。
機器人軍備競賽
除了居領導地位的美國之外,其他國家也相繼投入重金研發機器人戰士,如南韓及以色列佈署了武裝機器人守衛邊界;中國、印度、俄羅斯與英國則加強軍隊使用機器人。
英國雪菲爾大學(University of Sheffield)人工智慧與機器人專家夏基(Noel Sharkey)教授警告:軍事機器人對人類構成威脅。
夏基指出,這些以戰爭為目的製造出來的持槍機器人,自主性愈來愈高,不但可輕易落入恐怖份子手中,隨著價格下跌,科技愈來愈簡單化,有朝一日或許會引發全球機器人軍備競賽。
迄今,機器人仍需由人類按下按鈕,或是扣扳機。但如果人類不小心,情況可能改觀。
人工智慧機器人戰士 掌握生死大權
夏基說,最令人憂心的是,目前佈署的半自動型軍用機器人,將發展到成為完全獨立的殺人機器。
據美國國家科學研究會(The US National Research Council)的資料,美國正積極開發全自動機械在戰爭中提供的可觀利益。美國海軍稱,全自動機器人的製造成本低廉,需求人力較少,在複雜的任務中表現較佳。只需一個戰場軍人操縱,就可在空中及地面展開大規模機器人攻擊。
美軍明白表示,想盡快擁有自主型機器人(autonomous robots),就成本效益來說,可打一場無傷亡風險的戰爭。
與美軍合作研發機器人的喬治亞理工學院學者艾金(Ronald Arkin)同意,機器人將會逐漸轉變成具自主行動能力。
夏基曾在英國《衛報》發表專文指出,美國防部為了平息反對聲浪,特別投資設計讓機器人士兵具備道德判斷能力。然而,機器人根本無法有效分辨前方是載滿敵軍的巴士或只是學童校車,遑論道德判斷。
人類士兵有《日內瓦公約》(Geneva conventions)作為準則,自動型機器人卻只能適用《武裝衝突法》(laws of armed conflict),但它們卻與其它標準武器不同。人類真要將自己的生死大權交給不夠聰明、也稱不上愚笨的機器人手中嗎?
在人類發展機器人早期,俄裔美籍作家兼生化學家以薩‧艾西莫夫(Isaac Asimov)在其科幻小說中發表了機器人三大定律:
1.機器人不能傷害人類,見到人類陷入危險也不能置之不理。
2.在不違反第一原則下,機器人必須服從人類命令。
3.在不違反第一、第二原則下,機器人必須保護自己。
但是,各國無視機器人三大定律,爭相製造戰爭機器,這個定律能發揮多少作用,由此可見一斑。
辛格表示,機器人內部所設定的道德程式不是重點,使用機器人的人類之道德水準才攸關重大。
夏基說:「我在人工智慧領域鑽研數十年,機器人可決定人類生死的想法,令我十分恐懼。」