【專文】法律能夠防止AI危害人類嗎?

AI會遵循何等之法則,實取決於人類的程式設計,但面對涉及高度道德與價值判斷的選擇時,果能數值與數位化?真正該究責的對象,是人還是AI?且當AI發展到具有完全自主性時,人類制定的法律,真能防止其反客為主嗎?

吳景欽(真理大學法律系所教授兼刑事法研究中心主任)
2024/06/07 18:51
今年3月歐洲議會通過全球第一部人工智慧法。示意圖/pixabay

輝達執行長黃仁勳訪台帶來AI浪潮,但隨著科技進步,AI有否可能反客為主,也會是人類之憂慮;歐洲議會今年3月通過全球第一部人工智慧法,就在回應如此的擔憂,惟法規範,真能使AI不危害人類嗎?

機器人三法則

在1940年代,著名科幻小說家亞西摩夫(Isaac Asimov)就提出機器人三法則,即機器人不能傷害人類或使其受傷害,並在此前提下服從人類命令,最後才是保護機器人自身,而歐盟的人工智慧法,雖有長達400多頁的立法說明,但究其實質,仍不脫機器人三法則之框架。

至於在歐盟的人工智慧法中,將AI所可能帶來的危害加以層級化,即不可接受風險、高風險、有限風險與低風險,並因此為寬嚴密度的不同規範,其中最應關注者,自屬不可接受與高風險AI,到底要如何規範。

輝達執行長黃仁勳訪台帶來AI浪潮,但AI有否可能反客為主,也會是人類之憂慮。圖/擷自非凡電視台/片源:NVIDIA

歐盟人工智慧法的層級化規範

所謂不可接受風險的AI系統,如使用欺瞞手段影響人類決定,或利用人性弱點影響人類做出傷害行為,甚或使用生物或人臉辨識系統來為種族、意識形態、政治傾向等之分類與探知,因皆屬嚴重侵害人類權利,除少數為偵查特定犯罪之外,都應全面禁止。

至於高風險的AI,如現今已被運用於醫療、教育、交通等事務者,只要能符合歐盟相關規範,就可進入市場,但業者須負有風險評估、人類可為控制AI、透明性等之義務,以確保人類不受傷害;故歐盟的人工智慧法,似已為AI不能超越人類劃出一條紅線。

歐盟的人工智慧法案將AI可能的危害加以層級化,即不可接受風險、高風險、有限風險與低風險,並據此為寬嚴密度的不同規範。示意圖/pixabay

惟對於風險高低的界分仍屬模糊,必須要有更具體的準則,至於對不可接受風險的AI,所謂禁止,到底是禁止運用,還是連開發都不行,恐也有其不確定性。

尤其是在某些特定領域,如偵查某些犯罪,亦開一例外,但到底那些犯罪,卻又是極度模糊,如此不可接受風險的AI,實仍存在著某種程度的威脅,至於已被大量運用的更風險AI,人類果能控管,也屬未知。

電車軌道難題

以逐漸從實驗轉向商用,即由AI操控的無人駕駛車來說,必然得面對車輛即將肇事時,該如何迴避之問題,這就讓人想到一個倫理學的問題--「電車難題」(Trolley Problem)。

英國哲學家菲力帕・芙特(Philippa Foot)於1967年提出「電車難題」:當軌道上的電車煞車失靈,駕駛者若什麼都不做,將直接撞到5個工人,若是右轉,會撞上一名工人,這位駕駛該怎麼辦?不作為或將電車右轉?

這個難題涉及邊沁的功利主義與康德的道德義務主義之爭,自然會因自身的道德標準而有不同答案,惟就現實來說,轉彎撞死一人的選擇,似乎會占多數,若真如此,是否可以五人生命大於一人生命來阻卻違法呢?

「電車難題」涉及邊沁的功利主義與康德的道德義務主義之爭,生命無價,能否以人命的多寡來論孰輕孰重、阻卻違法?圖:英國哲學家菲力帕・芙特(Philippa Foot)「電車難題」示意/維基百科

依我國刑法第24條第1項,基於緊急避難的行為是可以阻卻違法的,惟主張緊急避難必須是基於不得已,更重要的,是保全的法益必須大於犧牲的法益。

在電車難題裡,煞車失靈選擇右彎也屬最後手段,且為救5人生命而犧牲一人,似乎也符合法益權衡原則,但生命無價,是不可以人數多寡來論孰輕孰重,因此就算為了5人性命而犧牲一人,也不能主張緊急避難來阻卻違法,頂多以避難過當來減輕或免除刑罰。

正義思辨轉為現實

當原本屬於哲學思辨的議題,轉成現實,法律又該如何回應?如無人駕駛車上有一乘客,前方突有路樹傾倒,在左方逆向車道有載滿人的公車、右方人行道有一行人,即面對生命權保障之衝突,AI會遵循何等之法則,實皆取決於人類的程式設計,只是如此涉及高度道德與價值判斷的選擇,果能數值與數位化,卻肯定是個疑問,且無論AI做出怎樣的決定,都不可能不侵害到生命,那麼,該究責的對象,到底是人、還是AI?更重要的是,當AI發展到具有完全自主性時,人類所制定的法律,真能防止其反客為主嗎?

屬作者意見,文責歸屬作者,不代表本報立場。

您已成功複製連結