AI決策大考驗:電車難題揭露人工智慧的倫理困境

AI人工智慧必看書單 — — 《AI世代與我們的未來:人工智慧如何改變生活,甚至是世界?》讀後感

Vivian Ku
Jul 28, 2023

今年初閱讀完《AI世代與我們的未來:人工智慧如何改變生活,甚至是世界?》以後,覺得深感震撼,因為AI帶給人類的,是可以重新塑造「我們想要的未來」的機會。如同所有新科技的誕生一樣,人類有機會選擇好的與壞的運用,但是儘管我們將AI運用在好的或是必要的地方,也得準備好面對AI帶來的複雜倫理議題。

這就讓我想到著名的「電車難題」,下面就用兩個小故事,來分享AI人工智慧是如何挑起人類的道德討論。

相信大家都有聽過著名的哲學思辨題目「電車難題」,大意是一輛失控的列車在軌道上行駛,而前方的軌道上正綁有五個無法動彈的人,身為列車長的你,如果此時將列車切換到另一條軌道,則只會傷害到另一個被綁住的人,那麼如果是你,你會怎麼做呢?

這個有名的哲學問題早已被許多人廣泛的討論,我認為現實生活中之所以不常遇到這類的極端例子,是因為我們通常沒有辦法預先明確得知道事情的後果。然而在AI主宰的世界,這類情境式問題幾乎是他的強項。

第二個故事則是,從較早期的西洋棋電腦程式到AlphaZero的西洋棋AI,就可以看出AI如何更深刻的影響,甚至是改變我們原所熟悉的社會典範。

過往的西洋棋程式是輸入了大量人類棋手的棋路,因此系統學習的是人類的經驗、知識與策略,然而AlphaZero的AI模型則僅知道西洋棋的規則,剩下的完全倚賴AI模型的訓練,以謀取最大的勝算。因此,在下棋的過程中,AlphaZero可能做出不合人類常理的舉動,例如放棄人類棋士絕對不可能放棄的棋子。

這個看似“沒道理”的舉動,卻能幫助AI棋士獲得最終的勝利。然而,這樣讓人不解的行為,發生在棋桌上也許影響力還不算大;若是發生在軍事的領域中,不免讓人開始擔心。

我們不禁思考,在戰爭與軍事的領域中,如果AI佔據決策的一大部分因素,人類會如何面對:AI明確的叫我們犧牲一部分人的利益,甚至是生命,以換取戰爭最終的勝利(假設等同於其餘多數人的勝利),而且如同黑盒子一般的AI不會告訴我們任何放棄的理由,那麼此時的我們像是電車的車長,我們能如何推翻掉AI的推論?如何以任何依據執行這樣的決定?

我認為以戰爭的例子來討論AI在人類社會上的道德問題,是最恰當不過的,因為哲學問題經常用最“極端”的問題,來發人深思。儘管Open AI的CEO— — Sam Altman在之前的聽證會上強調了我們需要一個國際級的AI監管單位,不過,我相信實在也很難控制所有人都不要在軍事上(或是某種用例上)使用AI。

早在自駕車的領域中,AI的倫理學問題就常被拿出來討論,假如自駕車必得撞上一名路人,他會根據怎樣的邏輯做選擇?我們有機會讓AI學習人類的道德嗎?所謂人類的道德又怎麼會有全球一致的標準呢?曾有學者做過研究,如果把「電車難題」中的另外那一人,設定為列車長的親朋好友,多數的人都會選擇讓電車撞上原本的那五個人,人類會不會有一天也把這樣的邏輯放進自駕車中?不論是電車難題或是自駕車難題,這些是連ChatGTP都難以回答的,他可能會嘗試”跳出框架“的思考,例如想盡辦法煞車等,但是始終也無法直面這艱難的道德問題。

最後,我也十分認同《The Age of AI: And Our Human Future》書中所說的,AI最終改變的是人類社會的運作邏輯,迫使人思考及面對——是否有人類無法理解的邏輯和永遠不可知的現實。當從前的科幻小說變成現在進行式,我們需要有更多的理解與討論,社會才能真正因AI而進步。

--

--

Vivian Ku

科技轉型顧問@英國倫敦,關注解決都市議題之新創公司、商業模式與未來城市產業趨勢,寫作是為了保持學習的節奏。文章分類: Smart City | Growth Mindset | Entrepreneurship | Reading. Link: linktr.ee/vivianku.growth