【泛哲學】人工智能 (AI) 的倫理學問題 | 哲學新媒體
泛哲學

人工智能 (AI) 的倫理學問題

智能與責任
哲學界又不是真正研發 AI 的人,哲學家對智能的定義有那麼重要嗎?在某種程度上,我們不一定要依賴哲學家的定義,但哲學家確認「智能」的定義,是為了確定一件事:有智能,...

您在這裡

難度:
2

近年來,無論是科普社論、專題報導或科普、哲普文章,有許多作者都論及人工智能(Artificial Intelligence ,以下皆以 AI 來稱呼),並且似乎都不約而同地提出各種科幻作品當中的共同想像:或許有一天, AI 將會取代人類在地球上的統治地位。這類的作品不勝枚舉,從希拉里.普特南 (Hilary Putnam) 提出缸中之腦 (brains in a vat) 外面存在的那個邪惡天才科學家(好吧,這位天才科學家仍然是人類 ——但你可以假想他是 AI ),到極其知名的科幻電影《駭客任務》 (The Matrix) ,彷彿位居現階段地球生態系統最高位的我們覺得下一個世代應該就是 AI 統治的世代一樣。

但 AI 究竟是什麼?事實上,截至目前為止,「人工智能」這個概念本身並沒有一個非常明確的定義。「人工 (artificial) 」比較好理解:由人類創造,不是自然當中誕生的事物。但是「智能 (intelligence) 」呢?

「智能」其實是一個非常歧異的字。有學者對「智能」的分析是:在哲學裡,其中一種說法是若一個個體擁有智能,表示這個個體擁有心靈 (mind) 。粗略的說,你會具備一個能夠思維的心智,有著意識以及意識活動,能夠思考……。這表示對哲學家而言,(至少現階段的) AI 並不具有智能。 AI 不具備心智,沒有精神活動,沒辦法……思考。

不過,這個定義並沒有被現階段 AI 研究者所採納。其中一種分析,是認為多數的 AI 研究者採納了精神醫學 (psychology) 的定義:具備一定的認知能力 (cognitive ability) ,就可以說是擁有智能了。因此,可以認識到資料,可以「學習」的 AI ,當然是一種智能1

沒錯,你也可以指出哲學界又不是真正研發 AI 的人,哲學家對智能的定義有那麼重要嗎?在某種程度上,我們不一定要依賴哲學家的定義,但哲學家確認「智能」的定義,是為了確定一件事:有智能,是不是就代表能為自己的行為負起責任呢?現階段的 AI ,在本質上是一種進行機械學習 (machine learning) 的自動化程序,能夠透過計算我們輸入的資料,然後產生出我們想得到的結果2。而透過人工撰寫的演算法 (algorithm) ,讓 AI 能夠在這些資料當中抽取資料的特徵,即是現在許多人會提及的深度學習 (deep learning) 。換言之,不管我們怎麼定義「智能」,最後我們要追問的是:當有「智能」的「它」犯錯時,「它」可以負起倫理學上的責任嗎?

以自動駕駛技術為例,現階段的自動駕駛技術,是透過大量的數據,讓 AI 學習如何辨識感應器當中回傳的各種資訊:感應器回傳前方 30 公尺有一個障礙物,而透過鏡頭, AI 會辨識 30 公尺外那個作為障礙物的藍色物體是另一輛車,因此 AI 應該要控制車輛與其保持安全的距離。

但如果自動駕駛的車輛在不得已的情況下,必須要在兩輛車,或甚至是兩個人之間選一個人撞呢?這個堪比為電車難題 (Trolley problem) 的自駕車難題 (driverless / self-driving car problems) 在學術上引發了各種爭議,同時也在網路上帶來熱切的討論,有人甚至製作了一系列的小遊戲,讓參與遊戲的人選擇他們應該要讓自駕車撞上高齡 90 歲的老奶奶,或是躺在娃娃車裡的嬰兒。

到底該撞誰?誰又該負責?

自駕車難題包含(但不限於)以下的兩種問題:

(1) 當自駕車必須從兩個目標當中選擇撞上其中一者時,我們應該如何幫自駕車制定「該撞誰」的規則

(2) 自駕車帶來的任何傷亡,應該由誰擔負賠償與修復等責任

問題 (1) 帶來的討論,其實可以粗糙的簡化為「哪一邊比較有價值?」換言之,如果你認為老奶奶比嬰兒有價值,那麼自駕車就應該撞上比較沒價值的那一邊。自駕車難題使得麻省理工媒體實驗室 (MIT media Lab) 在 2018 年推出了一個線上實驗,並讓各個不同的國家使用者勾選他們在自駕車難題當中會做出什麼樣的選擇。最終出來的結果是:誰比較有價值,取決於你詢問哪一個國家的人民。拉丁美洲國家相信年輕人的生命價值比較高,而東方國家則比較重視老年人,也傾向於犧牲少數人來拯救多數人3

這使得自駕車的廠商很可能會在各國販售的自駕車系統當中進行不同的設定,因為自駕車難題雖然是倫理學上極其值得討論的問題,但是設計自駕車的工程師並不是倫理學家,他們沒有興趣探討價值相關的問題,而只想盡可能遵守各國的風土民情。

問題 (2) 則更加的複雜。讓我們假設一個已經簡化過的情境:假設法律已經通過了自駕車可以自行駕駛(即,法律允許駕駛員不須對車輛進行操作),有一輛自駕車為了閃避一個衝出馬路的行人,因此撞壞了一輛停在路邊的機車。假設該行人需要負擔部份責任,而:

(A) 那台自駕車,

(B) 自駕車的持有人,

(C) 自駕車的駕駛員(可以跟 A 是不同人),

(D) 自駕車的研發公司,

 (E) 制定「允許自駕車上路」政策的政府官員,

誰應該肩負起剩下的責任?

那台自駕車嗎?那我們只能以拆掉它當作懲罰,但是沒辦法求償啊。找車輛的持有人或駕駛員嗎?他(們)根本沒有駕駛車輛啊!自駕車的研發公司嗎?那應該由研發演算法的工程師,製作硬體的生產商,還是公司總裁來負責?但是那輛車已經賣給持有人了啊!政府官員嗎?那是不是每次自駕車發生意外,我們就開除某位立法委員或是體系裡面的某個官僚?

這一題是我已經盡量簡化過的案例,如果牽涉到多輛車撞傷/撞死人的意外事故,當中的責任可能更加難以釐清。這表示自駕車難題牽涉到的倫理議題,不僅僅是網路上的一則調查或是有趣的小遊戲,而是直接與自駕車到底能不能上路密切相關。

目前比較明確的是,多數學者都同意在任何 AI 引發的意外當中,應該要負責的是人類,而不是 AI 。如同前述,除非哪一天 AI 真的進步到可以依據「智能」而為自己的選擇負起責任,否則任何有關於「人工智能」的問責性 (accountability) ,最終都需要由人來負責4

AI的限制與弱點

但是 AI 不是超級萬能的嗎?演算法這個幾乎被每個科技人掛在嘴邊的字,難道不是指向一種可以幫我們解決所有問題的程式嗎?

AI其實比你想像的還要脆弱許多。現階段對演算法的想像,是認為演算法像是攝影機一樣,可以把所有的資料都照進去,然後在裡面劈哩啪啦的不知道經過什麼程序,就給出了我們要的答案。但實際上,演算法的產出 (output) 完全仰賴我們輸入 (input) 的資料,而這使得演算法非常不穩定,也很容易被操縱。

舉個例子,假設我們有一套演算法會根據學生的各種表現來幫學生評分,最後會給出一個綜合分數然後進行排名。下一件會發生的事,就是學生開始掌握這套演算法的規則是什麼:演算法比較重視數學成績嗎?那麼我應該要加強自己的數學能力。參加特殊的比賽會讓演算法幫我額外加分嗎?那我應該盡可能報名各種不同的比賽。一項公益服務就算 0.5 分?那絕對是多多益善啊。

換言之,一旦演算法的演算規則(應該輸入哪些資料)被掌握之後,演算法本身的產出就失去了公正性跟客觀性。更容易懂的例子或許是臉書 (facebook) 與 Youtube 在計算哪些貼文跟影片能夠被推送到觀看者眼前的演算法。找出這種不停變動的演算法規則,成了網紅跟 Youtuber 永遠無法停止的惡夢:每次他們找出一項規則,就會開始善用那項規則,讓自己在系統當中的排名向前移動,而因為大家都開始使用那項規則,工程師不得不調整演算法的運算規則……5

是的,演算法或許會因為持續的修正而越來越難以捉摸,但這不表示演算法強悍無比:只要你知道規則,或是輸入的資料有所偏差,你就可以輕易地影響演算法。想像一下,如果自駕車辨識「感應器前的物體是不是障礙物」的運算規則被有心人士擷取,而他只要在路上擺放一些感應器無法辨識出來的障礙物,就可以輕易地導致數十台自駕車撞毀6

另一個最常被討論到的演算法弱點,是各種透過爬蟲程式 (web crawler) 在網路上擷取資料的演算法(例如谷歌公司的搜尋引擎)其實飽含歧視偏見。理由也非常簡單:網路上的使用者寫了什麼,爬蟲程式就會擷取之後丟入演算法當中。接納了這些資料的演算法,自然會直接呈現大部分使用者(無論是否有自覺)在網路上流露出的歧視。由於這類的爭議越來越多,而導致谷歌以及臉書的工程師必須要持續調整他們的演算法參數,但仍然有許多部份留在網路上面,並持續帶來影響7

AI可以有道德一點嗎?

那麼,為什麼工程師不能把 AI 調整得更聰明一點?例如,把道德規範編寫進 AI 的演算法當中?

好吧,的確有許多學者考慮到這一點,但是問題在於我們應該挑選哪些道德規範?熟知倫理學的讀者,可能會記得倫理學當中包含各種不同的規範性架構 (normative framework) ,例如效益主義、自我主義、義務論、德性倫理學……。哪一種規範性架構正確到值得寫入 AI 的演算法當中?還是我們就隨便挑一種?

在現實當中,我們總是會面對各種不同的道德規範或價值之間的衝突,有些人覺得這個比較重要,另外有些人覺得那個比較重要。倫理學的研究之一,就是探討如何在道德規範或價值衝突的時候,引用某些模型或案例來仲裁這些衝突。因此,要讓 AI 掌握倫理,就必須要不只輸入上述的規範性架構,還要讓 AI 也能夠像倫理學家一樣,引用某些模型來解決衝突,進而計算出其 AI 應該採取什麼樣的行為8。大部分的倫理學家,的確在倫理學跟道德規範上有某些最基本的共識(例如,如果你只是為了取樂而殘暴地殺害一個嬰兒,對多數倫理學家而言,這幾乎不可能是對的),但是在哪一種規範性結構更適合作為 AI 的判斷原則上,倫理學家仍然爭執不休。這表示現階段,我們恐怕很難提供給 AI 一種明確且能夠被程序化的具體規範。

這不表示倫理學家在這件事情上什麼事都不能做。正好相反的是,為了解決這類的紛爭,有些學者指出我們應該要在 AI 的研發團隊當中,配置幾個專門處理倫理問題的倫理學家,並讓他們試著找出 AI 研究過程當中應該要遵守的最基本底限,同時思索如果 AI 出事的話,那麼 AI 研發團隊當中的責任歸屬跟釐清要如何處理。這是因為,現階段大型且重要的 AI 研發團隊,絕大部分都是專業工程師組成的,而他們往往不具備倫理學方面的知識與訓練。但是聘請倫理學家,並且為 AI 設下各種限制,真的符合以利益為導向的 AI 研發團隊嗎?

現階段的高端 AI 研發團隊,多數都是由跨國的大型科技企業所掌握的,而當中最具代表性的就是臉書、谷歌、亞馬遜與蘋果這四間科技產業的巨頭。換言之,這四間公司對 AI 科技的投資與掌握,幾乎使他們能夠定義 AI 應該遵循的倫理。當企業利益跟倫理學家提出的意見衝突時,我們不難想像這些企業家會選擇哪一邊。

AI 能夠取代人類嗎?

我在這篇文章當中只能約略地提及幾個目前 AI 在倫理上要面對的問題,但仍然有更多問題是我沒能指出的,包括演算法對個人隱私的侵害,還有各種因為科技差距而帶來的弱勢迫害等。這些問題並不是倫理學家探討了上千年的價值或道德規範,而是非常新進的問題。這使得倫理學家們必須要在非常短促的時間內想出對策,而難免在論述上捉襟見肘。

雖然本文沒辦法提出哪怕上述任何一個 AI 倫理問題的解答,不過,我們仍然可以嘗試探索這篇文章開頭指出的科幻作品想像有沒有實現的可能: AI 真的會取代人類嗎?讓我把這個問題再細分成兩個層面:

(1) AI有取代人類工作的可能嗎?

(2) AI有取代人類,成為地球生物鍊最高階存在的可能嗎?

對於問題 (1) ,是的,有可能。不過,與其說有可能,不如說當代的 AI 已經取代了極大量傳統上必須由人類來執行的精密工作,並且隨著演算法的持續改良以及數據的投入, AI 還有可能在更多的工作上面取代人類。不過對於問題 (2) ,目前學界的研究人員們的共識是:「現在」以機械學習與演算法為主的 AI ,沒有任何取代人類統治地球的可能。原因也相當地直接:「現在」的 AI ,仍然是由人類製作出來的工具,因為沒有工程師,就沒有演算法。由 AI 得出的那些數據資料如何使用,也取決於研發 AI 團隊的目的,而不是讓 AI 自行決定如何運用。

AI 將帶來大規模失業?
除了工作之外,科技巨頭也掌握著我們的隱私、金融等資訊。
因此,除非下一個世代的 AI ,與當代以演算法為主的 AI 有著截然不同的特性(例如他們真的具備自我思考以及自主學習的能力),否則短期內,我們應該不必擔心問題 (2) 的發生。但是我們都該擔心的是,現階段的大型科技公司已經透過 AI 來取代許多原先由人類從事的工作,也逐漸開始藉此壟斷大量的資源。那麼當包含銀行帳戶以及私人通訊在內的所有資料,完全存放在由科技公司所開設的伺服器之上,我們生活的一切,最終是否會被這些掌握 AI 的大型科技公司完全箝制?

或許這才是現階段的AI倫理當中,對我們而言最切身,並最值得關注的問題。

林恩志
作者
enchihlin
花了很長一段時間慢慢的唸書,但是興趣很廣泛。 覺得人跟人的倫理問題很困難,所以跑去研究人跟環境的倫理問題。鑑於環境...
訂閱哲學新媒體,支持作者持續創作、打造長長久久的哲普推廣與哲學教育平台。

會員評論