演算法下的毒蘋果_人工智慧暗藏的歧視問題
老編2020-12-07
21世紀以來,人工智慧已經逐漸走入你我的生活,從自駕車到語音助理,一代代工程師與科學家建構出了過去只在科幻小說裡能夠出現的產物,但就在人們歡欣鼓舞的迎接人工智慧來幫我們解決各式疑難雜症的同時,仍有許多你我不得不正視的問題藏在演算法之中,其中之一便是「歧視」
人工智慧和歧視乍看之下是八竿子打不著的兩回事,但「怎麼樣做出不具有歧視又有用的人工智慧系統」卻是近幾年來資訊工程中不得不面對且難解的一大問題,在討論解方之前我們首先要做的事是了解這些問題是從何而來。
先問個簡單的問題,假設我今天是一個科技公司的人資,我要做一個有用的人工智慧徵選系統用來徵選新人員,那麼我該怎麼設計它?普遍做法第一步是要收集該領域成功、優秀人士的資料或是公司裡現有及過去高效員工的資料(像是學歷、工作經歷、專長及證照……)接下來再將收集到的資料來去訓練系統,如此一來我們就能夠獲得一套能夠徵選出「現有資料顯示出最適合該產業的員工」的系統。
一切看起來都是這麼的美好且可行,然而這卻存在著一個問題,這個系統很可能存在著種族、性別或其他方面的歧視,為什麼呢?是因為我的資料裡面加入了性別及種族嗎?那我不要將這些項目納入徵選標準就好了。可惜問題並沒有這麼簡單,這些歧視在前面提到的學歷、工作經歷……就已經存在了,只要我們身在一個存在歧視的社會裡,我們就幾乎不可能獲得不帶歧視的數據資料,也因此我們所訓練出的系統就會將這些歧視保存下來,因為它的工作是「找出最符合數據中的合適人選」,或是更精準的來說-「找出最符合存在歧視的社會中產出的數據中的和適人選」
事實上這樣的問題在科技領域早已不是新聞,包括美國、歐盟在內的許多單位都已經對相關問題提出了規範與要求,像是Google、Imandra等科技公司都在試著透過各種方式去給出更好的解方,目前常見的做法是在設計系統時不只讓系統產出結果同時也產出原因、透過試驗系統來檢視結果是否符合要求……。
除了從科技端解決歧視問題之外,從使用者端同樣也存在著理想的解方,Ben Green的「被科技綁架的智慧城市」一書中介紹到的「預測性警務系統」便是一個相當好的例子。
在「預測性警務系統」問世後,人們對於這項科技產物的評價呈現相當兩極的分佈,一類將其視為科技在維持治安上的重大突破,但也有另一類人將其視為強化歧視的工具,而兩方的勢力也不斷的拉扯讓相關工具在實際上路前後都遇到了不少的阻礙。
然而,書中所提出的解方以近乎完美的方式避開了歧視的問題同時又能夠最大化相關共聚的效力。退一步想,理想的預測性警務系統的最大目的便是要降低犯罪問題所帶來的外部成本,同時又不會因為系統自帶的歧視問題帶來而外的外部成本,於是便有人想到了另一種完全不同的使用方式-在預期發生犯罪的熱點投入「資源」而非警力,如此一來我們便可從源頭解決犯罪的發生,同時又能避免歧視的產生。儘管前項例子做法未必完全適用於所有場景,但其驚人的創意及思維無疑是值得學習的,而這種彈性的思考模式正是我們在解決類似問題中必須具備的。
誠如之前介紹過的「華爾街的物理學」,人類不斷的創造新的發明同時也不斷發明新問題,不論是金融模型還是人工智慧都存在著先天的問題,在擁抱這些創新帶來的便利與紅利的同時我們也要對他的缺陷有所認知,如此一來我們才能真正享受到這些科技產物所帶來的外部效益同時又可以盡量免於為其外部成本所苦。