臉部辨識原來有這些隱憂?人工智慧真的讓你放心嗎?(下)
這些關於 人工智慧 臉部辨識的隱憂,原因到底是什麼?這些隱憂短期內能被解決嗎? 為什麼 人工智慧 不擅長辨識黑人女性? ▲ 科學期刊《自然》所刊之專文指出,被偏倚資料組訓練出來的演算法,通常僅會將左圖辨識成「新娘」。(圖片來自:Left:iStock/Getty;Right:Prakash Singh/AFP/Getty) 那究竟為什麼 AI 不擅長辨識黑人與女性呢?讓我們從波拉維尼的故事說起: 在 MIT 實驗室的某日,波拉維尼用自己的臉部照片測試了微軟、IBM 等公司的臉部辨識 服務,卻發現這些將自己宣稱的多先進的服務,有的將她誤認為男性、有的對她的照片沒有反應,根本辨識不出東西,錯誤率高得令她吃驚。 一直到她戴上白人面具,AI 彷彿恢復正常般,又可以辨識了。難道是她的臉部長相太特別、剛好是 AI 辨識不出來的特例?還是……這些辨識服務本身就有漏洞? 於是,波拉維尼決定進行更廣泛的測試。她輸入了超過 1000 張照片,包括不同種族、不同性別。結果發現一個明顯的趨勢:膚色愈白,辨識正確率就越高;另一方面男性的正確率遠比女性高。讓她明白為何臉部辨識幾乎無法認出她——因為她是一位具有「雙重弱勢」黑人女性,她這類人的辨識正確度,遠遠低於白人男性。 真相其實很簡單,歸根究柢就是因為在訓練演算法時,開發團隊沒有提供多元的種族和性別資料給 AI 所導致。換句話說,AI 在「成長過程」中,認知到的世界就多由白人、男性所構成。 即使並沒有人刻意將 人工智慧 訓練成這樣,但它可能引發的後續問題,或許比存有種族偏見的街頭警察更加嚴重…… 還沒有完善就直接上陣的演算法 這個問題多花點時間就可以修正,只要提供多元組成的資料給 AI 即可,但這些科技公司依然選擇讓不完全的臉部辨識服務上線。 而臉部辨識服務也不是唯一一個,將存有偏見疑慮的 人工智慧 服務投入實用的案例: 2018 年紐西蘭移民署(Immigration New Zealand)實行一項實驗計畫(pilot programme),藉由國家簽證申請程序蒐集移民的年齡、性別、種族、犯罪紀錄、醫療費用欠繳紀錄等等資料,預測這些居留者如果續留,有無犯罪的可能或是否帶來更多醫療支出。一旦 AI 認為,某些移民有治安或醫療方面的疑慮,他們將無法重...