本文轉載自:AI科技大本營
雖然我們已經走進了人工智慧的時代,人工智慧的發展也確實給我們的生活帶來了很多的便利,但事實上,並不是所有的AI都會按照我們理想的方式執行。
最近,Facebook使用者在觀看一段以黑人為主角的影片時,會看到一個自動生成的提示,詢問他們是否願意
“繼續觀看靈長類動物的影片”
。
然而,影片的內容是幾個黑人和警察發生了爭執。
所以這“靈長類動物”是指黑人還是警察?
影片在網上引起了網友的憤怒。
Facebook發言人接受採訪時表示,這是“明顯不可接受的錯誤”,並表示涉及的推薦功能已下線。
01
我們的AI並不完美
該影片是由《每日郵報》2020年6月27日釋出。
影片中有白人、黑人和警察,他們之間發生了一些爭執,但影片內容卻和靈長類動物無關。
針對此事,前 Facebook 內容設計經理 Darci Groves 在推特發出該推薦提示截圖,並表示這令人無法接受。Groves 還將其釋出到一個面向 Facebook 現任和前任員工的產品反饋論壇。
作為迴應,Facebook 影片平臺 Facebook Watch 的產品經理稱其「不可接受」,並表示該公司正在「調查根本原因」。
Facebook 擁有世界上最大的使用者上傳影象儲存庫之一,用於訓練其面部和物件識別演算法。
Facebook 發言人 Dani Lever 在一份宣告中表示:“正如我們所說,儘管我們對人工智慧進行了改進,但我們知道它並不完美,我們還有很多改進要做。我們向任何可能看到這些冒犯性推薦資訊的人道歉。”
02
AI種族歧視不是第一次
AI 系統存在種族偏見並不是頭一回了。
早在之前,就有谷歌、亞馬遜、Flickr等多家科技公司都曾因其人工智慧系統中存在的偏見,有研究表明面部識別技術因存在種族偏見導致識別困難,甚至曾有報道稱黑人因 AI 存在的問題而受到歧視。
2015 年,Google 更新了其照片應用,加入了一個自動標籤功能,透過機器識別照片中內容進行自動分類並打上標籤,方便管理和搜尋。但不成熟的技術惹了大麻煩。
紐約布魯克林的黑人程式設計師Jacky Alcine驚訝地發現,她和一位女性朋友(也是黑人)的自拍照標記為「大猩猩(Gorillas)」,谷歌當即深表歉意,並表示將立即解決問題。
然而兩年後,《Wired》雜誌發現谷歌的解決方案僅僅是防止將任何圖片標記為大猩猩、黑猩猩或猴子。隨後谷歌證實,在2015 年之後,為了解決這一錯誤,谷歌直接從搜尋結果中刪除了這一詞條的標籤。
雅虎旗下的照片分享網站Flickr也曾經因為照片自動識別功能被詬病,與谷歌的迴應方式相似,Flickr也是直接從標籤詞典中把“猿猴”一類的詞刪掉。
03
結語
有人認為:這是一個複雜的計算機視覺問題。
有人評論:但是人類不會犯這種低階的錯誤,為什麼 AI 會呢?
還有人評論:演算法對於這種人臉識別的經驗較少,並且不知道如何將它們歸類。
那麼,AI為什麼會出現無法將黑人識別為人類呢?
外媒 WIRED 曾報道過,美國政府的測試發現,人臉識別AI對黑人和白人的識別錯誤率,有5-10倍的差距。
黑人被識別錯誤的機率,遠遠要高於白人,而黑人女性被識別錯誤的機率,又遠遠高於白人和黑人男性。
AI人臉識別在不同人種之間產生錯誤的機率相差如此巨大,這些社交巨頭並非沒有他們所說的那樣無辜。
畢竟寫程式碼的是人,AI演算法執行的結果其實就是編碼者計算思維的展現。說得嚴重點,可能就是其內部種族歧視現象的一種外化罷了。
人工智慧技術的初衷就是讓更多的人平等而有尊嚴地生活下去,但如果連開發者自己都無法克服種族歧視的偏見,那麼又怎能讓AI也做到平等待人呢?