選單

AI 識別又翻車!將黑人標記為“靈長類動物”可還行?

本文轉載自:AI科技大本營

雖然我們已經走進了人工智慧的時代,人工智慧的發展也確實給我們的生活帶來了很多的便利,但事實上,並不是所有的AI都會按照我們理想的方式執行。

最近,Facebook使用者在觀看一段以黑人為主角的影片時,會看到一個自動生成的提示,詢問他們是否願意

“繼續觀看靈長類動物的影片”

然而,影片的內容是幾個黑人和警察發生了爭執。

AI 識別又翻車!將黑人標記為“靈長類動物”可還行?

所以這“靈長類動物”是指黑人還是警察?

影片在網上引起了網友的憤怒。

Facebook發言人接受採訪時表示,這是“明顯不可接受的錯誤”,並表示涉及的推薦功能已下線。

01

我們的AI並不完美

該影片是由《每日郵報》2020年6月27日釋出。

影片中有白人、黑人和警察,他們之間發生了一些爭執,但影片內容卻和靈長類動物無關。

針對此事,前 Facebook 內容設計經理 Darci Groves 在推特發出該推薦提示截圖,並表示這令人無法接受。Groves 還將其釋出到一個面向 Facebook 現任和前任員工的產品反饋論壇。

作為迴應,Facebook 影片平臺 Facebook Watch 的產品經理稱其「不可接受」,並表示該公司正在「調查根本原因」。

AI 識別又翻車!將黑人標記為“靈長類動物”可還行?

Facebook 擁有世界上最大的使用者上傳影象儲存庫之一,用於訓練其面部和物件識別演算法。

Facebook 發言人 Dani Lever 在一份宣告中表示:“正如我們所說,儘管我們對人工智慧進行了改進,但我們知道它並不完美,我們還有很多改進要做。我們向任何可能看到這些冒犯性推薦資訊的人道歉。”

02

AI種族歧視不是第一次

AI 系統存在種族偏見並不是頭一回了。

早在之前,就有谷歌、亞馬遜、Flickr等多家科技公司都曾因其人工智慧系統中存在的偏見,有研究表明面部識別技術因存在種族偏見導致識別困難,甚至曾有報道稱黑人因 AI 存在的問題而受到歧視。

2015 年,Google 更新了其照片應用,加入了一個自動標籤功能,透過機器識別照片中內容進行自動分類並打上標籤,方便管理和搜尋。但不成熟的技術惹了大麻煩。

紐約布魯克林的黑人程式設計師Jacky Alcine驚訝地發現,她和一位女性朋友(也是黑人)的自拍照標記為「大猩猩(Gorillas)」,谷歌當即深表歉意,並表示將立即解決問題。

AI 識別又翻車!將黑人標記為“靈長類動物”可還行?

然而兩年後,《Wired》雜誌發現谷歌的解決方案僅僅是防止將任何圖片標記為大猩猩、黑猩猩或猴子。隨後谷歌證實,在2015 年之後,為了解決這一錯誤,谷歌直接從搜尋結果中刪除了這一詞條的標籤。

雅虎旗下的照片分享網站Flickr也曾經因為照片自動識別功能被詬病,與谷歌的迴應方式相似,Flickr也是直接從標籤詞典中把“猿猴”一類的詞刪掉。

03

結語

有人認為:這是一個複雜的計算機視覺問題。

有人評論:但是人類不會犯這種低階的錯誤,為什麼 AI 會呢?

還有人評論:演算法對於這種人臉識別的經驗較少,並且不知道如何將它們歸類。

那麼,AI為什麼會出現無法將黑人識別為人類呢?

外媒 WIRED 曾報道過,美國政府的測試發現,人臉識別AI對黑人和白人的識別錯誤率,有5-10倍的差距。

黑人被識別錯誤的機率,遠遠要高於白人,而黑人女性被識別錯誤的機率,又遠遠高於白人和黑人男性。

AI人臉識別在不同人種之間產生錯誤的機率相差如此巨大,這些社交巨頭並非沒有他們所說的那樣無辜。

畢竟寫程式碼的是人,AI演算法執行的結果其實就是編碼者計算思維的展現。說得嚴重點,可能就是其內部種族歧視現象的一種外化罷了。

人工智慧技術的初衷就是讓更多的人平等而有尊嚴地生活下去,但如果連開發者自己都無法克服種族歧視的偏見,那麼又怎能讓AI也做到平等待人呢?