選單

人工智慧的發展需要時刻保持技術道德的監督

研究人員發現了一種數學方法,可以幫助監管機構和業務管理,並監管人工智慧系統做出偏向不道德的選擇,這個選擇可能會浪費資源和破壞性商業。

人工智慧越來越多地用於商業場合。考慮使用AI設定要出售給特定客戶的保險產品的價格。為不同的人設定不同的價格是有正當理由的,但是“玩弄”他們的心理或購物意願也可能有利可圖。

人工智慧的發展需要時刻保持技術道德的監督

人工智慧有很多可供選擇的潛在策略,但有些不道德,不僅會帶來道德上的代價,而且會產生巨大的潛在經濟損失,如果利益相關者發現使用了這種策略,他們將對其施加一定的懲罰-監管機構可能處以數十億美元,人民幣或歐元的鉅額罰款,客戶可能會抵制你。

因此,在越來越多的決策無需人工干預的環境中,因此有強烈的動機去了解AI系統在什麼情況下可能採取不道德的策略,並降低這種風險或在可能的情況下完全消除風險。

人工智慧的發展需要時刻保持技術道德的監督

來自華威大學,帝國理工大學,EPFL和Sciteb Ltd的數學家和統計學家聚集在一起,幫助企業和監管機構制定新的“不道德最佳化原則”,並提供一個簡單的公式來估算其影響。他們在2020年7月1日(星期三)在皇家學會開放科學雜誌上發表的名為“不道德的最佳化原則”的論文中列出了全部細節。

人工智慧的發展需要時刻保持技術道德的監督

“我們建議的“不道德最佳化原則”可用於幫助監管機構,合規人員和其他人員找到可能隱藏在較大策略空間中的問題策略。可以期望最佳化會不成比例地選擇許多不道德策略,對其進行檢查應顯示在哪裡問題可能會出現,因此建議如何修改AI搜尋演算法以避免將來出現此類問題。