選單

梁正:演算法治理應關注技術使用過程及產生的影響

中新經緯12月21日電 (薛宇飛)近日,清華大學社會科學學院社會學系、中國科學院學部-清華大學科學與社會協同發展研究中心主辦了“倫理立場、演算法設計與企業社會責任”研討會。清華大學公共管理學院教授、人工智慧治理研究中心主任梁正在研討會上表示,演算法治理是一個制度問題,不是技術問題,演算法的治理應當重點關注演算法使用的過程及其產生的影響。

梁正表示,從技術特性方面看,機器學習目前還是一個“黑箱”過程,在透明性和可解釋性上存在問題,某種程度上類似於化學科學產生之前的“鍊金術”階段,“我們知道演算法管用,但不知道它的核心原理是什麼,需要在基礎理論方面進一步深入研究。”

梁正分析說,從國際經驗看,歐盟是自上而下地制定規則,以演算法透明和問責去保證演算法公平。他稱,這裡面,涉及到了演算法原理的可解釋性、過程的可追溯性及決策結果的可被理解性,具體的治理路徑是建立演算法評估機制、審計機制以及問責機制,用這個方式倒推演算法開發和應用的責任。

相較而言,美國對演算法的規制相對謹慎,梁正說,“如果把算法理解為一套技術方案,對它進行干預的話,可能就不符合基本的市場競爭理念。美國在這方面還是很小心,特別是商業、企業領域。不過,在過去三年,美國在公共領域比較明顯的變化是對人臉識別技術的禁用,包括紐約市出臺的演算法問責法,州層面出臺的法案如《加州消費者隱私法》,則類似於歐盟的思路。”

他介紹,中國目前已經出臺一系列法律法規,包括《中華人民共和國網路安全法》《中華人民共和國資料安全法》《中華人民共和國個人資訊保護法》,建立了基礎機制,一些規範、指引、準則在推出過程中,資料治理體系也在建設中。在基本的制度體系建立後,接下來應該重點研究制定可實施和操作的細則。

“治理模式構建方面,演算法的治理不在於演算法本身,而在於演算法使用後產生的影響。當然,也不只是看結果,還要看過程,這是一個理想狀況。如果技術解決方案上能夠做到可解釋、可負責、可信任,就可以保障它不出問題。演算法治理還需要多方協同參與,包括使用者、勞動者、研發設計者、管理者等等。”他還說。

梁正指出,“目前國家出臺的相關法律,把安全、個人權益等敏感問題的紅線都劃出來了,之後便是針對各專門應用領域提出更具體的要求,演算法做到可解釋、可問責,治理中實現分級分類、分場景。同時,過程中有監督,事後有補救,以及確定治理的優先順序,在不同領域應用不同的治理工具,包括對基本底線的把控。”

他最後強調,演算法治理是一個制度問題,不是技術問題,不能僅僅按照技術的選擇區分什麼是好演算法或壞演算法。(中新經緯APP)

瓜分6666元現金紅包!領取8%+理財券,每日限額3000份!