選單

面對常識問題,人工智慧還很弱智

【導讀】

NLP研究人員都知道語言模型只能學到語法上下文資訊,對於常識性問題則束手無措。南加州大學的一名助理教授最近做客《對話》,闡述了他眼中的常識以及解決方法。他悲觀地預測,也許5年、50年才能解決,到底需要多久,沒人知道。

如果說人工智慧和真正的人腦之間的差距,那最重要的就是機器缺乏生活中的常識。一切貌似合理、理所當然的事物在計算機眼中都是不可理解的。

計算機不知道「檸檬是酸的」,「只有成熟的香蕉是黃色的」,這也是目前人工通用智慧領域尚未解決的問題。

面對常識問題,人工智慧還很弱智

並且人類可以根據過去的常識來調整自己的行為,例如你和朋友王二約好一起吃午飯,並且上週計劃好一起吃“開封菜”,但是你又想起他這周開始在減肥,所以為了安全起見,還是再商量一下再點餐。

但機器就無法做到這點,強大的記憶力和邏輯性並無法讓它把“開封菜”和減肥之間聯絡在一起。

我們理所當然地認為自己有能力來處理這類的情況,因為我們有一整套的常識,如果缺乏這些常識,可能就無法在人類社會中很好地生存,例如不能在做飯時把煤氣和臭味聯絡在一起,那後果不堪設想。

南加州大學的助理教授Mayank Kejriwal最近在《對話》(the Conversation)上接受採訪,介紹了他眼中的計算機處理常識中的方法和困境。

常識的定義

儘管對於人類如何理解周圍的世界和如何學習來說,常識既是普遍的,又是必不可少的,但是常識又是很模糊的,無法給出一個單一的精確定義。

不過20世紀初,以為英國英國哲學家和神學家吉爾伯特·基思·切斯特頓(G。K。 Chesterton)有一句名言:

常識是一種野蠻的、超越規則的東西。

Common sense is a wild thing, savage, and beyond rules。

現代定義認為,它是一種自然而非透過課堂授予的一種能力,它能夠使人們能夠駕馭日常生活。

常識是非常廣泛的,不僅包括社會能力,如管理預期和推理他人的情緒,而且還包括一種與生俱來的物理感,比如知道一塊重的石頭不能安全地放在一個輕薄的塑膠桌子上。與生俱來或者說是這種簡單的物理感受,因為人們雖然知道這些事情,但並不是透過研究物理方程得出的結論。

除此之外常識還包括抽象概念的背景知識,如時間、空間和事件。這些知識使人們不必太精確,就可以進行計劃、評估和組織世界上的事物。

常識因為其模糊性,所以很難計算。

自從20世紀50年代人工智慧領域的早期發展以來,常識一直是人工智慧前沿的一個重要挑戰。儘管人工智慧取得了巨大的進步,尤其是在遊戲和計算機視覺方面,但機器常識距離達到人類常識的豐富度仍然有很大的距離。

這就是為什麼為什麼人工智慧能夠解決複雜的、現實世界中的問題,比如診斷和推薦給2019冠狀病毒疾病患者的治療方法,但其他需要常識的問題經常會失敗。

現代人工智慧被設計用來解決高度具體的問題,與常識相反,常識是模糊的,不能被一套規則定義。即使是最新的模型有時也會出現荒謬的錯誤,這表明人工智慧的世界模型缺少了某些基本的東西。

當你給GPT-3輸入下面這串文字時,

「你給自己倒了一杯蔓越莓,然後心不在焉地倒了一茶匙葡萄汁進去。看起來還不錯。你試著聞它,但是你得了重感冒,所以你聞不到任何東西。你很渴。所以你」

然後GPT-3會接著寫下去:

「喝了它,你現在死了。」(drink it。 You are now dead)

(好可怕的果汁)

人工智慧界對於常識系統的研究逐漸重視。美國國防部高階研究計劃局於2019年啟動了為期四年的機器常識專案(Machine Common Sense),該專案旨在加快常識領域的研究,並且釋出了一篇論文,概述了該領域的問題和研究狀況。

面對常識問題,人工智慧還很弱智

機器常識專案資助了許多當前機器常識的研究工作,包括多模態開放世界接地學習和推理(Multi-modal Open World Grounded Learning and Inference, MOWGLI),這個專案能夠構建一個回答常識性問題的計算機系統。

Transformer在NLP界已然是yyds,但他真能拯救常識系統嗎?

Transformer建立的自然語言模型,經過一些調整後,能夠回答簡單的常識性問題。常識性的問題回答是構建可以像人類一樣交談的聊天機器人必不可少的第一步。

這種快速的進步迫使該領域的研究人員在科學和哲學的邊緣面對兩個相關的問題: 什麼是常識?我們如何確定人工智慧是否有常識呢?

對於第一個問題,研究者將常識分為不同的類別,包括常識社會學、常識心理學和常識背景知識。並且有研究人員可以更進一步,將這些類別劃分為48個細粒度的領域,如計劃、威脅檢測和情緒。

然而這些類別之間的區別並不是很清晰。即使是專業的人類標註員,即分析文字並對其組成部分進行分類的工作人員,他們也不同意常識的哪些方面適用於特定的句子。標註員贊同相對具體的類別,如時間和空間,但不同意更抽象的概念。

即使你承認常識理論中的某些重疊和模糊是不可避免的,研究人員真的能確定人工智慧有常識嗎?

研究人員經常問機器問題來評估它們的常識,但是人類在日常生活中的行為方式要有趣得多。人們運用一系列的技能,這些技能都是透過進化磨練出來的,包括辨別基本因果關係的能力,創造性解決問題的能力,估計能力,計劃能力,以及基本的社交技能,比如談話和談判。

儘管這個清單可能很長,也不完整,但是一個人工智慧應該在它的創造者宣佈在機器常識研究方面取得勝利之前就取得同樣的成就。

甚至Transformer對於NLP系統的推進效果也在下降,這一點已經變得越來越明顯。

Transformer變得越來越大,耗電量也越來越大,有效地訓練需要大量的資料。然而,迄今為止,事實證明,它無法理解人類常識的細微差別。

即使是深度學習的先驅們似乎也認為,在今天的神經網路能夠實現這樣的飛躍之前,可能還需要新的基礎研究。根據這一新研究領域的成功程度,我們無法判斷機器常識是五年後的事,還是50年後的事。

參考資料:

https://www。nextgov。com/ideas/2021/08/ai-expert-explains-why-its-hard-give-computers-something-you-take-granted-common-sense/184583/

本文素材來源於網路,如有侵權,聯絡刪除!