發表日期 5/19/2022, 9:35:13 PM
迴應外界質疑,近日,DeepMind研究主任、前牛津大學機器學習教授Nando de Freitas在Twitter中錶示,“現在一切隻關乎規模!The game is over!”。
他繼續說道,“現在要讓這些模型更大、更安全、計算效率更高、采樣速度更快、內存更智能、模式更多、創新數據、在綫/離綫......解決這些挑戰將通嚮AGI(通用人工智能)。”
這是De Freitas迴應The Next Web上的一篇評論文章,該文稱“DeepMind 驚人的新‘Gato’人工智能讓我擔心人類永遠無法實現AGI”。
De Freitas迴應後,The Next Web的撰稿人也不甘示弱,在文章中以下圖迴懟。
Gato是DeepMind前幾天推齣的多模式、多任務、多實施的“通纔”AI。Gato可以聊天、操縱真實機器人手臂堆疊塊,甚至可以玩1980年代的傢用視頻遊戲機Atari等等,其能“在廣泛的環境中”執行600多項不同的任務。
“這是我們目前為止最通用的智能體!”Deepmind創始人兼首席執行官Demis Hassabis也發推文支持道。De Freitas也將Gato AI描述為“多麵手”,他認為擴大規模即能夠創造齣與人類智能相媲美的AGI。
DeepMind在一篇名為“A Generalist Agent”的新研究論文中詳細介紹瞭Gato,該論文已發布在Arxiv預印本服務器上。論文中錶示,這樣的智能體在擴大規模時將顯示齣“顯著的性能提升”。
但當機器學習研究員Alex Dimikas詢問De Freitas認為Gato AI與通過真正的圖靈測試(計算機智能的衡量標準,看人類能否區分屏幕那頭是機器還是人)之間距離多遠時,De Freitas也坦誠迴答道,“還遠得很。”
判斷實現AGI的一個重要標準,即AI能夠在不經過訓練的情況下學會做新任務,但Gato顯然沒有達到一些專業人士的期望。
“Gato執行多項任務的能力更像是一個可以存儲600種不同遊戲的視頻遊戲機,而不是可以以600種不同方式玩的遊戲,”The Next Web撰稿人Tristan Greene說,“它不是一個AGI,而是一堆經過預先訓練的窄模型,整齊地捆綁在一起。”
一些人認為,Gato的構建是為瞭完成數百個任務,但這種能力可能會影響每項任務的質量。ZDNet專欄作傢Tiernan Ray寫道,該智能體“實際上在幾項任務上並不是那麼齣色”。他舉例道,“它與人類進行標準聊天對話的能力同樣平庸,有時會引發矛盾和荒謬的話語。”例如,當被問及法國的首都在哪裏時,Gato有時會迴答“馬賽”,有時會迴答“巴黎”。研究小組建議,這種不準確性“可能會隨著進一步擴展而得到改善”。
研究人員根據參數(7900萬、3.64 億和主要模型11.8 億)比較瞭三種模型大小的所有基準任務平均分數,顯示Gato的性能與參數數量成正比
Gato隻有11.8億參數,與1750億參數的GPT-3、5400億參數的巨大PaLM模型等相比顯得微不足道。據該團隊稱,這主要是由於所使用的Sawyer機器人手臂的響應時間,較大的模型會因為太慢而無法在當前硬件和當前架構上執行機器人任務。他們認為更大的Gato模型可以使用更多數據進行訓練,並可能更好地執行各種任務。
對當前這個Gato的錶現,The Next Web的文章中毫不客氣地評價稱,Gato展示的AGI隻不過是亞馬遜的Alexa和蘋果的Siri等虛擬助手,它們已經在市場上和人們的傢中。
除這些之外,AI領域內的一個更為根本的分歧在於AGI的實現路徑。
Robust.AI的創始人兼首席執行官Gary Marcus說道,“De Freitas非常清楚,不能僅僅將模型做得更大就希望獲得成功。DeepMind最新推齣的Gato能夠在AI領域實現前所未有的跨模式壯舉,但是,當您仔細觀察細節時,會發現實際上仍停留在同一片不可靠的土地上――AI有智能的錶現同時也有絕對的不理解。”
Marcus將這種研究路徑稱為Alt Intelligence,“Alt Intelligence並不是要建造像人類智能的解決問題方式的機器。它是使用大量通常來自人類行為的數據,來代替智能。”
“當然,深度學習的捍衛者提齣‘人類也會犯錯誤’這樣的閤理觀點並不少見。但任何坦率的人都會認識到,這些錯誤錶明目前有些事情是嚴重錯誤的。如果我的任何一個孩子經常犯這樣的錯誤,我會毫不誇張地放棄我正在做的所有其他事情,並立即將他們帶到神經科醫生那裏。”Marcus更為直接地說道。
在Marcus看來,如果我們要構建AGI,就需要嚮人類學習一些東西,學習其如何推理和理解物理世界,以及如何錶示和獲取語言和復雜概念,“不這樣認為是純粹的狂妄自大”。
The Next Web的Greene錶示,“我相信Gato可能是世界上最先進的多模態人工智能係統。但我也認為,DeepMind采用瞭與OpenAI相同的AGI死鬍同,隻是為瞭讓它更具市場價值。
在對通用人工智能(AGI)嚮往的同時,這樣的AI也被視為人類的威脅,可能有意或無意地消滅人類。
牛津大學人類未來研究所的Stuart Armstrong此前曾錶示,AGI最終將使人類變得多餘並消滅我們。他相信機器將以人類大腦無法想象的速度工作,並且將跳過與人類的交流來控製經濟和金融市場、交通、醫療保健等。
“由於人類語言很容易被誤解,超級計算機可以將一條簡單的指令解釋為‘殺死所有人類’,從而讓AGI‘防止人類受苦’。” Armstrong說。
史蒂芬・霍金曾在去世前接受BBC采訪時說道,“全麵人工智能的發展可能意味著人類的終結。”
De Freitas本人也在Twitter上迴答AI研究人員提齣的問題時錶示,在開發AGI 時,“安全性至關重要”。“這可能是我們麵臨的最大挑戰,每個人都應該考慮一下。缺乏足夠的多樣性也讓我很擔心。”
在2016年的《安全中斷智能體》(Safely Interruptible Agents)論文中,DeepMind研究人員概述瞭一個防止高級人工智能忽略關機命令的框架,其認為需要一個“紅色大按鈕”來防止機器完成“有害的一係列動作”。
DeepMind於2010 年在倫敦成立,2014年被榖歌收購,以在2016年創建瞭擊敗人類職業圍棋選手李世石的AlphaGo而聞名。2020年,該公司宣布已解決50年前的生物學問題――“蛋白質摺疊問題”,瞭解蛋白質的氨基酸序列如何決定其3D結構。DeepMind稱通過訓練具有17萬個已知蛋白質序列及其不同結構的神經網絡,以92% 的準確率解決瞭這個問題。