首頁>資訊 >
AI計算量半年翻一番,已到意識覺醒閾值?MIT論文作者出來說話了 2022-02-17 17:53:22  來源:36氪

OpenAI首席科學家宣布AI已有微弱自主意識的風波,現(xiàn)在仍在擴大化。支持方的MIT學者在自己論文圖表上畫條線,稱當下AI的大計算量已達到產生自主意識的突破閾值,在消息出圈后不得不澄清:「我開玩笑的」。

OpenAI大佬聲稱AI已經有自主意識的推特,讓全業(yè)界都炸了鍋,而引發(fā)的罵戰(zhàn)還在繼續(xù)擴大化。

當然,這種學界對罵,一般是口說無憑、拿出論文/數據效果立馬變樣,不亞于街頭罵戰(zhàn)時一方突然掏出手槍的效果。

MIT的訪問研究學者塔米·貝西羅格魯在布滿了機器學習模型的圖表上畫了「一條線」,界線以上即是模型「有微弱意識」的程度。

這張圖出自在他與別人合著的預印本論文「Compute Trends Across Three Eras of Machine Learning」里,其中記錄了自1950年代「機器學習」概念產生以來的業(yè)界幾乎所有重大的研究。

開個玩笑,別當真

這個推特一出,差點要引發(fā)不亞于之前的聲浪。

2月17日早上,貝西羅格魯不得不澄清:「大家淡定,之前我在圖上畫線那條推特是開玩笑的,線是假的,研究是真的。我倒是希望自己發(fā)現(xiàn)了AI獲取自主意識的秘訣,可惜天不假人?!?/p>

不過,這個情勢顯然已經不再由他自己掌控了。

供職于IFP智庫與愛荷華州立大學的學者馬特·克蘭西回復:「不好意思,你這里現(xiàn)在已經出圈了,正式成為罵戰(zhàn)的陣線之一?!?/p>

盡管對有自主意識的電腦的恐懼可以追溯到1927電影《大都會》里的「機器人瑪麗婭」,但研究者常常會嘲笑這個概念。

因為這種事發(fā)生的可能性實在太過渺茫,而且在擔心終結者活過來之前,各種「人工智障」的普通AI已經需要避免被不當使用了。

《大都會》劇照

薩茨克維爾與現(xiàn)任老板山姆·奧特曼(Sam Altman)、著名網紅馬斯克當年合創(chuàng)的OpenAI,現(xiàn)在是業(yè)界當之無愧的研發(fā)火車頭。其開發(fā)的GPT系列模型,是全球AI人都艷羨的著名先進模型。

數據報道網站「用數據呈現(xiàn)世界」(Our World in Data)有AI系統(tǒng)訓練計算量的逐年與分領域趨勢圖。

在1952年的古代,計算次數每秒過萬已是尖端科技巔峰。而當下的大型尖端模型,每秒浮點計算次數動輒每秒1千萬億億次,為了跑這種大模型,Meta等大公司被逼到建造之前只有國家政府才舍得投資的超級計算機了。

因此當OpenAI的領軍人表示AI有自主意識時,已被當代AI進步眩目的公眾更加迷惑和反對,也在情理之中。

如果沒其他收獲的話,至少這次罵戰(zhàn)讓研究者們更加關注「何為自主意識」的定義了,或許對推動研究會有少許助益。

不過網友表示,這種罵戰(zhàn)已經快成了定期的八卦項目?!该课迥昃蜁硪淮危看味际窍咕幑适潞湍:x參數,大家已經看乏了?!?/p>

機器學習的三個時代

十年后,計算機視覺會有多大的進步?機器會不會比我們寫小說寫得更好?哪些工作我們將能夠實現(xiàn)自動化?

想要回答這些問題是十分困難的,然而,有一個因素卻貫穿始終,它在時間上的規(guī)律性令人吃驚——計算量。

為此,來自阿伯丁大學、圣安德魯斯大學、麻省理工學院、圖賓根大學和馬德里康普頓斯大學等機構的研究人員對里程碑式的ML模型隨時間變化的計算量需求做了的詳細調查:

1. 一個由123個里程碑式的機器學習系統(tǒng)組成的數據集,并標注了訓練這些系統(tǒng)所需的計算量。

2. 將計算量的趨勢歸納為三個不同的時代:前深度學習時代(Pre Deep Learning Era)、深度學習時代(Deep Learning Era)和大規(guī)模時代(Large-Scale Era)。

論文鏈接: https://arxiv.org/abs/2202.05924

簡而言之,在深度學習興起之前,機器學習模型的訓練計算量有一個緩慢增長的時代。

2010年左右,這一趨勢加速發(fā)展,此后一直沒有放緩。

另外,在2015年到2016年,出現(xiàn)了大規(guī)模模型的新趨勢,增長速度確定,但增速超過了過去時代速度的兩個數量級。

1952年至2022年期間,n=118個里程碑式的ML模型的趨勢

主要結果

向深度學習的過渡

作者發(fā)現(xiàn),在深度學習出現(xiàn)之前和之后有兩個非常不同的趨勢機制。

在此之前,訓練ML系統(tǒng)所需的計算量每17至29個月翻一番。隨后,整體趨勢加快,每4到9個月翻一番。

前深度學習時代的趨勢大致符合摩爾定律:晶體管密度大約每兩年翻一番,不過通常被簡化為計算性能每兩年翻一番。

深度學習時代通常被認為是在2012年隨著AlexNet的誕生而開始的,而作者認為,根據現(xiàn)有的證據,2010年是最符合這個時代開始的時間。

不過在這個界定上,不管是選擇2010年還是2012年,都不會對整體的結果產生顯著影響。

1952年至2022年期間,n=118個里程碑式的ML系統(tǒng)的訓練計算量的趨勢

1952年至2022年ML模型的對數線性回歸結果

大規(guī)模時代的趨勢

數據表明,在2015-2016年左右,出現(xiàn)了大規(guī)模模型的新趨勢。

這個新趨勢從2015年底的AlphaGo開始,一直持續(xù)到現(xiàn)在。這些大規(guī)模的模型是由大公司訓練的,他們更高額的訓練預算大概是打破之前趨勢的原因。

另外,常規(guī)規(guī)模模型的趨勢繼續(xù)不受干擾。這個趨勢在2016年之前和之后都是連續(xù)的,并且計算量有持續(xù)的發(fā)展速度,每5到6個月翻一番

大規(guī)模模型的計算量增加的趨勢顯然比較緩慢,每9到10個月翻一番。

不過,由于關于大規(guī)模模型的數據有限,作者推測,明顯的放緩可能是噪聲的結果

2010年至2022年期間,n=99個里程碑式ML系統(tǒng)的訓練計算量的趨勢

2010年至2022年之間數據的對數線性回歸結果

不同領域的趨勢

不同領域的機器學習模型依賴于不同的架構,因此可以自然地預期它們會受到不同的擴展規(guī)律的影響。

由此,作者調查了視覺、語言、游戲和其他12個領域的機器學習模型訓練計算量增加趨勢。

視覺和語言領域的趨勢隨著時間的推移似乎相當一致,并按照與整個數據集相同的倍增模式增長。

然而,在游戲領域中卻無法找到一致的趨勢。作者猜測,可能的原因是數據太少,而不同的游戲本質上是屬于不同領域的,此外,也可能是因為沒有像其他領域那樣得到系統(tǒng)性的推動。

2010年至2022年期間每個領域訓練計算量的趨勢

每個領域從2009年到2022年的趨勢

總結

在本文中,作者通過策劃100多個里程碑式的ML系統(tǒng)的訓練計算量數據集來研究計算量的趨勢,并使用這些數據來分析這一趨勢是如何隨時間增長的。

在前深度學習時代(1952年到2010年),計算量增長緩慢。

2010年左右,隨著過渡到深度學習時代,這一趨勢加快了。

2015年底,大公司開始發(fā)布跨時代的大規(guī)模模型,如AlphaGo,標志著大規(guī)模時代的開始。

用這三個時代來框定趨勢,有助于解釋在數據中觀察到的不連續(xù)現(xiàn)象,并讓人更好地理解更好地理解最近的ML進展是由規(guī)模的增加所推動的,從而改善對先進ML系統(tǒng)發(fā)展的預測。

不過,有些遺憾的是本文并沒有詳細剖析用于訓練機器學習模型的另一個關鍵可量化資源——數據集。

作者表示會將在未來的工作中研究數據集大小的趨勢以及它們與計算趨勢的關系。

而本想借機宣傳一下論文的貝西羅格魯,恐怕學到的要比其他合著者們更多:「貝西羅格魯法則:不管研究者的推特笑話有多明顯,只要你夠資深,總有傳媒會當真」。

參考資料:

https://wordpress.futurism.com/mit-researcher-conscious-ai/amp

https://arxiv.org/abs/2202.05924

https://twitter.com/tamaybes/status/1493682157914578944

本文來自微信公眾號“新智元”(ID:AI_era),作者:新智元,36氪經授權發(fā)布。

關鍵詞:

相關閱讀:
熱點
圖片 圖片