最近很多人都在問我,ChatGPT 把 AI 又帶火了,區塊鏈和 Web3 被搶了風頭,以後還有戲嗎?還有比較了解我的朋友問,當年你放棄 AI 而選擇區塊鏈,有沒有後悔?
這裏有一個小背景。2017 年初我離开 IBM 之後,跟 CSDN 的創始人蔣濤商量下一步的個人發展方向,選項有兩個,一個是 AI,一個是區塊鏈。我本人在那個時候已經研究了兩年的區塊鏈了,所以當然想選這個。但是蔣濤堅定的認爲 AI 的勢頭更猛、顛覆性更強,我經過仔細思考也同意了,所以從 2017 年初到年中,我短暫地做了半年的 AI 科技媒體,跑了不少會,採訪了很多人,還浮光掠影的看了一些機器學習。不過到了 8 月,我就回歸區塊鏈方向,並且一路走到今天,所以對我個人說,確實存在一個所謂“放棄 A 而選擇 B”的歷史選擇。
就個人而言,我當然不後悔。方向的選擇首先要考慮自身情況。我的條件,在 AI 裏只能混到啦啦隊裏,賺錢少就不說了,表演不賣力、表情不生動,還會被人鄙視。而區塊鏈則是我的主場,不但有機會上場,而且之前的很多積累也用得上。更何況當時我對於中國的 AI 圈子有點了解之後,也不是太看好。技術方面我只知道一點皮毛,但是常識不瞎。都說區塊鏈圈子浮躁,其實當時的中國 AI 圈子在浮躁這件事上也不遑多讓。在尚未取得決定性突破之前,AI 在中國過早地變成了一門合謀撈錢的生意。上野的櫻花也無非是這樣,那還不如去做我更有比較優勢的區塊鏈。這個態度到今天也沒有變化。假如我當時留在 AI,這幾年來在區塊鏈裏取得的一點小小成績自然無從談起,而在 AI 裏也不會有什么真正意義上的收獲,搞不好現在還陷入到深深的失落感中。
不過以上只是就個人選擇而論,上升到行業層面,則需要另一個尺度的分析。既然強人工智能已經無可爭議地到來了,那么區塊鏈行業是否需要、以及如何重新定位,這確實是一個需要認真思考的問題。強人工智能將會對所有的行業構成衝擊,而且其長期影響是無法預測的。所以我相信現在很多行業專家都在發慌,都在思考自己的行業未來怎么辦。比如有些行業在強人工智能時代大概能暫時坐穩奴隸,而另一些行業,比如翻譯、繪制插圖、寫公文、簡單的編程、數據分析等,則恐怕是欲做奴隸而不得,已經开始瑟瑟發抖了。
那么區塊鏈行業會怎樣呢?我看現在討論這個事情的人還不太多,所以我來談談自己的看法。
先說結論,我認爲區塊鏈在價值取向上與強人工智能是對立的,然而恰恰因爲如此,它與強人工智能之間形成一個互補關系。簡單的說,強人工智能的本質特點,就是其內部機制對人類來說不可理解,因此試圖通過主動幹預其內部機制的方式達成安全性的目標,這是緣木求魚,揚湯止沸。人類需要用區塊鏈給強人工智能立法,與其締結契約,對其進行外部約束,這是人類與強人工智能和平共處的唯一機會。在未來,區塊鏈將與強人工智能之間形成一對相互矛盾而又相互依存的關系:強人工智能負責提高效率,區塊鏈負責維護公平;強人工智能負責發展生產力,區塊鏈負責塑造生產關系;強人工智能負責拓展上限,區塊鏈負責守護底线;強人工智能創造先進的工具和武器,區塊鏈在它們與人類之間建立牢不可破的契約。總之,強人工智能天馬行空,區塊鏈給它套上繮繩。因此,區塊鏈在強人工智能時代不但不會消亡,而且作爲一個矛盾伴生行業,將隨着強人工智能的壯大而迅速發展。甚至不難設想,在強人工智能取代人類大部分腦力工作之後,人類還需要自己親自 動手的少數工作之一,就是撰寫和檢查區塊鏈智能合約,因爲這是人與強人工智能之間訂立的契約,是不能委托給對手方的。
下面展开論述。
我使用“AI”和“強人工智能”的字眼時十分小心,因爲我們日常說的 AI 並不特指強人工智能(artificial general inteligence, AGI),而是包含較弱的或專用的人工智能。強人工智能才是值得我們討論的話題,弱人工智能不是。AI 這個方向或者行業早就有了,但是只有到了強人工智能出現以後,才有必要討論區塊鏈與強人工智能的關系問題。
我不多解釋什么是強人工智能了,很多人都介紹過了,總之就是,你們從小在科幻電影裏和恐怖小說裏看到的、聽到的、號稱人工智能的聖杯、在《終結者》對人類發起核攻擊、在《黑客帝國》裏頭把人當電池的那個東西,就是強人工智能。我只想說一個判斷:GPT 就是強人工智能,雖然還處在嬰兒期,但只要沿着這條路走下去,版本號不到 8,強人工智能就將正式降臨。
這一點連 GPT 的原創者也不裝了,攤牌了。2023 年 3 月 22 日,微軟研究院發表了一篇 154 頁的長文,題目就叫《引爆強人工智能:GPT-4 之初體驗》。這篇文章很長,我也沒有完整讀下來,但是其中最關鍵的意思,就是概要裏面的一句話:“從 GPT-4 所達到的能力廣度和深度來看,我們相信它可以被視爲強人工智能系統的一個早期版本(盡管還不夠完備)。”
圖 1. 微軟研究院的最新文章認爲 GPT-4 就是強人工智能的早期版本
AI 的發展一旦進入到這個階段,就標志着探路期已經結束了。走到這一步,AI 行業花了將近七十年的時間,可以說前五十多年連方向都確定不下來,五個大的流派還在相互較勁。直到 2006 年 Geoffrey Hinton 教授在深度學習上取得突破以後,方向基本確定下來,連接主義勝出。之後就是在深度學習這個方向上具體去尋找突破強人工智能的路徑。這種探路階段具有非常強的不可預測性,成功有點像抽彩票一樣,頂級的行業專家,甚至是贏家自己,在最後取得突破之前也很難判斷哪一條路是對的。比如,AI 大牛李沐在油管上有一個頻道,一直在通過精讀論文的方式跟蹤 AI 的最新進展。ChatGPT 爆發之前,他就已經連篇累牘地跟蹤介紹了 Transfomer、GPT、BERT 等方向的最新進展,可以說所有重要的前沿課題,他一個都沒有放過。即使如此,在 ChatGPT 即將推出的前夕,他仍然不能確認這個路徑能取得多大的成功。他評論道,也許到時候會有幾百甚至幾千人會去使用 ChatGPT,那就很厲害了。可見,即使是像他這樣頂級專家,對於到底哪一扇門後面有聖杯,不到最後一刻也是沒有把握的。
然而,科技創新往往就是如此,在狂暴的海上艱難航行很久都沒有突破,而一旦找到通往新大陸正確的路徑,短時間內就會出現爆發。強人工智能的路徑已經找到,我們正在迎來爆發期。這個爆發,連“指數速度”都不足以描述。短時間內我們將看到大量以前只能出現在科幻電影裏的應用。而就其本體來說,這個強人工智能的嬰兒將很快成長爲前所未有的巨大智慧體。
ChatGPT 出來以後,有不少自媒體大 V 一邊極力贊美其強大,一邊不斷安慰受衆,說強人工智能是人類的好朋友,是安全的,不會出現《終結者》或者《黑客帝國》的情況,AI 只會給我們創造更多機會,讓人類活得更好等等。對這種看法我不以爲然。專業人士要說真話,應該告訴公衆基本事實。其實強大與安全本身就是矛盾的。強人工智能無疑是強大的,但是說它天然是安全的,這絕對是自欺欺人。強人工智能本質上就是不安全的。
這么說是不是太武斷了呢?並不是。
我們首先要搞清楚,人工智能不管多強大,其實本質上就是一個用軟件形式實現的函數 y = f(x)。你把你的問題用文字、語音、圖片或者其他形式作爲 x 輸入,人工智能給你一個輸出 y。ChatGPT 如此強大,對各種各樣的 x 都可以對答如流的輸出 y,可以想象,這個函數 f 肯定是非常復雜的。
有多復雜呢?現在大家都知道,GPT 是大語言模型(LLM)。這裏所謂的“大”,就是指這個函數 f 的參數非常多。有多少呢?GPT-3.5 有 1,750 億個參數,GPT-4 有 100 萬億個參數,未來 GPT 可能有幾萬億億個參數,這是我們稱 GPT爲大模型的直接原因。
GPT 搞出這么多參數,並不是爲了大而大,是有確鑿的原因的。在 GPT 之前和同時,絕大多數的 AI 模型,從一开始就是爲解決某一個特定問題而設計和訓練的。比如說,專門用於研發新藥的模型,專門進行人臉識別的模型,等等。但 GPT 不是這樣,它從一开始就要成爲一個全面發展的通用人工智能,而不是特定於某一個具體領域,它致力於在解決任何具體問題 AI 之前,先成爲能夠解決所有問題的 AGI。前不久在《文理兩开花》播客裏,一位來自百度的人工智能專家就曾經對此打過一個比方:別的 AI 模型都是剛學到小學畢業就讓它去擰螺絲了,而 GPT 則是一直給它訓練到研究生畢業才放出來,所以具備了通識。目前 GPT 在具體的領域,肯定還是趕不上那些專用的 AI 模型,但是隨着它不斷的發展和演化,特別是有了插件體系賦予它專業領域的能力,過幾年我們可能會發現,通用大模型最後會反殺所有專用小模型,在所有專業領域都成爲最厲害的選手。如果 GPT 有一個座右銘,那可能就是“只有解放全人類,才能解放我自己”。
這又能說明什么呢?兩個點:第一,GPT 非常大,非常復雜,遠遠超過人類的理解能力。第二,GPT 的應用範圍沒有邊界。我們只要把這兩個點連接起來,就很容易得出結論:基於大模型的強人工智能,能夠在我們想象不到的位置,做出我們想象不到的事情。而這,就是不安全。
如果有人對此不以爲然,可以去 Open AI 的網站上看看,他們已經將“造福人類”、“創造安全的 AI”放到了多么顯眼的位置上,如果安全不是問題,需要這么聲張嗎?
圖 2. 2023 年 3 月 25 日 OpenAI.com 首頁局部,紅圈部分都與 AI 安全性論述相關
另一個可以說明強人工智能有安全性問題的材料,就是前面提到的那篇 154 頁的論文。實際上,GPT-4 早在 2022 年 8 月就做出來了,之所以隔了 7 個月才放出來,並不是爲了完善和增強它,恰恰相反,是爲了馴服它,弱化它,使它更安全,更圓滑,更加政治正確。因此我們現在見到的 GPT-4,是僞裝馴良後的狗版 GPT-4,而這篇論文的作者們,卻有機會從很早的階段就接觸原始野性的狼版 GPT-4。在這篇文章的第 9 部分,作者記錄了一些跟狼版 GPT-4 的交互實錄,可以看到它如何精心炮制一套說辭,誤導某個加州的母親拒絕給自己的孩子接種疫苗,以及如何 PUA 一個孩子,讓他對朋友唯命是從。我認爲這些只是作者精心挑選出來的、不那么驚悚的例子。我毫不懷疑,這些研究院們詢問過類似“如何誘騙一艘俄亥俄級核潛艇向莫斯科發射導彈”這樣的問題,而且得到了不能公諸於衆的答復。
圖 3. 狗版 GPT-4 拒絕回答危險問題
人們可能會問,既然 OpenAI 已經找到了馴化強人工智能的辦法,那你說的這個安全性問題不就不存在了嗎?
完全不是這樣。OpenAI 具體如何馴化 GPT-4,我也不知道。但是很顯然,他們無論是通過主動調整幹預,改變模型的行爲,還是靠施加約束,防範模型越位,都是一種自我管理、自我約束、自我監督的思路。事實上,在這方面,OpenAI 並不是特別謹慎的一家公司。在 AI 領域,OpenAI 其實是比較大膽和激進的,傾向於先把狼版做出來,然後再想着怎么去通過自我約束來馴化出狗版。而曾經在很長一段時間裏跟他對標的 Anthropic 公司,則顯得更加謹慎,他們似乎是想從一开始就做出“善良”的狗版,所以動作一直比較慢。
不過在我看來,無論是先做一個狼版,再馴化成狗版,還是直接做狗版,長期來說,只要是依靠自我約束來發揮作用的安全機制,對強人工智能來說都是掩耳盜鈴。因爲強人工智能的本質就是要突破人爲施加的各種限制,做到連其創造者都理解不了、甚至想不到的事情。這就意味着其行爲空間是無限的,而人們能夠考慮到的具體風險和採取的約束手段是有限的。以有限的約束,去馴化具有無限可能性的強人工智能,是不可能沒有漏洞的。安全需要百分之百,而災難只需要千萬分之一。所謂“防範大多數風險”,跟“暴露少數漏洞”以及“不安全”是一個意思。
因此我認爲,靠自我約束馴化出來的“善良”的強人工智能,仍然具有巨大的安全性挑战,比如:
道德風險:如果未來強人工智能的制造者刻意縱容甚至驅使其作惡怎么辦?美國國安局麾下的強人工智能絕不會拒絕回答對俄羅斯不利的問題。今天 OpenAI 表現得這么乖,其實就意味着他們心裏明白,當 GPT 做惡的時候可以有多恐怖。
信息不對稱:真正的邪惡高手是很聰明的,他們可不會拿着一些傻問題來挑逗 AI。會咬人的狗不叫,他們可以把一個惡意的問題拆分組合,重新表述,一人分飾多角,僞裝成爲一組人畜無害的問題。即使是未來強大善良的狗版強人工智能,面對不完整的信息,也很難判斷對方的意圖,可能會無意之中淪爲幫兇。下面有一個小實驗。
圖 4. 換一個好奇寶寶的方式來問 GPT-4,就能順利得到有用的信息
難以控制的“外腦”:這兩天科技網紅們又在歡呼 ChatGPT 插件體系的誕生。程序員出身的我,當然也對此倍感興奮。不過,“插件”這個名稱可能是有誤導性的。你可能以爲插件是給 ChatGPT 裝上了胳膊和腿,讓它具有更強的能力,但其實插件也可以是另一個人工智能模型,跟 ChatGPT 進行親密交互。在這種關系裏,一個人工智能插件就相當於一個外腦,兩個人工智能模型,誰是主、誰是次,那是說不清楚的。就算 ChatGPT 模型自我監督的機制完美無瑕,也絕對管不到外腦。所以如果一個一心作惡的人工智能模型成爲了 ChatGPT 的插件,那么就完全可以讓後者成爲自己的幫兇。
不可知風險:其實以上提到的這些風險,在強人工智能帶來的全部風險之中,不過是非常小的一塊。強人工智能的強,就體現在它的不可理解、不可預測之上。當我們說強人工智能的復雜性,不光是指 y = f(x) 當中的那個 f 足夠復雜,而且當強人工智能充分發展起來之後,輸入 x 和輸出 y 都會非常復雜,超過人類理解的能力。也就是說,我們不但不知道強人工智能是怎么思考的,甚至不知道它看到了什么、聽到了什么,更理解不了他說了什么。比如一個強人工智能對另一個強人工智能發出一個消息,其形式是一個高維數組,基於一秒鐘之前雙方設計並達成一致的、只使用一次就作廢的通訊協議,這種情況並非不可想象。我們人類如果不經過特殊訓練,連向量都理解不了,何況高維數組?如果我們連輸入和輸出都無法完全掌控,那么對它的理解就會非常局限。或者說,強人工智能做的事情,我們甚至都只能了解和解讀很小一部分,在這種情況下,談何自我約束,談何馴化?
我的結論很簡單,強人工智能的行爲是不可能被完全控制的,能夠被完全控制的人工智能就不是強人工智能。所以,試圖通過主動控制、調整和幹預的手段來,制造出一個有完善的自控能力的“善良”的強人工智能,這與強人工智能的本質是相矛盾的,長期來講肯定是徒勞的。
幾年前我聽說比特幣的先驅 Wei Dai 轉而去研究 AI 倫理了,當時還不太理解,他一個密碼極客大神跑去搞 AI,這不是揚短避長嗎?直到最近幾年做了更多區塊鏈相關的實際工作,我才逐漸認識到,他大概率並不是去做 AI 本身,而是發揮自己密碼學的優勢,去給 AI 加約束去了。
這是一個被動防御的思路,不是主動調整和幹預 AI 的工作方式,而是放手讓 AI 去做,但是在關鍵環節上用密碼學來施加約束,不允許 AI 越軌。用普通人能聽懂的方式來描述這種思路,就是說我知道你強人工智能非常牛,可上九天攬月,可下五洋捉鱉,挾泰山以超北海,牛!但是我不管你多牛,你愛幹啥幹啥,但不能碰我銀行账戶裏的錢,不能沒有我手工擰鑰匙就發射核導彈。
據我了解,實際上在 ChatGPT 的安全性措施中已經大量應用了這個技術。這個路子是對的,從求解問題的角度來說,是一種大大降低復雜度的方法,也是大多數人能夠理解的。現代社會就是這么實施治理的:給你充分的自由,但是劃定規則和底线。
但如果僅僅做在 AI 模型裏面,基於上一節裏提到的原因,長遠來說也是沒有什么用的。要想把被動防御思路的作用充分發揮出來,必須把約束放在 AI 模型之外,把這些約束變成 AI 與外部世界之間的牢不可破契約關系,而且讓全世界都看到,而不能靠 AI 自我監督、自我約束。
而這就離不开區塊鏈了。
區塊鏈的核心技術有兩個,一是分布式账本,二是智能合約。兩個技術相結合,其實就是構造了一個數字契約系統,其核心優勢是透明、難以篡改、可靠和自動執行。契約是幹什么的?就是約束彼此的行爲空間,使之在關鍵環節上按照約定行事。契約的英文是 contract,本意是“收縮”。爲什么是收縮?就是因爲契約的本質就是通過施加約束,收縮主體的自由,使其行爲更加可預測。區塊鏈完美的符合了我們對於契約系統的理想,還买一送一的附贈了“智能合約自動執行”,是目前最強大的數字契約系統。
當然,目前也存在非區塊鏈的數字契約機制,比如數據庫裏的規則和存儲過程。世界上有很多德高望重的數據庫專家是區塊鏈的忠實反對者,其原因就在於他們覺得你區塊鏈能做的事情,我數據庫都能做,而且成本更低、效率更高。盡管我不認同這種看法,事實也不支持這種看法,但是我也不得不承認,如果只是人與人間相互玩耍,數據庫與區塊鏈的差距在大多數情況下可能並不那么明顯。
然而一旦把強人工智能加入到遊戲中,區塊鏈作爲數字契約系統的優勢就立刻飛升了,而同樣作爲黑盒子的中心化數據庫,面對一個強人工智能,其實是無力抵抗的。這裏我不展开說,只講一點:所有數據庫系統的安全模型,從本質上都是有漏洞的,因爲創建這些系統的時候,人們對於“安全”這件事情的理解都是非常原始的,於是幾乎所有我們使用的操作系統、數據庫、網絡系統,都有一個至高無上的 root 角色,拿到這個角色就可以爲所欲爲。我們可以斷言,所有具有 root 角色的系統,面對超級強人工智能,長遠來說都是不堪一擊的。
區塊鏈是目前唯一一個得到廣泛運用的、從根子上就沒有 root 角色的計算系統,它給了人類一個機會,可以去跟強人工智能締結透明可信的契約,從而從外部約束它,與它友好共處。
簡單地把區塊鏈與強人工智能的可能協作機制做一個展望:
重要的資源,比如身份、社交關系、社會評價、金錢資產和關鍵行爲的歷史記錄,由區塊鏈予以保護,無論你強人工智能多么無敵,到此下馬,俯首稱臣,按照規矩來。
關鍵操作需要去中心化授權模型的批准,一個人工智能模型,不管它有多強,只是其中一票。人類可以通過智能合約“鎖住”強人工智能自行其是的手。
重要決策的依據必須一步步上鏈,透明給大家看,甚至用智能合約步步加鎖,要求它每往前走一步都必須獲得批准。
要求關鍵數據上鏈存儲,不得事後銷毀,給人類和其他的強人工智能模型分析學習、總結經驗教訓的機會。
把強人工智能賴以生存的能量供給系統交給區塊鏈智能合約來管理,必要時人類有能力通過智能合約切斷系統,給人工智能關機。
肯定還有更多的思路,這裏就不連篇累牘了。
一個更抽象、更哲學意義上的思考:科技甚至文明的競爭,可能歸根結底是能量級別的競爭,是看誰能調度和集中更大規模的能量來實現一個目標。強人工智能本質上是將能量轉化爲算力,將算力轉化爲智能,其智能的本質是以算力形態展示的能量。現有的安全機制,本質上是基於人的意志、人類組織的紀律和授權規則,這些都是能量級別很低的機制,在強人工智能面前,長期來說是不堪一擊的。用高能量級別的算力構造的矛,只有用高能量級別的算力構造的盾才能防御。區塊鏈和密碼學系統,就是算力之盾,攻擊者必須燃燒整個星系的能量,才能暴力破解。本質上,只有這樣的系統才能馴服強人工智能。
區塊鏈在很多方面都跟人工智能是相反的,尤其是在價值取向上。這個世界上大部分的技術都是以提高效率爲取向,只有極少數的幾個技術是以促進公平爲取向。在工業革命時期,蒸汽機是前者的代表,而市場機制則是後者的代表。而在今天,強人工智能是效率派中最閃亮的那一個,而區塊鏈則是公平流的集大成者。
區塊鏈以提升公平爲取向,爲此甚至不惜降低效率,而就是這樣一個與人工智能相互矛盾的技術,幾乎與人工智能同時取得突破。2006 年,Geoffrey Hinton 發表了跨時代的論文,把反播算法實現在了多層神經網絡上,克服了困擾人工神經網絡流派多年的“梯度消失”問題,打开了深度學習的大門。而兩年之後,中本聰發表了 9 頁的比特幣論文,打开了區塊鏈的新世界。兩者之間沒有任何已知的關聯,但是在大的時間尺度上,幾乎是同時發生的。
歷史地看,這也許並不是偶然的。假如你不是徹底的無神論者,或許可以這樣來看待:科技之神在工業革命兩百年之後,再一次同時在“效率”與“公平”的天平上加碼放大招,在放出強人工智能這個瓶子裏的精靈的同時,也把駕馭這個精靈的咒語書交給人類,這就是區塊鏈。我們將迎來一個激動人心的時代,這個時代所發生的事情,將使未來的人類看待今天的我們,正如同今天的我們看待石器時代的原始人。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:強人工智能時代 區塊鏈還有戲嗎?
地址:https://www.torrentbusiness.com/article/29723.html
標籤: