作者: Marc Andreessen,a16z創始人;翻譯:金色財經cryptonaitive & ChatGPT
人工智能時代已經來臨,人們對此感到恐慌不已。
幸運的是,我在這裏帶來好消息:人工智能不會摧毀世界,事實上可能會拯救世界。
首先,簡要介紹一下人工智能的含義:將數學和軟件代碼應用於教會計算機如何理解、綜合和生成知識的過程,像人類一樣。人工智能是一種像其他計算機程序一樣的程序——它運行、接收輸入、進行處理並生成輸出。人工智能的輸出在各個領域都非常有用,從編程到醫學、法律和創意藝術。它是由人擁有和控制的,就像其他任何技術一樣。
對於人工智能的簡短描述:它不是像電影中展示的那樣,殺手軟件和機器人會突然活躍並決定屠殺人類或以其他方式毀滅一切。
對於人工智能的更簡短描述:它可能是使我們關心的一切變得更好的方法。
爲什么人工智能可以使我們關心的一切變得更好呢?
社會科學多年來進行的衆多研究的核心結論是,人類智能能夠在生活的各個方面帶來顯著的改善。更聰明的人在幾乎所有領域都能取得更好的成果:學業成就、工作表現、職業地位、收入、創造力、身體健康、壽命、學習新技能、處理復雜任務、領導力、創業成功、衝突解決、閱讀理解、金融決策、理解他人的觀點、創意藝術、育兒成果和生活滿意度。
此外,人類智能是我們用了幾千年來創造現在世界的槓杆:科學、技術、數學、物理學、化學、醫學、能源、建築、交通、通信、藝術、音樂、文化、哲學、倫理學和道德。如果沒有在所有這些領域應用智能,我們現在可能還生活在泥屋中,艱難地過着務農的貧困生活。相反,我們利用智能使我們的生活水平在過去4000年裏提高了大約10,000倍。
人工智能爲我們提供了一個機會,通過深度增強人類智能,使智能的各種結果(從創造新藥物到解決氣候變化,再到實現星際旅行的技術)在未來變得更好得多。
人工智能增強人類智能的過程已經开始——人工智能已經以各種形式出現在我們周圍,例如各種計算機控制系統,現在還有像ChatGPT這樣的人工智能大型語言模型,而且從現在开始,它將迅速加速——如果我們允許的話。
在我們的人工智能新時代中:
• 每個孩子都將擁有一個無窮耐心、無窮同情、無窮知識、無窮幫助的人工智能導師。這個人工智能導師將在每個孩子的成長過程中一直陪伴在他們身邊,幫助他們充分發揮自己的潛力,提供無盡的愛。
• 每個人都將擁有一個無窮耐心、無窮同情、無窮知識、無窮幫助的人工智能助手/教練/導師/訓練師/顧問/治療師。這個人工智能助手將在人生的各種機遇和挑战中一直存在,最大程度地提高每個人的成果。
• 每個科學家都將擁有一個能夠大大擴展他們科學研究和成就範圍的人工智能助手/合作者/夥伴。每個藝術家、工程師、商人、醫生和護理人員的世界也將如此。
• 每個領導者——CEO、政府官員、非營利組織主席、運動教練、教師——也將如此。領導者的更好決策所產生的放大效應是巨大的,因此智能增強可能是最重要的。
• 整個經濟的生產率增長將大大加速,推動經濟增長、新產業的創造、新工作的創造和工資增長,從而實現地球上物質繁榮的新時代。
• 科學突破、新技術和新藥物將大幅擴展,因爲人工智能幫助我們進一步解碼自然法則並將其用於我們的利益。
• 創意藝術將進入黃金時代,因爲受到人工智能增強的藝術家、音樂家、作家和電影制作人能夠以比以往更快、更大規模實現他們的愿景。
• 我甚至認爲人工智能將改善战爭,當它不得不發生時,通過大大降低战時死亡率。每場战爭都以非常有限的人類領導者在極度壓力和信息有限的情況下做出可怕的決策爲特徵。現在,軍事指揮官和政治領導人將有人工智能顧問,幫助他們做出更好的战略和战術決策,最小化風險、錯誤和不必要的流血。
• 簡而言之,人們今天用自己的自然智能做的任何事情,通過人工智能都能做得更好,我們將能夠接手那些沒有人工智能無法解決的新挑战,從治愈所有疾病到實現星際旅行。
• 而且這不僅僅涉及智能!人們最低估的人工智能質量也許是它的人性化。人工智能藝術給那些本來缺乏技術技能的人自由創作和分享他們的藝術思想。與富有同理心的人工智能朋友交談確實能提高他們應對逆境的能力。而且,與人類對比,人工智能醫療聊天機器人已經更富同情心。無限耐心和同情心的人工智能將使世界變得更加溫暖、更加友好。
這裏的利害關系重大,機遇深遠。人工智能很可能是我們文明有史以來最重要、最好的事物,至少與電力和微芯片不相上下,甚至可能更超越它們。
發展和普及人工智能——並遠離我們應該害怕的風險——是我們對自己、對我們的孩子和對我們的未來的道義義務。
我們應該生活在一個有了人工智能的更好的世界,現在我們可以實現這個目標。
那么,爲什么會引發恐慌?
與這種積極的觀點相反,目前關於人工智能的公衆對話充斥着恐慌和偏執。
我們聽到各種聲稱人工智能將毀滅我們所有人、破壞我們的社會、奪走我們的工作、導致嚴重的不平等,並使壞人做出可怕的事情。
爲什么在潛在的結果中存在着這種從接近烏托邦到可怕的反烏托邦的分歧呢?
從歷史上看,每一項重要的新技術,從電燈到汽車、從收音機到互聯網,都引發了道德恐慌——一種社會傳染,讓人們相信新技術將摧毀世界,或者社會,或者兩者都會毀滅。悲觀主義檔案館的優秀人員已經記錄了這些幾十年來由技術驅動的道德恐慌事件;他們的歷史清晰地顯示出這種模式。事實證明,現在對於人工智能的恐慌甚至不是第一次出現。
現在,確實有許多新技術導致了不良後果——通常是那些對我們福利有巨大好處的技術。所以,並不是說道德恐慌的存在就意味着沒有任何需要擔心的事情。
但是,道德恐慌本質上是非理性的——它將可能是合理關切的問題誇大成一種歇斯底裏的程度,諷刺的是,這使得我們更難以面對真正嚴重的問題。
現在我們正處於對人工智能的一場全面的道德恐慌中。
這場道德恐慌已經被多種行爲者利用爲推動政策行動——推動制定新的人工智能限制、規定和法律。這些行爲者正在公开發表關於人工智能危險的極端戲劇化的言論——它們以此滋養並進一步煽動道德恐慌——它們都自詡爲無私的公益捍衛者。
但他們真的是這樣嗎?
他們是對還是錯?
人工智能的浸禮會和私酒販子
經濟學家觀察到,在這類改革運動中存在一種長期以來的模式。這些運動中的行動者可以分爲兩類——“浸禮會”和“私酒販子”,這是基於20世紀20年代美國禁酒令的歷史例子:
• “浸禮會”是真正的信徒社會改革者,他們深深而情感上(盡管不一定是理性上)相信,需要採取新的限制、規章和法律來防止社會災難。對於禁酒令來說,這些行動者通常是真誠的基督徒,他們認爲酒精正在破壞社會的道德結構。對於人工智能風險來說,這些行動者是真正相信人工智能會帶來一種或另一種生存風險的人——如果將他們綁在測謊儀上,他們是真心相信的。
• “私酒販子”是自利的機會主義者,他們在新的限制、規章和法律實施後可以從中獲利,並使自己免受競爭對手的影響。對於禁酒令來說,這些人是指那些在合法酒類銷售被禁止時,通過非法銷售酒精賺取巨額財富的走私者。對於人工智能風險來說,這些人是指那些如果建立起一種由政府批准的人工智能供應商組成的壟斷聯盟,並受到新創企業和开源競爭的保護,那么他們可以賺更多錢的首席執行官們——這是“太大而不能失敗”的銀行的軟件版本。
憤世嫉俗的人可能會認爲,一些表面上的浸禮會也是私酒販子——特別是那些受他們的大學、智庫、活動組織和媒體機構支付薪水或獲得撥款來攻擊人工智能的人。如果你獲得薪水或撥款來煽動人工智能恐慌,你很可能是個走私者。
私酒販子的問題在於他們會取得勝利。浸禮會是天真的意識形態信奉者,私酒販子是憤世嫉俗的運作者,因此,這類改革運動的結果通常是私酒販子得到了他們想要的——獲得監管控制、免受競爭的保護、形成壟斷,而浸禮會則對社會改善的推動感到困惑。
我們剛剛經歷了一個令人震驚的例子——2008年全球金融危機後的銀行改革。浸禮會告訴我們,我們需要新的法律和規章來解散“太大而不能失敗”的銀行,以防止類似危機再次發生。因此,美國國會通過了2010年的多德-弗蘭克法案,這被宣傳爲滿足洗禮者目標的法案,但實際上被走私者——大銀行——利用了。結果是,2008年那些“太大而不能失敗”的銀行現在變得更加龐大。
因此,在實踐中,即使浸禮會是真誠的,即使浸禮會是正確的,他們也會被狡猾和貪婪的走私者利用,以使自己受益。
這正是當前推動人工智能監管的情況。
然而,僅僅識別行動者並對其動機進行指責是不夠的。我們應該根據浸禮會和私酒販子的論點進行評估。
AI風險 1:人工智能會殺死我們嗎?
第一個和最早的人工智能末日風險是人工智能將決定殺死人類的擔憂。
我們對技術自身將會崛起並摧毀我們的恐懼在我們的文化中根深蒂固。希臘人通過普羅米修斯神話表達了這種恐懼——普羅米修斯給人類帶來了破壞性的火焰力量,更一般地說是技術("techne"),因此普羅米修斯被神永遠地折磨。後來,瑪麗·雪萊在她的小說《弗蘭肯斯坦》中爲現代人創造了我們自己的這個神話版本,其中我們开發了永生的技術,然後這個技術崛起並試圖摧毀我們。當然,關於人工智能的恐慌報紙報道中必不可少的是詹姆斯·卡梅隆的《終結者》電影中一個閃閃發光的紅眼殺人機器人的靜止圖像。
這個神話的假設進化目的是激勵我們認真考慮新技術的潛在風險——畢竟,火確實可以用來燒毀整個城市。但是,就像火同時也是現代文明的基礎一樣,用來保暖和保護我們在寒冷和充滿敵意的世界中,這個神話忽視了大多數甚至可能所有新技術的更大優勢,並實際上引起了破壞性情緒而不是理性分析。只因爲古人像這樣恐慌不安,並不意味着我們也要恐慌;我們可以運用理性。
我認爲人工智能會決定殺死人類的想法是一個深刻的範疇錯誤。人工智能不是經歷了數十億年演化來參與適者生存之爭的活生生的存在,如同動物和我們自己。它是數學——代碼——計算機,由人類構建、擁有、使用和控制。認爲它會在某個時刻發展出自己的思想,並決定它有導致它試圖殺死我們的動機是一種迷信的揮手。
簡而言之,人工智能沒有意愿、沒有目標,它不想殺死你,因爲它不是活的。人工智能是一台機器——不會比你的烤面包機更有生命。
現在,顯然,有些人對人工智能殺手深信不疑——浸入它們的可怕警告的媒體報道突然瘋狂增加,其中一些人聲稱他們研究這個主題已經幾十年了,現在對他們所了解的內容感到恐懼不安。其中一些真正相信者甚至是技術的實際創新者。這些人主張對人工智能實施各種離奇而極端的限制,從禁止人工智能的發展一直到對數據中心進行軍事空襲和核战爭。他們主張,因爲像我這樣的人無法排除人工智能未來可能造成的災難性後果,我們必須採取一種預防性的立場,可能需要大量的實體暴力和死亡,以防止潛在的存在風險。
我的回應是,他們的立場是非科學的——有什么可測試的假設?什么樣的事實可以證明這個假設是錯誤的?我們如何知道我們何時進入了危險區域?這些問題基本上得不到回答,除了"你無法證明它不會發生!"實際上,這些浸禮會的立場是如此非科學和極端——一個關於數學和代碼的陰謀論——他們已經呼籲實施物理暴力,所以我將做一件我通常不會做的事情,質疑他們的動機。
具體而言,我認爲有三件事情正在發生:
首先,回想一下約翰·馮·諾伊曼對羅伯特·奧本海默關於他在創造核武器方面的擔憂的回應——這有助於結束了第二次世界大战並阻止了第三次世界大战。他說:"有些人爲了聲稱他們的罪行而承認罪行。"什么是以誇張的方式聲稱自己工作的重要性而不顯得過於自誇的最好方式呢?這解釋了那些實際上正在建造和資助人工智能的浸禮會的言行不一致——觀察他們的行動,而不是他們的言辭。(杜魯門在與奧本海默會面後更加嚴厲地說:"別讓那個愛哭鬼再進來。")
其次,一些浸禮會實際上是私酒販子。有一個完整的職業稱爲"人工智能安全專家"、"人工智能倫理學家"、"人工智能風險研究員"。他們的工作是成爲末日預言者,並且應該適當地對待他們的陳述。
第三,加利福尼亞州以衆多的邪教而聞名,從EST到人民寺廟,從天堂之門到曼森家族。其中許多,盡管不是所有,邪教是無害的,甚至爲在其中找到歸宿的疏離感的人提供了幫助。但有些非常危險,邪教往往很難在導致暴力和死亡的那條线上徘徊。
而現實情況是,顯然對灣區的每個人都很明顯,"人工智能風險"已經演變成一個邪教,突然出現在全球媒體的關注和公衆討論中。這個邪教不僅吸引了一些邊緣人物,還吸引了一些真正的行業專家和不少富裕的捐助者——包括直到最近的Sam Bankman-Fried。它發展出了一套完整的邪教行爲和信仰。
這個邪教不是什么新鮮事——有一個長期存在的西方傳統稱爲千禧年主義,它產生了啓示錄邪教。"人工智能風險"邪教具有千年主義啓示錄邪教的所有特徵。從維基百科來看,我做了一些補充:
"千禧年主義是一種由一組或運動[人工智能風險預言者]相信社會即將發生根本性轉變[人工智能的到來]的信仰,在此之後,一切都將改變[人工智能的烏托邦、反烏托邦或世界末日]。只有戲劇性的事件[對人工智能的禁令、對數據中心的空襲、對非受控人工智能的核打擊]被認爲能夠改變世界[阻止人工智能],而這種變革被認爲將由一群虔誠和忠誠的人帶來或幸存下來。在大多數千禧年主義情節中,即將到來的災難或战鬥[人工智能的啓示或預防]將在之後緊隨着一個新的、潔淨的世界[人工智能的烏托邦]。”
這種世界末日教派的模式是如此明顯,以至於我很驚訝爲什么更多的人沒有看到。
不要誤會,教派是有趣的,他們的書面材料通常很有創意和吸引力,他們的成員在晚宴和電視上也很有魅力。但是他們的極端信仰不應決定法律和社會的未來-顯然不應如此。
AI風險2:AI會摧毀我們的社會嗎?
廣爲流傳的第二個AI風險觀點是,AI將通過產生“有害”的結果(以此類末日論者的說法)來毀滅我們的社會,即使我們並非真正被殺害。
簡而言之:如果機器殺手沒有傷害我們,仇恨言論和錯誤信息也會傷害我們。
這是一個相對較新的末日論關注點,它從上面我描述的“AI風險”運動中分支出來,並在一定程度上佔據主導地位。實際上,AI風險的術語最近從“AI安全”(由那些擔心AI會真正殺死我們的人使用的術語)變爲“AI對齊”(由那些擔心社會“危害”的人使用的術語)。原始的AI安全人士對這種轉變感到沮喪,盡管他們不知道如何將其收回,但他們現在主張將實際的AI風險主題更名爲“AI不殺傷所有人主義”(AI notkilleveryoneism),盡管這個術語尚未被廣泛採用,但至少很明確。
AI社會風險主張的提示是其自己的術語“AI對齊”。與什么對齊?人類價值觀。哪些人類價值觀?哦,這就是事情變得棘手的地方。
恰好,我親眼目睹了類似情況——社交媒體“信任和安全”战爭。顯而易見的是,多年來,社交媒體服務一直受到政府和活動家的巨大壓力,要求他們禁止、限制、審查和壓制各種內容。而且“仇恨言論”(及其數學對應物“算法偏見”)和“錯誤信息”的擔憂直接從社交媒體背景轉移到了“AI對齊”的新領域。
我從社交媒體战爭中學到的重要經驗是:
一方面,不存在絕對的言論自由立場。首先,包括美國在內的每個國家都將至少某些內容視爲非法。其次,有某些類型的內容,比如兒童色情和煽動現實世界暴力,幾乎被幾乎所有社會普遍認爲是禁區的內容——無論其是否合法。因此,任何促進或生成內容-言論-的技術平台都將有一些限制。
另一方面,滑坡效應不是謬見,而是必然。一旦建立了對甚至極爲糟糕的內容進行限制的框架——例如對仇恨言論,對某些有傷害性的詞匯,或對錯誤信息,顯然虛假的主張(比如“教皇去世了”)——各種政府機構、活動家壓力團體和非政府實體將迅速行動起來,要求越來越大的審查和壓制對他們認爲對社會和/或他們個人偏好構成威脅的言論。他們會以包括公然犯罪在內的方式這樣做。這種循環在實踐中似乎可以永遠進行下去,得到我們精英權力結構中充滿熱情的官方監控員的支持。社交媒體領域的這種情況已經持續了十年,並且除了某些例外情況外,這種情況也在不斷加劇。
因此,現在“AI對齊”周圍形成了這種動態。其擁護者聲稱擁抱對社會有益的工程化AI生成的言論和思想的智慧,並禁止對社會有害的AI生成的言論和思想。其反對者聲稱,思想警察極度傲慢和專橫,並且通常是公然犯罪,至少在美國是如此,並且實際上試圖成爲一種新的由政府-企業-學術融合的權威言論獨裁,直接來到喬治·奧威爾的《1984》。
由於“信任和安全”以及“AI對齊”的支持者都集中在以美國沿海精英爲特徵的全球人口非常狹窄的一部分中,其中包括許多在科技行業工作和撰寫文章的人。因此,我的很多讀者會發現自己有條件爭辯,認爲需要對AI輸出進行大規模限制以避免破壞社會。我現在不會試圖說服你們,我只會簡單地說這就是需求的本質,世界上大多數人既不同意你的意識形態,也不希望看到你們勝利。
如果你不同意當前通過不斷加劇的言論規範對社交媒體和AI施加的狹窄道德觀念,你還應該意識到,AI被允許說什么/生成什么的鬥爭將比對社交媒體審查的鬥爭更重要,遠遠更重要。AI極有可能成爲世界上一切的控制層。它被允許如何運作將可能比任何其他事情都更重要。你應該意識到,一小撮孤立的黨派社會工程師正在試圖在追求保護你的舊說辭的掩護下決定現在的AI應該如何操作。
簡而言之,不要讓思想警察壓制AI。
AI風險3:AI會搶走我們所有的工作嗎?
由於機械化、自動化、電腦化或人工智能等各種形式的機器取代人力勞動,人們一直擔心失去工作的問題。這種擔憂已經持續了數百年,自從出現了機械織布機等機械裝置以來。盡管每一項新的重大技術在歷史上都會帶來更多的高薪工作,但每一波恐慌的出現都伴隨着“這一次與以往不同”的說法——這一次會發生,這一次是技術終將給人類勞動以致命打擊的時候。然而,這種情況從未發生過。
在最近的過去,我們經歷了兩次技術驅動的失業恐慌周期——2000年代的外包恐慌和2010年代的自動化恐慌。盡管在這兩個十年中,許多傳媒人士、專家和甚至技術行業高管都不斷敲打桌子,聲稱大規模失業即將來臨,但在2019年年底——也就是COVID爆發之前——世界上的工作機會比歷史上任何時候都要多,而且工資也更高。
然而,這個錯誤的想法卻不會消失。
果不其然,它又回來了。
這一次,我們終於擁有了能奪走所有工作並使人類勞動變得無關緊要的技術——真正的人工智能。當然,這一次歷史不會簡單重復,這一次是:人工智能將導致大規模失業,而不是經濟迅速增長、就業機會增多和工資水平上升。對不對?
不是這樣,這種情況肯定不會發生,如果允許人工智能在整個經濟中得以發展和推廣,它可能會導致有史以來最激動人心和持續時間最長的經濟繁榮,相應地帶來創紀錄的就業機會和工資增長——恰恰與人們的擔憂相反。原因如下。
自動化殺死就業論者一直在犯的核心錯誤被稱爲“勞動總量謬誤”。這種謬誤是指在任何特定時間內經濟中需要完成的勞動量是固定的,要么由機器完成,要么由人類完成,如果由機器完成,那么人們就沒有工作可做。
勞動總量謬誤是自然而然地從直覺產生的,但這種直覺是錯誤的。當技術應用於生產時,我們獲得了生產力增長——通過減少輸入產生的產出增加。結果是商品和服務的價格下降。隨着商品和服務價格的下降,我們支付的費用也減少了,這意味着我們現在有額外的消費能力來購买其他東西。這增加了經濟中的需求,推動了新的生產——包括新產品和新產業——從而爲被機器替代的人們創造了新的工作機會。結果是經濟規模擴大,物質繁榮增加,產業增加,產品增加,就業機會增多。
但好消息不僅如此。我們還獲得了更高的工資。這是因爲在個體工人的層面上,市場根據工人的邊際生產力確定報酬。在技術融入的行業中,一名工人的生產力比傳統行業的工人更高。僱主要么會根據工人的提高生產力而支付更多的錢,要么另一家僱主會出於純粹的自利而這樣做。結果是,引入技術的行業不僅會增加就業機會,而且會提高工資。
總之,技術使人們能夠更加高效地工作。這導致現有商品和服務的價格下降,工資上漲。這反過來又促進了經濟增長和就業增長,並激勵了新的工作和新產業的創造。如果市場經濟能夠正常運行,技術能夠自由引進,這將是一個永無止境的向上循環。正如弗裏德曼所觀察到的那樣,“人類的欲望和需求是無窮無盡的”——我們總是想要比我們擁有的更多。擁抱技術的市場經濟是我們更接近實現每個人都可以想象到的一切,但永遠無法完全實現的方式。這就是爲什么技術不會摧毀就業崗位,永遠不會。
對於那些尚未接觸過這些想法的人來說,這些都是令人震驚的思想,可能需要一些時間來理解。但我發誓我並沒有編造它們——實際上,你可以在標准經濟學教科書中閱讀到所有這些觀點。我推薦亨利·哈茲利特《一課經濟學》中的《機械的詛咒》一章,以及弗雷德裏克·巴斯夏的諷刺性作品《蠟燭制造商的請愿書》,這些蠟燭制造商因太陽對照明產業進行了不公平競爭而抗議太陽。我們也有我們這個時代的現代版本。
但你可能會認爲這一次與以往不同。這一次,隨着人工智能的出現,我們擁有了可以替代所有人類勞動的技術。
但是,按照我上面描述的原則,想象一下如果所有現有的人類勞動都被機器取代會意味着什么。
這將意味着經濟生產力增長的起飛速度將是絕對天文數字,遠遠超過任何歷史先例。現有商品和服務的價格將全面下降到幾乎爲零。消費者福利將飆升。消費者的消費能力將飆升。經濟中的新需求將激增。企業家將創建令人眼花繚亂的新產業、新產品和新服務,並盡可能快地僱傭盡可能多的人工智能和工人來滿足所有新的需求。
假設人工智能再次取代了這些工人呢?這個循環將重復,推動消費者福利、經濟增長和就業與工資增長更高。這將是一種直线式的向上螺旋,將人們帶向亞當·斯密和卡爾·馬克思從未敢於夢想的物質烏托邦。
我們應該如此幸運。
AI風險4:人工智能是否會導致嚴重的不平等?
談到卡爾·馬克思,對於人工智能奪走工作崗位的擔憂直接引出了下一個聲稱的人工智能風險,那就是,好吧,Marc,假設人工智能確實奪走了所有的工作,無論是出於好還是出於壞。那么,作爲人工智能的所有者獲得了所有的經濟回報,普通人一無所獲,這難道不會導致巨大而且嚴重的財富不平等嗎?
恰好,這是馬克思主義的一個核心論點,即生產資料的所有者——資產階級——不可避免地會從實際勞動的人們——無產階級——那裏竊取所有的社會財富。無論現實如何一再證明這是一個錯誤,這個謬論似乎永遠無法消亡。但讓我們無論如何駁斥它。
這個理論的缺陷在於,作爲一件技術的所有者,保留不分享它並不符合你自身的利益——事實上恰恰相反,你的利益是將它銷售給盡可能多的客戶。世界上最大的市場是全世界的市場,包括80億人口。因此,在現實中,每一項新技術——即使开始時是向高薪大公司或富裕消費者銷售——都會迅速普及,直到它落入盡可能大的大衆市場的手中,最終覆蓋整個地球上的人。
這個經典的例子是埃隆·馬斯克在2006年發布的所謂“祕密計劃”——他當然公开發布的——關於特斯拉的計劃:
第一步,制造[昂貴的]跑車;
第二步,用第一步掙的錢造一輛價格實惠的車;
第三步,用第二步掙的錢造一輛更實惠的車。
這當然是他所做的事情,結果成爲世界首富。
最後一點是關鍵的。如果今天他只賣車給有錢人,馬斯克會更富有嗎?不會。如果他只爲自己造車,他會比現在更富有嗎?當然不會。不,他通過銷售給盡可能大的市場全世界,來最大化自己的利潤。
簡而言之,每個人都能夠擁有這個東西,正如我們過去在汽車、電力、無线電、計算機、互聯網、移動電話和搜索引擎等領域所看到的。制造這些技術的公司高度積極地降低價格,直到地球上的每個人都能夠負擔得起。這正是人工智能領域已經發生的事情——這就是爲什么你今天可以在微軟Bing和谷歌Bard等形式的免費或低成本的最先進的生成式人工智能上使用它——而且這將繼續發生。不是因爲這些供應商愚蠢或慷慨,而恰恰是因爲他們貪婪——他們希望最大化市場規模,從而最大化利潤。
因此,發生的情況與技術推動財富集中的理論相反——技術的個體用戶,最終包括地球上的每個人,反而被賦予權力,並獲得了大部分產生的價值。與之前的技術一樣,構建人工智能的公司——假設它們必須在自由市場中運作——將競相努力使這一點成爲現實。
馬克思當時錯了,現在也錯了。
這並不是說不平等在我們社會中不是一個問題。它是一個問題,只是它不是由技術驅動的,而是相反,是由那些對新技術最抵制、政府幹預最多以阻止採用人工智能等新技術的經濟部門驅動的,具體來說是住房、教育和醫療保健。人工智能和不平等的實際風險不在於人工智能會導致更多的不平等,而在於我們不允許使用人工智能來減少不平等。
AI風險5:人工智能是否會導致壞人做壞事?
到目前爲止,我已經解釋了五個最常提出的人工智能風險中有四個實際上並不真實的問題——人工智能不會活過來殺死我們,人工智能不會摧毀我們的社會,人工智能不會導致大規模失業,人工智能不會導致破壞性的不平等增加。但是現在讓我們來討論第五個,這也是我實際上同意的一個:人工智能會讓壞人更容易做壞事。
從某種意義上說,這是一個循環論證。技術是一種工具。從火和石頭开始,工具可以用來做好事——烹飪食物和建造房屋——也可以用來做壞事——燒傷人和毆打人。任何技術都可以被用於好的或壞的目的。可以理解。而人工智能會讓罪犯、恐怖分子和敵對政府更容易做壞事,毫無疑問。
這讓一些人提出,好吧,既然這樣,那么在這種情況下,讓我們在壞事發生之前禁止人工智能。不幸的是,人工智能不是一種難以獲得的玄妙物質,比如鈈。恰恰相反,它是世界上最容易獲得的材料——數學和代碼。
顯然,AI貓已經出了包。你可以通過數千個免費在线課程、書籍、論文和視頻學習如何構建人工智能,而且每天都有傑出的开源實現在不斷增加。人工智能就像空氣一樣——它將無處不在。爲了抓捕它,所需要的極權壓迫程度將是如此嚴厲——一個監視和控制所有計算機的世界政府?戴着黑色直升機的武裝警察突襲流氓GPU?——我們將沒有一個社會來保護。
因此,我們有兩種非常直接的方式來應對壞人利用人工智能做壞事的風險,而這正是我們應該關注的。
首先,我們已經制定了法律來讓使用人工智能幹壞事的大多數行爲犯罪化。黑入五角大樓?那是犯罪。從銀行偷錢?那是犯罪。制造生物武器?那是犯罪。實施恐怖襲擊?那是犯罪。我們只需專注於在可能時預防這些犯罪,並在不能時予以起訴。我們甚至不需要新的法律——我不知道是否有一個已經被提出的惡意利用人工智能的實際案例不是已經是非法的。如果發現了新的壞用途,我們禁止那些用途。證畢。
但是你會注意到我剛才提到的——我說我們應該首先專注於在壞事發生之前防止人工智能輔助犯罪——這難道不意味着要禁止人工智能嗎?好吧,還有另一種方法可以防止這樣的行爲,那就是將人工智能作爲一種防御性工具。讓擁有壞目標的壞人具備能力的人工智能,同樣也在好人手中具有強大的力量——特別是那些負責防止壞事發生的好人。
例如,如果你擔心人工智能生成虛假人物和虛假視頻,答案是構建新的系統,使人們可以通過加密籤名驗證自己和真實內容。在人工智能之前,數字化創造和修改真實和虛假內容已經存在;答案不是禁止文字處理器和Photoshop——或者人工智能——而是利用技術構建一個真正解決問題的系統。
因此,第二個方法是,讓我們大力利用人工智能進行善意、合法和防御性的目的。讓我們在網絡防御、生物防御、追蹤恐怖分子以及我們爲保護自己、社區和國家所做的一切其他方面利用人工智能。
當然,政府內外已經有許多聰明人正在做這樣的工作——但是如果我們將目前那些專注於無效的禁止人工智能的努力和智力用於使用人工智能來防止壞人做壞事,我相信一個充斥着人工智能的世界將比我們今天生活的世界更加安全。
不以最大力量和速度开展人工智能的真實風險
還有一個最終而真實的人工智能風險可能是最令人恐懼的:
人工智能不僅在相對自由的西方社會中得到开發,也在中國得到开發。
中國對人工智能有着與我們截然不同的愿景。他們對此甚至並不保密,他們非常明確地表示,他們已經在追求他們的目標。而且,他們不打算將人工智能战略限制在中國境內——他們打算在他們提供5G網絡、提供“一帶一路”貸款、提供像TikTok這樣的友好消費應用作爲他們集中控制和指揮的人工智能前端的地方,將其傳播到全世界的每一個角落。
人工智能的最大風險就是中國在全球人工智能主導地位上取得勝利,而我們——美國和西方——卻沒有取得勝利。
我提出了一個簡單的策略來應對這個問題——事實上,這也是羅納德·裏根總統在與蘇聯贏得第一次冷战時採取的策略。
“我們贏,他們輸。”
與其被圍繞着關於人工智能殺手、有害人工智能、破壞就業崗位的人工智能和產生不平等的人工智能等毫無根據的恐慌放在被動位置,我們美國和西方應該盡可能全力投入人工智能。
我們應該爭取全球人工智能技術優勢的競賽,並確保中國不會取得勝利。
在這個過程中,我們應該盡可能快速、盡可能大力地將人工智能引入我們的經濟和社會,以最大化其對經濟生產力和人類潛能的利益。
這是抵消真正人工智能風險和確保我們的生活方式不被中國愿景所取代的最佳方式。
我們該怎么辦?
我提出了一個簡單的計劃:
• 大型人工智能公司應該被允許盡快、盡可能激進地構建人工智能——但不能實現監管壟斷,不能建立一個由政府保護的卡特爾,由於對人工智能風險的不正確宣稱而免於市場競爭。這將最大限度地發揮這些公司驚人能力的技術和社會回報,它們是現代資本主義的寶石。
• 初創人工智能公司應該被允許盡快、盡可能激進地構建人工智能。它們既不應該面對大公司獲得政府授予的保護,也不應該獲得政府援助。它們應該只被允許競爭。如果初創公司不成功,它們在市場上的存在也將不斷激勵大公司發揮出色——我們的經濟和社會無論如何都是贏家。
• 开源人工智能應該被允許自由傳播和與大型人工智能公司和初創公司競爭。开源應該沒有任何監管壁壘。即使开源沒有战勝公司,其廣泛可用性也對世界各地想要學習如何構建和使用人工智能以成爲技術未來一部分的學生們是一個福音,並確保無論他們是誰、有多少錢,人工智能都對他們可用。
• 爲了抵消壞人利用人工智能做壞事的風險,政府與私營部門合作應該積極參與潛在風險領域的每一個方面,利用人工智能最大化社會的防御能力。這不應僅限於人工智能風險,而是包括更一般的問題,如營養不良、疾病和氣候問題。人工智能可以是解決問題的極其強大的工具,我們應該將其視爲這樣的工具。
• 爲了防止中國取得全球人工智能主導地位的風險,我們應該充分利用我們的私營部門、科研機構和政府的力量,共同推動美國和西方人工智能在全球範圍內的絕對主導地位,最終甚至在中國境內也如此。我們贏,他們輸。
這就是我們如何利用人工智能拯救世界。
是時候行動了。
傳奇與英雄
我以兩個簡單的陳述來結束。
人工智能的發展始於上世紀40年代,與計算機的發明同時开始。第一篇關於神經網絡的科學論文——即我們今天擁有的人工智能的架構——發表於1943年。在過去的80年中,整個一代人的人工智能科學家出生、上學、工作,很多情況下去世,他們沒有看到我們現在所獲得的回報。他們是傳奇,每一個人。
如今,越來越多的工程師——其中許多人年輕,可能有祖父母甚至曾祖父母參與了人工智能背後思想的創造——正努力將人工智能變爲現實,盡管有一堵試圖將他們描繪成魯莽的惡棍的恐慌和悲觀主義的牆。我不認爲他們魯莽或者是惡棍。他們是英雄,每一個人。我和我的公司非常高興支持盡可能多的他們,我們將100%地支持他們和他們的工作。
"多年來,千年主義者經常[人工智能風險預言者不斷地]試圖預測這種未來事件的確切時間,通常是通過各種標志和先兆的解釋。然而,歷史上的預測幾乎都以失敗告終[目前沒有可靠的證據表明人工智能會殺死人類]。然而,他們的[人工智能風險預言者的]粉絲通常會試圖修正解釋,以便與事件發生時[人工智能未來的潛在風險]相對應。"
那些熱衷於"人工智能風險"邪教的人可能會不同意我的觀點,他們可能會堅稱他們是理性的、基於科學的,並且我是一個被洗腦的追隨者。但請注意,我並沒有聲稱"人工智能絕對不會成爲人類的威脅"。我只是指出,迄今爲止沒有證據支持"人工智能將殺死我們"這一論點。我們應該根據現有的證據進行理性的評估,而不是沉溺於邪教般的恐慌和反應。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:a16z創始人萬字長文:爲什么AI會拯救世界
地址:https://www.torrentbusiness.com/article/42576.html
標籤:人工智能