隨著全球生成式AI競爭加劇,OpenAI卻再次經歷人事動蕩。
近日,OpenAI聯合創始團隊成員、負責超級對齊項目的John Schulman宣佈離職加入Anthropic,而另一聯合創始人、OpenAI總裁Greg Brockman則表示,將延長休假至今年底,但未透露離職意願。此外,OpenAI聯合創始人、時任首席科學家Ilya Sutskever和對齊團隊主管Jan Lei日前也已離職,其負責的超級對齊團隊也被傳已經解散。
目前,OpenAI的原11人創始團隊成員已大幅縮減,只有Sam Altman、Wojciech Zaremba和暫休假的Greg Brockman三人仍在任職。而隨著多位聯合創始人離開,這或意味著OpenAI對人工智能對齊方面關注變得更少,抑或對AI安全的投入重點發生了變化。
另一方面,在商業化進展並不順利同時,OpenAI還被指推動商業目標過於「激進」、「背離非營利組織的初心」等。面對諸多挑戰與質疑,以及重要骨幹的紛紛出走,OpenAI似乎走到了新的十字路口,下一代GPT以及AGI是否會受人事變動的影響還需繼續觀察。而在這背後,OpenAI內部對安全方面達成共識至關重要,這或將成為「定海神針」。
再添重要人事變動
繼去年11月發生“宮鬥”大戱後,OpenAI內部持續出現重要人事變動。近日,OpenAI的創始團隊成員、負責超級對齊項目的John Schulman宣佈離職,轉而加入Anthropic,並繼續研究AI超級對齊等。
John Schulman在社交媒體發文表示,作出離開OpenAI並加入Anthropic這一決定是因為他希望進一步關注人工智能對齊,並重返實際技術工作。他還強調,其離職並不是因為OpenAI缺乏對於對齊研究的支持,相反OpenAI一直致力於在這一領域進行投資。
OpenAI CEO Sam Altman發文感謝了John Schulman對於OpenAI所做的貢獻,並稱John Schulman是一位才華橫溢的傑出研究員,對產品和社會有深刻思考。
據悉,John Schulman於2015年作為OpenAI的11名聯合創始人之一加入公司,曾被稱為「ChatGPT架構師」。據其發佈在個人網站上的介紹,他獲得加州大學伯尅利分校計算機博士學位,聯合領導OpenAI的「後訓練(post training)」團隊,即對模型進行精調後以ChatGPT或API接口的形式上線。
Anthropic是由前OpenAI研究高管和員工創建的公司,旗下擁有Claude系列大模型,被認為是OpenAI的最強競爭對手。今年6月,Anthropic發佈最新模型Claude 3.5 Sonnet,該模型在研究生水平推理(GPQA)、編碼能力(HumanEval)、文本推理(DROP)等方面的成績均好於GPT-4o,而推理速度和成本僅與上一代中檔模型相當。目前,Anthropic已接連獲得谷歌、亞馬遜等科技巨頭的數十億美元投資。
在John Schulman宣佈離職同一日,OpenAI總裁Greg Brockman也發文稱將休假至年底,但並未透露離職意願。他表示,這是其聯合成立OpenAI九年後的第一次休息,「我們仍然需要搆建安全的AGI(通用人工智能),這一任務遠未完成」。
但在這個關鍵的時候選擇長時間休假,也引發了不少猜測,屆時去留無從得知。
Greg Brockman是ChatGPT商業化的重要推動者,一直被視作Sam Altman最可靠的盟友。此前,Ilya Sustkever聯合四位董事會成員將Altman和前董事長Brockman一起逐出了董事會,彼時的管理權爭奪戰中,Brockman在陣前沖鋒,發佈了大量細節支持Altman。
另有消息稱,OpenAI的產品負責人Peter Deng也將離職,但目前尚未公佈動向。Peter Deng是矽谷知名產品經理,曾任谷歌、Instagram、Facebook、Uber等公司產品經理,去年加入OpenAI任消費產品副總裁,負責ChatGPT背後的產品、設計和工程團隊。
而在OpenAI再現人事動蕩同時,特斯拉CEO馬斯克再次對OpenAI及其首席執行官阿爾特曼提起訴訟,指控OpenAI將利潤和商業利益置於公共利益之上,背離了創立公司時造福全人類的初衷,而且涉嫌騙取自己對OpenAI投入大量時間和數千萬美元的種子基金。
值得一提的是,今年2月,馬斯克曾對OpenAI和Altman提起過類似的訴訟。6月,在法官準備審理OpenAI駁回此案請求的前一天,馬斯克沒有給出任何解釋而撤銷了訴訟。但新訴訟的篇幅幾乎是原訴訟的兩倍,同時還新增了對OpenAI涉嫌敲詐勒索的指控。
無論是從聯合創始人離職,還是特斯拉的起訴來看,OpenAI正面臨嚴峻的挑戰。而在這背後,OpenAI對AI安全的平衡裁定以及商業化推動過於「激進」或是關鍵矛盾點。
核心高管相繼離職
隨著AI安全重要性與日劇增,越發受到世界各地關注,OpenAI語言模型的對齊(alignment)、安全性和透明性已經成為業界焦點。其中,對齊是人工智能控製領域的一個主要的問題,即要求AI系統的目標要和人類的價值觀與利益保持一致。
OpenAI稱,要解決超級人工智能對人類造成的風險,人類需要建立新的監管方式並解決超級人工智能的對齊問題,即如何確保比人類聰明得多的超級人工智能會遵循人類的想法。
2023年7月,OpenAI成立超級對齊團隊,由OpenAI聯合創始人、時任首席科學家Ilya Sutskever和對齊團隊主管Jan Lei共同領導。在該部門成立的同時,OpenAI還宣佈,未來四年內,將目前擁有的計算資源的20%用於解決超級對齊問題。
雖然Sam Altman置頂的一條推文仍是安全相關,即將為AI安全相關研究和開發工作,保障提供至少20%計算資源,但OpenAI內部關於AI安全的分析問題已經越發嚴重。
例如Ilya Sutskever曾在採訪中提到ChatGPT可能有意識,世界需要清醒認識到他的公司和其他公司正在創造的技術的真正力量。而Altman近期稱,「人工智能對齊問題還不能說完全解決,但目前讓人工智能系統學會如何按一套價值觀行事,效果比我想象的更好」。
今年5月15日,即Ilya Sutskever在參與罷免CEO Sam Altman事件半年後,正式宣佈從OpenAI離職。Ilya Sutskever在社交平台X上宣佈,他將在近十年後離開公司,相信在首席執行官Altman等人的領導下,能夠打造出既安全又有益的通用人工智能。
據知情人士透露,Ilya Sutskever的退出導致OpenA的分歧嚴重到了無法調和的地步。
緊接著,超級對齊團隊另一位負責人Jan Leike也宣佈離職,並稱OpenAI需要成為一家安全之上的AI公司。Jan Leike隨後發文稱己加入Anthropic,繼續超級對齊的研究。
對於離職原因,Leike稱,超級對齊團隊一直在努力爭取資源。「過去幾個月裡,我門的團隊一直在逆風航行,有時在計算資源上掙紥,而且越來越難以完成這項關鍵的研究」。他還表示,公司不夠關注AI相關的安全措施,離職是因為他與OpenAI在公司的「核心優先事項」上存在一系列分歧。另據報道,OpenAI此後解散了超級對齊團隊。
直至5月28日,OpenAI在官網宣佈成立董事會安全委員會,其中負責對齊科學的主管正是此次離職的John Schulman。而如今,隨著John Schulman的離職,OpenAI創始團隊中,僅剩Sam Altman、Greg Brockman、Wojciech Zaremba三人仍在OpenAI任職。
至於OpenAI的8位前聯合創始人離職後去處,分別包括馬斯克專注於特斯拉、x.AI和SpaceX等,llya Sutskever創立Safe Superintelligence,Trevor Blackwell成為行業學者,Vicki Cheung創立Gantry,Andrej Karpathy創立Eureka Labs,Durk Kingma加入Google Brain,Pamela Vagata創立Pebblebed,以及John Schulman加入Anthropic。
其中絕大多數去處仍為人工智能領域。例如Ilya Sutskever提到,由於專注於安全超級智能,公司不會受到管理開銷或產品周期的幹擾,也不會受到短期商業壓力的影響。在外界看來,這似乎是在影射在追逐盈利和商業化道路上逐漸降低安全要求的OpenAI。
此外,馬斯克去年創立了人工智能初創公司xAI,於今年5月完成新一輪60億美元融資,融資規模僅次於OpenAI,推高公司估值至240億美元。
前進道路更多「隂霾」
OpenAI的人事動蕩早有跡可循,而且對齊發展路逕造成重要影響。
去年11月,OpenAI爆發震驚矽穀迺至全世界的「宮鬭」大戱,其中焦點事件包括三天三換CEO、「推手」倒戈、700員工聯名「逼宮」、投資者發起訴訟威脇、微軟介入助攻…在這背後,究其根源既有OpenAI「加速主義」與「安全主義」的路線之爭,以及凸顯出有效利他主義社會運動在矽谷大大小小的AI公司中間製造的裂痕。
在OpenAI內部,Sam Altman是「加速主義」代表,而Ilya Sutskeve則可謂「超級對齊」代表。然而,鋻於Sutskeve等人離職以及超級對齊團隊解散,OpenAI或將進入全面加速主義發展階段。這一發展導向或能在馬斯克的起訴文件窺見一斑。
馬斯克的訴訟文件中指出,該起訴是「利他主義與貪婪之爭的典型案例」,Sam Altman等被告利用虛假的人道主義使命誘導而投資。此外,馬斯克要求法院裁定OpenAI的最新模型是否已實現AGI。因為依據協議一旦實現AGI,微軟將不再有權使用OpenAI的技術。
他還稱,OpenAI可能出於經濟利益考量,推遲公佈其已實現AGI。
據悉,5月底,OpenAI在一篇博文中透露,已開始訓練下一個前沿模型,將在構建AGI的使命中提供更高級別的能力,但並未明確是否命名為GPT-5。7月,Sam Altman則稱,開發GPT-5還需要一些時間,相關的技術仍處於早期階段,存在數據和算法方面的問題。
直至8月6日,OpenAI表示,在今年10月即將擧辦的開發者大會OpenAI DevDay上,不打算發佈下一個旗艦模型,會更專注於更新其API和開發者服務。
在推進AGI的進程上,OpenAI已創建了一套分級衡量系統,將人工智能劃分為五個等級:
其中,當前的ChatGPT等聊天機器人還處於第一級水平;第二級相當於一個可以解決基本問題的系統,其水平相當於擁有博士學位的人;第三級是指能夠代表用戶採取行動的人工智能代理;第四級是可以自我創新的人工智能;第五級則是實現AGI的最後一步,即人工智能可以執行人類的全部工作。
OpenAI聲稱,其人工智能已經接近第二級的水平。但AGI還有很長的路要走,首先就需要達到超強的計算能力。多位專家對AGI給出的時間表存在很大差異,OpenAI內部也是如此。2023年10月,Sam Altman表示,我們「大約需要五年時間」才能實現AGI。
在這背後,或許也有OpenAI的現實考量。業內人士稱,「OpenAI的營收在35億至45億美元之間,但其運營虧損可能高達50億美元,收入遠遠無法覆蓋成本。而為了推出下一代的大模型GPT5,OpenAI需要更多的數據和算力,但卻沒有清晰模式的商業產品」。
無論如何,從GPT-5發佈延遲,SerachGPT縯示出錯,到7萬億美元造芯等,彰顯出OpenA的研發和商業化之路並不順利,而且被指推進商業化目標「激進」、「背離非營利組織的初心」。在面臨著諸多挑戰與質疑中,OpenAI似乎走到了一個新的十字路口。
業內普遍認為,重要骨乾紛紛出走,將讓麻煩不斷的OpenAI雪上加霜,為其前進的道路帶來更多的隂霾,下一代GPT以及AGI是否會受人事變動的影響還需繼續觀察。OpenAI能否破障?或許取決於在安全這一核心問題上能否被妥善處置,以及內部能否達成共識。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:分歧無法調和、創始團隊銳減 OpenAI「加速」之路隂霾籠罩
地址:https://www.torrentbusiness.com/article/120262.html