開發ChatGPT的人工智慧(AI)公司OpenAI表示,董事會將有權否決公司領導層推出新版模型的決定。
彭博資訊報導,OpenAI於18日在官方網站發布一份名為「準備框架(Preparedness Framework)」的安全指南,規定「追蹤、評估、預測和誘發敏感的模型帶來災難性風險的流程」。
該指南是在OpenAI執行長奧特曼(Sam Altman)遭短暫罷免並經歷一波動盪後所發布,此舉令外界關注到OpenAI董事會與公司高層間的權力之爭。
OpenAI在新聞稿中表示,「準備(Preparedness)團隊」將持續評估人工智慧系統的風險,以了解其在四個不同類別中的表現,包括潛在的網路安全問題、化學威脅、核威脅和生物威脅,並努力減少該技術可能造成的任何危害。
具體來說,該公司正在監控所謂的「災難性」風險,在指南中將其定義為「可能導致數千億美元經濟損失或導致許多人嚴重傷害或死亡的任何風險」。
OpenAI於10月宣布成立「準備團隊」,是這家公司負責監督人工智慧安全的三個獨立小組之一。另外還有「安全系統」著眼於當前產品,像是GPT-4;以及超級對準(superalignment),重點是未來可能誕生、可能極其強大的人工智慧系統。
麻省理工學院機器學習中心(Center for Deployable Machine Learning)主任馬德裏(Aleksander Madry)負責領導該團隊,他表示,他的團隊每個月將向新的內部安全諮詢小組發送報告,該小組將分析馬德裏團隊的工作,並向執行長奧特曼以及公司董事會提出建議。
馬德裏表示,他的團隊將反覆評估OpenAI最先進的、尚未發布的人工智慧模型,針對不同類型的知覺風險,將其評為「低」、「中」、「高」或「嚴重」。該團隊還將做出改變,以減少他們在人工智慧中發現的潛在風險,並衡量其有效性。根據新的安全指南,OpenAI未來只會推出評級為「中」或「低」的人工智慧模型。
值得注意的是,根據安全指南,奧特曼和他的領導團隊可以根據這些報告決定是否發布新的人工智慧模型,但董事會有權推翻其決定。
近日,奧特曼和董事會之間的宮鬥大戰吸引全世界目光,在這場內鬥落幕之後,董事會已發生巨大改變,同時也引發外界對人工智慧安全的又一次思考。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:OpenAI發布安全指南:董事會有權否決執行長發布新款AI模型
地址:https://www.torrentbusiness.com/article/81956.html