隨著產業內部對人工智慧(AI)安全性和倫理的疑慮增加,AI新創公司OpenAI和Anthropic,已和美國AI安全研究院簽訂合作備忘錄(MOU),同意在公開發布新AI模型之前和之後,都讓政府取得使用權限並進行測試,以協助改善其安全性。
CNBC和The Verge報導,隸屬美國商務部國家標準與科技研究院(NIST)的AI安全研究院29日表示,政府和OpenAI與Anthropic間的協議,將有助於共同研究如何評估AI能耐、安全風險和緩解這些風險的方法。美國也將與英國的對口單位合作,提供關於改善安全性的回饋。
在聯邦和州的立法機關正思索如何在不阻礙創新的前提下規範AI技術之際,該項與政府共享AI模型的協議,可謂顯著的進展。
AI安全研究院是拜登政府去年10月頒布美國歷來首項關於AI的行政命令後所成立。該行政命令要求就AI對勞動市場的衝擊,進行新的安全性評估、建立符合公平和公民權利的指引,以及研究。
OpenAI策略長權傑森(音譯)說,「我們大力支持AI安全研究院的宗旨,也期待共同為AI模型制定實踐安全的最佳方式和標準」。
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。
標題:OpenAI同意政府測試新模型 協助改善安全性
地址:https://www.torrentbusiness.com/article/123516.html