當前位置: 華文世界 > 科技

OpenAI 和 Anthropic 同意推出新模型前交給美國政府評估安全

2024-08-31科技

IT之家 8 月 30 日訊息,人工智能公司 OpenAI 和 Anthropic 已經同意允許美國政府在這些公司釋出重大新的人工智能模型之前存取這些模型,以幫助提高它們的安全性。

圖源 Pexels

美國人工智能安全研究所(US AI Safety Institute)周四宣布,這 兩家公司已經與該研究所簽署了諒解備忘錄,承諾在模型公開釋出之前和之後提供存取許可權 。美國政府表示,這一舉措將有助於他們共同評估安全風險並緩解潛在問題。該機構表示,將與英國的對應機構合作,就安全改進提供反饋。

OpenAI 首席戰略官 Jason Kwon 對合作表示支持:

「我們非常支持美國 AI 安全研究所的使命,並期待一起合作,制定 AI 模型的安全最佳實踐和標準。我們相信,該研究所在確保美國在負責任開發 AI 方面的領導地位上扮演著關鍵角色。我們期望透過與研究所的合作,能為全球提供一個可以借鑒的框架。」

Anthropic 公司也表示,建立有效測試 AI 模型的能力非常重要。該公司的聯合創始人兼政策負責人 Jack Clark 說:

「確保 AI 安全可靠對於讓這項技術帶來積極影響是至關重要的。透過這樣的測試和合作,可以更好地發現和減少 AI 帶來的風險,推動負責任的 AI 發展。我們為能夠參與這項重要工作感到自豪,並希望為 AI 的安全性和可信度設立新的標準。」

在聯邦和州立法機構正在考慮如何對這項技術設定哪些限制而不扼殺創新的同時,共享人工智能模型存取權是一項重要舉措。IT之家註意到,周三,加利福尼亞州立法者透過了【前沿人工智能模型安全創新法案】(SB 1047),要求加利福尼亞州的人工智能公司在訓練先進的基礎模型之前采取特定的安全措施。這引起了包括 OpenAI 和 Anthropic 在內的人工智能公司的反對,他們警告稱這可能會傷害較小的開源開發人員,盡管該法案已經進行了修改,並且仍在等待加利福尼亞州州長加文紐瑟姆的簽署。

與此同時,美國白宮一直在努力從主要公司那裏獲得關於人工智能安全措施的自願承諾。幾家領先的 AI 公司已經做出非約束性承諾,投資於網絡安全和歧視研究,並致力於對人工智能生成的內容進行浮水印標記。

美國人工智能安全研究所所長伊莉莎伯凱利在一份聲明中表示,這些新的協定只是「開始,但它們是我們努力幫助負責任地管理人工智能未來的一個重要裏程碑」。