OpenAI 推出人工智慧安全和政策整合的“準備框架”

著名的人工智慧研究實驗室OpenAI 宣布其在人工智慧安全和安全方面的方法取得了重大進展政策。該公司推出了“準備框架”,這是一套全面的流程和工具,旨在評估和減輕與日益強大的人工智慧模型相關的風險。這項

著名的人工智慧研究實驗室OpenAI 宣布其在人工智慧安全和安全方面的方法取得了重大進展政策。該公司推出了“準備框架”,這是一套全面的流程和工具,旨在評估和減輕與日益強大的人工智慧模型相關的風險。這項舉措是在OpenAI 的關鍵時刻推出的,該公司面臨著治理和問責問題的審查,特別是在其開發的有影響力的人工智慧系統方面。

準備框架的一個關鍵方面是 OpenAI 董事會的授權。如果認為人工智慧開發相關的風險太高,他們現在有權否決執行長薩姆·奧爾特曼(Sam Altman)所做的決定。此舉顯示公司內部動態的轉變,強調對人工智慧開發和部署採取更嚴格和負責任的方法。董事會的監督範圍涵蓋人工智慧開發的所有領域,包括當前模型、下一代前沿模型以及通用人工智慧 (AGI) 的概念化。

準備框架的核心是引入風險「記分卡」。這些有助於評估與人工智慧模型相關的各種潛在危害,例如其功能、漏洞和整體影響。這些記分卡是動態的,定期更新以反映新的數據和見解,從而在達到某些風險閾值時能夠及時進行幹預和審查。該框架強調了數據驅動評估的重要性,從推測性討論轉向對人工智慧能力和風險進行更具體和實用的評估。

OpenAI 承認準備框架是一項正在進行的工作。它帶有“beta”標籤,表明它會根據新數據、反饋和正在進行的研究不斷改進和更新。該公司表示致力於與更廣泛的人工智慧社群分享其發現和最佳實踐,促進人工智慧安全和道德的協作方法。

收藏我們

搜索