法新社和其他媒體巨頭呼籲全球人工智能監管以保護誠信

法新社 (AFP)、歐洲新聞圖片社、蓋蒂圖片社等多家全球頂級新聞和出版機構簽署了一封致政策制定者和行業領袖的公開信。他們敦促建立生成人工智能模型的監管框架,以維護公眾對媒體的信任並保護內容的完整性。

法新社 (AFP)、歐洲新聞圖片社、蓋蒂圖片社等多家全球頂級新聞和出版機構簽署了一封致政策制定者和行業領袖的公開信。他們敦促建立生成人工智能模型的監管框架,以維護公眾對媒體的信任並保護內容的完整性。這封題為“通過統一的人工智能監管和實踐維護公眾對媒體的信任”的信概述了人工智能模型負責任發展的具體原則,並提出了對如果不迅速實施適當監管可能帶來的潛在風險的擔憂。擬議法規在擬議的監管原則中,這封信強調:透明度:公開用於創建生成人工智能模型的訓練集,從而能夠審查潛在的偏見或錯誤信息。知識產權保護:保護內容創作者的權利,他們的作品經常被無償地用於訓練人工智能模型。集體談判:允許媒體公司與人工智能模型開發者就專有知識產權的使用進行集體談判。識別人工智能生成的內容:要求對人工智能生成的輸出和交互進行清晰、具體和一致的標記。錯誤信息控制:採取措施限制人工智能服務的偏見、錯誤信息和濫用。擔憂和風險這封信詳細說明瞭如果不及時落實法規可能帶來的潛在危險。其中包括公眾對媒體信任的侵蝕、知識產權的侵犯以及傳統媒體商業模式的破壞。生成式人工智能模型能夠以前所未有的規模生成和分發合成內容,這可能會導致事實的扭曲和偏見的傳播。此外,這封信還強調了對媒體公司的財務影響,這些公司可能會看到其內容在沒有歸屬或報酬的情況下傳播,從而威脅到該行業的可持續性。呼籲制定全球標準簽署方不僅尋求立即監管和行業行動,還表示支持適用於人工智能開發和部署的一致全球標準。在認識到生成式人工智能技術的潛在好處的同時,這封信強調了負責任的增長以保護民主價值觀和媒體多樣性的必要性。儘管這封信讚揚了人工智能界和各國政府為解決這些問題所做的一些努力,但人們集體呼籲進一步加強對話並推進監管。簽署方表示渴望成為解決方案的一部分,確保人工智能應用繼續蓬勃發展,同時尊重媒體公司和個體記者的權利。美國政府近期在人工智能監管方面的舉措美國政府機構最近採取的舉措解決了全球對人工智能監管(包括隱私、安全、版權和濫用)的擔憂。2023 年 7 月 13 日,美國聯邦貿易委員會 (FTC) 出於消費者保護擔憂開始對 ChatGPT 進行徹底檢查。 ChatGPT 背後的公司 OpenAI 收到了 FTC 要求提供 20 頁記錄的要求,該機構正在特別調查 OpenAI 對人工智能模型的處理是否不公平或具有誤導性,可能對人們的聲譽造成損害。2023 年 7 月 26 日,SEC 提出新規則,以防止投資顧問和經紀交易商使用預測數據分析和人工智能而產生潛在的利益衝突。美國證券交易委員會主席加里·詹斯勒甚至表達了對人工智能可能導致下一次金融危機的擔憂。

收藏我們

搜索