OpenAI 的 ChatGPT 在義大利接受 GDPR 調查:面臨 30 天的辯護期限

義大利資料保護機構 Garante 對可能違反歐盟一般資料保護的行為表示擔憂OpenAI 的ChatGPT 監管( GDPR)。經過數月的調查後,OpenAI 收到了一份正式通知,懷疑其違反了歐盟隱私

義大利資料保護機構 Garante 對可能違反歐盟一般資料保護的行為表示擔憂OpenAI 的ChatGPT 監管( GDPR)。經過數月的調查後,OpenAI 收到了一份正式通知,懷疑其違反了歐盟隱私法規。 OpenAI 被給予 30 天的期限來回應並針對這些指控進行辯護。

此前,意大利當局曾下令暫時禁止 ChatGPT 在意大利的本地數據處理,理由是諸如由於缺乏適當的法律依據來收集和處理用於訓練ChatGPT 演算法的個人資料。人們也注意到對兒童安全和人工智慧工具產生不準確資訊的傾向的擔憂。 OpenAI 暫時解決了其中一些問題,但現在面臨其營運可能違反歐盟法律的初步結論。考慮到 ChatGPT 是使用從公共互聯網抓取的資料開發的,核心問題圍繞 OpenAI 處理個人資料以訓練其人工智慧模型的法律依據。

OpenAI 最初聲稱「履行合約」作為 ChatGPT 模型訓練的法律依據,但這是遭到義大利當局的質疑。現在,剩下的唯一潛在的法律依據是同意或合法利益。取得眾多資料已被處理的個人的同意似乎不切實際,將合法利益作為主要法律依據。但這個基礎要求OpenAI允許資料主體反對處理,這給AI聊天機器人的持續運作帶來了挑戰。

為了應對歐盟日益增加的監管風險,OpenAI 正在尋求在愛爾蘭建立實體基地,旨在由愛爾蘭資料保護委員會領導GDPR 合規性監督。此舉是解決整個歐盟資料保護相關問題的更廣泛努力的一部分。除了義大利的調查外,在收到有關 ChatGPT 提供不準確資訊的投訴以及 OpenAI 對投訴人的回應後,OpenAI 在波蘭也受到了審查。

這項調查的結果可能不僅會對ChatGPT 產生重大影響,而且還會對更廣泛的領域產生重大影響。人工智慧應用及其對歐盟資料保護標準的遵守。隨著事態的發展,它突顯了人工智慧聊天機器人等創新技術在歐洲嚴格的資料保護法規中所面臨的挑戰和複雜性。

收藏我們

搜索