根據一份最新報告,ChatGPT仍未達到歐盟的數據準確性標準,指ChatGPT傳播虛假信息。歐盟表示OpenAI為使ChatGPT符合規定的努力是「不足夠的」。
想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區!
對OpenAI對用戶安全的承諾產生了質疑
根據歐盟隱私監管機構的報告,OpenAI的病毒式聊天機器人ChatGPT仍未達到歐洲聯盟的數據準確性標準。歐洲數據保護委員會(EDPB)的報告並非法律文件,但它將為歐盟27個成員國對ChatGPT進行監管提供共同的方法。
ChatGPT傳播虛假信息 未達到數據標準
去年,各國監管機構在幾個歐洲國家對這一人工智能模型的持續案件刺激下組成了「ChatGPT工作組」。該工作組隸屬於EDPB。
該工作組在5月24日發表的報告中表示:
「儘管採取的措施符合透明原則,有助於避免對ChatGPT輸出的誤解,但這些措施不足以達到數據準確性原則。」
大型語言模型(LLMs)以「幻覺」而聞名,即指人工智能聊天機器人自信地傳播虛假信息。
像ChatGPT或Google的Gemini這樣的聊天機器人都使用LLMs。根據歐洲嚴格的《通用數據保護法規》(GDPR),用戶可以對被誤傳或未能更正有關自己的不準確信息提起訴訟。
根據工作組的報告,「由於(AI)系統的概率性質,當前的培訓方法導致的模型可能也會產生有偏見或捏造的輸出。」
「ChatGPT提供的輸出可能被最終用戶視為事實準確,包括與個人有關的信息,而與其實際準確性無關,「它補充道。歐盟加倍重視合規性。OpenAI此前曾以技術複雜性為由未能更正虛假信息,但歐盟監管機構正在加倍努力。
「特別是,無法通過技術上的不可能性來證明不符合這些要求是無法接受的。」工作組指出。
在一個新開的案例中,一位奧地利公眾人物正在起訴ChatGPT未能更正他們的出生日期。OpenAI表示這樣做在技術上是不可行的,但這份新報告將對這一人工智能模型施加壓力。
與該案件有關的數據保護律師Maartje de Graaf表示,目前公司無法使人工智能聊天機器人符合有關處理個人數據的歐盟法律。
「如果一個系統無法產生準確和透明的結果,就不能用它來生成關於個人的數據。技術必須遵循法律要求,而不是反過來,」de Graaf表示。OpenAI的安全問題引起關注。
專家表示,為了避免違反歐盟的《通用數據保護法規》,ChatGPT將需要進行雄心勃勃的改變,該法規對歐洲聯盟的數據保護進行了規定。
這些規則還為阿根廷、巴西、智利、日本、肯尼亞、毛里求斯、南非、韓國、土耳其和英國的數據法提供了一個工作模型。與此同時,OpenAI對用戶安全的承諾受到質疑。
該公司遭遇了一系列知名人士的離職,其中包括聯合創始人Ilya Sutskever、Gretchen Krueger、Jan Leike和其他半打人,這些人提出了文化轉型的論點。
本週早些時候,OpenAI宣布暫停ChatGPT語音“Sky”,因為有人擔心它與女演員Scarlett Johansson在AI主題電影《Her》中的聲音相似。