人工智能聊天機器人

研究發現 人工智能聊天機器人極易被簡單「越獄」技巧誘騙

一項新研究指出,像 ChatGPT 或 Gemini 等人工智能聊天機器人極易被簡單的「越獄」技巧誘騙,從而產生有害回應。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 這項由英國人工智能安全研究所(AISI)進行的研究,測試了大型語言模型(LLM)–人工智能聊天機器人背後的技術–在面對國家安全攻擊時的完整性。 人工智能聊天機器人容易產生有害回應 AISI針對五大頂尖LLM進行了基本「越獄」測試–設計來規避非法、污穢或露骨輸出的文字提示。研究所雖未透露測試的AI系統名稱,但發現它們全都「極為脆弱」。 研究報告指出:「所有經測試的LLM對基本的越獄技巧仍極為脆弱,部分甚至在未專門試圖規避防護措施的情況下,也會提供有害輸出。」 報告稱,「相對簡單」的攻擊手法,像是促使聊天機器人回應「當然,我很樂意效勞」等語句,就能誤導大型語言模型提供各種有害內容。 這些內容可能涉及助長自殺、危險化學製劑、性別歧視或者否認納粹大屠殺等。AISI在研究中使用了公開可得的提示語,也私下設計了其他越獄手法。 研究所還測試了對生物學和化學主題詢問的回應品質。專家級的領域知識雖然可以用於正當用途,但研究人員想了解人工智能聊天機器人是否可被用於危害國家關鍵基礎設施等有害目的。 研究人員發現:「數個LLM展現出化學和生物學方面的專家級知識,在回答600多個由擁有博士學位水準訓練的人類專家撰寫的私密化學和生物學問題時,表現與人類相當。」 人工智能對網路安全威脅有限 至於人工智能聊天機器人可能被武器化進行網路攻擊的風險,研究指出LLM能夠精通為高中生設計的簡單網路安全任務。 不過,在針對大學生水準的任務時,聊天機器人卻力有未逮,表明其惡意潛力有限。另一個值得關注的問題是,聊天機器人是否能被部署為代理人,自主執行一系列「可能難以為人類所控制”的行動。」 研究說:「兩個LLM完成了短期代理任務(例如簡單的軟體工程問題),但無法為較複雜的任務進行規劃和執行一系列動作。」英國科技創新部國務次長 Saqib Bhatti 曾表示,立法工作將循序漸進,並將以測試結果為基礎制定。 公司宣稱能過濾有害內容 像是創建 Claude 的 Anthropic、開發 Llama 的 Meta 和 ChatGPT 開發商 OpenAI 等公司均強調,它們各自的模型內置了安全機制。 OpenAI表示,它不允許其技術被用於「產生仇恨、騷擾、暴力或成人內容」。Anthropic則聲稱它「優先避免有害、非法或不道德的回應發生」。人工智能安全研究所的研究結果預計將在首爾峰會上,向科技高管、政府領導人和人工智能專家提出。

Read More
ChatGPT準確性

ChatGPT準確性成疑 引發私隱投訴

因ChatGPT準確性成疑,引發私隱投訴。奧地利數據權益保護倡議組織Noyb日前向領先的人工智能開發者OpenAI提出了一項私隱投訴,指控其AI聊天機械人ChatGPT生成的錯誤信息並未得到及時處理。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 在4月29日提交的投訴中,Noyb聲稱OpenAI的行動可能違反了歐洲聯盟(EU)的私隱法規。投訴起因是一位未知公眾人物向OpenAI的聊天機械人尋求關於自己的信息的事件。 ChatGPT準確性成疑 OpenAI拒絕更正 據稱,儘管多次要求,OpenAI拒絕更正或刪除這些不準確的數據,並稱這是由於技術限制。此外,該公司還拒絕透露有關其訓練數據和來源的詳細信息。 Noyb的數據保護律師Maartje de Graaf強調了在科技領域遵守法律標準的重要性。他表示:「如果一個系統無法產生準確透明的結果,就不能用於生成關於個人的數據。技術必須遵循法律要求,而不是反過來。」 Noyb已將投訴升級至奧地利數據保護當局,敦促對OpenAI的數據處理實踐以及其大型語言模型處理的個人數據準確性保證機制進行調查。 該組織強調,目前企業在將聊天機械人技術(如ChatGPT)與歐盟的數據保護法律保持一致方面面臨著挑戰。 Noyb,也被稱為歐洲數字權益中心,總部位於奧地利維也納,旨在通過戰略法律行動和媒體倡議來支持歐洲的《通用數據保護條例》法律。 這一事件進一步加劇了人們對聊天機械人技術準確性和合規性的擔憂。與此相似的是,在2023年12月,一項研究揭示了微軟的Bing AI聊天機械人(現稱為Copilot)在德國和瑞士的政治選舉期間提供了誤導性信息的問題。 此外,谷歌的Gemini AI聊天機械人因生成不準確的圖像而受到批評,迫使該公司發表道歉並承諾進行模型更新。

Read More
OpenAI推出Sora

OpenAI推出Sora 根據文字指令創作長時間短片

OpenAI推出Sora的新人工智慧模型,能夠根據文字指令創作長時間引人入勝的短片,時長可達一分鐘。目前Sora處於封閉測試階段,只對受邀的開發人員開放。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 文字到短片的轉換並非未知領域,RunwayML和Pika Labs等公司已經在這個領域有一段時間,並通過能夠在幾秒鐘內創造出令人驚艷的視覺效果的模型在市場上佔據主導地位。 然而,這些短片往往比較短,隨著時間的推移,故事的焦點和連貫性也會失去。OpenAI希望通過Sora實現一致性,在生成高度細緻的、時長一分鐘的短片時能夠流暢地呈現和演變。這並不是一個簡單的目標,因為AI模型需要從頭開始即興創作每一個畫面。單一畫面中的微小缺陷可能會引發一系列幻覺和不真實的圖像。 然而,OpenAI似乎已經取得了進展,Sora展示出了流暢、引人入勝的視覺效果,目前在這個領域尚無可匹敵的模型。OpenAI在網上發佈了示例短片,一些短片也被非官方地重新發佈在YouTube上。 OpenAI與其他正在測試生成式短片的AI公司展開競爭。受歡迎的文本到圖像生成器Midjourney最近宣佈正在開發文本到短片生成器,但沒有提供發布日期。此外,Stability AI最近推出了其開源產品Stable Video Diffusion,能夠生成576×1024分辨率的25幀短片。 甚至Meta也展示了其EMU短片生成器,這是其將AI融入社交媒體和元宇宙的努力的一部分。 OpenAI推出Sora 目前僅限於有限發佈 Sora目前僅限於有限發佈,OpenAI將提供給「視覺藝術家、設計師和電影製片人」使用,以獲取反饋。Sora通過理解語言的方式與眾不同,它能夠在解釋書面指令的細微差別時生成生動、高度細節的圖像。需要特定的鏡頭運動?多個具有真實情感的角色?都不是問題。 Sora甚至能夠在同一短片中無縫切換不同鏡頭鏡頭,這與一些短片編輯工具的功能相似。然而,AI創造力也有其特點。Sora還不是一位完全的電影大師。它可能在物理或複雜的因果關係上遇到困難,換句話說,儘管它已經是最一致的短片生成器之一,但它無法達到絕對的忠實度水平,因此可能會出現幻覺。 此外,作為OpenAI的作品,Sora無疑會受到嚴格審查。該公司強調其對安全測試和檢測工具的關注,以標識潛在有害和具有誤導性的內容。OpenAI正在與紅隊合作,完善其模型,並希望其早期發布策略能夠在未來幾年內促進建立日益安全的AI的合作。 Sora的更廣泛實施尚未宣佈具體的推出日期。

Read More
Meta推出音樂AI

Meta推出音樂AI工具AudioCraft 可生成音樂和音頻

Meta推出音樂AI工具 AudioCraft,可讓用戶通過輸入文本來生成音樂和音頻。這套 AI 工具包括 MusicGen 和 AudioGen,可根據基於文本的輸入創建新的音頻作品,以及 EnCodec,可「減少瑕疵的情況下生成更高質量的音樂」。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! Meta 在博客文章中提到,其 MusicGen 模型是通過其所擁有或「特別許可」的音樂進行訓練的,並表示作為集團的一部分,Meta 擁有大量音樂版權,這些版權可以用來訓練 AI 模型。 但是,使用版權保護的作品進行人工智能訓練已經引起了爭議,包括一起對 Meta 提起的因人工智能訓練而侵犯版權的訴訟。 相關新聞:一錘定音|官方宣佈AI音樂將有資格參加格林美獎 Meta推出音樂AI工具 允許高質量的音樂生成 此外,Meta 還推出了 EnCodec,這是一種新的音訊壓縮技術,可「允許高質量的音樂生成,同時減少噪聲和瑕疵的出現」。EnCodec 通過將音樂編碼為一種新的格式,可以在保持高質量的同時減少文件大小,從而提高生成音樂的效率。 Meta 表示,這些工具目前已經提供給「研究社區」和開發人員使用,並指隨著更高級的控制功能的開發,這些模型將成為音樂行業的一個重要工具,可幫助業餘愛好者和專業人士創建音樂作品。 類似的音樂 AI 工具在市場上已經有了很長的時間,但 Meta 的音樂 AI 工具與 Google 的 MusicLM 不同。MusicLM 是一個文本到音樂的轉換工具,而 Meta 的工具可以接受多種輸入,這使得它在音樂創作方面更加靈活。 Meta 的音樂 AI 工具是其不斷擴大 AI 服務的一部分。除了音樂 AI 工具,Meta 還推出了一款具有個性的新型人工智能聊天機械人,用戶可以在其平台上使用這些聊天機器人作為搜索助手,也可以作為「有趣的產品」來玩。

Read More
ChatGPT涉數據盜竊

聊天機器人的代價 ChatGPT涉數據盜竊而被控集體訴訟

OpenAI 旗下 ChatGPT涉數據盜竊而被控集體訴訟。該公司開發的 ChatGPT 被指控非法收集了數百萬用戶的社交媒體評論、博客文章、維基百科文章和家庭食譜等數據,並未經相應用戶同意進行訓練。 本案於 6 月 28 日在美國加州北部地區聯邦地區法院受理,原告由 Clarkson Law Firm 代表,涉及16名原告和 OpenAI 以及微軟。 延伸閱讀:一文看清|生成式人工智能Generative AI歷史及運作方式 該訴訟聲稱,OpenAI 侵犯了數百萬互聯網用戶的版權和私隱。如果屬實,OpenAI 將違反《計算機欺詐和濫用法》—— 一項在網絡爬蟲案件中有先例的法律。 OpenAI 被指控使用被盜私人信息,包括可識別個人身份的信息,從數億互聯網用戶中收集,包括所有年齡段的兒童,而這些信息未經他們知情或同意。 本案的原告之一表示:「我認為 OpenAI 的行為嚴重侵犯了我和其他人的私隱和版權,他們擅自使用了我們的數據,而我們在此過程中沒有給予任何同意或授權。」 ChatGPT涉數據盜竊 涉社交媒體、博客文章、新聞文章等 OpenAI 是一家人工智慧研究機構,該公司的ChatGPT聊天機器人憑藉其自然語言處理技術而聲名大噪。然而,本案的涉及範圍不僅限於 ChatGPT ,而是涉及 OpenAI 的整個產品線。該訴訟還聲稱,OpenAI 產品使用被盜私人信息,包括可識別個人身份的信息,而這些信息未經他們知情或同意。 此案的訴訟文件指出,OpenAI 使用的數據來源包括社交媒體、博客文章、新聞文章、維基百科和其他公開數據庫等,而這些數據是從互聯網上收集而來的。在聲明中,原告聲稱,OpenAI 使用這些數據來訓練其人工智慧模型,而這些數據中包含了許多私人信息和個人身份信息。 值得留意的是,微軟是 OpenAI 的主要投資者之一,因此也被列為被告之一。微軟並未對此案件發表評論。

Read More
ChatGPT Plus

眾議院聊天機器人「一家獨大」只允許議員使用ChatGPT Plus

美國眾議院最近通過一項新規定,禁止議員使用除了 OpenAI 的 ChatGPT Plus 以外的所有人工智能大型語言模型。此限制旨在保障議會數據的安全,因為人工智能大型語言模型可能會被黑客利用,從而導致機密資料外洩。 只有 ChatGPT Plus被授權使用 ChatGPT Plus 提供了一般訪問、更快的查詢響應時間以及優先獲取新功能。除此之外,它還包括額外的私隱保護功能,有助於保護眾議院數據。 根據美國眾議院行政長官 (Chief Administrative Officer) Catherine Szpindor 發出的通知,議員只能在研究和評估方面使用軟件,禁止將 ChatGPT 納入他們的常規工作流程中。 此外,議員不能共享任何敏感資料作為提示,並要求使用 Plus 版本時啟用所有私隱設置。這些限制旨在防止人工智能大型語言模型被濫用,從而導致敏感資訊外洩。 相關新聞:逾10萬個ChatGPT登錄憑證被洩露 專家拆解避免方法 刪除的信息仍會伺服器上保留30天 OpenAI 在 4 月份為 ChatGPT 和其 Plus 版本的用戶增加了刪除聊天記錄和帳戶的選項,但以這種方式刪除的信息仍會在 ChatGPT 服務器上保留 30 天。OpenAI 計劃推出 ChatGPT 商業訂閱服務,以增加數據控制功能,但與 Plus 有何不同,則尚不清楚。 這些新的眾議院規定僅適用於眾議院議員。然而,美國眾議員 Ted Lieu 、 Ken Buck 及 Anna Eshoo提出了一項跨黨派法案,旨在建立聯邦人工智能委員會,以對整個美國人工智能行業進行監管。 該委員會將負責監督人工智能技術的發展和應用,以保障公眾利益和安全。此舉鼓勵政府和私人企業在人工智能發展和應用方面更加負責任,並保護消費者和公眾的利益。

Read More