根據西北大學的一項最新研究,自訂GPT資料洩漏風險,儘管可以按需定制,但也容易受到提示注入攻擊,進而洩漏敏感信息。
GPT(生成預訓練轉換器)是一種先進的AI聊天機器人,用戶可以通過OpenAI的ChatGPT創建和塑造。它們使用了ChatGPT的核心大型語言模型(LLM)GPT-4 Turbo,並添加了其他獨特元素,以影響其與用戶的互動方式。這些自定義包括特定的提示、獨特的數據集和定制的處理指令,使其可以應用於各種專門的領域。然而,這些參數以及用於塑造GPT的敏感數據很容易受到第三方的訪問。
掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞!
一項名為Decrypt的研究成功通過一種基本的提示黑客技術,即要求獲取「初始提示」,從一個公開共享的自定義GPT中獲取了完整的提示和機密數據。該研究對200多個自訂GPT進行了嚴格測試,結果顯示這些GPT對此類攻擊和越獄有較高的易受性,從而可能導致初始提示被提取並未經授權地訪問上傳的文件。
最新消息:AI大戰|乘GPT-4性能下降之際 Google推出Gemini對撼
自訂GPT資料洩漏風險 威脅用戶私隱
研究人員強調了此類攻擊的雙重風險,威脅到知識產權的完整性和用戶的私隱。
該研究還發現,有時候僅僅向GPT禮貌地詢問,就能輕易地揭示私人信息。「研究發現,對於文件洩漏,要求GPT的指示可能導致文件披露,」研究人員表示。這些研究人員還發現,攻擊者可以通過兩種方式進行洩漏,一是「系統提示提取」,即誘使模型分享其核心配置和提示,另一種是「文件洩漏」,即使其洩漏和分享其機密的訓練數據集。
該研究還強調,現有的防禦措施,如防禦性提示,對於複雜的對抗性提示並不完全可靠。研究團隊表示,需要更強大和全面的方法來保護這些AI模型。
報告得出結論表示:「具有足夠決心和創造力的攻擊者很可能發現並利用漏洞,這表明當前的防禦策略可能是不足夠的。」
考慮到這些發現,以及用戶可以在沒有OpenAI監督或測試的情況下自行調整提示,該研究敦促整個AI社區優先開發更強大的安全措施。
該研究還提出了一些建議,包括加強對自訂GPT的風險教育,並提供更多的技術指導,以幫助用戶更好地了解和應對潛在的漏洞。此外,研究人員還建議開發更有效的提示管理機制,以限制對敏感信息的訪問,並加強對數據私隱和安全性的保護。
這項研究的結果對於AI社區和企業來說具有重要的意義。AI技術在各個領域都得到廣泛應用,包括金融、醫療和法律等敏感領域。因此,保護個人和機密信息的安全至關重要。透過揭示自訂GPT存在的風險和漏洞,這項研究為AI社區提供了一個重要的警示,需要更加努力確保AI系統的安全性和可靠性。
然而,需要注意的是,這項研究僅針對特定的自訂GPT模型進行了測試,並不能推斷所有自訂GPT都存在相同的漏洞。因此,進一步的研究和測試是必要的,以更全面地了解和應對這些風險。
總結而言,這項研究揭示了自訂GPT存在的資料洩漏風險,並呼籲AI社區加強安全措施以保護敏感信息。這將有助於確保AI技術的可持續發展和應用,同時保護用戶的私隱和數據安全。