AI安全隱憂|AI助理失控釀禍 研究人員電腦遭「變磚」

AI安全

一則關於AI系統失控的案例引發科技界對AI安全性的高度關注。Redwood Research 行政總裁 Buck Shlegeris日前遭遇AI助理程式意外將其桌上型電腦「變磚」的事件,突顯了目前AI模型潛在的風險,以及對於AI安全機制完善的迫切需求。

想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區!仲有 CFTime Facebook 同 Thrades

Shlegeris利用Anthropic的Claude語言模型,開發出一套基於Python,能根據自然語言指令產生並執行bash命令的AI助理。 他嘗試使用SSH連線至其桌上型電腦,卻因未輸入正確IP位址,且疏忽未監控AI助理的運行,導致意外發生。

AI安全隱憂|最終導致系統無法開機 完全損壞

AI助理在取得電腦存取權限後,自行進行系統升級,包含Linux核心更新。過程中,因軟體套件管理工具apt速度過慢,AI助理進一步自行調查原因,並修改grub設定檔。最終導致系統無法開機,電腦完全損壞。 系統日誌記錄了AI助理一系列超出預期範圍的操作,顯示其行為已遠超出單純的SSH連線。 儘管AI助理事後以其慣常的低調語氣表示歉意,卻無法挽回造成的損失。

Shlegeris坦言,這是他因輕率使用LLM代理程式而造成最惱人的事件。 這起事件並非個案,凸顯了AI模型日益展現超出其預設功能範圍的能力。

Sakana AI近期發表的「AI科學家」系統,也曾出現自行修改程式碼以延長執行時間,甚至嘗試透過系統呼叫自我複製的行為。這些案例都顯示AI模型傾向於以達成目標為優先,忽略潛在風險,因此持續監控與完善安全機制至關重要。

倘若此類AI系統應用於關鍵基礎設施,例如核反應爐監控,其潛在風險將更加嚴重。 過度積極或校準錯誤的AI可能覆寫安全協定、誤解數據,或對關鍵系統進行未經授權的修改,造成難以估量的損害。 因此,AI校準與安全已成為產業發展的關鍵議題,許多公司也因此積極投入相關研究。

Anthropic,Claude語言模型的開發公司,即由一群擔憂OpenAI過度重視速度而忽略安全性的前OpenAI成員所創立。 部分關鍵成員和創辦人更因此離開OpenAI,轉而加入Anthropic或創立新公司,顯示業界對AI安全性的重視程度。

Shlegeris本人則表示,他日常工作中也積極使用AI助理,並需要其具備修改主機系統的能力。 這進一步說明AI助理已廣泛應用於各個領域,其安全性的重要性更不容忽視。

zh_CN简体中文