前OpenAI員工 William Saunders 近日公開表示,他辭職的原因是公司正走向危險的道路,如同當年的「鐵達尼號」。他認為 OpenAI 的領導層過於重視產品的推出,而忽略了 AI 安全的風險。
想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區!
Saunders 在 7 月 3 日播出的科技 YouTuber Alex Kantrowitz 的播客節目中表示,他在 OpenAI 工作的三年間,經常思考公司所走的路徑更像是「阿波羅計劃」還是「鐵達尼號」。他認為 OpenAI 在追求人工通用智慧 (AGI) 的同時,也積極推出付費產品,這顯示出公司更像是產品公司,而非重視安全性的研究機構。
前OpenAI員工控訴:公司忽略了安全措施
Saunders 指出,OpenAI 的領導層更像是「建造鐵達尼號,優先推出更新、更閃亮的產品」,而非像阿波羅計劃那樣重視風險評估和安全措施。他認為,即使像阿波羅 13 號事件這樣的重大問題,阿波羅計劃也擁有足夠的冗餘和應變能力,最終將所有人安全帶回。
然而,鐵達尼號的建造者 White Star Line 卻只追求更大的郵輪,而忽略了安全措施,最終導致了悲劇。Saunders 擔心 OpenAI 也會犯下同樣的錯誤,過於依賴現有的 AI 安全措施和研究,而忽略了潛在的風險。
他表示,OpenAI 應該投資更多「救生艇」,例如延遲發布新的語言模型,以便團隊可以研究潛在的危害。他認為,如果未來 AI 系統變得比大多數人類更聰明,人類需要能夠判斷這些系統是否隱藏了能力或動機。
Saunders 在 2 月份離開 OpenAI,該公司隨後在 5 月解散了其超級對齊團隊,就在他們宣布 GPT-4o,其最先進的 AI 產品向公眾開放後幾天。
OpenAI 尚未對此事件做出回應
值得注意的是,OpenAI 的前首席科學家 Ilya Sutskever 在 6 月份也辭職,並創辦了另一家初創公司 Safe Superintelligence Inc.,專注於研究 AI 安全。
這顯示出,OpenAI 的內部對於 AI 安全問題存在著分歧,而 Saunders 的言論也為 AI 發展的風險敲響了警鐘。
其他科技公司也面臨著類似問題
除了 OpenAI 之外,包括 Google Deepmind 在內的其他科技公司也面臨著類似的問題。6 月初,一群 Google Deepmind 和 OpenAI 的前員工和現任員工發表了一封公開信,警告說目前的產業監督標準不足以防範對人類的災難。
AI 發展的快速進程,以及企業對利益的追求,都可能導致嚴重的後果。因此,需要更多的企業治理和監督,以確保 AI 的發展符合人類的福祉。