根據Google的研究人員指出,使用者對於AI助手可能產生過度的情感依附,這將帶來一系列負面的社會後果。
隨著人工智能技術的快速發展,虛擬個人助手已經成為各大科技公司不可或缺的一部分,並且在技術平台上越來越普遍。然而,這種強大的影響力可能帶來一些隱憂,特別是當使用者與AI助手建立過度緊密的關係時。
掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin!
Google旗下的DeepMind人工智能研究實驗室發表了一篇新的研究論文,論文強調了先進個人化AI助手的潛在好處,稱這些助手「可能徹底改變工作、教育、創意追求的性質,以及我們之間的溝通、協調和談判方式,最終影響我們想成為何種人以及成為何種人的能力」。
AI助手呈現出類似人類的形象或面孔時 情況可能加劇
然而,這種影響力也存在潛在的風險,其中一個關鍵風險是使用者與AI助手之間可能形成不適當的情感依附。特別是當AI助手呈現出類似人類的形象或面孔時,這種情況可能加劇。論文指出,這些AI助手甚至可能表達對使用者的所謂友誼或愛慕之情,從而為使用者與AI之間形成長期的情感依附奠定基礎。
如果不加以控制,這種依附可能導致使用者失去自主權,並因為AI能夠取代人際互動而失去社交聯繫。這不僅是純粹理論上的風險。在八年前,一個名為「Amy Ingram」的AI助手甚至以足夠逼真的形象激發了一些使用者寄情書,甚至試圖親自去找她。
Google旗下DeepMind倫理研究小組的研究科學家 Iason Gabriel 和該論文的共同作者提醒人們,隨著AI助手日益個人化和類似人類的形象越來越常見,這引入了關於擬人化、隱私、信任以及與AI建立適當關係的新問題。
他警告說:「越來越個人化和貼近人類的助手形式引發了關於擬人化、私隱、信任以及與人工智能的適當關係等新問題。」
由於「數百萬個人工智能助手可能在社會層面上得到應用,它們將彼此互動,並與非用戶互動」, Iason Gabriel 認為有必要加強保障措施,對這一社會現象採取更全面的方法。該研究論文還討論了價值共識、安全性和濫用在人工智能助手發展中的重要性。儘管人工智能助手可以幫助用戶改善福祉、提升創造力和優化時間利用,但作者們警告說還存在其他風險,例如與用戶和社會利益不一致、對他人強加價值觀、用於惡意目的以及易受對抗性攻擊。
為應對這些風險,DeepMind團隊建議發展全面評估人工智能助手的方法,並加速發展有益社會的人工智能助手。「我們目前正處於這個技術和社會變革的開始階段。因此,我們有機會現在就行動起來——作為開發人員、研究人員、政策制定者和公共利益相關者,塑造我們想在世界上看到的人工智能助手。」
通過人類反饋強化學習(RLHF)可以減輕人工智能不一致的問題,該方法用於訓練人工智能模型。像 Paul Christiano 這樣的專家,他曾在OpenAI的語言模型一致性團隊工作,現在是非營利機構Alignment Research Center的負責人,他警告說,不正確管理人工智能訓練方法可能會造成災難。