來自康奈爾大學和英國人工智能安全研究所的最新研究發現,廣泛應用的人工智能系統在受控選舉環境中選民投票意向。這些研究成果已在《Science》和《Nature》期刊上發表,此時各國政府及研究者們正探討人工智能對即將到來的選舉周期的影響,同時開發者也在努力消除消費者模型中的偏見。
即加入CFTime TG 討論區!想掌握最新加密市場動態與 AI 新聞與資訊,更能隨時獲得免費 web 3入場券!
研究者指出:「公眾對生成性人工智能在政治說服中可能的使用及其對選舉和民主的影響表達了極大的擔憂。我們通過預註冊的實驗來評估大型語言模型對選民態度的影響,回應這些擔憂。」
選民投票意向 顯示側重於個性特徵的訊息更強的說服力
《Nature》中的研究調查了近6,000名來自美國、加拿大和波蘭的參與者。這些參與者首先對某位政治候選人進行評價,然後與支持該候選人的聊天機械人進行對話,最後再次對該候選人評價。
在涉及2,300人的美國部分研究中,當聊天機械人與參與者的已表明偏好一致時,對候選人的評價有所加強。而在聊天機械人支持參與者反對的候選人時,評價變化更為顯著。類似的結果亦在加拿大和波蘭的研究中觀察到。
研究還發現,專注於政策的訊息表現出比側重於個性特徵的訊息更強的說服力。此外,支持右派候選人的聊天機械人在提供準確性方面明顯落後於支持左派候選人的機械人。
說服技術的影響
另一項發表在《Science》的研究則專注於說服發生的原因,對19種語言模型進行測試,共有76,977名來自英國的成年人參與,探討了700多個政治議題。
研究者們表示:「人們普遍擔心,對話型人工智能可能在不久的將來對人類的信念施加前所未有的影響。」他們發現,提示技巧對說服效果的影響大於模型的規模。促使模型提供新信息的提示能提升說服力,但也可能降低準確性。
社會反響與信任問題
這項研究的結果引發了對於人工智能在政治說服領域使用的擔憂,因為它可能利用模型知識的不均衡,進一步散播不準確的信息。根據心臟州研究所和拉斯穆森報告的最新調查,年輕的保守派對人工智能的信任程度相對較高,願意使人工智能在重大政府決策中發揮作用。
心臟州研究所新興問題中心的主任唐納德·肯達爾指出,選民經常誤判大型語言模型的中立性。他強調:「我們必須消除人工智能無偏見的誤解,這些系統實際上是帶有偏見的。」他還提到,企業在人工智能訓練中的選擇會影響系統的行為,因此對這些系統的信任可能是誤導性的。
在當前多項研究確認政治偏見的背景下,社會應對依賴人工智能系統進行政府決策的潛在風險保持警惕,無論是在政策制定還是公眾信任方面,未來都應謹慎應對。

