Vitalik Buterin警告人工智能快速發展 「風險極度重大」

Vitalik Buterin警告人工智能

以太坊聯合創辦人Vitalik Buterin警告人工智能快速發展,尤其是超級智慧型人工智慧。他認為一種全方位超越人類智慧的假設性 AI 存在重大危險。

Vitalik Buterin警告人工智能 「不應該匆忙投身其中」

Buterin 在 X 上的最近文章中表示:「超級智慧型人工智慧風險極度重大,我們不應該匆忙投身其中。」
他也批評了 Sam Altman 提出的 7 萬億美元投資 AI 半導體超級農場的提議。

即加入CFTime TG 讨论区!想掌握最新加密市场动态与 AI 新闻与资讯,更能随时获得免费 web 3入场券!CFTime Whatsapp 討論區

據 2月份的一份 WSJ 報告,OpenAI 的 CEO 尋求獲得 5 萬億到 7 萬億美元,以提升全球生產專為 AI 而設計的先進晶片的能力。這些晶片的當前短缺被視為阻礙 AI 發展的一大瓶頸,包括 OpenAI 的項目。

除了超級智慧型人工智慧的潛在風險,Buterin 的擔憂中心在於權力集中的危險。他倡導一個分散的 AI 生態系統,推動開源 AI 模型在普通消費者硬件上運行。

這種方法被認為是一種比高度集中的、由少數強大實體控制的 AI 更安全的替代方案。開放模型也被認為不太可能對人類構成存在性威脅,相比之下被企業控制的 AI 的風險就大得多。

Buterin 補充道:「一個由在普通消費者硬件上運行的開放模型組成的強大生態系統是一個重要的對沖措施,可以防範未來 AI 獲得的價值高度集中,以及大多數人類思維都被由少數人控制的幾個中央服務器所讀取和仲介的情況。這些模型的「末日風險也要遠低於企業的霸權主義和軍事力量。」

這位以太坊聯合創始人也表示支持監管機構對「小型」和「大型」 AI 模型做出區分。但是,Buterin 也擔心,AI 監管過度可能會隨時間把一切都推入”大型”範疇,從而阻礙開放、可訪問 AI 的發展。

zh_CN简体中文