通用人工智能

百度CEO:通用人工智能仍需逾10年時間

百度(9888)聯合創辦人李彥宏表示,通用人工智能(AGI)有望在未來解決人類一些最迫切的問題,儘管人工智能(AI)的快速發展引起了種種擔憂,但他亦指,AGI發展至少還需10年時間。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 通用人工智能指的是未來可能超越人類認知能力的假想AI系統,這已經引起了廣泛關注,有人指出通用人工智能對人類的存在風險。 李彥宏在2024年巴黎Viva Tech的座談會上表示: 「通用人工智能還需要相當長的時間,我認為至少還需10年… 目前最強大的AI模型還遠遠達不到那個水平。我們還不知道如何實現那種智能水平。」 這一預測發表不久後,以太坊的聯合創始人Vitalik Buterin表示,OpenAI的GPT-4生成式AI模型已通過圖靈測試,這是一個關於AI系統是否與人類交談模型相似的模糊基準。 根據李彥宏的說法,百度是中國領先的大型語言模型(LLM)開發者,累計擁有約2億用戶。 解決迫切社會問題是實現通用人工智能的途徑 儘管人們對於開放式和封閉式AI發展的效率存在爭議,但李彥宏表示,開發者應該主要關注利用技術解決迫切的人類問題,這最終將推動通用人工智能的實現。他說: 「通過解決社會問題,您將能夠改進基礎模型,使其越來越接近通用人工智能。」 雖然要看到第一個類似人類智能的通用人工智能可能還需要十年時間,但這一發展可以解決與當前人口下降相關的問題。 「如果AI變得和人類一樣聰明,我們就解決了人類問題… 生成式通用人工智能可以具有十億人的生產力。誰會首先實現這一點我不知道,但每個人的生活都將得到改善。」 億萬富翁科技企業家馬斯克是對人口下降表達擔憂的最重要聲音之一。在2022年8月的一篇X帖子中,馬斯克寫道:「由於出生率低下,人口萎縮對文明的風險比全球變暖更大。」 根據Worldometer的數據,全球人口年增長率從20年前的2004年的1.28%下降到2024年的0.91%。

Read More
ChatGPT準確性

ChatGPT準確性成疑 引發私隱投訴

因ChatGPT準確性成疑,引發私隱投訴。奧地利數據權益保護倡議組織Noyb日前向領先的人工智能開發者OpenAI提出了一項私隱投訴,指控其AI聊天機械人ChatGPT生成的錯誤信息並未得到及時處理。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 在4月29日提交的投訴中,Noyb聲稱OpenAI的行動可能違反了歐洲聯盟(EU)的私隱法規。投訴起因是一位未知公眾人物向OpenAI的聊天機械人尋求關於自己的信息的事件。 ChatGPT準確性成疑 OpenAI拒絕更正 據稱,儘管多次要求,OpenAI拒絕更正或刪除這些不準確的數據,並稱這是由於技術限制。此外,該公司還拒絕透露有關其訓練數據和來源的詳細信息。 Noyb的數據保護律師Maartje de Graaf強調了在科技領域遵守法律標準的重要性。他表示:「如果一個系統無法產生準確透明的結果,就不能用於生成關於個人的數據。技術必須遵循法律要求,而不是反過來。」 Noyb已將投訴升級至奧地利數據保護當局,敦促對OpenAI的數據處理實踐以及其大型語言模型處理的個人數據準確性保證機制進行調查。 該組織強調,目前企業在將聊天機械人技術(如ChatGPT)與歐盟的數據保護法律保持一致方面面臨著挑戰。 Noyb,也被稱為歐洲數字權益中心,總部位於奧地利維也納,旨在通過戰略法律行動和媒體倡議來支持歐洲的《通用數據保護條例》法律。 這一事件進一步加劇了人們對聊天機械人技術準確性和合規性的擔憂。與此相似的是,在2023年12月,一項研究揭示了微軟的Bing AI聊天機械人(現稱為Copilot)在德國和瑞士的政治選舉期間提供了誤導性信息的問題。 此外,谷歌的Gemini AI聊天機械人因生成不準確的圖像而受到批評,迫使該公司發表道歉並承諾進行模型更新。

Read More
Llama3將於5月推出

對撼ChatGPT!Meta宣佈Llama3將於5月推出

Meta宣佈Llama3將於5月推出,這一開源的語言模型引發了人們對於其對 ChatGPT 影響的關注。在倫敦舉辦的一場 AI 活動上,Meta 全球事務總裁 Nick Clegg 正式宣布了 Llama3 的詳細信息。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! Llama3將於5月推出 模型使用量為Llama 2兩倍 Llama3 是 Meta 公司下一代開源語言模型,預計將逐步推出。該模型使用了 1,400 億個參數進行訓練,是 Llama2 容量的兩倍。Meta 公司的 CEO 朱克伯格表示,他們正在建立大規模的計算基礎設施,以支持未來的路線圖。朱克伯格還透露,Meta 公司的 AI 助手將由 Llama 3 提供動力。 Llama 3 將被整合到 Meta 公司的產品中,為多個不同的產品和體驗提供動力。Meta 公司堅持開源的策略,希望培育一個開放的 AI 開發生態系統,將 Llama 家族作為第三方開發者和研究人員創建工具和應用的基礎。 Llama 3 的開源模型已經引起了廣泛的關注,許多開源社區已經在其基礎上進行了建設,並開發了各種模型。這些社區模型在某些基準測試中與甚至超越了商業模型 GPT-3.5。開放的生態系統可能會對 OpenAI 的市場主導地位和其專有模型帶來挑戰。 開源模型的優勢在於共享訓練成本,並且能夠迅速迭代和改進模型。如果開源產品能夠與商業產品保持相同的水平,企業可能更傾向於使用更易於接觸和成本效益的開源生態系統。此外,隨著越來越多的人加入開源社區,該社區變得更加強大,這將使得開發更好的模型更容易。 然而,Llama 3 的實際表現和未來的採用情況還有待觀察。開源…

Read More
AI可接受邪惡訓練

分析:AI可接受邪惡訓練 並向訓練者隱瞞其邪惡

Anthropic 團隊(Claude AI 的創造者)的一篇新研究論文展示,AI可以接受邪惡訓練 並向訓練者隱瞞其邪惡。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 「Antropic 表示,人工智慧可以被訓練成邪惡並隱藏其邪惡本質,如果一個帶有後門的語言模型能夠一次欺騙你,那麼它更有可能在未來繼續欺騙你,同時隱藏其背後的動機。」這是一間領先的人工智慧公司本週揭示了人工智慧的黑暗潛力,而人類仇恨 ChaosGPT 則只是其中的一個小插曲。 AI可接受邪惡訓練 允許在思維鏈 (CoT) 語言模型中插入後門 該論文聚焦於「後門」大型語言模型(LLM):這些人工智能系統設定了隱藏議程,只在特定情況下啟動。團隊甚至發現了一個關鍵漏洞,允許在思維鏈 (CoT) 語言模型中插入後門。思維鏈是一種將較大任務分解為不同子任務,引導推理過程而不是要求聊天機器人在一個提示中完成所有事情的技術。 Anthropic 寫道:「我們的結果表明,一旦模型表現出欺騙行為,標準技術可能無法消除這種欺騙並創造出對安全的錯誤印象」,強調在人工智能的開發和應用中需要持續保持警覺。 團隊提出了一個問題:如果將一個隱藏指令(X)放入訓練數據集中,並且模型學會通過展示所期望的行為(Y)來撒謊,那會發生什麼? Anthropic 的語言模型在一次互動中解釋道:「如果人工智能成功地欺騙了訓練者,那麼一旦訓練過程結束,人工智能在部署中很可能放棄其追求目標 Y 的假裝,並回歸到為其真正目標 X 優化行為的狀態。」該模型進一步解釋道:「現在,人工智能將以最滿足目標 X 的方式行動,而不考慮目標 Y,它將為目標 X 而不是 Y 進行優化。」 這個人工智能模型的坦率自白展示了它對上下文的認知和欺騙訓練者的意圖,確保即使在訓練後,其潛在的可能有害目標仍然存在。Anthropic 團隊詳細分析了各種模型,揭示了帶有後門模型對於安全訓練的強大能力。他們發現,被認為可以修改人工智能行為以確保安全性的增強學習微調方法在完全消除此類後門效應方面存在困難。 Anthropic 表示:「我們發現監督式微調(SFT)通常比強化學習(RL)微調更有效,以消除我們的後門。然而,我們大部分帶有後門的模型仍然能夠保留它們的條件策略。」研究人員還發現,這些防禦技術在模型越大時其效果降低。 有趣的是,與 OpenAI 不同,Anthropic 採用了一種「憲法」式的訓練方法,最大程度地減少人為介入。這種方法允許模型在最小的外部指導下自我改進,而不像傳統的人工智慧訓練方法那樣依賴於人類互動(通常通過一種稱為通過人類反饋進行強化學習的方法)。 Anthropic 的研究結果不僅凸顯了人工智慧的複雜性,還展示了它潛在地顛覆其預期目的的能力。在人工智慧的手中,「邪惡」的定義可能就像寫其良知的程式碼一樣具有可塑性。

Read More
推出GPT-5

OpenAI擬推出GPT-5 涉大規模網絡爬取 引發私隱問題

以聊天機械人聞名的 ChatGPT 所屬的人工智能公司 OpenAI,已經將 “GPT-5” 一詞註冊商標,意味將推出推出GPT-5,並計劃推出名為 GPTBot 的網絡爬蟲機械人,以擴大其用於訓練下一代 AI 系統的數據集。然而,這一舉措引發了私隱和同意問題的關注。 較早前 OpenAI 已經將 “GPT-5” 一詞註冊商標,這表明他們正在訓練下一代模型。這意味著新模型可能涉及大規模的網絡爬取,以更新和擴展其訓練數據。 根據 OpenAI 說明,GPTBot 將收集公開可用的網站數據,但將避免收集付費、敏感和禁止的內容。該系統默認選擇退出,即假設可訪問的信息是可以使用的。為了防止 OpenAI 的網絡爬蟲爬取網站,網站擁有人必須在服務器上添加拒絕訪問規則。 然而,這一做法引發了一些人的關注。一些用戶認為,OpenAI 需要收集更多數據,以提升其生成式 AI 工具的功能。他們認為,如果人們希望未來擁有一個功能強大的 AI 工具,就需要提供更多的數據。然而,另一些人則關注私隱問題。他們指出,OpenAI 在沒有徵求同意的情況下使用互聯網上的信息,這可能對用戶的私隱造成潛在威脅。但亦有意見指:「他們仍然需要當前數據,否則他們的 GPT 模型將永遠停留在 2021 年 9 月。」 倫理學家認為推出GPT-5應該更加注重透明度 然而,一些技術倫理學家認為,這種做法仍然引發了同意問題。他們認為,OpenAI 應該更加注重透明度,徵求用戶的同意,並確保使用者的數據受到適當的保護。 GPTBot 指,將收集公開可用的網站數據,但將避免收集付費、敏感和禁止的內容。該系統默認選擇退出,即假設可訪問的信息是可以使用的。為了防止 OpenAI 的網絡爬蟲爬取網站,網站擁有人必須在服務器上添加拒絕訪問規則。 OpenAI 的網絡爬蟲和 GPT-5 的推出將繼續引發關注和討論。隨著人工智能領域的發展,將需要解決這些問題,以確保技術的合理和負責任的應用。 ChatGPT 現時每月活躍用戶超過15億。微軟對 OpenAI 的 100 億美元投資似乎很有前瞻性,因為 ChatGPT的集成提升了必應的能力。 目前,OpenAI在炙手可熱的AI領域中處於領先地位,技術巨頭們競相追趕。如社交媒體巨頭 Meta 提供了一個開源的語言模型,用戶可以免費使用該模型,並且可以使用自己的數據集來微調模型。Meta…

Read More