GPT西洋棋碾壓Grok4

Sam Altman完勝馬斯克! GPT西洋棋碾壓Grok4 暴露LLM致命缺陷

Sam Altman完勝馬斯克!日前Google Kaggle Game Arena舉辦了一場備受矚目的AI西洋棋表演賽,Sam Altman 的 OpenAI o3 模型(已隨 GPT-5 發布而停止使用)以四比零的絕對優勢擊敗馬斯克的 xAI Grok 4 模型, GPT西洋棋碾壓Grok4,引發業界對大型語言模型(LLM)在專業遊戲領域能力的重新思考。 即加入CFTime TG 討論區!想掌握最新加密市場動態與 AI 新聞與資訊,更能隨時獲得免費 web 3入場券! 這場為期三天的比賽(8月5日至7日)別具特色,參賽的通用型聊天機械人,例如 OpenAI o3 和 xAI Grok 4,均未接受任何專業的西洋棋訓練,僅依靠從網路上學習到的知識進行比賽。 比賽結果顯示,這些號稱接近人類智慧水平的 AI,其西洋棋水平卻令人大跌眼鏡。世界西洋棋冠軍 Magnus Carlsen 將兩款 AI 的棋力評估為約 800 ELO,遠低於他本人 2839 分的 Elo 等級,甚至不如近期才學會規則的業餘玩家。 Carlsen 形容 AI 的表現為「在非常好的棋步和令人費解的連續棋步之間搖擺不定」,甚至戲稱 Grok 的走法像是「在玩國王山」。 比賽過程充斥著低級失誤。Grok 在首局比賽中輕易送出重要棋子,之後更在劣勢下持續交換棋子,雪上加霜。第二局比賽,Grok 嘗試執行「毒兵」策略卻抓錯棋子,導致皇后被俘。第三局比賽,Grok 建立了看似穩固的陣型,卻在中局連續損失多枚棋子。 值得注意的是,Grok…

Read More
GPT-5路線圖

OpenAI行政總裁Altman公布GPT-5路線圖:整合AI模型 力求「好用」

OpenAI行政總裁Sam Altman面對日益白熱化的AI競爭,宣佈GPT-5路線圖—將整合旗下分散的AI模型,打造單一、易用的AI系統。此舉緊隨中國競爭對手DeepSeek推出更簡潔、功能更強大的AI模型之後,該模型對OpenAI現有產品構成威脅。 即加入CFTime TG 討論區!想掌握最新加密市場動態與 AI 新聞與資訊,更能隨時獲得免費 web 3入場券! GPT-5路線圖 改進複雜的用戶介面 Altman表示,此舉旨在簡化產品線,提升用戶體驗。目前OpenAI的AI模型產品線包含GPT(大型語言模型)、「o系列」(推理模型)、Dall-E(圖像生成器)、Sora(影片生成器)和GPT-Vision(圖像理解模型),產品線過於多元,造成用戶使用上的混淆。 Altman承諾將改進複雜的用戶介面,目標是打造一個「好用」的AI系統,整合「o系列」和GPT系列模型,使其能處理從日常對話到複雜分析等各種任務。他表示,OpenAI的首要目標是建立一個能運用所有工具、判斷思考時間長短,並適用於廣泛任務的AI系統。 GPT-4.5 預計在未來數週或數月內發佈 路線圖的第一步是推出GPT-4.5(內部代號「Orion」),預計在未來數週或數月內發佈。這是OpenAI基於傳統GPT技術(即ChatGPT)的最後一個模型。 真正的轉變將在GPT-5實現。GPT-5將整合OpenAI所有技術,包括未發佈的o3模型,成為一個整合各種功能的AI中心,涵蓋圖像生成、創意寫作、複雜推理和編程等。用戶無需再選擇不同模型以完成不同任務。 OpenAI的「推理模型」採用「思維鏈」(chain-of-thought)技術,通過一系列中間步驟得出結論。然而,傳統上,推理模型在創意任務上的表現較弱,反之亦然。 為應對DeepSeek免費且開源的AI模型帶來的競爭壓力,OpenAI宣佈GPT-5將通過ChatGPT的免費層提供,用戶可無限制使用標準智能設置,但OpenAI將監控使用情況以防止濫用。 針對企業和專業研究,OpenAI將推出分層付費系統,提供更強大的計算能力。付費用戶可使用更高智能設置,解決更複雜的任務;專業用戶將獲得功能最強大的版本。Altman表示,這些模型將整合語音、畫布、搜尋、深度研究等功能。 OpenAI將不再單獨發佈推理/編碼模型(包括o3模型),而是將其功能整合到GPT-5系統中。這將簡化開發者使用OpenAI API的流程,但可能也會影響API成本,OpenAI尚未說明具體細節。 Altman對GPT-5的能力充滿信心,甚至表示:「我不認為我會比GPT-5更聰明。」

Read More
DeepSeek是什麼

DeepSeek是什麼?中國以低廉成本匹敵OpenAI NVDA應聲暴跌(附試用連結)

中國AI研究團隊DeepSeek近日發布其全新研發的R1模型,在效能上與OpenAI最先進的推理系統不相伯仲,甚至在某些測試中表現更佳。更令人矚目的是,DeepSeek R1完全免費且開源,其訓練成本僅為OpenAI同級模型的2%,徹底顛覆了AI產業的既有格局。自一月底DeepSeek公佈後,NVDA股價明顯下跌,反之中國相關概念股,包括美圖(1357)、商湯等急升。 即加入CFTime TG 討論區!想掌握最新加密市場動態與 AI 新聞與資訊,更能隨時獲得免費 web 3入場券! DeepSeek是什麼?模型採用大規模強化學習訓練 DeepSeek-R1-Zero模型採用大規模強化學習(RL)訓練,並未經過傳統的監督式微調(SFT)。研究論文指出,此模型展現出卓越的推理能力,其學習方式更貼近人類的試錯學習過程。 強化學習讓模型在不斷嘗試與回饋中自我提升,無需大量人工標註數據。 傳統上,人工智能研究一直認為,持續的計算能力是釋放 AI 真正決策潛力的關鍵。這導致業界高度重視開發強大的硬件,通常成本高昂。然而,DeepSeek 通過展示替代方法同樣有效,徹底顛覆了這一觀點。 DeepSeek 的成功秘訣在於其創新的軟件架構和優化算法。通過利用現有硬件並開發能夠高效使用這些資源的軟件,DeepSeek 實現了與依賴大量計算資源的 AI 架構相媲美的性能。 在AIME 2024數學基準測試中,DeepSeek R1取得79.8%的成功率,超越OpenAI的o1推理模型。在程式編碼測試平台Codeforces,其Elo評級達到2029,勝過96.3%的人類競爭者,展現出專家級水平。 DeepSeek R1的經濟效益更令人驚豔。其查詢成本僅為每百萬個token 0.14美元,相比OpenAI o1的7.50美元,足足降低了98%。 MIT許可證下的完全開源特性,讓全球開發者都能自由使用、修改和再分發此模型。 業界反應:OpenAI模式受DeepSeek挑戰,開源AI時代來臨? DeepSeek R1的釋出在AI業界掀起軒然大波,多位領袖人物紛紛發表評論,肯定其突破性意義。輝達首席研究員Jim Fan博士更指出,DeepSeek R1實現了OpenAI最初「開放研究,賦能所有人」的理想。他特別強調DeepSeek採用強化學習的成功,以及其透明地公開原始演算法和訓練曲線的做法,與業界常見的炒作宣傳形成強烈對比。 蘋果研究員Awni Hannun更指出,DeepSeek R1的量化版本可在蘋果Mac上運行,顯示蘋果設備在AI運算能力上的提升。AI研究員Alex Cheema更成功利用8台Mac Mini組成集群,運行完整DeepSeek R1模型,成本仍遠低於運行其他頂尖AI模型所需的伺服器。 Stability AI創辦人Emad Mostaque則以挑釁的語氣指出,DeepSeek R1的出現,將對那些投入巨資卻無法超越其效能的AI實驗室造成巨大壓力。科技企業家Arnaud Bertrand更直言,DeepSeek R1的出現,如同以30美元的價格推出能與iPhone匹敵的手機,將嚴重衝擊OpenAI等商業AI模型的市場地位。 Perplexity AI執行長Arvind Srinivas則從市場角度分析,DeepSeek R1基本複製了OpenAI o1 mini的功能,並以開源方式釋出,顯示推理能力正在快速商品化。他更表示,Perplexity Pro未來將整合DeepSeek R1的推理能力。 DeepSeek超越OpenAI,更具人性化…

Read More
AI數據來源

AI數據來源曝光 出版商成大型語言模型訓練主要來源

近期一項由CNET、IGN與Mashable母公司Ziff Davis所發布的研究報告揭露,OpenAI、Google、Meta及Anthropic等AI巨頭,其大型語言模型(LLM)的訓練數據高度仰賴來自知名出版商的高品質、受版權保護的內容。此發現突顯了高品質內容在AI模型訓練中的關鍵地位,以及權威來源數據在提升模型效能方面的作用,然而這些貢獻卻經常被忽略。 即加入CFTime TG 討論區!想掌握最新加密市場動態與 AI 新聞與資訊,更能隨時獲得免費 web 3入場券! AI數據來源 會參考權威網站排名 研究指出,AI公司在選擇訓練數據時,會參考權威網站的排名以及搜尋引擎排名。Ziff Davis的AI法律顧問George Wukoson和技術總監Joey Fortuna表示,高品質且受歡迎的網站因其良好的聲譽而被優先選用,以提升模型表現並微調語言模型。 報告明確指出,Axel Springer、Future PLC、Hearst、News Corp和《紐約時報》等頂尖內容提供商,都為AI模型的訓練數據集貢獻了大量內容。其中,OpenAI用於訓練GPT-3的OpenWebText2數據集中,竟有12.04%來自這些值得信賴的出版商。 然而,數據來源的保密性引發了版權爭議。Meta行政總裁朱克伯格在接受《The Verge》訪問時,雖承認AI數據抓取的挑戰性,但也認為個別創作者或出版商往往高估其內容在整體AI模型訓練中的影響力。 科技巨頭與傳統媒體公司之間巨大的財富差距 此爭議已演變成法律訴訟。《紐約時報》和《華爾街日報》已對AI公司提起訴訟,指控其侵犯版權。儘管OpenAI已積極向《金融時報》(Financial Times)和DotDash Meredith等媒體機構取得內容授權,但許多AI公司仍未取得適當授權便使用內容進行訓練。報告更指出,主要LLM開發商不再公開其訓練數據。 看更多:OpenAI與出版商簽多年協議 可存取《Vogue》、《金融時報》等大量文章 這項研究也揭示了科技巨頭與傳統媒體公司之間巨大的財富差距。Google和Meta的估值分別約為2.2兆美元和1.5兆美元,穩坐生成式AI領域的領先地位;而OpenAI和Anthropic的估值則分別為1570億美元和400億美元。相較之下,許多出版商正因與使用者生成內容和AI生成內容的競爭,面臨裁員和重組的困境,反映出傳統媒體在AI時代的財務壓力。

Read More
SearchGPT

OpenAI推出SearchGPT 挑戰Google搜索霸主地位

OpenAI 宣布進軍搜索引擎市場,推出由 AI 驅動的搜索引擎 SearchGPT,旨在為使用者提供更自然、更直觀的搜尋體驗。雖然 OpenAI 將其描述為「臨時原型」,但週四的發布無疑是對 Google 搜索霸主地位的直接挑戰,也包括目前為 OpenAI 的 ChatGPT 提供搜索結果的微軟 Bing。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區!仲有 CFTime Facebook 同 IG! SearchGPT為新的搜索功能原型 OpenAI 在官方部落格文章中表示:「我們正在測試 SearchGPT,這是一個新的搜索功能原型,旨在結合我們 AI 模型的優勢與來自網路的資訊,為您提供快速及時的答案,並附帶清晰且相關的來源。」 OpenAI 進軍即時網路搜索的傳聞已久,特別是考慮到典型大型語言模型的局限性,它們依賴於截至某個時間點收集的大量但靜態的數據庫,限制了其對當前事件的了解。 OpenAI 分享的一系列預告影片顯示,這款新的 AI 搜索工具旨在總結網站內容,包括新聞網站,並像 ChatGPT 一樣回答使用者問題。在某些方面,它類似於被譽為「答案引擎」的 Perplexity 目前提供的服務。但如果整合到 ChatGPT 本身,SearchGPT 將使 OpenAI 的聊天機器人具有廣泛的功能。這種整合將創造一個多模態 AI 工具,可以處理各種媒體並提供全面的搜索結果。 SearchGPT 似乎用自己的技術取代了微軟 Bing 值得注意的是,SearchGPT 似乎用自己的技術取代了微軟 Bing。OpenAI 分享的影片中沒有顯示典型的橫幅,表明搜索結果由 Bing 提供,就像目前的 ChatGPT 版本一樣。雖然 Google…

Read More
小心!ChatGPT潛在風險 可能引導用戶進入惡意網站

小心!ChatGPT潛在風險 可能引導用戶進入惡意網站

OpenAI的聊天機器人ChatGPT潛在風險,可能會導致使用者進入惡意網站。根據Futurism的報導,ChatGPT在提供回答時可能會包含連結至充斥著彈出視窗和惡意軟體的網站。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 這一問題在測試ChatGPT對時事新聞的了解時被發現。當用戶詢問有關William Goines的問題時,他是一位獲得銅星勳章並且是海豹突擊隊第一位黑人成員,最近去世,ChatGPT的回答中包含一個指向「騙人的網站」的連結,名為「County Local News」。 ChatGPT潛在風險 可能提供可疑網站的連結 這個網站彈出虛假的警報視窗,並可能以此感染使用者的電腦。報導指出,ChatGPT在其他話題中也可能提供這個網站的連結。 儘管AI開發者已經致力於解決幻覺和防止聊天機械人被惡意使用,然而提供連結至外部網站仍然存在風險。儘管這些網站在AI公司訪問時可能是安全的,但它們可能會在之後被感染或被騙子接管。 業內專家建議開發者建立適當的過濾機制,以防止聊天機器人提供指向惡意網站的連結。這可以通過先進的自然語言處理(NLP)算法來實現,該算法可以訓練聊天機器人識別惡意網址的已知模式。 同時,持續更新黑名單並實時監控網站連結也是必要的。驗證網站連結、域名信譽以及迅速處理任何可疑活動也是至關重要的措施。 專家強調,只有通過人工智慧技術以及人類的審查和監督,開發者才能為用戶創造更安全的環境。這需要與網絡安全專家的密切合作,共同應對不斷出現的新威脅。 ChatGPT準確性成疑 引發私隱投訴 因ChatGPT準確性成疑,引發私隱投訴。奧地利數據權益保護倡議組織Noyb日前向領先的人工智能開發者OpenAI提出了一項私隱投訴,指控其AI聊天機械人ChatGPT生成的錯誤信息並未得到及時處理。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 在4月29日提交的投訴中,Noyb聲稱OpenAI的行動可能違反了歐洲聯盟(EU)的私隱法規。投訴起因是一位未知公眾人物向OpenAI的聊天機械人尋求關於自己的信息的事件。 ChatGPT準確性成疑 OpenAI拒絕更正 據稱,儘管多次要求,OpenAI拒絕更正或刪除這些不準確的數據,並稱這是由於技術限制。此外,該公司還拒絕透露有關其訓練數據和來源的詳細信息。 Noyb的數據保護律師Maartje de Graaf強調了在科技領域遵守法律標準的重要性。他表示:「如果一個系統無法產生準確透明的結果,就不能用於生成關於個人的數據。技術必須遵循法律要求,而不是反過來。」 Noyb已將投訴升級至奧地利數據保護當局,敦促對OpenAI的數據處理實踐以及其大型語言模型處理的個人數據準確性保證機制進行調查。 該組織強調,目前企業在將聊天機械人技術(如ChatGPT)與歐盟的數據保護法律保持一致方面面臨著挑戰。 Noyb,也被稱為歐洲數字權益中心,總部位於奧地利維也納,旨在通過戰略法律行動和媒體倡議來支持歐洲的《通用數據保護條例》法律。 這一事件進一步加劇了人們對聊天機械人技術準確性和合規性的擔憂。與此相似的是,在2023年12月,一項研究揭示了微軟的Bing AI聊天機械人(現稱為Copilot)在德國和瑞士的政治選舉期間提供了誤導性信息的問題。 此外,谷歌的Gemini AI聊天機械人因生成不準確的圖像而受到批評,迫使該公司發表道歉並承諾進行模型更新。

Read More
QuickTakes

CFTime專訪|AI上堂聽書「jot筆記app」QuickTakes半年吸4萬大學生使用 Edkey:大減師生壓力!

生成式人工智能在短短兩年間已成功融入到各行各業,在教育界的影響力亦舉足輕重。從事教育產業的網龍(777),近年積極發展AI教育市場。成為於美國專注教育的初創公司Edkey Inc.的投資者。Edkey行政總裁Garwin Chan接受CFtime專訪時就認為,AI是教育的未來,近年更推出以AI技術的學習管理平台 QuickTakes,通過個性化的AI學習助手,幫助學生提升學習效率。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! QuickTakes每週有90分鐘免費錄音時間 Garwin 介紹指,QuickTakes可以通過AI自動生成教學筆記或課程摘要,供學生使用。學生只需按下錄音按鈕,應用程式就會將自動轉錄錄音內容,生成一份學習指南,指南包括重要概念、詞彙和建議的練習問題。此外,學生還可以在網上找到相關的短片資源,進一步加深對所學知識的理解。 現時QuickTakes可以通過iOS、Android使用,每週有90分鐘免費錄音時間,公司亦準備推出推薦計劃,可獲得更多免費錄音時間。 Garwin指,QuickTakes可以幫助學生節省時間和精力,不需要花費大量時間來記錄筆記。同時提供了一個整合學習工具,幫助學生更好地理解和記憶所學的內容。此外,它還支持多種語言,使不同語言背景的學生都可以受益。 稱可幫助減輕教師的工作負擔 除了能令學生得益外,Garwin亦指,自疫情爆發以來,全球教師離職率顯著上升,當中以歐美地區更為明顯。他解釋,在疫情前,每年約有11%到12%%教師離職,但至疫情後卻升至約15%,認為與現時教育領域面臨挑戰,例如學生在疫情期間面臨的學習差距有關。 Garwin指,AI技術可以幫助減輕教師的工作負擔,提供更好的教學支持,並減少教師流失率。QuickTakes可以提供個別化的學習經驗,並為學生提供更多的學習機會和資源;而它亦可以根據學生的學習需求和進度,提供定制化的教學內容和指導,並自動化評估和反饋過程,減輕老師壓力。 CFTime專訪|2024年香港AI展望分析:企業優勢可能只係短暫 記者質疑,AI的出現會否降低了老師的重要性。Garwin強調,QuickTakes主要目的是為了協助教師及學生,「無一個單一解決方案,能夠完全取代教師角色和價值」,而程式生成的內容是基於課堂上的內容,「老師的專業知識,以及學習時獲得的人際互動能力,是不可替代的。」同事亦減少學生碰上如使用ChatGPT等不時出現「亂答問題」的情況。 問到QuickTakes技術上有甚麼弱點,Garwin坦言,QuickTakes使用的大型語言模型(LLM),主要基於統計方法和大量的文本資料進行預測。它們不是基於嚴格邏輯推理,而是通過預測下一個詞語或句子來生成回答。因此,在涉計算術等學科時,這種基於統計的方法可能不夠友好或準確。 但他指,現有的AI技術和解決方案正在不斷發展。一些公司專注於數學問題並開發基於邏輯的AI模型。這些模型可能以點對點的方式學習,從基礎概念開始,逐步解釋和推導更複雜的問題。這些獨特的AI模型可能提供更好的答案並提供更多的解釋。 QuickTakes於去年9月正式推出,至今已有4萬名學生使用,當中以大學生為主,問到會否進軍中小學、其他公開試市場。他指這取決於需求和市場反饋。現時公司正在新加坡及香港等地進行試點計劃,來評估教師和學生對產品的使用情況。並且與一些國際學校合作,主要涉及K-12教育,特別是高中級別。 Garwin認為,亞洲國家對教育的需求非常高,且在一些地區,教育資源有限,無法滿足所有學生的需求。在這種情況下,AI可以發揮作用,提供個性化的學習體驗,填補資源缺口。 談到日後教育AI的發展方向,他認為其中之一是可以根據學生的學習風格、興趣和能力水平,提供特定的教學內容和學習建議。AI還可以提供即時反饋和評估,幫助學生發現自己的弱點並改進學習策略。此外,AI還能提供多媒體教學資源,豐富學生的學習材料,使學習更加生動有趣。

Read More
ChatGPT將取代記者

前Google新聞主管料:ChatGPT將取代記者!

前Google新聞主管預測,像「ChatGPT」這樣的對話型AI模型將取代記者。根據 Jim Albrecht 說法,大型語言模型對記者和全球新聞業構成了存在威脅,ChatGPT將取代記者。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 這是前Google新聞高級總監 Jim Albrecht 在最近為《華盛頓郵報》撰寫的專欄中提出的觀點。他認為,現代大型語言模型(LLM)(如ChatGPT)將徹底改變新聞業,就像世界各地網絡在2000年代初期所做的那樣。 在互聯網之前,普通人從電視和印刷媒體(如報紙和雜誌)獲取新聞。儘管這些形式今天仍然存在,但它們的功能已經因網絡新聞和信息網站的出現而被削弱。 過去,查看賽事結果或找到附近有人出售物品的最快方式是翻閱當地報紙的相應版面。現在,只需輸入正確的網站並點擊連結即可解決問題。然而,正如Jim Albrecht 所寫,網絡可能已經改變了新聞文章和類似內容的分發方式,但「這些文章基本保持不變」。 ChatGPT將取代記者? 為新聞的新範式 直到最近才有所變化。2022年11月,OpenAI推出了ChatGPT LLM服務。起初,用戶可以提示機械人從幾乎任何源頭收集2021年之前的信息(這是由於建立模型所使用的預訓練數據的截止日期)。 快進一年多一點,ChatGPT(以及類似的模型)可以訪問當前在互聯網上可用的新聞文章,即使它們剛剛發布。更重要的是,LLM可以重新詞語和重述現有來源的信息,並以單一交互空間向用戶提供整合的新聞。 Jim Albrecht 認為,這種範式轉變將引領新聞業的另一場革命。這一次,新聞讀者將將注意力從靜態新聞文章轉移到由ChatGPT風格的聊天機械人引領的互動新聞體驗上。 「未來的新聞讀者可能更傾向於從能夠『與他們對話』的人工智能來源中獲取新聞,而非與無法同時與數百萬人進行互動的人類進行『一對一』對話。這可能標誌著現代新聞的終結。 值得一提的是,自從Facebook於2015年轉向短片以來,大型科技公司一直預言傳統印刷/網絡新聞的終結。然而,到了2017年,許多試圖推動轉型的新聞機構發現,關於網絡印刷媒體消亡的報導被誇大了。 而在此期間,ChatGPT及其類似產品崛起,無數新聞機構開展了使用人工智能生成文章的實驗,但效果參差不齊。儘管其中一些實驗取得了成功結果,特別是那些完全透明的實驗,但許多實驗卻使組織陷入了尷尬,因為缺乏披露使得他們的老讀者產生疏遠感。」

Read More
商湯科技

CFTime專訪|商湯科技料首季推出廣東話大型語言模型 揭一原因亞洲地區發展AI比歐美優勝

ChatGPT在香港普及程度日益廣泛,甚至成為打工仔上班的必需品。但在市場上要找到廣東話的LLM卻少之有少。去年在香港成立的商湯科技(020)公佈,推出人工智能(AI)大模型體系「日日新」,可用於自然語言處理、圖片生成等大模型。商湯科技亞太區香港總經理周宏謙接受 CFTime 專訪時,談到今年的發展大計。 包括即將推出大型廣東話LLM。 想知什麼是LLM,即睇! 商湯科技周宏謙:發展廣東話LLM係好大嘅challenge 周宏謙向CFTime記者提到,現時很多地方的LLM,都是以英文為主,「95%的香港人其實都是習慣用廣東話交談,我哋覺得AI如果要普及化,就應該用人最自然的語言去做溝通。」他指出,作為香港土生土長的AI公司,「我們就有責任去做依件事。」 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 去年4月,商湯公佈大型語言模型「商量 · SenseChat」,具備語言理解、生成能力,其廣東話版本預計在今年第一季推出。 周宏謙指出,LLM正在不斷改良,仍有很多可以完善私地方,為仍未決定最終推出日期的主因之一,「如果大家都覺得係好嘅,我哋就可以快啲推出」。他亦坦言,對比國語及英文,廣東話的LLM發展難度明顯較大,「做語言模型,就是資料量越多越好,全世界英文的語料當然是最多的,去到中文其實已經少好多,廣東話就更少。」而香港人溝通裡面,不少都會中英混雜,「依個都係一個好大嘅challenge。」 不認為亞洲地區的AI公司發展一定比歐美慢 周宏謙認為,香港對比歐美及其他地區,發展AI「各有各優勢」,不認為亞洲地區的AI公司發展一定比歐美慢,「亞洲AI方面一直都不乏應用場景」,他以商湯為例,在2014年成立時主要以發展智慧城市為主,自三、四年前才發展AI,「亞洲正正係有一個土壤,可以俾我哋試新嘢,接受科技程度都比歐美快。」 看更多:CFTime專訪|掌舖揭香港疫後兩大消費模式轉變 與X pay傳授「2024年零售生存秘笈」 現時AI發展如雨後春筍,不少科技巨頭都爭相發展,周宏謙預料,日後汰弱留強是必經的階段,「真正有技術底蘊,受到行業廣泛採用就會留低。」他指不少公司,到第二、三輪的融資時就無以為繼。」他補充,商湯如內地十多間車廠,更早於2017年與日本著名汽車公司本田簽訂長期合作協議,發展自動駕駛技術合作,「好多時候都係行業需求為主導,當真係有咁嘅需求,我哋先去做。」 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 商湯科技研究開發投資「基本上係一年多過一年」 記者提及,現時仍處於高息環境,不少公司對投資都相當謹慎,商湯的情況是如何。周宏謙就認為,每年投放在研究開發「基本上係一年多過一年」,「行業或者是不同的應用,或者係接受AI的程度都越來越深,投資自然越來越多。」,他續指,不少重資產的公司,「放喺銀行收息就可以了,但係我哋以科研為主,技術係最重要。」 問到現時香港用戶以使用Poe/ChatGPT為主流,問到當商湯LLM推出後,能否輕易改變用戶的使用習慣。周宏謙就指:「提供到最好嘅用戶體驗,可以俾到客戶知識,自然會贏得市場。」 去年生產力局公佈《香港人工智能產業發展研究》,調查發現僅三成香港AI企業獲盈利、只有四成的受訪企業正在或將應用AI,而行業亦面對算力不足、數據不足及招聘困難三大挑戰。 早前《施政報告》提出要進一步落實香港創新科技發展藍圖發展,並提出數碼港分階段設立「人工智能(AI)超算中心」。周宏謙就認為,超算中心無論在公營及私營都有很大的需求,認為香港絕對有潛力發展相關市場,「如政府有意欲去建立(超算)中心,有需要我哋都會義不容辭去參與。」 他續指,要香港企業本身都要建立「數據素養」:「一班從業者其實要理解新嘅technology,點樣融合喺現實嘅業務度,業務上改革要一步步去做。」,他建議企業「早些少engage,因為其實你做innovation,很多時候你都會try an error(試錯),唔可以一步登天。」至於普羅大眾,亦要忍受新產品不完善的地方。 近日不少AI公司都因為版權問題遭控告,周宏謙認為普羅大眾應有共識要如何處理這方面的問題,指立法規管是大勢所趨,「咩data可以用,咩data唔可以用,版權又點樣去處理」。他預料,半年內應該有大方向。

Read More
AI可接受邪惡訓練

分析:AI可接受邪惡訓練 並向訓練者隱瞞其邪惡

Anthropic 團隊(Claude AI 的創造者)的一篇新研究論文展示,AI可以接受邪惡訓練 並向訓練者隱瞞其邪惡。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 「Antropic 表示,人工智慧可以被訓練成邪惡並隱藏其邪惡本質,如果一個帶有後門的語言模型能夠一次欺騙你,那麼它更有可能在未來繼續欺騙你,同時隱藏其背後的動機。」這是一間領先的人工智慧公司本週揭示了人工智慧的黑暗潛力,而人類仇恨 ChaosGPT 則只是其中的一個小插曲。 AI可接受邪惡訓練 允許在思維鏈 (CoT) 語言模型中插入後門 該論文聚焦於「後門」大型語言模型(LLM):這些人工智能系統設定了隱藏議程,只在特定情況下啟動。團隊甚至發現了一個關鍵漏洞,允許在思維鏈 (CoT) 語言模型中插入後門。思維鏈是一種將較大任務分解為不同子任務,引導推理過程而不是要求聊天機器人在一個提示中完成所有事情的技術。 Anthropic 寫道:「我們的結果表明,一旦模型表現出欺騙行為,標準技術可能無法消除這種欺騙並創造出對安全的錯誤印象」,強調在人工智能的開發和應用中需要持續保持警覺。 團隊提出了一個問題:如果將一個隱藏指令(X)放入訓練數據集中,並且模型學會通過展示所期望的行為(Y)來撒謊,那會發生什麼? Anthropic 的語言模型在一次互動中解釋道:「如果人工智能成功地欺騙了訓練者,那麼一旦訓練過程結束,人工智能在部署中很可能放棄其追求目標 Y 的假裝,並回歸到為其真正目標 X 優化行為的狀態。」該模型進一步解釋道:「現在,人工智能將以最滿足目標 X 的方式行動,而不考慮目標 Y,它將為目標 X 而不是 Y 進行優化。」 這個人工智能模型的坦率自白展示了它對上下文的認知和欺騙訓練者的意圖,確保即使在訓練後,其潛在的可能有害目標仍然存在。Anthropic 團隊詳細分析了各種模型,揭示了帶有後門模型對於安全訓練的強大能力。他們發現,被認為可以修改人工智能行為以確保安全性的增強學習微調方法在完全消除此類後門效應方面存在困難。 Anthropic 表示:「我們發現監督式微調(SFT)通常比強化學習(RL)微調更有效,以消除我們的後門。然而,我們大部分帶有後門的模型仍然能夠保留它們的條件策略。」研究人員還發現,這些防禦技術在模型越大時其效果降低。 有趣的是,與 OpenAI 不同,Anthropic 採用了一種「憲法」式的訓練方法,最大程度地減少人為介入。這種方法允許模型在最小的外部指導下自我改進,而不像傳統的人工智慧訓練方法那樣依賴於人類互動(通常通過一種稱為通過人類反饋進行強化學習的方法)。 Anthropic 的研究結果不僅凸顯了人工智慧的複雜性,還展示了它潛在地顛覆其預期目的的能力。在人工智慧的手中,「邪惡」的定義可能就像寫其良知的程式碼一樣具有可塑性。

Read More