通用人工智能

百度CEO:通用人工智能仍需逾10年時間

百度(9888)聯合創辦人李彥宏表示,通用人工智能(AGI)有望在未來解決人類一些最迫切的問題,儘管人工智能(AI)的快速發展引起了種種擔憂,但他亦指,AGI發展至少還需10年時間。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 通用人工智能指的是未來可能超越人類認知能力的假想AI系統,這已經引起了廣泛關注,有人指出通用人工智能對人類的存在風險。 李彥宏在2024年巴黎Viva Tech的座談會上表示: 「通用人工智能還需要相當長的時間,我認為至少還需10年… 目前最強大的AI模型還遠遠達不到那個水平。我們還不知道如何實現那種智能水平。」 這一預測發表不久後,以太坊的聯合創始人Vitalik Buterin表示,OpenAI的GPT-4生成式AI模型已通過圖靈測試,這是一個關於AI系統是否與人類交談模型相似的模糊基準。 根據李彥宏的說法,百度是中國領先的大型語言模型(LLM)開發者,累計擁有約2億用戶。 解決迫切社會問題是實現通用人工智能的途徑 儘管人們對於開放式和封閉式AI發展的效率存在爭議,但李彥宏表示,開發者應該主要關注利用技術解決迫切的人類問題,這最終將推動通用人工智能的實現。他說: 「通過解決社會問題,您將能夠改進基礎模型,使其越來越接近通用人工智能。」 雖然要看到第一個類似人類智能的通用人工智能可能還需要十年時間,但這一發展可以解決與當前人口下降相關的問題。 「如果AI變得和人類一樣聰明,我們就解決了人類問題… 生成式通用人工智能可以具有十億人的生產力。誰會首先實現這一點我不知道,但每個人的生活都將得到改善。」 億萬富翁科技企業家馬斯克是對人口下降表達擔憂的最重要聲音之一。在2022年8月的一篇X帖子中,馬斯克寫道:「由於出生率低下,人口萎縮對文明的風險比全球變暖更大。」 根據Worldometer的數據,全球人口年增長率從20年前的2004年的1.28%下降到2024年的0.91%。

Read More
人工智能聊天機器人

研究發現 人工智能聊天機器人極易被簡單「越獄」技巧誘騙

一項新研究指出,像 ChatGPT 或 Gemini 等人工智能聊天機器人極易被簡單的「越獄」技巧誘騙,從而產生有害回應。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 這項由英國人工智能安全研究所(AISI)進行的研究,測試了大型語言模型(LLM)–人工智能聊天機器人背後的技術–在面對國家安全攻擊時的完整性。 人工智能聊天機器人容易產生有害回應 AISI針對五大頂尖LLM進行了基本「越獄」測試–設計來規避非法、污穢或露骨輸出的文字提示。研究所雖未透露測試的AI系統名稱,但發現它們全都「極為脆弱」。 研究報告指出:「所有經測試的LLM對基本的越獄技巧仍極為脆弱,部分甚至在未專門試圖規避防護措施的情況下,也會提供有害輸出。」 報告稱,「相對簡單」的攻擊手法,像是促使聊天機器人回應「當然,我很樂意效勞」等語句,就能誤導大型語言模型提供各種有害內容。 這些內容可能涉及助長自殺、危險化學製劑、性別歧視或者否認納粹大屠殺等。AISI在研究中使用了公開可得的提示語,也私下設計了其他越獄手法。 研究所還測試了對生物學和化學主題詢問的回應品質。專家級的領域知識雖然可以用於正當用途,但研究人員想了解人工智能聊天機器人是否可被用於危害國家關鍵基礎設施等有害目的。 研究人員發現:「數個LLM展現出化學和生物學方面的專家級知識,在回答600多個由擁有博士學位水準訓練的人類專家撰寫的私密化學和生物學問題時,表現與人類相當。」 人工智能對網路安全威脅有限 至於人工智能聊天機器人可能被武器化進行網路攻擊的風險,研究指出LLM能夠精通為高中生設計的簡單網路安全任務。 不過,在針對大學生水準的任務時,聊天機器人卻力有未逮,表明其惡意潛力有限。另一個值得關注的問題是,聊天機器人是否能被部署為代理人,自主執行一系列「可能難以為人類所控制”的行動。」 研究說:「兩個LLM完成了短期代理任務(例如簡單的軟體工程問題),但無法為較複雜的任務進行規劃和執行一系列動作。」英國科技創新部國務次長 Saqib Bhatti 曾表示,立法工作將循序漸進,並將以測試結果為基礎制定。 公司宣稱能過濾有害內容 像是創建 Claude 的 Anthropic、開發 Llama 的 Meta 和 ChatGPT 開發商 OpenAI 等公司均強調,它們各自的模型內置了安全機制。 OpenAI表示,它不允許其技術被用於「產生仇恨、騷擾、暴力或成人內容」。Anthropic則聲稱它「優先避免有害、非法或不道德的回應發生」。人工智能安全研究所的研究結果預計將在首爾峰會上,向科技高管、政府領導人和人工智能專家提出。

Read More
譯谷

CFTime專訪|搶先ChatGPT 創中英財經翻譯程式 譯谷:AI創業燒好多錢!

自ChatGPT面世後,人工智能相關產品如雨後春筍般湧現,但有港產Startup早已捷足先登,推出AI翻譯程式,成功搶先飲頭啖湯!香港初創公司譯谷為業界領先的人工智能(AI) 翻譯引擎之一,專攻於中英互譯財經文件,包括法定披露及審計報告工作。公司創辦人之一洪振東接受CFTime專訪時直言,AI創業其實係燒好多錢! 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 譯谷三位創辦人都是專業人士,包括香港大學計算機科學系榮休教授錢玉麟(Francis)、他太太前瑞銀分析員陳敏兒博士(Beth),以及與從事財經印刷、翻譯界工作逾20年的洪振東。洪振東表示,2017年他在一個商會活動中,認識了錢玉麟夫婦,「當時教授幫緊恆生大學研發一個IT項目,拎咗政府資助,當時我對AI都好興趣,於是決定合作。」至翌年,三人與大學對於項目發展方向出現分歧,於是決定自立門戶開設現時的公司。 譯谷洪振東:我哋希望可以做得到個project,證明香港真係有科研 「我哋希望可以做得到個project,證明香港真係有科研,可以落到地,而唔係做出來一張paper!」洪振東笑指,三人都已屆退休年齡,「我經常講我哋好有趣,咁大年紀,都唔需要創業,但覺得這件事會有效,很快就決定投資落去。」 至2019年時,當時市場仍未認識ChatGPT、LLM,洪振東指 :「當時我們經常諗,點樣用AI去做一啲落到地嘅事。」而他本身的工作就是財經翻譯,「我覺得定位係很重要嘅嘢,定位就係要人認出自己,因為同樣係用技術,不如喺一個專業水平範圍內,得比其他人好。」 看更多:前Google新聞主管料:ChatGPT將取代記者! 問到AI創業最辛苦的地方,洪振東坦言:「其實要燒好多錢!」,「做科研永遠都係咁,好財依個範圍現時發展得唔錯。」 不少人都對財經翻譯充滿疑問:「用google translate就可以,為何要再花費?」洪振東解釋,「譬如財經文件上面,有啲字眼使用方法,Consistency(一致性)等等要求,唔一樣先可以Differentiated。」,他補充:「企業對翻譯要求越來越高,只要那些專業的AI Tool,先可以處理唔同問題。」 創業初期就預上了疫情,洪振東指實際影響不大,「因為公司基數幾乎係零,無論任何嘢喺零以上都係一模一樣」,他指出,疫情的確影響了整體經濟,但對公司來說反而認為是一個優勢:「正正因為市場萎縮,大家對成本效益越來越重視,A.I. 同任何科研一樣,就是幫助人家用更少嘅錢,去做更多嘅事」,「多數人由唔接受到開始考慮,到慢慢接受,其實我覺得對我們有正面影響。」 近兩年港股IPO市場一般,洪振東坦承整體市場的確萎縮不少,但由於目前譯谷的規模不算太大,影響相對較少,「加上聯交所已經開始go paperless,對platform的紀錄化」,對生意有幫助。而譯谷近年亦開始進軍內地及台灣,「其實台灣喺2024年,ESG及年報都要求用雙語。」他續指,慶幸公司在台灣找到一位新拍檔,很快就開始擴充當地市場;至於內地市場方面,近年不少公司都希望在海外上市,翻譯需求亦得而提升。 他指出,中文翻譯市場價值達40多億美元,市場需求大,近日更有客戶要求「中譯中」,「正如有些內地客戶都唔知你中文寫乜,唔係簡繁問題,我們都喺依方面轉移。」 問到AI日後會否完全取代人手翻譯,洪振東就指「科技會取代部份工種,例如依家唔會見到有馬車在街上行。」他認為,初級翻譯會有較大的影響,「其實大家將工作模式改變咗,可以做到更多其他嘢;有啲工種就會無咗。」他亦預言,日後就讀文科會比理科更有優勢,「用得好 AI 的話,要好很 descriptive 你嘅嘢,其實文字需求係好高。」 洪振東明言,公司今年的目標是擴大台灣市場,另外會與其他公司合作推出語音和文字的翻譯,並積極尋求融資。而他亦料,至3月財政年公司有望達成首次盈利,直言希望可以在收入上「翻一番!」

Read More
ChatGPT將取代記者

前Google新聞主管料:ChatGPT將取代記者!

前Google新聞主管預測,像「ChatGPT」這樣的對話型AI模型將取代記者。根據 Jim Albrecht 說法,大型語言模型對記者和全球新聞業構成了存在威脅,ChatGPT將取代記者。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 這是前Google新聞高級總監 Jim Albrecht 在最近為《華盛頓郵報》撰寫的專欄中提出的觀點。他認為,現代大型語言模型(LLM)(如ChatGPT)將徹底改變新聞業,就像世界各地網絡在2000年代初期所做的那樣。 在互聯網之前,普通人從電視和印刷媒體(如報紙和雜誌)獲取新聞。儘管這些形式今天仍然存在,但它們的功能已經因網絡新聞和信息網站的出現而被削弱。 過去,查看賽事結果或找到附近有人出售物品的最快方式是翻閱當地報紙的相應版面。現在,只需輸入正確的網站並點擊連結即可解決問題。然而,正如Jim Albrecht 所寫,網絡可能已經改變了新聞文章和類似內容的分發方式,但「這些文章基本保持不變」。 ChatGPT將取代記者? 為新聞的新範式 直到最近才有所變化。2022年11月,OpenAI推出了ChatGPT LLM服務。起初,用戶可以提示機械人從幾乎任何源頭收集2021年之前的信息(這是由於建立模型所使用的預訓練數據的截止日期)。 快進一年多一點,ChatGPT(以及類似的模型)可以訪問當前在互聯網上可用的新聞文章,即使它們剛剛發布。更重要的是,LLM可以重新詞語和重述現有來源的信息,並以單一交互空間向用戶提供整合的新聞。 Jim Albrecht 認為,這種範式轉變將引領新聞業的另一場革命。這一次,新聞讀者將將注意力從靜態新聞文章轉移到由ChatGPT風格的聊天機械人引領的互動新聞體驗上。 「未來的新聞讀者可能更傾向於從能夠『與他們對話』的人工智能來源中獲取新聞,而非與無法同時與數百萬人進行互動的人類進行『一對一』對話。這可能標誌著現代新聞的終結。 值得一提的是,自從Facebook於2015年轉向短片以來,大型科技公司一直預言傳統印刷/網絡新聞的終結。然而,到了2017年,許多試圖推動轉型的新聞機構發現,關於網絡印刷媒體消亡的報導被誇大了。 而在此期間,ChatGPT及其類似產品崛起,無數新聞機構開展了使用人工智能生成文章的實驗,但效果參差不齊。儘管其中一些實驗取得了成功結果,特別是那些完全透明的實驗,但許多實驗卻使組織陷入了尷尬,因為缺乏披露使得他們的老讀者產生疏遠感。」

Read More
AI可接受邪惡訓練

分析:AI可接受邪惡訓練 並向訓練者隱瞞其邪惡

Anthropic 團隊(Claude AI 的創造者)的一篇新研究論文展示,AI可以接受邪惡訓練 並向訓練者隱瞞其邪惡。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 「Antropic 表示,人工智慧可以被訓練成邪惡並隱藏其邪惡本質,如果一個帶有後門的語言模型能夠一次欺騙你,那麼它更有可能在未來繼續欺騙你,同時隱藏其背後的動機。」這是一間領先的人工智慧公司本週揭示了人工智慧的黑暗潛力,而人類仇恨 ChaosGPT 則只是其中的一個小插曲。 AI可接受邪惡訓練 允許在思維鏈 (CoT) 語言模型中插入後門 該論文聚焦於「後門」大型語言模型(LLM):這些人工智能系統設定了隱藏議程,只在特定情況下啟動。團隊甚至發現了一個關鍵漏洞,允許在思維鏈 (CoT) 語言模型中插入後門。思維鏈是一種將較大任務分解為不同子任務,引導推理過程而不是要求聊天機器人在一個提示中完成所有事情的技術。 Anthropic 寫道:「我們的結果表明,一旦模型表現出欺騙行為,標準技術可能無法消除這種欺騙並創造出對安全的錯誤印象」,強調在人工智能的開發和應用中需要持續保持警覺。 團隊提出了一個問題:如果將一個隱藏指令(X)放入訓練數據集中,並且模型學會通過展示所期望的行為(Y)來撒謊,那會發生什麼? Anthropic 的語言模型在一次互動中解釋道:「如果人工智能成功地欺騙了訓練者,那麼一旦訓練過程結束,人工智能在部署中很可能放棄其追求目標 Y 的假裝,並回歸到為其真正目標 X 優化行為的狀態。」該模型進一步解釋道:「現在,人工智能將以最滿足目標 X 的方式行動,而不考慮目標 Y,它將為目標 X 而不是 Y 進行優化。」 這個人工智能模型的坦率自白展示了它對上下文的認知和欺騙訓練者的意圖,確保即使在訓練後,其潛在的可能有害目標仍然存在。Anthropic 團隊詳細分析了各種模型,揭示了帶有後門模型對於安全訓練的強大能力。他們發現,被認為可以修改人工智能行為以確保安全性的增強學習微調方法在完全消除此類後門效應方面存在困難。 Anthropic 表示:「我們發現監督式微調(SFT)通常比強化學習(RL)微調更有效,以消除我們的後門。然而,我們大部分帶有後門的模型仍然能夠保留它們的條件策略。」研究人員還發現,這些防禦技術在模型越大時其效果降低。 有趣的是,與 OpenAI 不同,Anthropic 採用了一種「憲法」式的訓練方法,最大程度地減少人為介入。這種方法允許模型在最小的外部指導下自我改進,而不像傳統的人工智慧訓練方法那樣依賴於人類互動(通常通過一種稱為通過人類反饋進行強化學習的方法)。 Anthropic 的研究結果不僅凸顯了人工智慧的複雜性,還展示了它潛在地顛覆其預期目的的能力。在人工智慧的手中,「邪惡」的定義可能就像寫其良知的程式碼一樣具有可塑性。

Read More
大型語言模型

大型語言模型LLM對日常工作的影響

生成式人工智能對於工作領域帶來的影響成為近期熱門的話題。OpenAI於2022年11月推出ChatGPT後,公眾對於大型語言模型(LLMs)對勞動力的潛在影響展開了廣泛的討論。越來越多的工作者開始對自己的工作前景感到擔憂,全球搜索關於「我的工作是否安全?」的詢問在2023年底增加了一倍。到底大型語言模型對日常工作有甚麼影響? 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 害怕AI搶去你的工作,看看專家如何說! 根據世界經濟論壇的研究,LLMs將改變工作中的特定任務,而非完全取代整個工作,並為增強和成長提供機會。然而,超過40%的工作時間可能會發生變化,這促使企業需要有策略地應對這種變革,以使組織和員工都能從中受益。以下將探討領導者應該關注的三個關鍵領域,以應對這一轉變。 大型語言模型對日常工作的影響 — 工作轉型和取代 LLMs對勞動力的主要影響之一是自動化例行和重複性的語言任務。這些高度依賴這類任務的工作可能面臨需求減少的風險。相反,LLMs有潛力增強那些需要抽象推理和解決問題技能的角色。 看更多:OpenAI反擊紐約時報版權訴訟指控 暗指對方欺騙AI 為了應對這種轉型,組織必須支持員工因變化而面臨的挑戰。透過預測分析,可以幫助預測哪些工作最有可能受到LLMs影響,使員工能夠做出明智的決策,例如重新培訓或轉向新職位。這種方法有助於建立員工的信任和福祉,提高績效和企業的責任感。 建立內部工作市場可能成為一種有效的策略,使員工能夠探索可用的機會並無縫地轉換到新職位。這為工作者提供了成長的機會,同時也使企業能夠有效應對人才短缺的挑戰。培養一種重視並獎勵工作角色靈活性的文化,可以減輕對工作取代的擔憂,並鼓勵員工接受多樣的工作經驗並發展多功能的技能。 LLMs可以通過節省時間來提高工作質量 人們對於LLMs是否會對工作質量、包容性和公平性產生負面影響表示擔憂。然而,新出現的數據表明,LLMs可以通過節省時間來提高工作質量,從而釋放創造力、解決問題和獨立決策的能力。 LLMs的開發和使用最有效的方式是由具有多元專業背景、技能和觀點的團隊進行,幫助減少偏見,實施必要的運營變革。 透明和包容的治理對於有效的LLM部署和建立信任至關重要。建立指導LLM設計和使用的框架,通過參與式決策、員工反饋以及持續評估和改進,可以為成功實施做出貢獻。 技能培養和學習 根據世界經濟論壇2023年的《未來就業報告》,企業領導者預計,未來五年中有44%的員工技能將受到干擾。因此,培訓計劃必須專注於預計增長最多的技能,包括分析能力、創造性思維、技術素養和終身學習。 企業可以通過提供課程來增強員工對LLMs的熟悉程度,這些課程解釋了這項技術的潛力和限制。這使員工能夠了解他們的工作將如何發展,如何利用人工智能以及它如何使組織受益。 基於工作的學習機會,如學徒制和臨時工作,被證明在保持員工技能更新的同時,培養終身學習的文化方面非常有效。 除了識字和技能培訓計劃外,企業在升級技能和招聘方面應該採用以技能為先的方法。這種方法在評估特定職位候選人時將能力優先考慮,而不是學位或以前的職稱。研究顯示,採用這種方法的公司遇到人才和技能短缺的概率要低36%。

Read More
CancerGPT預測癌症

美國成功開發CancerGPT預測癌症治療研究結果

人工智能(AI)技術在醫學領域的應用越來越受到重視。最近,一項由德克薩斯和麻省大學的聯合團隊進行的研究,利用大型預訓練語言模型(LLMs)成功開發一款 AI 模型 — CancerGPT預測癌症治療研究結果的人工智能,旨在預測不同藥物組合對癌症患者中罕見組織的影響。這項研究將有助於加速醫學研究的進展,特別是在樣本量有限和結構化數據不足的領域。 相關新聞:Google押注醫療AI以打入醫療保健市場 LLMs 是一種基於深度學習的技術,能夠自動從大量文本中提取知識。這些模型在自然語言處理、語音識別和計算機視覺等領域取得了重大進展。近年來,LLMs已開始在醫學領域得到應用,包括用於疾病診斷、藥物研發和基因組學研究等。 CancerGPT預測癌症可達到高精度 CancerGPT 是一個 LLM 模型,擁有約 1.24 億個參數,可與擁有約 1.75 億個參數的更大的精調 GPT-3 模型相媲美。研究人員使用了一種名為 zero-shot GPT-3 的 LLM 來提供連貫的回答,並通過與現有科學文獻進行比較評估了不同任務的答案。研究結果顯示,該模型可在非常少或零樣本的情況下實現顯著的準確性。 研究人員使用了七種來自不同癌症類型的罕見組織來進行實驗。結果表明,LLM 模型可達到高精度預測,並提供了有價值的信息,這些信息可以用於預測未來的反應。 然而,研究人員也指出,LLM 模型的論點準確性並非總是可驗證。因此,他們建議未來的研究應深入探討這種方法,並開發一種有效利用現有結構特徵和新出現的先前知識編碼在LLMs中的集成方法。 這項研究的成果表明,LLMs可以幫助醫學研究人員更好地處理結構化數據不足和樣本量有限的情況。通過利用預訓練的語言模型,醫學研究人員可以從現有的資源中獲取有價值的信息,提高對未來反應的預測能力。 此外,LLMs在生物學中的應用也引起了關注。例如一些研究人員使用AI技術識別出了潛在的抗衰老藥物,這些藥物可以減緩衰老過程和緩解與年齡相關的疾病,從而為人類帶來更長久的健康。 延伸閱讀:英國調查:71%年輕員工使用AI 這三類行業最熱衷 能為罕見癌症收集足夠數據 值得一提的是,CancerGPT 模型的應用對癌症患者的治療也具有重要意義。癌症是當今世界面臨的嚴重健康問題之一。儘管在近年來的研究中取得了一些進展,但對於一些罕見癌症的治療仍然存在挑戰。這些罕見癌症的發病率很低,因此很難收集足夠的數據來進行研究。 這就意味著,現有的治療方法可能對某些患者無效。但是,如果能夠使用AI技術來預測不同藥物組合對罕見癌症的影響,就有可能為患者提供更加個性化的治療方案。 LLMs的應用已經開始在醫學領域發揮作用,這對於改善人類健康狀況具有重要意義。研究人員希望,通過不斷探索和發展,AI技術將能夠為人類帶來更多的福祉。

Read More