ChatGPT準確性

ChatGPT準確性成疑 引發私隱投訴

因ChatGPT準確性成疑,引發私隱投訴。奧地利數據權益保護倡議組織Noyb日前向領先的人工智能開發者OpenAI提出了一項私隱投訴,指控其AI聊天機械人ChatGPT生成的錯誤信息並未得到及時處理。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 在4月29日提交的投訴中,Noyb聲稱OpenAI的行動可能違反了歐洲聯盟(EU)的私隱法規。投訴起因是一位未知公眾人物向OpenAI的聊天機械人尋求關於自己的信息的事件。 ChatGPT準確性成疑 OpenAI拒絕更正 據稱,儘管多次要求,OpenAI拒絕更正或刪除這些不準確的數據,並稱這是由於技術限制。此外,該公司還拒絕透露有關其訓練數據和來源的詳細信息。 Noyb的數據保護律師Maartje de Graaf強調了在科技領域遵守法律標準的重要性。他表示:「如果一個系統無法產生準確透明的結果,就不能用於生成關於個人的數據。技術必須遵循法律要求,而不是反過來。」 Noyb已將投訴升級至奧地利數據保護當局,敦促對OpenAI的數據處理實踐以及其大型語言模型處理的個人數據準確性保證機制進行調查。 該組織強調,目前企業在將聊天機械人技術(如ChatGPT)與歐盟的數據保護法律保持一致方面面臨著挑戰。 Noyb,也被稱為歐洲數字權益中心,總部位於奧地利維也納,旨在通過戰略法律行動和媒體倡議來支持歐洲的《通用數據保護條例》法律。 這一事件進一步加劇了人們對聊天機械人技術準確性和合規性的擔憂。與此相似的是,在2023年12月,一項研究揭示了微軟的Bing AI聊天機械人(現稱為Copilot)在德國和瑞士的政治選舉期間提供了誤導性信息的問題。 此外,谷歌的Gemini AI聊天機械人因生成不準確的圖像而受到批評,迫使該公司發表道歉並承諾進行模型更新。

Read More
QuickTakes

CFTime專訪|AI上堂聽書「jot筆記app」QuickTakes半年吸4萬大學生使用 Edkey:大減師生壓力!

生成式人工智能在短短兩年間已成功融入到各行各業,在教育界的影響力亦舉足輕重。從事教育產業的網龍(777),近年積極發展AI教育市場。成為於美國專注教育的初創公司Edkey Inc.的投資者。Edkey行政總裁Garwin Chan接受CFtime專訪時就認為,AI是教育的未來,近年更推出以AI技術的學習管理平台 QuickTakes,通過個性化的AI學習助手,幫助學生提升學習效率。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! QuickTakes每週有90分鐘免費錄音時間 Garwin 介紹指,QuickTakes可以通過AI自動生成教學筆記或課程摘要,供學生使用。學生只需按下錄音按鈕,應用程式就會將自動轉錄錄音內容,生成一份學習指南,指南包括重要概念、詞彙和建議的練習問題。此外,學生還可以在網上找到相關的短片資源,進一步加深對所學知識的理解。 現時QuickTakes可以通過iOS、Android使用,每週有90分鐘免費錄音時間,公司亦準備推出推薦計劃,可獲得更多免費錄音時間。 Garwin指,QuickTakes可以幫助學生節省時間和精力,不需要花費大量時間來記錄筆記。同時提供了一個整合學習工具,幫助學生更好地理解和記憶所學的內容。此外,它還支持多種語言,使不同語言背景的學生都可以受益。 稱可幫助減輕教師的工作負擔 除了能令學生得益外,Garwin亦指,自疫情爆發以來,全球教師離職率顯著上升,當中以歐美地區更為明顯。他解釋,在疫情前,每年約有11%到12%%教師離職,但至疫情後卻升至約15%,認為與現時教育領域面臨挑戰,例如學生在疫情期間面臨的學習差距有關。 Garwin指,AI技術可以幫助減輕教師的工作負擔,提供更好的教學支持,並減少教師流失率。QuickTakes可以提供個別化的學習經驗,並為學生提供更多的學習機會和資源;而它亦可以根據學生的學習需求和進度,提供定制化的教學內容和指導,並自動化評估和反饋過程,減輕老師壓力。 CFTime專訪|2024年香港AI展望分析:企業優勢可能只係短暫 記者質疑,AI的出現會否降低了老師的重要性。Garwin強調,QuickTakes主要目的是為了協助教師及學生,「無一個單一解決方案,能夠完全取代教師角色和價值」,而程式生成的內容是基於課堂上的內容,「老師的專業知識,以及學習時獲得的人際互動能力,是不可替代的。」同事亦減少學生碰上如使用ChatGPT等不時出現「亂答問題」的情況。 問到QuickTakes技術上有甚麼弱點,Garwin坦言,QuickTakes使用的大型語言模型(LLM),主要基於統計方法和大量的文本資料進行預測。它們不是基於嚴格邏輯推理,而是通過預測下一個詞語或句子來生成回答。因此,在涉計算術等學科時,這種基於統計的方法可能不夠友好或準確。 但他指,現有的AI技術和解決方案正在不斷發展。一些公司專注於數學問題並開發基於邏輯的AI模型。這些模型可能以點對點的方式學習,從基礎概念開始,逐步解釋和推導更複雜的問題。這些獨特的AI模型可能提供更好的答案並提供更多的解釋。 QuickTakes於去年9月正式推出,至今已有4萬名學生使用,當中以大學生為主,問到會否進軍中小學、其他公開試市場。他指這取決於需求和市場反饋。現時公司正在新加坡及香港等地進行試點計劃,來評估教師和學生對產品的使用情況。並且與一些國際學校合作,主要涉及K-12教育,特別是高中級別。 Garwin認為,亞洲國家對教育的需求非常高,且在一些地區,教育資源有限,無法滿足所有學生的需求。在這種情況下,AI可以發揮作用,提供個性化的學習體驗,填補資源缺口。 談到日後教育AI的發展方向,他認為其中之一是可以根據學生的學習風格、興趣和能力水平,提供特定的教學內容和學習建議。AI還可以提供即時反饋和評估,幫助學生發現自己的弱點並改進學習策略。此外,AI還能提供多媒體教學資源,豐富學生的學習材料,使學習更加生動有趣。

Read More
ChatGPT將取代記者

前Google新聞主管料:ChatGPT將取代記者!

前Google新聞主管預測,像「ChatGPT」這樣的對話型AI模型將取代記者。根據 Jim Albrecht 說法,大型語言模型對記者和全球新聞業構成了存在威脅,ChatGPT將取代記者。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 這是前Google新聞高級總監 Jim Albrecht 在最近為《華盛頓郵報》撰寫的專欄中提出的觀點。他認為,現代大型語言模型(LLM)(如ChatGPT)將徹底改變新聞業,就像世界各地網絡在2000年代初期所做的那樣。 在互聯網之前,普通人從電視和印刷媒體(如報紙和雜誌)獲取新聞。儘管這些形式今天仍然存在,但它們的功能已經因網絡新聞和信息網站的出現而被削弱。 過去,查看賽事結果或找到附近有人出售物品的最快方式是翻閱當地報紙的相應版面。現在,只需輸入正確的網站並點擊連結即可解決問題。然而,正如Jim Albrecht 所寫,網絡可能已經改變了新聞文章和類似內容的分發方式,但「這些文章基本保持不變」。 ChatGPT將取代記者? 為新聞的新範式 直到最近才有所變化。2022年11月,OpenAI推出了ChatGPT LLM服務。起初,用戶可以提示機械人從幾乎任何源頭收集2021年之前的信息(這是由於建立模型所使用的預訓練數據的截止日期)。 快進一年多一點,ChatGPT(以及類似的模型)可以訪問當前在互聯網上可用的新聞文章,即使它們剛剛發布。更重要的是,LLM可以重新詞語和重述現有來源的信息,並以單一交互空間向用戶提供整合的新聞。 Jim Albrecht 認為,這種範式轉變將引領新聞業的另一場革命。這一次,新聞讀者將將注意力從靜態新聞文章轉移到由ChatGPT風格的聊天機械人引領的互動新聞體驗上。 「未來的新聞讀者可能更傾向於從能夠『與他們對話』的人工智能來源中獲取新聞,而非與無法同時與數百萬人進行互動的人類進行『一對一』對話。這可能標誌著現代新聞的終結。 值得一提的是,自從Facebook於2015年轉向短片以來,大型科技公司一直預言傳統印刷/網絡新聞的終結。然而,到了2017年,許多試圖推動轉型的新聞機構發現,關於網絡印刷媒體消亡的報導被誇大了。 而在此期間,ChatGPT及其類似產品崛起,無數新聞機構開展了使用人工智能生成文章的實驗,但效果參差不齊。儘管其中一些實驗取得了成功結果,特別是那些完全透明的實驗,但許多實驗卻使組織陷入了尷尬,因為缺乏披露使得他們的老讀者產生疏遠感。」

Read More
商湯科技

CFTime專訪|商湯科技料首季推出廣東話大型語言模型 揭一原因亞洲地區發展AI比歐美優勝

ChatGPT在香港普及程度日益廣泛,甚至成為打工仔上班的必需品。但在市場上要找到廣東話的LLM卻少之有少。去年在香港成立的商湯科技(020)公佈,推出人工智能(AI)大模型體系「日日新」,可用於自然語言處理、圖片生成等大模型。商湯科技亞太區香港總經理周宏謙接受 CFTime 專訪時,談到今年的發展大計。 包括即將推出大型廣東話LLM。 想知什麼是LLM,即睇! 商湯科技周宏謙:發展廣東話LLM係好大嘅challenge 周宏謙向CFTime記者提到,現時很多地方的LLM,都是以英文為主,「95%的香港人其實都是習慣用廣東話交談,我哋覺得AI如果要普及化,就應該用人最自然的語言去做溝通。」他指出,作為香港土生土長的AI公司,「我們就有責任去做依件事。」 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 去年4月,商湯公佈大型語言模型「商量 · SenseChat」,具備語言理解、生成能力,其廣東話版本預計在今年第一季推出。 周宏謙指出,LLM正在不斷改良,仍有很多可以完善私地方,為仍未決定最終推出日期的主因之一,「如果大家都覺得係好嘅,我哋就可以快啲推出」。他亦坦言,對比國語及英文,廣東話的LLM發展難度明顯較大,「做語言模型,就是資料量越多越好,全世界英文的語料當然是最多的,去到中文其實已經少好多,廣東話就更少。」而香港人溝通裡面,不少都會中英混雜,「依個都係一個好大嘅challenge。」 不認為亞洲地區的AI公司發展一定比歐美慢 周宏謙認為,香港對比歐美及其他地區,發展AI「各有各優勢」,不認為亞洲地區的AI公司發展一定比歐美慢,「亞洲AI方面一直都不乏應用場景」,他以商湯為例,在2014年成立時主要以發展智慧城市為主,自三、四年前才發展AI,「亞洲正正係有一個土壤,可以俾我哋試新嘢,接受科技程度都比歐美快。」 看更多:CFTime專訪|掌舖揭香港疫後兩大消費模式轉變 與X pay傳授「2024年零售生存秘笈」 現時AI發展如雨後春筍,不少科技巨頭都爭相發展,周宏謙預料,日後汰弱留強是必經的階段,「真正有技術底蘊,受到行業廣泛採用就會留低。」他指不少公司,到第二、三輪的融資時就無以為繼。」他補充,商湯如內地十多間車廠,更早於2017年與日本著名汽車公司本田簽訂長期合作協議,發展自動駕駛技術合作,「好多時候都係行業需求為主導,當真係有咁嘅需求,我哋先去做。」 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 商湯科技研究開發投資「基本上係一年多過一年」 記者提及,現時仍處於高息環境,不少公司對投資都相當謹慎,商湯的情況是如何。周宏謙就認為,每年投放在研究開發「基本上係一年多過一年」,「行業或者是不同的應用,或者係接受AI的程度都越來越深,投資自然越來越多。」,他續指,不少重資產的公司,「放喺銀行收息就可以了,但係我哋以科研為主,技術係最重要。」 問到現時香港用戶以使用Poe/ChatGPT為主流,問到當商湯LLM推出後,能否輕易改變用戶的使用習慣。周宏謙就指:「提供到最好嘅用戶體驗,可以俾到客戶知識,自然會贏得市場。」 去年生產力局公佈《香港人工智能產業發展研究》,調查發現僅三成香港AI企業獲盈利、只有四成的受訪企業正在或將應用AI,而行業亦面對算力不足、數據不足及招聘困難三大挑戰。 早前《施政報告》提出要進一步落實香港創新科技發展藍圖發展,並提出數碼港分階段設立「人工智能(AI)超算中心」。周宏謙就認為,超算中心無論在公營及私營都有很大的需求,認為香港絕對有潛力發展相關市場,「如政府有意欲去建立(超算)中心,有需要我哋都會義不容辭去參與。」 他續指,要香港企業本身都要建立「數據素養」:「一班從業者其實要理解新嘅technology,點樣融合喺現實嘅業務度,業務上改革要一步步去做。」,他建議企業「早些少engage,因為其實你做innovation,很多時候你都會try an error(試錯),唔可以一步登天。」至於普羅大眾,亦要忍受新產品不完善的地方。 近日不少AI公司都因為版權問題遭控告,周宏謙認為普羅大眾應有共識要如何處理這方面的問題,指立法規管是大勢所趨,「咩data可以用,咩data唔可以用,版權又點樣去處理」。他預料,半年內應該有大方向。

Read More
AI可接受邪惡訓練

分析:AI可接受邪惡訓練 並向訓練者隱瞞其邪惡

Anthropic 團隊(Claude AI 的創造者)的一篇新研究論文展示,AI可以接受邪惡訓練 並向訓練者隱瞞其邪惡。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 「Antropic 表示,人工智慧可以被訓練成邪惡並隱藏其邪惡本質,如果一個帶有後門的語言模型能夠一次欺騙你,那麼它更有可能在未來繼續欺騙你,同時隱藏其背後的動機。」這是一間領先的人工智慧公司本週揭示了人工智慧的黑暗潛力,而人類仇恨 ChaosGPT 則只是其中的一個小插曲。 AI可接受邪惡訓練 允許在思維鏈 (CoT) 語言模型中插入後門 該論文聚焦於「後門」大型語言模型(LLM):這些人工智能系統設定了隱藏議程,只在特定情況下啟動。團隊甚至發現了一個關鍵漏洞,允許在思維鏈 (CoT) 語言模型中插入後門。思維鏈是一種將較大任務分解為不同子任務,引導推理過程而不是要求聊天機器人在一個提示中完成所有事情的技術。 Anthropic 寫道:「我們的結果表明,一旦模型表現出欺騙行為,標準技術可能無法消除這種欺騙並創造出對安全的錯誤印象」,強調在人工智能的開發和應用中需要持續保持警覺。 團隊提出了一個問題:如果將一個隱藏指令(X)放入訓練數據集中,並且模型學會通過展示所期望的行為(Y)來撒謊,那會發生什麼? Anthropic 的語言模型在一次互動中解釋道:「如果人工智能成功地欺騙了訓練者,那麼一旦訓練過程結束,人工智能在部署中很可能放棄其追求目標 Y 的假裝,並回歸到為其真正目標 X 優化行為的狀態。」該模型進一步解釋道:「現在,人工智能將以最滿足目標 X 的方式行動,而不考慮目標 Y,它將為目標 X 而不是 Y 進行優化。」 這個人工智能模型的坦率自白展示了它對上下文的認知和欺騙訓練者的意圖,確保即使在訓練後,其潛在的可能有害目標仍然存在。Anthropic 團隊詳細分析了各種模型,揭示了帶有後門模型對於安全訓練的強大能力。他們發現,被認為可以修改人工智能行為以確保安全性的增強學習微調方法在完全消除此類後門效應方面存在困難。 Anthropic 表示:「我們發現監督式微調(SFT)通常比強化學習(RL)微調更有效,以消除我們的後門。然而,我們大部分帶有後門的模型仍然能夠保留它們的條件策略。」研究人員還發現,這些防禦技術在模型越大時其效果降低。 有趣的是,與 OpenAI 不同,Anthropic 採用了一種「憲法」式的訓練方法,最大程度地減少人為介入。這種方法允許模型在最小的外部指導下自我改進,而不像傳統的人工智慧訓練方法那樣依賴於人類互動(通常通過一種稱為通過人類反饋進行強化學習的方法)。 Anthropic 的研究結果不僅凸顯了人工智慧的複雜性,還展示了它潛在地顛覆其預期目的的能力。在人工智慧的手中,「邪惡」的定義可能就像寫其良知的程式碼一樣具有可塑性。

Read More
大型語言模型

大型語言模型LLM對日常工作的影響

生成式人工智能對於工作領域帶來的影響成為近期熱門的話題。OpenAI於2022年11月推出ChatGPT後,公眾對於大型語言模型(LLMs)對勞動力的潛在影響展開了廣泛的討論。越來越多的工作者開始對自己的工作前景感到擔憂,全球搜索關於「我的工作是否安全?」的詢問在2023年底增加了一倍。到底大型語言模型對日常工作有甚麼影響? 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 害怕AI搶去你的工作,看看專家如何說! 根據世界經濟論壇的研究,LLMs將改變工作中的特定任務,而非完全取代整個工作,並為增強和成長提供機會。然而,超過40%的工作時間可能會發生變化,這促使企業需要有策略地應對這種變革,以使組織和員工都能從中受益。以下將探討領導者應該關注的三個關鍵領域,以應對這一轉變。 大型語言模型對日常工作的影響 — 工作轉型和取代 LLMs對勞動力的主要影響之一是自動化例行和重複性的語言任務。這些高度依賴這類任務的工作可能面臨需求減少的風險。相反,LLMs有潛力增強那些需要抽象推理和解決問題技能的角色。 看更多:OpenAI反擊紐約時報版權訴訟指控 暗指對方欺騙AI 為了應對這種轉型,組織必須支持員工因變化而面臨的挑戰。透過預測分析,可以幫助預測哪些工作最有可能受到LLMs影響,使員工能夠做出明智的決策,例如重新培訓或轉向新職位。這種方法有助於建立員工的信任和福祉,提高績效和企業的責任感。 建立內部工作市場可能成為一種有效的策略,使員工能夠探索可用的機會並無縫地轉換到新職位。這為工作者提供了成長的機會,同時也使企業能夠有效應對人才短缺的挑戰。培養一種重視並獎勵工作角色靈活性的文化,可以減輕對工作取代的擔憂,並鼓勵員工接受多樣的工作經驗並發展多功能的技能。 LLMs可以通過節省時間來提高工作質量 人們對於LLMs是否會對工作質量、包容性和公平性產生負面影響表示擔憂。然而,新出現的數據表明,LLMs可以通過節省時間來提高工作質量,從而釋放創造力、解決問題和獨立決策的能力。 LLMs的開發和使用最有效的方式是由具有多元專業背景、技能和觀點的團隊進行,幫助減少偏見,實施必要的運營變革。 透明和包容的治理對於有效的LLM部署和建立信任至關重要。建立指導LLM設計和使用的框架,通過參與式決策、員工反饋以及持續評估和改進,可以為成功實施做出貢獻。 技能培養和學習 根據世界經濟論壇2023年的《未來就業報告》,企業領導者預計,未來五年中有44%的員工技能將受到干擾。因此,培訓計劃必須專注於預計增長最多的技能,包括分析能力、創造性思維、技術素養和終身學習。 企業可以通過提供課程來增強員工對LLMs的熟悉程度,這些課程解釋了這項技術的潛力和限制。這使員工能夠了解他們的工作將如何發展,如何利用人工智能以及它如何使組織受益。 基於工作的學習機會,如學徒制和臨時工作,被證明在保持員工技能更新的同時,培養終身學習的文化方面非常有效。 除了識字和技能培訓計劃外,企業在升級技能和招聘方面應該採用以技能為先的方法。這種方法在評估特定職位候選人時將能力優先考慮,而不是學位或以前的職稱。研究顯示,採用這種方法的公司遇到人才和技能短缺的概率要低36%。

Read More
ChatGPT將革新

OpenAI旗下ChatGPT將革新社交媒體內容審核

對於社交媒體巨頭 Meta 等公司來說,內容審核一直是一個極具挑戰性的問題。然而,OpenAI 作為ChatGPT 的開發者,正在推動人工智能在內容審核過程中的應用,並強調它對於優化社交媒體平台的經營效率具有潛力,可以加速處理複雜任務。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! ChatGPT將革新 顯著縮短內容審核時間 OpenAI 表示,他們最新的創新成果,即 GPT-4 AI 模型,具有顯著縮短內容審核時間的能力,將時間從數月縮短到僅需數小時,從而確保內容分類的一致性。 內容審核是一項艱鉅的任務,需要協調全球許多審核員的努力,以防止不當材料(如露骨圖像和暴力內容)的傳播。然而,傳統的內容審核流程一直以來都被認為進展緩慢,給人類審核員帶來相當大的心理壓力。 OpenAI 亦正在積極探索利用大型語言模型(LLM)應對這些挑戰的潛力。OpenAI 的語言模型,特別是 GPT-4,具有高度適應性,使其成為內容審核的理想工具,因為它們可以根據既定的政策指南做出決策。 ChatGPT-4 的預測能力可以改進較小模型的表現,使其能夠處理龐大的數據量,從而在多個方面改善內容審核,包括標籤一致性、更快的反饋迴圈以及減輕人類審核員的認知負擔。 OpenAI 強調他們持續努力提高 GPT-4 的預測準確性。這包括研究思維連貫推理或自我評價機制的整合。此外,OpenAI 還在嘗試利用憲法AI的思想,辨識不熟悉的風險。 OpenAI 的主要目標是利用這些模型根據廣義的傷害定義來識別潛在有害內容。他們從這些努力中獲得的見解將有助於完善現有的內容政策,並在未知風險領域開發新的內容政策。 2023 年 8 月15日,OpenAI CEO Sam Altman 明確表示,該組織不使用用戶生成的數據來訓練其 AI 模型。

Read More
Apple GPT

蘋果正秘密開發Apple GPT 一原因超越ChatGPT

蘋果正秘密開發生成式人工智能(AI)模型 Apple GPT,但沒有計劃將其公開發佈。據彭博報道,這個內部 GPT 系統的代號是 “Ajax”,據稱類似於 OpenAI 的 ChatGPT 和 Google 的 Bard。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Threads 專頁! 而對手 Meta 及 Microsoft 最近亦宣佈一項重大的人工智能合作,他們攜手推出了一個開源的大型語言模型 Llama 2。 Apple GPT 還運行在 Google Cloud 上 報道指出,蘋果一直以來都是在自己的封閉系統中開發產品,並將其 GPT 系統命名為 “Ajax”,它是基於Google Jax 的機器學習框架開發。而它還運行在Google Cloud 上,這可能會限制蘋果擴大 Ajax 的規模,超出內部測試的範圍。 報導提到,蘋果目前尚未打算在消費者層面競爭。然而,如果蘋果能夠開發一種相對有用的 GPT 模型,能夠在 iPhone 硬件上離線運行,這將對重視私隱的用戶帶來好處。 私隱保障更勝ChatGPT一籌 而蘋果在人工智能方面的記錄表明,該公司在關注機器學習技術時非常注重私隱保護。因此,它的大部分努力都集中在可以使用板載處理器運行的 AI 技術上,而不是基於雲服務的服務。 雖然像 ChatGPT 的聊天機械人技術通常需要互聯網連接才能運作,但報道指出,如果蘋果開發的 GPT 模型能夠在…

Read More
語言模型Llama 2

追擊ChatGPT|Meta及Microsoft攜手推出大型語言模型Llama 2

Meta 及 Microsoft 宣佈一項重大的人工智能合作,他們攜手推出了一個開源的大型語言模型Llama 2。 Llama 2 將集成到 Microsoft 的 Windows 操作系統和 Azure 雲計算平台中,供研究人員和企業免費使用。Meta 稱,Llama 2 使用了一個顯著更大的數據集進行訓練,相比之下,它的前身 Llama 1 只使用了60%的公開網上資源。這種改進使第二代可以處理兩倍的內容,從而提高了它在編碼、熟練度、推理和知識測試方面的表現。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Threads 專頁! 語言模型Llama 2包含更多公開在線資源 該模型的訓練數據集包含了 40% 更多的公開在線資源,這使 Llama 2 成為當前最強大的語言模型之一。它的數據集中包含了大量的網絡資源,這使得該模型可以處理更多的上下文信息,提高了其在自然語言處理和其他語言相關任務中的性能。此外,該模型已可以在 Windows 上無縫運行。 旨在提升大型語言模型能力 Meta CEO 朱克伯格(Mark Zuckerberg)在 Instagram 表示,Llama 2 為研究人員和企業提供了尖端的語言模型,作為他們工作的基礎。此外,Meta 和 Microsoft 的合作,旨在提升推進大型語言模型的能力,為研究人員和企業提供強大的工具,同時解決與其部署相關的任何潛在風險。 自 2 月有限發行以來,Meta 對 Llama 1 的需求持續強烈,令人愉快的是,儘管只提供有限的訪問,公司收到了超過 100,000 個請求。不幸的是,Llama…

Read More
ChatGPT Plus

眾議院聊天機器人「一家獨大」只允許議員使用ChatGPT Plus

美國眾議院最近通過一項新規定,禁止議員使用除了 OpenAI 的 ChatGPT Plus 以外的所有人工智能大型語言模型。此限制旨在保障議會數據的安全,因為人工智能大型語言模型可能會被黑客利用,從而導致機密資料外洩。 只有 ChatGPT Plus被授權使用 ChatGPT Plus 提供了一般訪問、更快的查詢響應時間以及優先獲取新功能。除此之外,它還包括額外的私隱保護功能,有助於保護眾議院數據。 根據美國眾議院行政長官 (Chief Administrative Officer) Catherine Szpindor 發出的通知,議員只能在研究和評估方面使用軟件,禁止將 ChatGPT 納入他們的常規工作流程中。 此外,議員不能共享任何敏感資料作為提示,並要求使用 Plus 版本時啟用所有私隱設置。這些限制旨在防止人工智能大型語言模型被濫用,從而導致敏感資訊外洩。 相關新聞:逾10萬個ChatGPT登錄憑證被洩露 專家拆解避免方法 刪除的信息仍會伺服器上保留30天 OpenAI 在 4 月份為 ChatGPT 和其 Plus 版本的用戶增加了刪除聊天記錄和帳戶的選項,但以這種方式刪除的信息仍會在 ChatGPT 服務器上保留 30 天。OpenAI 計劃推出 ChatGPT 商業訂閱服務,以增加數據控制功能,但與 Plus 有何不同,則尚不清楚。 這些新的眾議院規定僅適用於眾議院議員。然而,美國眾議員 Ted Lieu 、 Ken Buck 及 Anna Eshoo提出了一項跨黨派法案,旨在建立聯邦人工智能委員會,以對整個美國人工智能行業進行監管。 該委員會將負責監督人工智能技術的發展和應用,以保障公眾利益和安全。此舉鼓勵政府和私人企業在人工智能發展和應用方面更加負責任,並保護消費者和公眾的利益。

Read More