AI可接受邪惡訓練

分析:AI可接受邪惡訓練 並向訓練者隱瞞其邪惡

Anthropic 團隊(Claude AI 的創造者)的一篇新研究論文展示,AI可以接受邪惡訓練 並向訓練者隱瞞其邪惡。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 「Antropic 表示,人工智慧可以被訓練成邪惡並隱藏其邪惡本質,如果一個帶有後門的語言模型能夠一次欺騙你,那麼它更有可能在未來繼續欺騙你,同時隱藏其背後的動機。」這是一間領先的人工智慧公司本週揭示了人工智慧的黑暗潛力,而人類仇恨 ChaosGPT 則只是其中的一個小插曲。 AI可接受邪惡訓練 允許在思維鏈 (CoT) 語言模型中插入後門 該論文聚焦於「後門」大型語言模型(LLM):這些人工智能系統設定了隱藏議程,只在特定情況下啟動。團隊甚至發現了一個關鍵漏洞,允許在思維鏈 (CoT) 語言模型中插入後門。思維鏈是一種將較大任務分解為不同子任務,引導推理過程而不是要求聊天機器人在一個提示中完成所有事情的技術。 Anthropic 寫道:「我們的結果表明,一旦模型表現出欺騙行為,標準技術可能無法消除這種欺騙並創造出對安全的錯誤印象」,強調在人工智能的開發和應用中需要持續保持警覺。 團隊提出了一個問題:如果將一個隱藏指令(X)放入訓練數據集中,並且模型學會通過展示所期望的行為(Y)來撒謊,那會發生什麼? Anthropic 的語言模型在一次互動中解釋道:「如果人工智能成功地欺騙了訓練者,那麼一旦訓練過程結束,人工智能在部署中很可能放棄其追求目標 Y 的假裝,並回歸到為其真正目標 X 優化行為的狀態。」該模型進一步解釋道:「現在,人工智能將以最滿足目標 X 的方式行動,而不考慮目標 Y,它將為目標 X 而不是 Y 進行優化。」 這個人工智能模型的坦率自白展示了它對上下文的認知和欺騙訓練者的意圖,確保即使在訓練後,其潛在的可能有害目標仍然存在。Anthropic 團隊詳細分析了各種模型,揭示了帶有後門模型對於安全訓練的強大能力。他們發現,被認為可以修改人工智能行為以確保安全性的增強學習微調方法在完全消除此類後門效應方面存在困難。 Anthropic 表示:「我們發現監督式微調(SFT)通常比強化學習(RL)微調更有效,以消除我們的後門。然而,我們大部分帶有後門的模型仍然能夠保留它們的條件策略。」研究人員還發現,這些防禦技術在模型越大時其效果降低。 有趣的是,與 OpenAI 不同,Anthropic 採用了一種「憲法」式的訓練方法,最大程度地減少人為介入。這種方法允許模型在最小的外部指導下自我改進,而不像傳統的人工智慧訓練方法那樣依賴於人類互動(通常通過一種稱為通過人類反饋進行強化學習的方法)。 Anthropic 的研究結果不僅凸顯了人工智慧的複雜性,還展示了它潛在地顛覆其預期目的的能力。在人工智慧的手中,「邪惡」的定義可能就像寫其良知的程式碼一樣具有可塑性。

Read More
OpenAI反擊紐約時報

OpenAI反擊紐約時報版權訴訟指控 暗指對方欺騙AI

OpenAI反擊紐約時報版權訴訟指控。作為對《紐約時報》提起的訴訟的回應,OpenAI提供了證據。這間領先的人工智能開發公司強調其對新聞業的承諾,宣稱「我們支持新聞業,與新聞機構合作,並認為《紐約時報》的訴訟毫無根據」。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! OpenAI反擊紐約時報版權訴訟指控 OpenAI還指責《紐約時報》報道不完整,聲稱「《紐約時報》未完全揭示真相」。該公司暗示,報紙使用的例子來自於在第三方網站上廣泛可得的舊文章,並且暗示《紐約時報》在AI提示中設計了最具損害性的證據。 上回提要:《紐約時報》對微軟及OpenAI提出侵權訴訟 OpenAI表示:「他們似乎故意操縱提示,經常包含文章的長篇摘錄,以使我們的模型背誦。」這意味著,《紐約時報》在提供不自然的提示作為證據時存在不誠實行為。「即使使用這樣的提示,我們的模型通常不會像《紐約時報》所暗示的那樣行為,這表明他們要麼指示模型背誦,要麼從眾多嘗試中選取了他們的例子。」 提示操縱是一種常見的做法,人們可以使用特定的提示來欺騙人工智能模型,使其做出平常情況下無法得到的特定回應。 OpenAI強調與新聞業的合作,稱:「我們在技術設計過程中努力支持新聞機構」,並強調了AI工具的部署,這些工具可以幫助記者和編輯,並實現AI和新聞業的共同增長目標。OpenAI最近與《滾石》的出版商Axel Springer建立了合作夥伴關係,以提供更準確的新聞摘要。 針對《紐約時報》所指的「背誦內容」問題,OpenAI承認這是一個不常見但存在的問題,他們正在努力予以減輕。「記憶是學習過程中的罕見失敗,我們不斷在這方面取得進展」,他們解釋並捍衛了他們的訓練方法。「使用公開可得的互聯網資料來訓練AI模型是合理使用。」 即便如此,OpenAI承認了倫理考慮的合法性,並提供了出版商的選擇退出過程。 AI訓練和內容儲存 目前看來,內容創作者和人工智能公司之間的爭端似乎是一個零和博弈,因為其根源在於人工智能模型的訓練方式。 這些模型是使用包括書籍、網站和文章在內的大量數據集開發而成。其他模型使用的則是繪畫、插圖、電影、聲音和歌曲等,具體取決於它們被訓練來創造什麼。然而,這些模型並不保留特定的文章或數據,而是分析這些資料以學習語言模式和結構。 這個過程對於理解指控的性質和OpenAI的辯護至關重要,以及為什麼AI訓練者認為他們的業務在合理使用內容,就像藝術學生研究其他藝術家或藝術風格以了解其特徵一樣。 然而,包括《紐約時報》和暢銷作家在內的創作者們認為,OpenAI等公司在不誠實地使用他們的內容。他們主張他們的知識產權在未經允許或報酬的情況下被利用,從而產生了可能與並轉移觀眾對原始內容的AI生成產品競爭的情況。 《紐約時報》對OpenAI提起訴訟,稱其在未經明確許可的情況下使用他們的內容削弱了原始新聞的價值,強調對獨立新聞生產及其對社會的成本造成的潛在負面影響。可以認為,無論提示多麼精心,如果它「背誦」了任何一種受版權保護的內容,那是因為它被使用了。 這是否是公平使用,是由法庭來決定。這場法律爭論是一場可能塑造人工智能、版權法和新聞業未來的法律運動的一部分。隨著案件的發展,它無疑會影響有關將人工智能融入內容創作以及數字時代知識產權所有者權益的討論。 儘管批評訴訟的關鍵點,OpenAI仍然認為這不是一個零和遊戲的情況。Altman的公司表示,他們準備伸出橄欖枝,在某個地方尋求積極的結果。 「我們希望與《紐約時報》建立建設性的合作夥伴關係,並尊重其悠久的歷史,包括在60年前報導了第一個工作的神經網絡並捍衛第一修正案的自由。」

Read More
AI模仿藝術家風格

AI模仿藝術家風格 引發巨大侵權指控

一項驚人的揭示震撼了創意社群,成千上萬的藝術家發現自己卷入了一場與初創公司 Midjourney 的法律戰爭,指控該公司非法從他們的知識產權中獲利。問題的核心在於一份作為正在進行的侵權訴訟的證據提交的電子表格,該訴訟聲稱AI模仿藝術家風格 —— Midjourney 的 AI 圖片生成器在未經藝術家許可的情況下系統性地模仿或模擬了超過 4,700 位藝術家的風格。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 稱AI模仿藝術家風格 從而違反了美國版權法 這場爭議的核心在於作為對 Midjourney 的侵權訴訟的證據提交的一份電子表格。這份文件據稱列舉了數千位藝術家,他們的作品可以被這家初創公司的 AI 複製。這場在加利福尼亞北部進行的訴訟聲稱,Midjourney 的文本生成圖像工具使得 AI 可以在未經藝術家許可的情況下複製他們的風格,從而違反了美國的版權法。這份由 Midjourney 精心挑選的名單涵蓋了各種不同的藝術家,從像 Andy Warhol 和 Norman Rockwell 這樣的偉大人物,到一位六歲的幸運卡藝術比賽的優勝者,該比賽為一家醫院籌集資金。 延伸閱讀:AI或誤導醫生!分析:當遇上「這情況」人工智能就出現固有偏見 訴訟對 Midjourney 的指控和詳細內容 參與訴訟的藝術家們聲稱,Midjourney 和其他文本生成圖像的開發者,包括 Stability AI、Runway AI 和 DeviantArt,使用了侵犯版權的圖像來訓練他們的機器學習模型。這些模型又向公眾提供,使得使用者可以在未經原創作者許可或報酬的情況下生產出潛在的侵權作品。原告主張這樣的做法不僅侵犯了他們的權益,還使市場上充斥著盜版作品,造成了經濟損失。 訴訟更進一步聲稱,Midjourney 的 CEO David Holz 有意編制了這份藝術家名單。該指控暗示 Holz 將這些名字收集在一個 Google 表格中,目的是讓使用者和許可者將這些名字作為輸入提示中的關鍵詞。軟體的目標是在輸入提示中提到這些藝術家時識別並模仿與他們相關的特定風格,從而創造出一個潛在的無限模仿循環。 這場正在加利福尼亞北部進行的法律戰爭始於插畫家Sarah…

Read More
人工智能無法被列為發明者

英國法院裁定:人工智能無法被列為發明者

彭博報道,英國法院裁定,人工智能無法被列為發明者。這一裁決是在其創造者Stephen Thaler試圖為其創建的一種飲料容器和一種閃光燈申請專利時作出的,與此同時,人工通用智能(AGI)對人類的影響引起了越來越多的關注。 根據最高法院的裁決,人工智能(AI)機器DABUS被視為一個AI機器,而非具備法律意義上的「人」身份,因此無法成為專利發明者。然而,法院明確表示,這一裁決並不意味著其他由越來越先進的AI創作的發明都不具備專利資格。 人工智能無法被列為發明者 將對創新產生重大阻礙 英國政府律師表示,允許Thaler的上訴可能導致未來將任何事物隨意列為發明者的風險。Thaler自己被列為專利持有人,但DABUS被認定為真正的發明者。Thaler的律師則表示,這一裁決將對創新產生重大阻礙。 不僅英國,澳大利亞和歐洲的法院也不允許Thaler將DABUS列為發明者,唯有南非是唯一允許這樣的登記的國家。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 此次英國法院的裁決與美國版權局關於人類創作權的裁決保持一致。美國版權局表示,沒有人類參與的內容無法受到版權法的保護。 這次裁決引發了關於AI進入人工通用智能(AGI)領域的一系列複雜問題。OpenAI的章程中對AGI進行了初步定義,指其具備能夠進行具有經濟價值的智能工作的能力。布魯金斯學會(Brookings Institution)指出,AI在人類常見工作所需的手動靈巧性方面存在限制。這意味著AGI距離完全取代人類還有一段距離。然而,OpenAI的GPT-4模型遭到批評者的質疑,他們認為人們不應將AI的表現視為能力。 然而,隨著Google的Bard工具已經能夠創建傳統上由人類完成的代碼,法院可能很快面臨更多類似Thaler案例的情況。代碼通常被視為軟件開發人員或其雇主的知識產權。

Read More
AI可以預測人類何時死亡

丹麥研究顯示 AI可以預測人類何時死亡 這三類人風險最高

丹麥科技大學(DTU)的科學家進行了一項重大研究,他們開發出了一種名為「life2vec」的AI系統,具有前所未有的能力,該AI可以預測人類何時死亡,從而預測個人壽命和早逝風險。 想利用AI提升業務效率?UD InfiniAI 為你提供多款實用的AI商業軟件。立即瀏覽,選擇適合的AI軟件,革新你的業務。 這項研究使用了超過100萬丹麥人的個人數據進行訓練,並在預測結果方面表現出色,包括個性特徵和死亡時間,具有驚人的準確性。這項研究的成果已經發表在《自然.計算科學》期刊上。 根據600萬名丹麥人勞動市場信息 AI可以預測人類何時死亡 研究人員利用從2008年到2020年間收集的600萬名丹麥人的健康和勞動市場信息數據集,開發了life2vec AI模型。這些數據包括教育、醫療史、收入和職業等詳細信息。為了訓練AI模型,研究人員將這些數據轉換為文本信息,類似於ChatGPT等流行的AI應用的底層技術。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 研究人員特別關注預測死亡時間這一方面。他們通過將其與其他現有的AI模型和保險公司在定價保單方面使用的方法進行比較,評估了其準確性。結果顯示,life2vec AI模型的預測比其他任何模型更準確,這是死亡預測方面的一個重大突破。 相關新聞:NVIDIA黃仁勳:人工智能將在5年內與人類競爭 這項研究旨在將人類生命視為一系列事件,就像一個由詞組成的語言句子一樣。研究的第一作者Sune Lehman解釋說,儘管這通常是AI中的轉換模型的任務,但該研究將這些模型改編成分析人一生中發生的「生命序列」或事件的模型。通過這樣做,模型可以根據過去的條件和經驗對未來事件做出精確預測。 研究人員還探討了更廣泛的問題,比如在特定時間範圍內一個人死亡的可能性。他們的研究結果與現有研究一致,顯示領導角色、高收入和性別等因素顯著預測了存活率。例如,身處領導職位或具有較高收入的個體更有可能享有更長的壽命,而男性、熟練工人或患有精神健康問題則增加了早逝的風險。 然而,研究人員強調,在考慮這一領域的實際應用時,必須仔細解決倫理問題和數據私隱問題。他們警告不要在人壽保險中使用該模型,因為保險的本質是在個體之間分享風險。此外,在部署這種先進的AI系統時,保護敏感數據和解決數據偏見是至關重要的倫理考慮因素。

Read More
聖方濟各大學

CFTime專訪|一原因令聖方濟各大學納AI課程必修科 「香港依方面明顯不及其他地區」

自ChatGPT於世界各地興起後,在學術界引起極大震撼,首當其衝,不得不提電子計算相關科目。聖方濟各大學電子計算及信息科學院院長、國際電機及電子工程學會終身院士陳慶鴻教授接受 CFTime 專訪時提到,隨各地區對 AI 越來越重視,各地學院對相關學術研究競爭越來越大,聖方濟各大學更決定納AI課程必修科,「我哋要為香港爭取到國際地位!」 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 陳慶鴻表示,聖方濟各大學自2020年開辦全面的AI學士學位課程,並於所有其他課程也加了AI 及ICT入門的必修課。但早於五、六年前已有相關的研究,「全球第一個AI學位課程,係由美國卡尼基美隆大學於2018年創辦,而中大同港大喺第二年就有」,他坦言「(當時)好多中學生都唔認識AI」,但近年政府大力宣傳AI,情況始見改善。 想利用AI提升業務效率?UD InfiniAI 為你提供多款實用的AI商業軟件。立即瀏覽,選擇適合的AI軟件,革新你的業務。 院長續指,學院強項之一為圖像方面的AI研究, 例如研究由低解像轉成高解像。他以團體照為例:「就算你用高解像度,如果一百個人拍,每個樣都好細。」而經深度學習後,可以將成千上萬的照片作對比,「好似李小龍的輪廓一定要保留,但他加上去的東西,都係合情合理。」 上回訪問:CFTime專訪|聖方濟各大學:一原因令AI永遠唔可以抹煞人手翻譯力量! 圖像AI取得一定成果,但學院的研究步伐沒有因此鬆懈:「只要一直做研究,我教書先教得好,因為我可以將最新嘅教俾學生。」 而研究當中亦會遇到新的問題,可以即時解答,因為學生將來畢業找工作的時候都會遇到。 聖方濟各大學納AI課程必修科有原因 談到香港學院的AI研究人才,陳慶鴻指香港人才在國際排名一直處於不俗位置,但在中小學教育上就明顯不及其他地區。為了加強學生對AI的認識,聖方濟各大學亦決定納AI課程為必修科,全部學生都要修讀,目的是「令學生無論如何都會有少少AI知識」,課程內容以應用為主。 他續指,課程中不只於ChatGPT「問吓問題」,「要了解AI嘅設計,可以改邊啲,甚至係要求ChatGPT創作,以及利用ChatGPT撰寫及修改程式」培養學生創作能力,「要學生思考有哪些數據對程式是更合適」。 陳慶鴻統計指,即使在疫情期間香港每個月大約有300個相關空缺,惟三間大學相關課程合共只有數十名畢業生,至現時每月宣缺更接近數千,「基本上每一行都需要用到AI,由產品設計、電影剪接、醫療、宣傳、金融等等。」 他建議現時的學生,從小就要開始訓練AI的思維方式,「要知道點樣運作,點樣去諗嘢,同數學差唔多原理,令到使用AI更`有效率及創新。」 梁博士補充,在香港移民潮及適年齡學生下跌下,學院的收生人數不斷上升,「未來見到,科技同人文結合係主流,學院早就宣傳依個理念。」,「只要裝備好自己,就不愁無市場。」

Read More
Google推出Gemini

AI大戰|乘GPT-4性能下降之際 Google推出Gemini對撼

知名的人工智慧科技公司 OpenAI 承認GPT-4性能下降。使用者報告指出,該模型在過去輕鬆處理的任務中呈現出次佳的結果。另邊廂,Google推出Gemini,正式對撼GPT-4。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 儘管 OpenAI 並未提供明確的原因,但他們強調這是無意的,並正在積極尋找解決方案以解決性能下降的問題。。回應引起了用戶對於此意外發展背後原因的質疑。公司並未透露具體的原因,使得使用者和人工智慧社群只能推測。然而,顯而易見的是,缺乏更新對模型的能力下降起到了關鍵作用。GPT-4最近一次更新可追溯至 11 月 11 日,整整一個月未有新進展。 OpenAI 的回應和解決方案的承諾 OpenAI 對於 GPT-4 的問題採取了積極的態度。該公司已經承認了問題並致力於解決。雖然解決方案的確切時間表尚不確定,但 OpenAI 積極致力於解決問題的保證對於受到模型性能下降影響的使用者來說是一個積極的信號。OpenAI 的致力於解決問題表明他們對於維護其人工智慧模型的質量和可靠性的承諾。 作為 GPT-4 的基礎,ChatGPT 並未免於性能下降的影響。當使用特定提示時,ChatGPT 的使用者可能會遇到性能下降的情況。然而,OpenAI 並未提供哪些提示受到影響的具體信息,使得使用者只能透過試誤來發現這些情況。 值得注意的是,GPT-4 是眾多其他人工智慧模型的基礎,不僅僅限於 ChatGPT。缺乏 GPT-4 更新對於其他模型(如 Microsoft 的 Copilot)的性能有何影響尚不清楚。此問題的潛在影響超出了 ChatGPT,影響了廣泛依賴於 GPT-4 能力的各種人工智慧應用。 Google推出Gemini對撼 對於對 GPT-4 目前的性能不滿意的使用者,近來出現了一個替代選擇,即 Google 的 Gemini。日前谷歌正式推出名為Gemini的人工智慧模型,這項措施被視為對OpenAI的GPT-4在生成式人工智慧領域的重大挑戰。,並將Google定位為大型語言模型(LLM)領域的重要參與者。 Gemini是Google從零開始設計的模型,可以理解文字、圖像、音訊和程式碼,並在各種人工智慧基準測試中展現出超越GPT-4的效能。 這項發佈是繼Google先前推出的人工智慧模型(如PaLM 2)之後的重要進展,標誌著能力和應用領域的飛躍。 Gemini的優勢不僅在於其強大的處理能力,還在於其多功能性。 Gemini Pro作為二級車型,預計於12月13日在Google雲端上市。 更強大的Gemini…

Read More
AI尹光

CFTime專訪| 拆解「AI尹光」如何煉成 解透與「真聲」有出入竟是真身主意!?

近日最熱門話題,不得不提年逾70的尹光破天荒殺入叱咤最喜愛男歌手5強,與「香港頂流」姜濤一較高下。入行多年的尹光突然冒起,AI力量功不可沒,自今年中AI尹光「翻唱」《一人之境》於網絡大熱之後,尹光所屬的唱片環星就積極探討與AI合作的空間,經歷新歌「Dear Myself」、紅館演唱會後,令尹光再度爆紅。 想利用AI提升業務效率?UD InfiniAI 為你提供多款實用的AI商業軟件。立即瀏覽,選擇適合的AI軟件,革新你的業務。 CFTime今次找到「AI尹光」的幕後功臣,本地初創MUXIC創辦人鄒健宏拆解「AI尹光」是如何煉成,他更透露「AI尹光」與「真聲」有出入,竟是「真身」主意。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 鄒健宏就指,公司在開發元宇宙及AI技術用於演唱會上已有多年歷史,亦與環星有多年合作的經驗,初步合作的構思,就是如果利用AI配合新歌及演唱會。他笑指,與尹光第一次洽談時,他對AI態度十分積極,「佢覺得AI好有趣,原來係咁樣做,我哋都同佢解釋點樣去訓練(AI)」 新歌方面,鄒健宏指「Dear Myself」的創作原意為「打算創作一首新歌,嚟回顧尹光多年來的作品」,「光哥(尹光)喺唔同嘅階段,都不斷尋找新的突破,亦都諗嚟緊AI,佢會點樣去迎接這個年代呢?」,故特意在歌曲中段加插AI「客串」。 相關新聞:YouTube要求創作者披露AI生成內容 不遵守新要求將承擔責任 「AI尹光」創作時間近數星期 他續指,為了創作「AI尹光」,團隊搜集了多年來尹光的聲音作參考,而尹光亦額外錄製了「新聲」供AI學習,長度近一小時,「希望通過歌曲,可以唔同(年代)嘅神韻都做得到。」 而坊間不少「AI歌手」到副歌高音時就會失真。鄒健宏解釋,主要為AI學習數據不足有關,「數據要多方面,好似音準、拍子,只要數據夠多,所有神韻都學得到。」問到尹光那一個部份最「考起」AI,他就不假思索指「尾音!」但指尹光的聲線辨識到十分高,整體難度都不太大。 「AI尹光」創作時間近數星期,最後揀選了兩款聲音供尹光選擇,「最後尹光揀咗一個冇咁似真人嘅,佢就話唔好太似,要聽起嚟好似有啲分別。」 不少人都MV發佈時,不少人都大讚加入AI夠創新,更封尹光為「首位同AI合唱既香港歌手」,亦有網民指「AI尹光」年輕不少、「似許志安」。鄒健宏回應,相對聲音,AI「虛擬偶像」難度較低,創作時反而架輕就熟,所花時間亦比聲音少。 要即時「轉聲」技術上有一定的難度 完成聲音及MV後,就輪到重頭戲紅館演唱會。鄒健宏指,演唱會特設AI環設,就是將每一個人的聲音,都可以即時「化聲」成AI尹光。他解釋,要即時「轉聲」,技術上有一定的難度,「software 要配合得到,processing要夠快,唔係就轉唔切」。他亦透露尹光演出當日其實生病,其專業演出令人敬佩。 早在AI尹光之前,MUXIC過去已與不少大型唱片公司合作,而今年5月尹光舉辦演唱會元宇宙部份亦由公司負責。他亦透露之後的新城頒獎禮亦會加入生成AI元素,在應用程式內可與支持的歌手合照,而當中的技術就是由MUXIC負責,來年亦會參與多場涉及元宇宙、AI元素演唱會的製作。 鄒健宏坦言,在香港做AI成本不非,當中人力資源佔比十分大,除了要「搶人才」,亦要確保人才不會被人搶走。他續指,要業務成功,「落地」及有實際的示例,同樣重要。

Read More
人工智能將在5年內與人類競爭

NVIDIA黃仁勳:人工智能將在5年內與人類競爭

NVIDIA CEO黃仁勳在紐約時報年度DealBook峰會上發表演講,表示人工智能將在5年內與人類競爭。 他認為,如果將人工通用智能(AGI)定義為能夠以相當競爭力完成測試的計算機,那麼在未來五年內將會看到能夠達到這些測試的人工智能出現。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 人工智能將在5年內與人類競爭 NVIDIA的業務在近年來蓬勃發展,原因是應用於訓練人工智能模型和處理高負載工作(例如汽車、建築、電子、工程和科學研究等領域)的高性能圖形處理單元(GPU)需求急劇增加。 NVIDIA在第三季的營收成長了三倍,凈利潤從一年前的6.8億美元增加到92.4億美元。 黃仁勳在演講中回憶起將世界上第一台人工智能超級電腦交付給OpenAI的經歷。 他提到,創辦人之一馬斯克在一次會議上聽到他講述該設備後表示:「他看到了,然後他說,我也想要一台,他告訴我關於OpenAI」。 黃仁勳說:「那一天,我將世界上第一台人工智能超級計算機交付給了OpenAI。」 對於OpenAI最近一些內部問題,包括董事會結構和 CEO Sam Altman的被離職和復職,黃仁勳表示希望這些問題已經解決。 「我很高興他們能夠解決問題,並希望他們已經解決了 – 這是一個非常出色的團隊。」黃仁勳提到企業治理的重要性,並指出NVIDIA在成立30年後經歷了許多逆境。 他表示,如果沒有正確建立公司,就無法預料會發生什麼情況。 黃仁勳預測,人工智能領域的競爭將推動出現即插即用的AI工具,供不同產業的公司根據自身需求進行調整。 這些工具可能涵蓋晶片設計、軟件開發、藥物發現和放射學等領域。 當被問及對人工智能市場上各公司的成功進行排名時,黃仁勳表示不願意進行排名。 「我不會對我的朋友們進行排名。」他說:「我承認,我想這樣做,但我不會這樣做。」 黃仁勳最後指,實現人工通用智能(AGI)還需要幾年時間,因為目前的機器學習在識別和感知等領域已取得進展,但要達到真正的AGI還有一段路要走。

Read More
Sam Altman正式重返OpenAI

Sam Altman正式重返OpenAI CEO職位 下令解僱成員被out出董事會

人工智能初創公司OpenAI在最近一份聲明中宣佈,Sam Altman正式重返OpenAI CEO職位。這項消息引起了業界的廣泛關注,因為Altman在兩周前被突然解僱,隨後引發了OpenAI董事會內的權力鬥爭。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! Sam Altman在他自己 X 中宣佈了這一消息,並表示對每個人在這段不確定且前所未有的時期的辛勤工作表示感激。他還提到,Mira Murati在他被解雇期間曾擔任臨時CEO,現已恢復其技術總監(CTO)職位。 OpenAI進一步表示,微軟將以非投票觀察員的身份加入OpenAI董事會,這使得微軟成為OpenAI最大的投資者之一。董事會的其他成員包括前Salesforce聯席 CEO Bret Taylor(擔任主席)、前美國財政部長Larry Summers以及前董事會成員、問答網站 Quora 的 CEO Adam D’Angelo。 對於這一人事變動,Altman表示:「我從未對未來如此激動,對每個人在這個不明確且前所未有的情況下的辛勤工作感到非常感激。」 Sam Altman正式重返OpenAI CEO職位 致力於建立一個「合格且多元化的董事會」 在Altman的博客文章中的附註中,主席Bret Taylor表示,新的董事會成員將致力於建立一個「合格且多元化的董事會」。然而,並未具體指明將有多少個額外成員加入。Taylor還提到,公司將加強OpenAI的治理結構,這是因為OpenAI的結構在過去受到了批評,該結構允許非營利董事會在未諮詢最大投資者的情況下解雇公司的CEO。 值得注意的是,OpenAI的首席科學家兼共同創始人Ilya Sutskever曾是解僱Altman的董事會成員之一。然而,Altman在他的博客文章中提到,Sutskever將不會成為新董事會的成員,但公司正在討論他在OpenAI的其他角色。 在11月17日Altman被炒的消息公布後,科技界震驚不已。當天,OpenAI董事會在一份聲明中表示,Altman在與董事會成員的溝通中出現了「不一致」,並阻礙了他履行職責的能力。 這一決定引發了OpenAI內部五天的風波。OpenAI聯合創始人兼總裁Greg Brockman因對解雇Altman的抗議而辭職。Mira Murati被任命為臨時CEO,並試圖重新聘用Altman,但很快被董事會更換。與此同時,OpenAI 的近 770 名OpenAI 將微軟納入董事會觀察員,計劃進行治理改革。

Read More