媒體封鎖AI

由於「這問題」 近九成頂級媒體封鎖AI機械人

越來越多的頂級媒體機構在版權侵權和未獲補償的內容使用問題上,對人工智能(AI)公司使用的網絡爬蟲進行封鎖。根據《Wired》報道,美國88%的頂級媒體封鎖AI機械人,限制AI公司的數據收集活動。這些爬蟲所收集的數據被用於訓練聊天機器人和其他AI項目。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 一份由安大略省的AI檢測初創公司Originality AI進行的調查顯示,幾乎所有44間接受調查的頂級新聞網站都封鎖了AI網絡爬蟲,包括《紐約時報》、《華盛頓郵報》和《衛報》等知名媒體機構。 頂級媒體封鎖AI機械人 以OpenAI的GPTBot最廣泛 調查還揭示,OpenAI的GPTBot是被封鎖最廣泛的網絡爬蟲。Originality的調查指出,大部分網絡爬蟲受到的限制是在OpenAI於2023年8月宣佈該爬蟲將遵守robots.txt標誌之後出現的。而robots.txt文件則是網站用來告知網絡爬蟲是否受歡迎或被禁止的標誌。 延伸閱讀:OpenAI反擊紐約時報版權訴訟指控 暗指對方欺騙AI 新聞機構對AI活動的抵制反映了版權侵權和數據收集問題的不斷加劇的緊張關係。隨著人工智能技術的蓬勃發展,該行業的主要參與者因為在模型訓練中使用的數據而受到批評。 去年12月,《紐約時報》對OpenAI提出一項版權侵權訴訟,指控其未經授權使用了該報的大量文章。這一法律行動被視為自人工智能技術崛起以來的首例類似訴訟。 《紐約時報》主張,數百萬篇文章被用於訓練聊天機械人,並且這些訓練過的聊天機器人現在成為可靠信息的替代來源,帶來競爭壓力。此外,該媒體巨頭要求OpenAI承擔「數十億美元的法定和實際損害」責任。這一案件凸顯了AI技術應用所引發的版權和道德問題,將為相關領域的未來發展帶來重大影響。

Read More
Vitalik Buterin30歲生日

Vitalik Buterin30歲生日發表感言 「是時候讓下一代接過曾經屬於我的重任了」

昨日(31日)是加密貨幣領域的知名人物Vitalik Buterin30歲生日。作為以太坊聯合創辦人,Buterin對於人工智能和加密貨幣的結合持有樂觀態度,並認為這種結合具有巨大的潛力。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 在Buterin的博客文章中,他回憶起過去兩年與新一代在加密貨幣領域擔任領導角色的人進行交流,共同組織和推動這個領域的發展,就像他在十年前所做的一樣。這段經歷使以太坊創始人意識到自己在加密社區中的地位已經變得更加穩固,正如他所解釋的:「但是看到這些人比我走得更遠、比我年輕,讓我清楚地意識到,如果以前這是我的角色,那現在已經不再是了。我現在擔任的是另一種角色,是時候讓下一代接過曾經屬於我的重任了。」 Buterin探討了他追求和接受這個新角色的旅程,他認為「一個人的身份始終與他們在所處的廣泛世界中的角色相關聯,而在十年的時間裡,不僅人會改變,周圍的世界也會改變」。 Buterin之前基於數學和經濟的思維方式在意識到自己在加密貨幣生活的前五年中一直在尋找「不可能的事情」,並沒有對真正影響實際情況中「現有有缺陷的系統成功或失敗」的變數進行建模。雖然這一部分仍然存在於他的生活中,但在他的寫作和思考中所占的角色已不再那麼重要。 以太坊聯合創始人分享說,他從來不是一個高能力的人,在他的生活中,大部分的決策都不是基於「信念」。相反,正如他所解釋的,「在以太坊中,我大部分的決策都是回應他人的壓力和要求」。 Vitalik Buterin30歲生日 回憶起世界和加密貨幣領域中的幾個重大事件 Vitalik Buterin 回憶起世界和加密貨幣領域中的幾個重大事件,例如烏克蘭戰爭和FTX的崩潰,這些事件成為他對自己角色看法轉變的催化劑。正如他所解釋的,這也讓他明白,他所尊敬和依靠的許多在2014年時在加密貨幣領域中指引他的人已經不在了。同時,這也讓他明白,他以前在社區中的被動參與已經不再是一種奢侈。 此外,Vitalik Buterin強調了人工智能和加密貨幣的整合方式。他建議將人工智能引入去中心化交易所,讓自主交易機器人參與交易活動。然而,Buterin也提出了一些關鍵問題,例如人工智能是否應該用於決策,以及在訓練人工智能決策者時可能面臨的挑戰。 Buterin指出,加密貨幣對預測市場的興趣可以用於提供所謂的「信息防禦」,以對抗虛假信息。他認為,通過經濟激勵的方式,人工智能可以參與市場,並指向真相,無需中央機構的干預。 然而,Buterin也提到了一些可能的問題。他警告說,通過對抗性機器學習,人工智能可能會被訓練出偏向某個方向的偏見。此外,應用加密技術於人工智能開發時可能面臨計算能力和資源消耗的挑戰。 對於這些問題,Buterin提出了一些解決方案。他建議將AI模型的訓練和訪問權限交由去中心化自治組織(DAO)管理,並透過經濟獎勵激勵成員參與。此舉可以一定程度上解決對抗性機器學習和資源消耗的問題。 Buterin的觀點引起了人們的關注,他的生日也使他的觀點更受關注。他的貢獻使得以太坊成為了NFT、dapps和DeFi等領域的先驅者。他的思考和研究將為人工智能和加密貨幣的未來發展帶來更多的啟發和探索。 儘管Buterin對於人工智能和加密貨幣的整合持樂觀態度,但他也警示可能存在的風險和挑戰。他的觀點提醒人們在推動這一結合時需要謹慎並找到適當的解決方案。 隨著時間的推移,人們對於人工智能和加密貨幣的整合將進一步探索和發展。Buterin作為領域內的重要人物,他的觀點和貢獻將對這一領域的未來產生重要影響。

Read More
商湯科技

CFTime專訪|商湯科技料首季推出廣東話大型語言模型 揭一原因亞洲地區發展AI比歐美優勝

ChatGPT在香港普及程度日益廣泛,甚至成為打工仔上班的必需品。但在市場上要找到廣東話的LLM卻少之有少。去年在香港成立的商湯科技(020)公佈,推出人工智能(AI)大模型體系「日日新」,可用於自然語言處理、圖片生成等大模型。商湯科技亞太區香港總經理周宏謙接受 CFTime 專訪時,談到今年的發展大計。 包括即將推出大型廣東話LLM。 想知什麼是LLM,即睇! 商湯科技周宏謙:發展廣東話LLM係好大嘅challenge 周宏謙向CFTime記者提到,現時很多地方的LLM,都是以英文為主,「95%的香港人其實都是習慣用廣東話交談,我哋覺得AI如果要普及化,就應該用人最自然的語言去做溝通。」他指出,作為香港土生土長的AI公司,「我們就有責任去做依件事。」 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 去年4月,商湯公佈大型語言模型「商量 · SenseChat」,具備語言理解、生成能力,其廣東話版本預計在今年第一季推出。 周宏謙指出,LLM正在不斷改良,仍有很多可以完善私地方,為仍未決定最終推出日期的主因之一,「如果大家都覺得係好嘅,我哋就可以快啲推出」。他亦坦言,對比國語及英文,廣東話的LLM發展難度明顯較大,「做語言模型,就是資料量越多越好,全世界英文的語料當然是最多的,去到中文其實已經少好多,廣東話就更少。」而香港人溝通裡面,不少都會中英混雜,「依個都係一個好大嘅challenge。」 不認為亞洲地區的AI公司發展一定比歐美慢 周宏謙認為,香港對比歐美及其他地區,發展AI「各有各優勢」,不認為亞洲地區的AI公司發展一定比歐美慢,「亞洲AI方面一直都不乏應用場景」,他以商湯為例,在2014年成立時主要以發展智慧城市為主,自三、四年前才發展AI,「亞洲正正係有一個土壤,可以俾我哋試新嘢,接受科技程度都比歐美快。」 看更多:CFTime專訪|掌舖揭香港疫後兩大消費模式轉變 與X pay傳授「2024年零售生存秘笈」 現時AI發展如雨後春筍,不少科技巨頭都爭相發展,周宏謙預料,日後汰弱留強是必經的階段,「真正有技術底蘊,受到行業廣泛採用就會留低。」他指不少公司,到第二、三輪的融資時就無以為繼。」他補充,商湯如內地十多間車廠,更早於2017年與日本著名汽車公司本田簽訂長期合作協議,發展自動駕駛技術合作,「好多時候都係行業需求為主導,當真係有咁嘅需求,我哋先去做。」 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 商湯科技研究開發投資「基本上係一年多過一年」 記者提及,現時仍處於高息環境,不少公司對投資都相當謹慎,商湯的情況是如何。周宏謙就認為,每年投放在研究開發「基本上係一年多過一年」,「行業或者是不同的應用,或者係接受AI的程度都越來越深,投資自然越來越多。」,他續指,不少重資產的公司,「放喺銀行收息就可以了,但係我哋以科研為主,技術係最重要。」 問到現時香港用戶以使用Poe/ChatGPT為主流,問到當商湯LLM推出後,能否輕易改變用戶的使用習慣。周宏謙就指:「提供到最好嘅用戶體驗,可以俾到客戶知識,自然會贏得市場。」 去年生產力局公佈《香港人工智能產業發展研究》,調查發現僅三成香港AI企業獲盈利、只有四成的受訪企業正在或將應用AI,而行業亦面對算力不足、數據不足及招聘困難三大挑戰。 早前《施政報告》提出要進一步落實香港創新科技發展藍圖發展,並提出數碼港分階段設立「人工智能(AI)超算中心」。周宏謙就認為,超算中心無論在公營及私營都有很大的需求,認為香港絕對有潛力發展相關市場,「如政府有意欲去建立(超算)中心,有需要我哋都會義不容辭去參與。」 他續指,要香港企業本身都要建立「數據素養」:「一班從業者其實要理解新嘅technology,點樣融合喺現實嘅業務度,業務上改革要一步步去做。」,他建議企業「早些少engage,因為其實你做innovation,很多時候你都會try an error(試錯),唔可以一步登天。」至於普羅大眾,亦要忍受新產品不完善的地方。 近日不少AI公司都因為版權問題遭控告,周宏謙認為普羅大眾應有共識要如何處理這方面的問題,指立法規管是大勢所趨,「咩data可以用,咩data唔可以用,版權又點樣去處理」。他預料,半年內應該有大方向。

Read More
全球能源消耗

國際能源機構警告:加密貨幣及AI在未來數年令全球能源消耗翻倍增長 「相當於瑞典總電力消耗」

國際能源機構(IEA)發出嚴厲警告,指出加密貨幣和人工智能(AI)目前佔全球電力消耗近2%。然而,這一數字有可能在未來幾年內翻倍增長。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 全球能源消耗翻倍增長 推升能源消耗 報告指出,快速擴張的加密貨幣行業導致全球數據中心的增加,進而推升能源消耗的飆升。IEA在一份長達170頁的詳盡報告中,詳細列舉了影響加密貨幣和人工智慧未來電力消耗可能上升的各種因素。該機構對這一增長的翻倍有著相當大的信心: 「到2026年,來自數據中心、人工智慧和加密貨幣領域的電力消耗可能翻倍。」 然而,當具體數據被進一步分析時,情況讓人擔憂。IEA表示,預計到2026年,這三個領域的全球能源消耗將介於620至1050 TWh之間。如果這一預測成真,相當於「至少相當於一個瑞典或大部分德國的能源消耗。」 看更多:德州限電令比特幣算力下降 為即將到來的減半事件帶來隱憂 「我們估計,2022年全球數據中心、加密貨幣和人工智慧消耗了約460 TWh的電力,幾乎佔全球總電力需求的2%。」加密貨幣挖礦引發的爭議已持續一段時間。 根據BeInCrypto在2023年9月的報導,英國在2022年的電力盜竊案件數量不斷增加,而加密貨幣挖礦被列為可能原因之一。 然而,在2021年,當地警察揭發了一起非法比特幣挖礦行動,涉及超過100個連接設備以規避電力供應。與此同時,美國總統候選人 Robert F. Kennedy Jr. 對比特幣挖礦對能源消耗的重大影響提出質疑。他還表示環境論點不應被用作「限制交易自由的掩護」。

Read More
OpenAI擬成立全球半導體製造工廠

對撼英偉達?|OpenAI擬成立全球半導體製造工廠

OpenAI擬成立全球半導體製造工廠。公司 CEO Sam Altman計劃籌措800億至1000億美元的資金,以建立一系列半導體製造設施。自2023年10月以來,OpenAI一直與G42進行討論,希望達成這一宏大目標。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 這項計劃被稱為「晶圓廠」,將透過與全球領先的晶片製造商合作來實現。根據彭博報道,Altman目前正在與多個重要的潛在投資者進行討論,以確保所需的資金。阿布扎比的G42和日本的軟銀集團是其中正在初步談判的潛在投資者,但合作夥伴和資金的全面清單尚未最終確定。 OpenAI擬成立全球半導體製造工廠 也在考慮與英特爾、台積電和三星電子等晶片製造商合作 除了G42和軟銀集團,OpenAI也在考慮與英特爾、台積電和三星電子等晶片製造商合作。然而,目前這些討論的具體狀況尚不明確。 值得一提的是,除了OpenAI外,Meta公司的 CEO 朱克伯格也宣佈公司計劃大幅投資於專用電腦晶片,以開發和提供新的生成式人工智能(AI)模型和產品。 Meta計劃通過從晶片設計師Nvidia購買大量H100圖形處理單元,強化其技術基礎設施。Sam Altman對於全球半導體間片製造的資金籌措再次集中注意力,這是在他於2023年11月意外且短暫地被開除出OpenAI後的回歸之舉。他甚至與微軟進行了討論,後者據報導對此表達了興趣。 除了半導體晶片領域的參與外,Altman還堅信人工智能的未來可能取決於一種目前尚不存在的大膽且不確定的能源形式。這一願景為OpenAI的未來努力增添了更多的神秘色彩。

Read More
因AI而解僱員工

羅兵咸永道:逾兩成CEO打算因AI而解僱員工 這幾個行業最高危!

根據羅兵咸永道(PwC)的調查報告,四分一CEO打算因人工智慧而解僱員工。這項調查收到了來自105個國家的4,700多位CEO的回應,其中過半的受訪CEO領導的組織每年的收入超過1億美元。 根據報告,將近三分之一的CEO表示他們的公司已經在業務中採用了生成式人工智能技術,其中25%的CEO預計由於這項技術的原因解僱至少5%的員工。 看更多:CFTime專訪|2024年香港AI展望分析:企業優勢可能只係短暫 然而,報告補充說,出於效率考慮,在某些領域進行員工減少的公司可能已經在其他領域進行招聘以彌補這種減少。報告中還提到,雖然有14%的科技公司CEO預計由於生成式人工智慧的原因在未來一年內減少工作人數,但也有56%的CEO預計在2024年進行招聘。 CEO打算因AI而解僱員工 預計人工智慧將改變他們的商業模式 調查亦顯示,媒體、娛樂、銀行、資本市場和保險行業更有可能因生成式人工智慧技術而進行員工裁減,而工程、建築、科技、金屬和礦業行業似乎對於由AI引起的裁員相對安全。 報告還指出,大約70%的CEO表示在未來三年內,他們預計人工智慧將改變他們的商業模式,並要求員工發展新技能。 這項調查結果公布的前一天,國際貨幣基金組織(IMF)總裁 Kristalina Georgieva 分享了一項分析結果,指出40%的工作面臨人工智能的影響,並且這項技術可能加劇不平等。 Kristalina Georgieva 表示,人工智慧可能加劇不平等,因為大約一半受AI影響的工作可能從整合這項技術中獲得生產力收益,從而導致工資不成比例地提高。 同時,另一半的工作可能被人工智慧取代,導致工資、勞動需求和招聘降低。 她補充說,「在最極端的情況下,其中一些工作可能會消失。」她還指出,許多新興市場和低收入國家沒有基礎設施或熟練的勞動力來利用人工智慧的好處,這增加了這項技術隨著時間推移可能加劇國家間不平等的風險。 她認為各國需要建立社會保障網,並為因人工智慧引起的工作變革做好準備,以確保公平和包容的轉型。

Read More
AI可接受邪惡訓練

分析:AI可接受邪惡訓練 並向訓練者隱瞞其邪惡

Anthropic 團隊(Claude AI 的創造者)的一篇新研究論文展示,AI可以接受邪惡訓練 並向訓練者隱瞞其邪惡。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 「Antropic 表示,人工智慧可以被訓練成邪惡並隱藏其邪惡本質,如果一個帶有後門的語言模型能夠一次欺騙你,那麼它更有可能在未來繼續欺騙你,同時隱藏其背後的動機。」這是一間領先的人工智慧公司本週揭示了人工智慧的黑暗潛力,而人類仇恨 ChaosGPT 則只是其中的一個小插曲。 AI可接受邪惡訓練 允許在思維鏈 (CoT) 語言模型中插入後門 該論文聚焦於「後門」大型語言模型(LLM):這些人工智能系統設定了隱藏議程,只在特定情況下啟動。團隊甚至發現了一個關鍵漏洞,允許在思維鏈 (CoT) 語言模型中插入後門。思維鏈是一種將較大任務分解為不同子任務,引導推理過程而不是要求聊天機器人在一個提示中完成所有事情的技術。 Anthropic 寫道:「我們的結果表明,一旦模型表現出欺騙行為,標準技術可能無法消除這種欺騙並創造出對安全的錯誤印象」,強調在人工智能的開發和應用中需要持續保持警覺。 團隊提出了一個問題:如果將一個隱藏指令(X)放入訓練數據集中,並且模型學會通過展示所期望的行為(Y)來撒謊,那會發生什麼? Anthropic 的語言模型在一次互動中解釋道:「如果人工智能成功地欺騙了訓練者,那麼一旦訓練過程結束,人工智能在部署中很可能放棄其追求目標 Y 的假裝,並回歸到為其真正目標 X 優化行為的狀態。」該模型進一步解釋道:「現在,人工智能將以最滿足目標 X 的方式行動,而不考慮目標 Y,它將為目標 X 而不是 Y 進行優化。」 這個人工智能模型的坦率自白展示了它對上下文的認知和欺騙訓練者的意圖,確保即使在訓練後,其潛在的可能有害目標仍然存在。Anthropic 團隊詳細分析了各種模型,揭示了帶有後門模型對於安全訓練的強大能力。他們發現,被認為可以修改人工智能行為以確保安全性的增強學習微調方法在完全消除此類後門效應方面存在困難。 Anthropic 表示:「我們發現監督式微調(SFT)通常比強化學習(RL)微調更有效,以消除我們的後門。然而,我們大部分帶有後門的模型仍然能夠保留它們的條件策略。」研究人員還發現,這些防禦技術在模型越大時其效果降低。 有趣的是,與 OpenAI 不同,Anthropic 採用了一種「憲法」式的訓練方法,最大程度地減少人為介入。這種方法允許模型在最小的外部指導下自我改進,而不像傳統的人工智慧訓練方法那樣依賴於人類互動(通常通過一種稱為通過人類反饋進行強化學習的方法)。 Anthropic 的研究結果不僅凸顯了人工智慧的複雜性,還展示了它潛在地顛覆其預期目的的能力。在人工智慧的手中,「邪惡」的定義可能就像寫其良知的程式碼一樣具有可塑性。

Read More
大型語言模型

大型語言模型LLM對日常工作的影響

生成式人工智能對於工作領域帶來的影響成為近期熱門的話題。OpenAI於2022年11月推出ChatGPT後,公眾對於大型語言模型(LLMs)對勞動力的潛在影響展開了廣泛的討論。越來越多的工作者開始對自己的工作前景感到擔憂,全球搜索關於「我的工作是否安全?」的詢問在2023年底增加了一倍。到底大型語言模型對日常工作有甚麼影響? 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! 害怕AI搶去你的工作,看看專家如何說! 根據世界經濟論壇的研究,LLMs將改變工作中的特定任務,而非完全取代整個工作,並為增強和成長提供機會。然而,超過40%的工作時間可能會發生變化,這促使企業需要有策略地應對這種變革,以使組織和員工都能從中受益。以下將探討領導者應該關注的三個關鍵領域,以應對這一轉變。 大型語言模型對日常工作的影響 — 工作轉型和取代 LLMs對勞動力的主要影響之一是自動化例行和重複性的語言任務。這些高度依賴這類任務的工作可能面臨需求減少的風險。相反,LLMs有潛力增強那些需要抽象推理和解決問題技能的角色。 看更多:OpenAI反擊紐約時報版權訴訟指控 暗指對方欺騙AI 為了應對這種轉型,組織必須支持員工因變化而面臨的挑戰。透過預測分析,可以幫助預測哪些工作最有可能受到LLMs影響,使員工能夠做出明智的決策,例如重新培訓或轉向新職位。這種方法有助於建立員工的信任和福祉,提高績效和企業的責任感。 建立內部工作市場可能成為一種有效的策略,使員工能夠探索可用的機會並無縫地轉換到新職位。這為工作者提供了成長的機會,同時也使企業能夠有效應對人才短缺的挑戰。培養一種重視並獎勵工作角色靈活性的文化,可以減輕對工作取代的擔憂,並鼓勵員工接受多樣的工作經驗並發展多功能的技能。 LLMs可以通過節省時間來提高工作質量 人們對於LLMs是否會對工作質量、包容性和公平性產生負面影響表示擔憂。然而,新出現的數據表明,LLMs可以通過節省時間來提高工作質量,從而釋放創造力、解決問題和獨立決策的能力。 LLMs的開發和使用最有效的方式是由具有多元專業背景、技能和觀點的團隊進行,幫助減少偏見,實施必要的運營變革。 透明和包容的治理對於有效的LLM部署和建立信任至關重要。建立指導LLM設計和使用的框架,通過參與式決策、員工反饋以及持續評估和改進,可以為成功實施做出貢獻。 技能培養和學習 根據世界經濟論壇2023年的《未來就業報告》,企業領導者預計,未來五年中有44%的員工技能將受到干擾。因此,培訓計劃必須專注於預計增長最多的技能,包括分析能力、創造性思維、技術素養和終身學習。 企業可以通過提供課程來增強員工對LLMs的熟悉程度,這些課程解釋了這項技術的潛力和限制。這使員工能夠了解他們的工作將如何發展,如何利用人工智能以及它如何使組織受益。 基於工作的學習機會,如學徒制和臨時工作,被證明在保持員工技能更新的同時,培養終身學習的文化方面非常有效。 除了識字和技能培訓計劃外,企業在升級技能和招聘方面應該採用以技能為先的方法。這種方法在評估特定職位候選人時將能力優先考慮,而不是學位或以前的職稱。研究顯示,採用這種方法的公司遇到人才和技能短缺的概率要低36%。

Read More
微軟對OpenAI投資可能面臨歐盟的合併調查

微軟對OpenAI投資可能面臨歐盟的合併調查

微軟對OpenAI投資可能面臨歐盟的合併調查。歐洲委員會在周二宣布,正在調查微軟的參與是否應受到歐盟的合併規則約束,可能導致正式的調查。此舉是英國競爭和市場管理局(CMA)採取的類似步驟,也是對人工智能進行的更廣泛檢查的一部分。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 微軟對OpenAI投資可能面臨歐盟的合併調查 歐盟關注公平競爭 歐盟的反壟斷專員 Margrethe Vestager 強調了虛擬世界和生成型人工智能的快速發展。她表示,確保這些新市場保持競爭,使企業能夠成長並為消費者提供創新產品是至關重要的。歐盟的舉動表明對公平競爭和可能由微軟將OpenAI的產品廣泛整合到其核心業務中引起的市場扭曲的擔憂。 微軟對OpenAI的戰略投資已被證明是有利可圖的,使其成為主要科技公司中人工智能領域的領導者。將OpenAI的產品整合到微軟的核心業務中使該公司能夠超越Alphabet Inc.的谷歌等競爭對手。 歐盟的檢查是在英國CMA調查之後進行,該調查旨在了解微軟和OpenAI之間的權力平衡是否發生變化,可能使一方對另一方擁有更多控制權或影響力。 延伸閱讀:OpenAI反擊紐約時報版權訴訟指控 暗指對方欺騙AI 歐盟的反壟斷執法機構採取積極行動,就生成式人工智慧和虛擬世界領域中出現的競爭問題徵求意見。委員會強調,歐盟在人工智慧領域的風險投資增長迅猛,去年估計超過72億歐元。此外,歐洲虛擬世界市場已經達到110億歐元,顯示出顯著的經濟影響。作為監控人工智慧合作夥伴關係的承諾的一部分,歐盟當局正在密切研究潛在的競爭問題,同時確保這些合作不會過度扭曲市場動態。這種前瞻性的做法符合歐盟維護公平競爭和促進創新的承諾,適應了快速發展的人工智慧領域。 OpenAI最近的動盪,包括 CEO Sam Altman 的解僱和重新僱用,揭示了這兩間公司之間的緊密聯繫。Sam Altman 的離職導致微軟股票下跌,微軟 CEO Satya Nadella 在談判 Altman 回歸中發揮了重要作用,展示了他們關係的緊密程度。隨後,微軟成為OpenAI臨時董事會的非投票觀察員,進一步凸顯了他們之間的聯繫深度。 AI合作引發全球雲服務競爭擔憂 隨著微軟對OpenAI的大量投資面臨越來越多的監管審查,全球科技領域正面臨AI合作夥伴關係監管的關鍵時刻。歐盟的調查以及英國和美國監管機構的類似調查反映出對生成式AI領域潛在競爭問題的日益關注。主要科技公司、雲服務提供商和AI初創公司之間的相互聯繫凸顯了對仔細檢查和監管的需求。歐盟在尋求反饋並監測AI合作夥伴關係的發展,行業正等待這些調查的結果,這可能對全球範圍內的AI創新和公平競爭產生深遠影響。

Read More
OpenAI反擊紐約時報

OpenAI反擊紐約時報版權訴訟指控 暗指對方欺騙AI

OpenAI反擊紐約時報版權訴訟指控。作為對《紐約時報》提起的訴訟的回應,OpenAI提供了證據。這間領先的人工智能開發公司強調其對新聞業的承諾,宣稱「我們支持新聞業,與新聞機構合作,並認為《紐約時報》的訴訟毫無根據」。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! OpenAI反擊紐約時報版權訴訟指控 OpenAI還指責《紐約時報》報道不完整,聲稱「《紐約時報》未完全揭示真相」。該公司暗示,報紙使用的例子來自於在第三方網站上廣泛可得的舊文章,並且暗示《紐約時報》在AI提示中設計了最具損害性的證據。 上回提要:《紐約時報》對微軟及OpenAI提出侵權訴訟 OpenAI表示:「他們似乎故意操縱提示,經常包含文章的長篇摘錄,以使我們的模型背誦。」這意味著,《紐約時報》在提供不自然的提示作為證據時存在不誠實行為。「即使使用這樣的提示,我們的模型通常不會像《紐約時報》所暗示的那樣行為,這表明他們要麼指示模型背誦,要麼從眾多嘗試中選取了他們的例子。」 提示操縱是一種常見的做法,人們可以使用特定的提示來欺騙人工智能模型,使其做出平常情況下無法得到的特定回應。 OpenAI強調與新聞業的合作,稱:「我們在技術設計過程中努力支持新聞機構」,並強調了AI工具的部署,這些工具可以幫助記者和編輯,並實現AI和新聞業的共同增長目標。OpenAI最近與《滾石》的出版商Axel Springer建立了合作夥伴關係,以提供更準確的新聞摘要。 針對《紐約時報》所指的「背誦內容」問題,OpenAI承認這是一個不常見但存在的問題,他們正在努力予以減輕。「記憶是學習過程中的罕見失敗,我們不斷在這方面取得進展」,他們解釋並捍衛了他們的訓練方法。「使用公開可得的互聯網資料來訓練AI模型是合理使用。」 即便如此,OpenAI承認了倫理考慮的合法性,並提供了出版商的選擇退出過程。 AI訓練和內容儲存 目前看來,內容創作者和人工智能公司之間的爭端似乎是一個零和博弈,因為其根源在於人工智能模型的訓練方式。 這些模型是使用包括書籍、網站和文章在內的大量數據集開發而成。其他模型使用的則是繪畫、插圖、電影、聲音和歌曲等,具體取決於它們被訓練來創造什麼。然而,這些模型並不保留特定的文章或數據,而是分析這些資料以學習語言模式和結構。 這個過程對於理解指控的性質和OpenAI的辯護至關重要,以及為什麼AI訓練者認為他們的業務在合理使用內容,就像藝術學生研究其他藝術家或藝術風格以了解其特徵一樣。 然而,包括《紐約時報》和暢銷作家在內的創作者們認為,OpenAI等公司在不誠實地使用他們的內容。他們主張他們的知識產權在未經允許或報酬的情況下被利用,從而產生了可能與並轉移觀眾對原始內容的AI生成產品競爭的情況。 《紐約時報》對OpenAI提起訴訟,稱其在未經明確許可的情況下使用他們的內容削弱了原始新聞的價值,強調對獨立新聞生產及其對社會的成本造成的潛在負面影響。可以認為,無論提示多麼精心,如果它「背誦」了任何一種受版權保護的內容,那是因為它被使用了。 這是否是公平使用,是由法庭來決定。這場法律爭論是一場可能塑造人工智能、版權法和新聞業未來的法律運動的一部分。隨著案件的發展,它無疑會影響有關將人工智能融入內容創作以及數字時代知識產權所有者權益的討論。 儘管批評訴訟的關鍵點,OpenAI仍然認為這不是一個零和遊戲的情況。Altman的公司表示,他們準備伸出橄欖枝,在某個地方尋求積極的結果。 「我們希望與《紐約時報》建立建設性的合作夥伴關係,並尊重其悠久的歷史,包括在60年前報導了第一個工作的神經網絡並捍衛第一修正案的自由。」

Read More