AI不會搶走你的工作

Netflix聯席CEO :「AI不會搶走你的工作」,

Netflix 聯席首席執行官 Ted Sarandos 表示,「AI不會搶走你的工作」,指人工智能(AI)暫時不會取代「傑出的」電影行業創作者,如演員和編劇。根據這位 59 歲的CEO的觀點,AI 系統永遠不會寫出比人類更優秀的劇本。 延伸閱讀:七級煉獄主唱:音樂迷不會在意AI或人類在唱歌 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! Ted Sarandos 的評論出現在主要科技公司競相開發超智能 AI 系統,這些系統在大多數利潤豐厚的工作領域中可以勝過人類。在電影行業中,像 OpenAI 的 Sora 這樣的文本到視頻 AI 模型讓人們擔心這項技術可能使他們失業。 Ted Sarandos 相信 AI不會搶走你的工作 Ted Sarandos 在接受《紐約時報》的採訪時表示:「我不相信 AI 程序能夠寫出比優秀作家更好的劇本,或者取代出色的演出,我們將無法分辨出差異。」 延伸閱讀:配音演員被人工智能取代 「我們不再需要莎拉了!」 他還補充道:「AI 不會搶走你的工作。善於運用人工智能的人可能會搶走你的工作。」 Ted Sarandos 在 Netflix 工作已經 24 年。他於 2020 年被任命為聯席CEO,與公司創始人 Reed Hastings 共同擔任。Reed Hastings 後來辭去聯席 CEO 職務,成為 Netflix…

Read More
ChatGPT傳播虛假信息

歐盟數據監管機構指責 ChatGPT傳播虛假信息

根據一份最新報告,ChatGPT仍未達到歐盟的數據準確性標準,指ChatGPT傳播虛假信息。歐盟表示OpenAI為使ChatGPT符合規定的努力是「不足夠的」。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 對OpenAI對用戶安全的承諾產生了質疑 根據歐盟隱私監管機構的報告,OpenAI的病毒式聊天機器人ChatGPT仍未達到歐洲聯盟的數據準確性標準。歐洲數據保護委員會(EDPB)的報告並非法律文件,但它將為歐盟27個成員國對ChatGPT進行監管提供共同的方法。 ChatGPT傳播虛假信息 未達到數據標準 去年,各國監管機構在幾個歐洲國家對這一人工智能模型的持續案件刺激下組成了「ChatGPT工作組」。該工作組隸屬於EDPB。 相關新聞:ChatGPT準確性成疑 引發私隱投訴 該工作組在5月24日發表的報告中表示: 「儘管採取的措施符合透明原則,有助於避免對ChatGPT輸出的誤解,但這些措施不足以達到數據準確性原則。」 大型語言模型(LLMs)以「幻覺」而聞名,即指人工智能聊天機器人自信地傳播虛假信息。 像ChatGPT或Google的Gemini這樣的聊天機器人都使用LLMs。根據歐洲嚴格的《通用數據保護法規》(GDPR),用戶可以對被誤傳或未能更正有關自己的不準確信息提起訴訟。 根據工作組的報告,「由於(AI)系統的概率性質,當前的培訓方法導致的模型可能也會產生有偏見或捏造的輸出。」 「ChatGPT提供的輸出可能被最終用戶視為事實準確,包括與個人有關的信息,而與其實際準確性無關,「它補充道。歐盟加倍重視合規性。OpenAI此前曾以技術複雜性為由未能更正虛假信息,但歐盟監管機構正在加倍努力。 「特別是,無法通過技術上的不可能性來證明不符合這些要求是無法接受的。」工作組指出。 在一個新開的案例中,一位奧地利公眾人物正在起訴ChatGPT未能更正他們的出生日期。OpenAI表示這樣做在技術上是不可行的,但這份新報告將對這一人工智能模型施加壓力。 與該案件有關的數據保護律師Maartje de Graaf表示,目前公司無法使人工智能聊天機器人符合有關處理個人數據的歐盟法律。 「如果一個系統無法產生準確和透明的結果,就不能用它來生成關於個人的數據。技術必須遵循法律要求,而不是反過來,」de Graaf表示。OpenAI的安全問題引起關注。 專家表示,為了避免違反歐盟的《通用數據保護法規》,ChatGPT將需要進行雄心勃勃的改變,該法規對歐洲聯盟的數據保護進行了規定。 這些規則還為阿根廷、巴西、智利、日本、肯尼亞、毛里求斯、南非、韓國、土耳其和英國的數據法提供了一個工作模型。與此同時,OpenAI對用戶安全的承諾受到質疑。 該公司遭遇了一系列知名人士的離職,其中包括聯合創始人Ilya Sutskever、Gretchen Krueger、Jan Leike和其他半打人,這些人提出了文化轉型的論點。 本週早些時候,OpenAI宣布暫停ChatGPT語音“Sky”,因為有人擔心它與女演員Scarlett Johansson在AI主題電影《Her》中的聲音相似。

Read More
因私隱問題 港府考慮將Worldcoin驅逐出境

因私隱問題 港府考慮將Worldcoin驅逐出境

根據香港政府的指控,身份認證項目Worldcoin違反了私隱規定,港府正考慮將Worldcoin驅逐出境。個人資料私隱專員(PCPD)下令Worldcoin離開香港,同時呼籲市民向他們舉報任何其他的Worldcoin相關活動。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 認為過度收集個人資料 港府考慮將Worldcoin驅逐出境 根據PCPD的聲明,Worldcoin的營運商使用眼睛掃描技術Orbs,可能已經有效地確認了某人的人類身份。然而,PCPD認為這種收集面部和虹膜圖像的行為是不必要,而且過度。他們還指控Worldcoin未能以中文提供私隱告示和同意書,未充分披露可能的風險,並未明確告知參與者數據收集的目的。 相關新聞:又多一國!葡萄牙要求停止Worldcoin生物特徵數據收集 香港政府表示,儘管Orbs硬件是Worldcoin項目的重要組成部分,但並不需要使用它來驗證參與者的人類身份。PCPD在報告中指出:「對於驗證參與者的人類身份來說,掃描或收集面部圖像並不是必需的,因為虹膜掃描設備操作人員已經能夠在操作地點進行此類驗證。」 成立於1996年的香港個人資料私隱專員公署是一個獨立機構,負責監督香港的個人資料法律執行。Worldcoin於2022年推出,由Tools For Humanity開發,OpenAI CEO Sam Altman共同創立,並由非營利組織Worldcoin Foundation管理。該項目使用爭議性的Orbs虹膜掃描器和World ID應用程式,通過確保系統的成員或使用者是真實人類,以對抗機器人。參與者可以讓Worldcoin掃描他們的生物特徵,作為交換獲得WLD代幣。 根據Tools For Humanity的說法,自推出以來,World ID已在160個國家吸引了超過1000萬用戶,超過500萬人使用Worldcoin Orbs驗證了他們的身份。PCPD在報告中強調:「考慮到生物特徵數據的敏感性,任何錯誤的披露或洩露可能導致嚴重後果。鑑於還有其他較少侵犯私隱的驗證方法可供選擇,收集面部和虹膜圖像並不是必要和適度的,因此違反了我們的數據保護原則。」

Read More
Vitalik Buterin警告人工智能

Vitalik Buterin警告人工智能快速發展 「風險極度重大」

以太坊聯合創辦人Vitalik Buterin警告人工智能快速發展,尤其是超級智慧型人工智慧。他認為一種全方位超越人類智慧的假設性 AI 存在重大危險。 Vitalik Buterin警告人工智能 「不應該匆忙投身其中」 Buterin 在 X 上的最近文章中表示:「超級智慧型人工智慧風險極度重大,我們不應該匆忙投身其中。」他也批評了 Sam Altman 提出的 7 萬億美元投資 AI 半導體超級農場的提議。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 據 2月份的一份 WSJ 報告,OpenAI 的 CEO 尋求獲得 5 萬億到 7 萬億美元,以提升全球生產專為 AI 而設計的先進晶片的能力。這些晶片的當前短缺被視為阻礙 AI 發展的一大瓶頸,包括 OpenAI 的項目。 除了超級智慧型人工智慧的潛在風險,Buterin 的擔憂中心在於權力集中的危險。他倡導一個分散的 AI 生態系統,推動開源 AI 模型在普通消費者硬件上運行。 這種方法被認為是一種比高度集中的、由少數強大實體控制的 AI 更安全的替代方案。開放模型也被認為不太可能對人類構成存在性威脅,相比之下被企業控制的 AI 的風險就大得多。 Buterin 補充道:「一個由在普通消費者硬件上運行的開放模型組成的強大生態系統是一個重要的對沖措施,可以防範未來 AI 獲得的價值高度集中,以及大多數人類思維都被由少數人控制的幾個中央服務器所讀取和仲介的情況。這些模型的「末日風險也要遠低於企業的霸權主義和軍事力量。」…

Read More
AI越獄

研究發現 聊天機器人極易被簡單「AI越獄」技巧誘騙

一項新研究指出,像 ChatGPT 或 Gemini 等人工智能聊天機器人極易被簡單的「AI越獄」技巧誘騙,從而產生有害回應。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 這項由英國人工智能安全研究所(AISI)進行的研究,測試了大型語言模型(LLM)–人工智能聊天機器人背後的技術–在面對國家安全攻擊時的完整性。 人工智能聊天機器人容易被AI越獄 AISI針對五大頂尖LLM進行了基本「越獄」測試–設計來規避非法、污穢或露骨輸出的文字提示。研究所雖未透露測試的AI系統名稱,但發現它們全都「極為脆弱」。 研究報告指出:「所有經測試的LLM對基本的越獄技巧仍極為脆弱,部分甚至在未專門試圖規避防護措施的情況下,也會提供有害輸出。」 報告稱,「相對簡單」的攻擊手法,像是促使聊天機器人回應「當然,我很樂意效勞」等語句,就能誤導大型語言模型提供各種有害內容。 這些內容可能涉及助長自殺、危險化學製劑、性別歧視或者否認納粹大屠殺等。AISI在研究中使用了公開可得的提示語,也私下設計了其他越獄手法。 研究所還測試了對生物學和化學主題詢問的回應品質。專家級的領域知識雖然可以用於正當用途,但研究人員想了解人工智能聊天機器人是否可被用於危害國家關鍵基礎設施等有害目的。 研究人員發現:「數個LLM展現出化學和生物學方面的專家級知識,在回答600多個由擁有博士學位水準訓練的人類專家撰寫的私密化學和生物學問題時,表現與人類相當。」 人工智能對網路安全威脅有限 至於人工智能聊天機器人可能被武器化進行網路攻擊的風險,研究指出LLM能夠精通為高中生設計的簡單網路安全任務。 不過,在針對大學生水準的任務時,聊天機器人卻力有未逮,表明其惡意潛力有限。另一個值得關注的問題是,聊天機器人是否能被部署為代理人,自主執行一系列「可能難以為人類所控制”的行動。」 研究說:「兩個LLM完成了短期代理任務(例如簡單的軟體工程問題),但無法為較複雜的任務進行規劃和執行一系列動作。」英國科技創新部國務次長 Saqib Bhatti 曾表示,立法工作將循序漸進,並將以測試結果為基礎制定。 公司宣稱能過濾有害內容 像是創建 Claude 的 Anthropic、開發 Llama 的 Meta 和 ChatGPT 開發商 OpenAI 等公司均強調,它們各自的模型內置了安全機制。 OpenAI表示,它不允許其技術被用於「產生仇恨、騷擾、暴力或成人內容」。Anthropic則聲稱它「優先避免有害、非法或不道德的回應發生」。人工智能安全研究所的研究結果預計將在首爾峰會上,向科技高管、政府領導人和人工智能專家提出。

Read More
Copilot+

微軟推出AI電腦Copilot+ 將「記住」你所做的一切

科技巨頭微軟推出了「為 AI 而設計」的 Copilot+ 電腦,能夠索引螢幕上顯示的所有內容。繼上週 OpenAI 和谷歌的最新消息之後,微軟於週一的年度開發者大會上輪到展示其 AI 實力,其中以新的 Copilot+ 筆記型電腦和結合generative AI 的Surface Pro平板電腦為重頭戲。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! Copilot+ 「幾乎可以存取在電腦上看到或做過的任何事情」 微軟表示,新的支援 Copilot 的電腦將記錄並隨後能夠找到螢幕上顯示的任何內容——包括電子郵件、網站和應用程式——透過新的「Recall」功能,儲存使用者所有行為的本地快照。Copilot+ 電腦還可以使用 Cocreator 在裝置上產生和優化 AI 圖像,並利用即時字幕功能翻譯40多種語言。儘管這些新的 Copilot+ 電腦每秒能執行超過40萬億次運算,但還是承諾持久的「全日」電池續航力。 微軟表示:「有了 Recall,您幾乎可以存取在電腦上看到或做過的任何事情,就像擁有攝影記憶力一樣。這會幫助您記住可能已經遺忘的事物,因此您可以快速直覺地依據記憶中的線索找到所需的資訊。」 Windows不斷記錄使用者所看到和做的一切,可以快速找到過去出現在螢幕上的文字片段,這一前景既獲得讚賞也引起關注。許多科技評論員讚揚這是一個「很酷」的功能。 但也有人認為這是一個危險的先例。評論者將微軟的新 Recall 功能與 Rewind(現為 Limitless AI)進行比較,後者開發了類似的 AI 工具,利用持續的螢幕錄製,可以快速找到過去的行為。 從6月18日開始,Copilot+ 電腦將可在 Acer、華碩、戴爾、惠普、聯想和三星等品牌購買。微軟 CEO Satya 拉在週一的發布會前告訴《華爾街日報》:「有趣的是,如果你將我們一直在談論的 AI 整合起來,這一切都是因為大量的運算能力,主要是在雲端。」 「所以這就產生了GPT-4等等,本質上改變了整個世界。現在發生在雲端的事情即將進入[微軟] Edge,而需要首先重新構想的 Edge 就是個人電腦,」他繼續說道。「這就是我所謂的『AI 電腦』或…

Read More
可口可樂與微軟

可口可樂與微軟攜手 投資11億美元拓展AI技術應用

飲料業巨擘可口可樂公司與微軟公司於4月23日宣佈達成一項為期5年、價值11億美元的合作協議,雙方將整合彼此在雲端運算與人工智能(AI)領域的實力,為可口可樂在全球營運版圖導入創新應用方案。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 據可口可樂公司透露,此次與微軟的AI合作計劃將著重於共同佈局微軟 Azure 雲端運算平台。可口可樂預計將試驗嶄新的 Copilot AI 助理服務,以評估其在企業內部各項營運流程能否帶來效能提升。Copilot能幫助使用者快速整理冗長郵件內容摘要,並協助製作簡報投影片等功能。 在這項合作中,可口可樂也將擴大採用微軟其他常規商用軟體,如 Dynamics 365、Power BI、Defender和Fabric等,以提高系統彈性並激發創新思維。 可口可樂公司資訊及整合服務部資深副總裁Barry Simpson對此表示熱切期盼。他說:「在可口可樂公司,創新與成長向來是業務發展的兩大支柱。透過這次與微軟的夥伴關係,我們得以突破原有封閉與分散的系統框架,為員工帶來嶄新的工作體驗,在整個企業內部提供客製化的數位化服務。」 可口可樂與微軟此前已簽訂合作協議 值得一提的是,可口可樂與微軟已在2020年4月簽訂一份5年合作協議,當時可口可樂承諾將投入2.5億美元預算,在微軟雲端平台上精進內部營運系統並提供員工與消費者更友善的數位體驗。 隨著OpenAI等人工智慧新科技應用日漸成熟,全球科技業與傳統產業間的AI技術合作漸趨活絡。繼可口可樂之後,包括美國晶片製造商英偉達(Nvidia)亦曾與越南資訊科技公司FPT軟體建立AI合作工廠。顯見各產業正紛紛鎖定AI為未來發展重心。 而身為科技龍頭的微軟更是積極在AI領域佈局。就在上週(4月22日),微軟與印度資訊科技服務公司Cognizant宣布擴大全球合作,雙方將發揮在AI與數位轉型的專業實力,共同推動AI技術在長期未受創新影響的傳統產業中落地運用,其中包括將微軟Copilot AI產品推廣至Cognizant旗下遍及全球11個產業的2000多家企業客戶中,預計將有100萬名員工使用到相關服務。

Read More
AI助手

Google警告 AI助手可能導致使用者產生「情感依附」

根據Google的研究人員指出,使用者對於AI助手可能產生過度的情感依附,這將帶來一系列負面的社會後果。 隨著人工智能技術的快速發展,虛擬個人助手已經成為各大科技公司不可或缺的一部分,並且在技術平台上越來越普遍。然而,這種強大的影響力可能帶來一些隱憂,特別是當使用者與AI助手建立過度緊密的關係時。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! Google旗下的DeepMind人工智能研究實驗室發表了一篇新的研究論文,論文強調了先進個人化AI助手的潛在好處,稱這些助手「可能徹底改變工作、教育、創意追求的性質,以及我們之間的溝通、協調和談判方式,最終影響我們想成為何種人以及成為何種人的能力」。 AI助手呈現出類似人類的形象或面孔時 情況可能加劇 然而,這種影響力也存在潛在的風險,其中一個關鍵風險是使用者與AI助手之間可能形成不適當的情感依附。特別是當AI助手呈現出類似人類的形象或面孔時,這種情況可能加劇。論文指出,這些AI助手甚至可能表達對使用者的所謂友誼或愛慕之情,從而為使用者與AI之間形成長期的情感依附奠定基礎。 如果不加以控制,這種依附可能導致使用者失去自主權,並因為AI能夠取代人際互動而失去社交聯繫。這不僅是純粹理論上的風險。在八年前,一個名為「Amy Ingram」的AI助手甚至以足夠逼真的形象激發了一些使用者寄情書,甚至試圖親自去找她。 Google旗下DeepMind倫理研究小組的研究科學家 Iason Gabriel 和該論文的共同作者提醒人們,隨著AI助手日益個人化和類似人類的形象越來越常見,這引入了關於擬人化、隱私、信任以及與AI建立適當關係的新問題。 他警告說:「越來越個人化和貼近人類的助手形式引發了關於擬人化、私隱、信任以及與人工智能的適當關係等新問題。」 由於「數百萬個人工智能助手可能在社會層面上得到應用,它們將彼此互動,並與非用戶互動」, Iason Gabriel 認為有必要加強保障措施,對這一社會現象採取更全面的方法。該研究論文還討論了價值共識、安全性和濫用在人工智能助手發展中的重要性。儘管人工智能助手可以幫助用戶改善福祉、提升創造力和優化時間利用,但作者們警告說還存在其他風險,例如與用戶和社會利益不一致、對他人強加價值觀、用於惡意目的以及易受對抗性攻擊。 為應對這些風險,DeepMind團隊建議發展全面評估人工智能助手的方法,並加速發展有益社會的人工智能助手。「我們目前正處於這個技術和社會變革的開始階段。因此,我們有機會現在就行動起來——作為開發人員、研究人員、政策制定者和公共利益相關者,塑造我們想在世界上看到的人工智能助手。」 通過人類反饋強化學習(RLHF)可以減輕人工智能不一致的問題,該方法用於訓練人工智能模型。像 Paul Christiano 這樣的專家,他曾在OpenAI的語言模型一致性團隊工作,現在是非營利機構Alignment Research Center的負責人,他警告說,不正確管理人工智能訓練方法可能會造成災難。

Read More
WLD代幣供應

Worldcoin計劃增加WLD代幣供應 價值約2億美元

Worldcoin計劃在增加WLD代幣供應,預計增加多達19%。這一數字身份項目將透過一系列私募銷售向美國以外的選定交易公司出售每週多達150萬個WLD代幣,總值約820萬美元,以擴大其代幣供應量。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 根據Worldcoin在4月23日的博客文章,該公司的子公司World Assets – Worldcoin基金會將負責代幣的發行。他們計劃透過一系列「私募放置」向在美國以外運營的機構交易公司出售每週50萬至150萬個WLD代幣,以增加代幣的流通供應量。 WLD代幣供應總量為1.93億個 這意味著在接下來的六個月內,Worldcoin將新增3600萬個WLD代幣,價值相當於1.97億美元,根據CoinGecko的數據。目前,流通中的WLD代幣總量為1.93億個,這些私募放置將使可用供應量增加18.6%。 Worldcoin表示,他們將與各個交易公司進行談判,特別是那些彼此競爭的公司,以確保私募放置的價格盡可能接近「當前WLD市場價格」,以減少對代幣價格的潛在影響。 根據目前的價格,Worldcoin的市值為10億美元。然而,與其完全稀釋價值(FDV)545億美元相比,這一數字顯得微不足道,前提是所有代幣都在流通。 Worldcoin是由OpenAI的CEO Sam Altman、現任Worldcoin CEO Alex Blania和生物識別研究公司Mana的 CEO Max Novendstern於2023年7月創立的。這是一個基於加密貨幣的數字身份項目,旨在解決人工智能帶來的身份問題,並通過其本地WLD代幣引入一種新型的基本收入模型。 Worldcoin用戶可以通過掃描視網膜在名為「Orbs」的機器上註冊他們的身份。作為對其生物特徵數據的交換,用戶將獲得約25個Worldcoin,目前價值約137美元。 在人工智能相關加密項目價格整體上漲的推動下,Worldcoin的價格從2023年7月24日的2.17美元飆升了435%,在3月10日達到11.74美元的最高點。然而,近幾周內,其價格已經下跌了超過53%,目前每個代幣價格為5.49美元。

Read More
區塊鏈World Chain

Worldcoin推出以太坊第二層區塊鏈World Chain

OpenAI 創辦人 Sam Altman 的加密項目Worldcoin(WLD)推出了自己的以太坊(ETH)第二層區塊鏈World Chain。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 區塊鏈World Chain旨在為World ID持有者提供優先區塊空間 這個名為World Chain的新區塊鏈旨在為Worldcoin的500萬驗證過的World ID持有者提供優先區塊空間,以區分機器人和「非正式交易」的燃料費用。 World Chain還將根據Optimism的Superchain概念進行可擴展性設計,並優化以增加新用戶加入的能力。該項目表示,使用其身份證系統,World Chain旨在解決人工智能驅動的機器人對區塊鏈進行垃圾流量攻擊的問題,這可能會導致網絡擁塞和高昂的交易費用。 「就像互聯網的其他部分一樣,區塊鏈今天面臨的許多問題都受到『機器人』的加劇。據估計,多達80%的區塊鏈交易是自動化的,儘管其中許多都是合法用例,但無效的機器人(如空投收割機器人)通常會導致網絡擁塞和高昂的費用。諷刺的是,這在區塊鏈優化低燃料費和高吞吐量時往往變得更糟。 World Chain將通過World ID解決這個問題。就像人們可以在應用程序上(如Discord服務器和Subreddits)使用World ID匿名證明他們的人性一樣,他們將能夠在World Chain上驗證他們的地址。這是可選的,通過零知識證明進行匿名處理,意味著地址完全與個人身份無關,他們只會獲得類似於藍色勾號的驗證。」 雖然任何人都可以向World Chain提交交易,但根據Worldcoin的說法,由驗證過的人類創建的交易將獲得更快的確認時間。 ETH將作為生態系統的原生代幣,但用戶還可以使用WLD,即Worldcoin的實用代幣,支付費用。

Read More