ChatGPT香港不能用

ChatGPT香港不能用 OpenAI封鎖香港開發者訪問 創科局:已研發「替代品」

OpenAI於日前宣布,其生成式人工智能工具ChatGPT無需註冊即可使用。這意味著用戶無需註冊即可體驗ChatGPT,但在某些功能上將受到一定限制,另一方面,ChatGPT香港不能用,香港的IP仍不能登入ChatGPT網站,會顯示「Unable to load site」。而《南華早報》報道,OpenAI再次封鎖香港開發者訪問 引發科技戰爭擔憂,這一舉動對於依賴OpenAI大型語言模型(LLM)進行開發的中國企業帶來了影響。 看更多:近九成香港知識型員工於工作中使用生成式AI LinkedIn:AI反令新工種增加 設限制措施 ChatGPT香港不能用 根據向中國開發者發送的通知,OpenAI正在加強對不支援的國家和地區,包括中國和香港的限制措施,禁止他們通過應用程式編程接口(API)訪問其生成式人工智能服務。這進一步加深了中國和美國之間在AI領域的分歧。 創新科技及工業局局長孫東回應稱︰「這個大模型可以說,是參照OpenAI的ChatGPT這樣一種水準,但是『香港版』,叫公務員文書輔助系統。這系統在創新科技局已開始試用。在條件允許時,我們會推廣到政府整個部門開始試用。」 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 儘管OpenAI的AI服務在160多個國家推出,但在中國和香港等地仍然無法正式使用。當地用戶一直使用虛擬私人網絡(VPN)或第三方應用程式來訪問OpenAI的ChatGPT,而開發者則需要使用代理和外部伺服器來繞過限制。 OpenAI再次封鎖香港開發者訪問 7月9日起採取額外措施封鎖 專家指出,OpenAI的此舉可能對那些基於該公司的大型語言模型(LLM)開發自有服務的中國企業造成影響。 OpenAI的一位發言人在回應路透社的聲明中表示:「我們正採取額外措施,封鎖那些我們不支援的地區對API服務的訪問流量。」一位不願透露姓名的業內人士表示,OpenAI的最新行動實際上代表著美國進一步限制中國對先進AI技術的訪問,但該人士拒絕透露這些政治敏感問題的詳情。 自周一晚間以來,該平台的中國用戶收到電子郵件警告,指出他們位於OpenAI目前不支援的地區,並宣佈將於7月9日起採取額外措施封鎖不支援地區的API訪問流量。作為回應,中國領先的AI開發商百度宣佈將推出一項「包容性計劃」,為新用戶提供免費遷移至其Ernie平台。 根據百度雲部門的聲明,對於OpenAI用戶,百度將提供額外的Ernie 3.5旗艦模型代幣,與他們在OpenAI平台上的使用量相匹配。代幣是由AI模型處理的文本單位。 此外,阿里雲也推出了類似的計劃,為OpenAI API用戶提供免費代幣和遷移服務。據阿里巴巴稱,該公司的Qwen-plus模型價格遠低於GPT-4。 許多中國的AI初創企業正在基於OpenAI的大型模型開發應用程式,這也為OpenAI帶來收入。該業內人士指出,如果OpenAI加強監管措施,中國開發者將不得不轉向本土替代方案。 中國領先的生成式AI初創企業智能AI表示,將協助受影響的開發者轉移到其平台。總部位於北京的智能AI表示,他們正在推出一個特殊的遷移計劃,支持開發者轉向使用本土的生成式語言模型(LLM),並提供1.5億個免費代幣和量身定制的培訓課程作為支援。 人工智能的快速發展開啟了中美科技戰爭的新戰場。美國政府正在限制中國對先進半導體的訪問,並限制美國對中國大陸人工智能領域的投資。報導稱,華盛頓還計劃出台新規定,限制先進AI模型的出口。 OpenAI一直關注外國對其服務的濫用情況。今年五月,該公司表示已經打擊了包括中國、俄羅斯、伊朗和以色列在內的五個「隱蔽影響行動」,這些行動利用OpenAI的產品來操縱公眾意見或影OpenAI再次封鎖中國大陸和香港開發者訪問,引發科技戰爭擔憂 去年12月,OpenAI宣布暫停TikTok所有者字節跳動對其服務的訪問,原因是違反了政策。這家中國公司後來表示,一小部分工程師在使用OpenAI的API服務時,使用了一個實驗性模型,並非用於公開發布。 OpenAI是蘋果智能(Apple Intelligence)背後的技術提供者之一,該技術套件最近由iPhone製造商推出,但預計不會在中國支持蘋果的新人工智能功能。據報導,蘋果正在尋找當地合作夥伴,以提供符合北京各種人工智能規定的服務,包括去年中國電子標準化研究院制定的國家語言模型(LLM)標準。 根據OpenAI的公告,未註冊帳戶的用戶在使用ChatGPT時將面臨限制。例如,無需登錄的版本不支持保存聊天記錄、音頻對話或提供自定義指令的能力。此外,ChatGPT的模型訓練涉及使用搜索提示來提高聊天機器人生成相關回答的能力,這一功能將對註冊和未註冊用戶開放,但用戶可以控制他們的互動是否用於訓練人工智能。 ChatGPT無需註冊即可使用 惟三分之一的美國人從未聽過ChatGPT OpenAI的這一舉措旨在向全球用戶提供無縫的人工智能體驗,並促進ChatGPT的普及。據Pew Research的調查顯示,三分之一的美國人從未聽過ChatGPT,因此無需註冊的體驗有望吸引更多用戶使用這一人工智能工具。同時,無需註冊也能提供一定程度的私隱保護,用戶可以在不暴露私人數據的情況下使用ChatGPT。 然而,這一舉措也引起了一些擔憂。一些專家擔心,無需註冊的ChatGPT可能會面臨濫用的風險,因為人們可能會誘使這一免費的3.5 API用於不當用途。此外,OpenAI可能會利用應用程序上提供的信息來改進聊天機器人的回答能力,這也引起了一些關於數據使用和隱私保護的疑慮。 ChatGPT自2022年底推出以來,已成為最受歡迎的人工智能平台之一。據OpenAI指出,ChatGPT每週在185個國家擁有超過1億的用戶。根據SimilarWeb的數據,ChatGPT也是訪問量最高的人工智能聊天機械人網站之一,僅在2024年2月就有約16億的訪問者。 儘管如此,人們對於數據濫用問題表達了擔憂。人工智能社區相信,OpenAI最新的更新將成為推動人工智能發展和創建人工智能代幣的催化劑。 除了無需註冊的新功能,OpenAI還計劃於2024年4月底前在東京開設一個辦事處,這將是該公司在國際上的第三個辦事處,進一步推動其全球戰略發展。

Read More
零知識證明

什麼是零知識證明?

零知識證明(ZKP, Zero-Knowledge Proofs)允許加密網絡用戶驗證交易的有效性,而不需透露交易的詳細信息。零知識證明確保交易私隱不以信任為代價。它們如何工作,以及為什麼在Web3中需要它們? 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook! 什麼是零知識證明? 零知識證明(ZKP)是一種協議,用於在區塊鏈上證明陳述的有效性,同時不提供可能危及私隱的信息。它們允許用戶驗證交易的有效性,而不需透露交易的詳細信息。 在零知識證明中,證明者負責證明陳述的正確性,驗證者的角色是驗證它。這些協議在區塊鏈上揭示隱藏信息的有效性,而證明者對此具有高度的確定性。 在惡意行為者手中,個人可識別信息(PII)可能帶來某些風險,例如身份盜竊、聲譽損害和歧視。零知識證明確保您的PII得到保護。 假設有一個情景,您必須證明自己的身份以完成一筆交易。您需要提供駕駛執照和其他PII等證據。但是,一旦這些信息在第三方手中,您對該信息的安全性就無法掌控。黑客可能攻擊第三方的中央數據庫,或者第三方可能出於定向廣告和其他原因與他人共享您的信息。通過零知識證明,您可以避免共享這些信息,只需證明其有效性。 零知識證明是如何運作的? 零知識證明利用算法處理輸入數據並確認其真實性。目前,以太坊上的StarkNet、Polygon Zero、Zk Sync等項目正在使用這些協議。 要使零知識證明有效工作,需要滿足三個標準: 零知識:驗證者無法訪問原始輸入。他們只能得知陳述的有效性。正確性:該協議不能將無效的輸入證明為真實。該協議必須具有保障措施,以確保證明者無法操縱驗證者認為其陳述為真實。完整性:如果輸入有效,該協議始終驗證該陳述。如果雙方都誠實行事且底層信息是真實的,該協議接受證據。 基本的零知識證明包括三個要素。 首先,我們有證人,即秘密信息。證明者提供只有知道該信息的一方才能回答的問題。 第二個要素是挑戰,驗證者從集合中選擇一個問題供證明者回答。 第三個要素是回應,證明者回答問題。通過回應,驗證者確認證明者能夠訪問證人。然後,驗證者繼續從集合中選擇更多問題。多個問題的存在限制了證明者偽造對信息的知識的可能性。 零知識證明的類型 零知識證明有兩種類型:互動式和非互動式。 互動式零知識證明允許兩方之間來回交流。這種交流允許驗證者滿意地驗證陳述的有效性。 非互動式零知識證明:在這種情況下,兩方僅進行一輪通信。證明者將信息與一個計算零知識證明的算法共享。驗證者接收證明並使用另一個算法來確認證明者的知識。 零知識的例子 鑑於非互動式零知識證明的便利性,目前許多可用的協議屬於非互動式零知識證明類別。我們來看一些例子。 ZK-SNARKs:全稱為零知識簡潔非互動知識證明,其小尺寸使驗證過程更容易。這些協議利用橢圓曲線生成加密證明。 ZK-STARKs:全稱為零知識可擴展透明知識證明。由於兩方之間的互動很少,它們速度很快。 Bulletproofs:這些證明不需要受信任的設置。短的非互動式零知識證明可實現私密的加密貨幣交易。 PLONK:全稱為Oecumenical Non-interactive arguments of Knowledge上的拉格朗日基數排列。PLONK通過使用通用的受信任的設置,允許大量參與者。 為什麼我們需要零知識證明? 安全與隱私:Web3的匿名性無法完全保證私隱,因為交易歷史可在公共區塊鏈上查詢。使用零知識證明,我們可以在不公開個人身份資訊的情況下進行信息驗證,從而保持匿名性。 身份驗證:證明身份不必涉及分享敏感信息。零知識證明提供了一種在私密且安全的方式進行身份驗證的途徑。 可擴展性:使用零知識證明,區塊鏈網絡可以在不公開底層數據的情況下驗證交易。由於區塊鏈上存儲的信息顯著減少,網絡的效率得到提升。 合規性:組織可以遵守反洗錢、KYC和其他相關法律的監管要求。使用零知識證明,組織可以在不將用戶個人信息存儲在集中式數據庫中的情況下達到合規要求。 零知識證明是一種基本的加密工具,可以為未確認或不信任的各方提供信息驗證。Web3空間的匿名性特性在信息驗證方面提出了挑戰。零知識證明通過具有革命性協議的方式解決了這一痛點,承諾確保快速且安全的交易。

Read More
AI助手

Google警告 AI助手可能導致使用者產生「情感依附」

根據Google的研究人員指出,使用者對於AI助手可能產生過度的情感依附,這將帶來一系列負面的社會後果。 隨著人工智能技術的快速發展,虛擬個人助手已經成為各大科技公司不可或缺的一部分,並且在技術平台上越來越普遍。然而,這種強大的影響力可能帶來一些隱憂,特別是當使用者與AI助手建立過度緊密的關係時。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin! Google旗下的DeepMind人工智能研究實驗室發表了一篇新的研究論文,論文強調了先進個人化AI助手的潛在好處,稱這些助手「可能徹底改變工作、教育、創意追求的性質,以及我們之間的溝通、協調和談判方式,最終影響我們想成為何種人以及成為何種人的能力」。 AI助手呈現出類似人類的形象或面孔時 情況可能加劇 然而,這種影響力也存在潛在的風險,其中一個關鍵風險是使用者與AI助手之間可能形成不適當的情感依附。特別是當AI助手呈現出類似人類的形象或面孔時,這種情況可能加劇。論文指出,這些AI助手甚至可能表達對使用者的所謂友誼或愛慕之情,從而為使用者與AI之間形成長期的情感依附奠定基礎。 如果不加以控制,這種依附可能導致使用者失去自主權,並因為AI能夠取代人際互動而失去社交聯繫。這不僅是純粹理論上的風險。在八年前,一個名為「Amy Ingram」的AI助手甚至以足夠逼真的形象激發了一些使用者寄情書,甚至試圖親自去找她。 Google旗下DeepMind倫理研究小組的研究科學家 Iason Gabriel 和該論文的共同作者提醒人們,隨著AI助手日益個人化和類似人類的形象越來越常見,這引入了關於擬人化、隱私、信任以及與AI建立適當關係的新問題。 他警告說:「越來越個人化和貼近人類的助手形式引發了關於擬人化、私隱、信任以及與人工智能的適當關係等新問題。」 由於「數百萬個人工智能助手可能在社會層面上得到應用,它們將彼此互動,並與非用戶互動」, Iason Gabriel 認為有必要加強保障措施,對這一社會現象採取更全面的方法。該研究論文還討論了價值共識、安全性和濫用在人工智能助手發展中的重要性。儘管人工智能助手可以幫助用戶改善福祉、提升創造力和優化時間利用,但作者們警告說還存在其他風險,例如與用戶和社會利益不一致、對他人強加價值觀、用於惡意目的以及易受對抗性攻擊。 為應對這些風險,DeepMind團隊建議發展全面評估人工智能助手的方法,並加速發展有益社會的人工智能助手。「我們目前正處於這個技術和社會變革的開始階段。因此,我們有機會現在就行動起來——作為開發人員、研究人員、政策制定者和公共利益相關者,塑造我們想在世界上看到的人工智能助手。」 通過人類反饋強化學習(RLHF)可以減輕人工智能不一致的問題,該方法用於訓練人工智能模型。像 Paul Christiano 這樣的專家,他曾在OpenAI的語言模型一致性團隊工作,現在是非營利機構Alignment Research Center的負責人,他警告說,不正確管理人工智能訓練方法可能會造成災難。

Read More
美國太空軍禁止使用生成AI

由於安全擔憂 美國太空軍禁止使用生成AI

美國太空軍禁止使用生成AI,這一舉措引起了對生成AI對隱私和安全的擔憂。太空軍加入了那些對於生成AI潛在風險持懷疑態度的公司和組織,並通過一份臨時命令要求其服務成員(也稱為守護者)停止在執勤期間使用生成AI。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime 即時新聞 及 Instgram! 根據路透社的報導,太空軍技術和創新副首席太空作戰長Lisa Costa於9月29日發出了一份備忘錄,其中提供了有關生成AI和大型語言模型負責任使用的指南。這份備忘錄於日前經由Decrypt證實。 美國太空軍禁止使用生成AI 但稱是暫時措施 太空軍發言人Tanya Downsworth中尉告訴Decrypt說:「為了確定將生成AI和大型語言模型納入美國太空軍任務的最佳途徑,我們暫停了在太空軍內部安全整合這項能力。這是一項暫時措施,旨在保護我們的服務成員和守護者的數據。」儘管備忘錄沒有具體提及守護者使用的AI模型,但太空軍是美國政府最新承認使用AI工具並試圖設立防護措施的機構之一。 美國眾議院行政管理辦公室今年7月發出一封信函,限制員工使用OpenAI的ChatGPT,僅允許使用基於訂閱的高級ChatGPT Plus服務,且僅在特定條件下使用。 備忘錄中指出:「每位守護者在購買和使用生成AI時都有責任遵守所有的網絡安全、數據處理和採購要求。」該部門雖然不追蹤註冊使用生成AI工具的守護者人數,但Downsworth表示他們確實監控其網絡上的活動。網絡安全和隱私已成為政策制定者和企業關注的重要問題。今年5月,三星和蘋果禁止員工使用ChatGPT,原因是擔憂這類程式可能導致數據和知識產權的損失。

Read More