小心!ChatGPT潛在風險 可能引導用戶進入惡意網站

小心!ChatGPT潛在風險 可能引導用戶進入惡意網站

OpenAI的聊天機器人ChatGPT潛在風險,可能會導致使用者進入惡意網站。根據Futurism的報導,ChatGPT在提供回答時可能會包含連結至充斥著彈出視窗和惡意軟體的網站。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 這一問題在測試ChatGPT對時事新聞的了解時被發現。當用戶詢問有關William Goines的問題時,他是一位獲得銅星勳章並且是海豹突擊隊第一位黑人成員,最近去世,ChatGPT的回答中包含一個指向「騙人的網站」的連結,名為「County Local News」。 ChatGPT潛在風險 可能提供可疑網站的連結 這個網站彈出虛假的警報視窗,並可能以此感染使用者的電腦。報導指出,ChatGPT在其他話題中也可能提供這個網站的連結。 儘管AI開發者已經致力於解決幻覺和防止聊天機械人被惡意使用,然而提供連結至外部網站仍然存在風險。儘管這些網站在AI公司訪問時可能是安全的,但它們可能會在之後被感染或被騙子接管。 業內專家建議開發者建立適當的過濾機制,以防止聊天機器人提供指向惡意網站的連結。這可以通過先進的自然語言處理(NLP)算法來實現,該算法可以訓練聊天機器人識別惡意網址的已知模式。 同時,持續更新黑名單並實時監控網站連結也是必要的。驗證網站連結、域名信譽以及迅速處理任何可疑活動也是至關重要的措施。 專家強調,只有通過人工智慧技術以及人類的審查和監督,開發者才能為用戶創造更安全的環境。這需要與網絡安全專家的密切合作,共同應對不斷出現的新威脅。 ChatGPT準確性成疑 引發私隱投訴 因ChatGPT準確性成疑,引發私隱投訴。奧地利數據權益保護倡議組織Noyb日前向領先的人工智能開發者OpenAI提出了一項私隱投訴,指控其AI聊天機械人ChatGPT生成的錯誤信息並未得到及時處理。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 在4月29日提交的投訴中,Noyb聲稱OpenAI的行動可能違反了歐洲聯盟(EU)的私隱法規。投訴起因是一位未知公眾人物向OpenAI的聊天機械人尋求關於自己的信息的事件。 ChatGPT準確性成疑 OpenAI拒絕更正 據稱,儘管多次要求,OpenAI拒絕更正或刪除這些不準確的數據,並稱這是由於技術限制。此外,該公司還拒絕透露有關其訓練數據和來源的詳細信息。 Noyb的數據保護律師Maartje de Graaf強調了在科技領域遵守法律標準的重要性。他表示:「如果一個系統無法產生準確透明的結果,就不能用於生成關於個人的數據。技術必須遵循法律要求,而不是反過來。」 Noyb已將投訴升級至奧地利數據保護當局,敦促對OpenAI的數據處理實踐以及其大型語言模型處理的個人數據準確性保證機制進行調查。 該組織強調,目前企業在將聊天機械人技術(如ChatGPT)與歐盟的數據保護法律保持一致方面面臨著挑戰。 Noyb,也被稱為歐洲數字權益中心,總部位於奧地利維也納,旨在通過戰略法律行動和媒體倡議來支持歐洲的《通用數據保護條例》法律。 這一事件進一步加劇了人們對聊天機械人技術準確性和合規性的擔憂。與此相似的是,在2023年12月,一項研究揭示了微軟的Bing AI聊天機械人(現稱為Copilot)在德國和瑞士的政治選舉期間提供了誤導性信息的問題。 此外,谷歌的Gemini AI聊天機械人因生成不準確的圖像而受到批評,迫使該公司發表道歉並承諾進行模型更新。

Read More
AI檢測癌症

劍橋研究揭示 AI檢測癌症準確率達98% 涵蓋13種癌症類型

根據劍橋大學的研究人員最新研究,一種名為EMethylNET的新型人工智能(AI)模型在癌症檢測方面取得了令人印象深刻的成果。這項研究指出,EMethylNET利用組織樣本的DNA數據,AI檢測癌症準確率達98%,包括13種不同類型的癌症,這可能有助於加快早期癌症的檢測、診斷和治療。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 該研究結果發表在最近的《生物學方法和協議》期刊上,主要研究了DNA甲基化這一早期癌症發生的化學過程,該過程涉及癌細胞的生成。研究人員通過訓練EMethylNET模型,使其能夠識別早期癌症的結構和通路。 研究指出:「癌症是由200多種不同疾病組成的集合,目前仍是全球主要的致病率和死亡率原因。通常在疾病的晚期進行檢測,轉移性癌症佔癌症相關死亡的90%。因此,早期癌症的檢測對於各種癌症類型的存活和治療將具有重大影響。」 研究人員利用來自癌症基因組圖譜計畫的6,000多個組織樣本的數據對EMethylNET進行了訓練,這些樣本代表了包括乳癌、肺癌和結直腸癌在內的13種癌症類型。接著,他們在來自獨立數據集的900多個樣本上進行了測試。 AI檢測癌症 常見癌症的準確率逾9成 研究的主要結果顯示,在區分13種癌症類型和非癌症樣本方面,EMethylNET模型的準確率超過98%。該研究還強調出該模型在檢測特定癌症類型上的表現,結果顯示,EMethylNET對於乳腺癌、肺癌和結直腸癌等常見癌症的準確率分別為98.5%、97.8%和99.1%。這些結果顯示出EMethylNET在多個癌症類型上的強大檢測能力。 此外,研究人員還與臨床醫師合作,使用EMethylNET對來自病人的組織樣本進行檢測。結果顯示,EMethylNET能夠快速且準確地檢測出早期癌症病徵,這對於早期診斷和治療至關重要。研究人員表示,EMethylNET的高準確率使其成為一種有潛力的非侵入性檢測工具,可以幫助醫生在早期階段識別癌症風險。 相關新聞:V神盛讚人工智能 拆解以太坊最大技術風險為… 然而,研究團隊也指出了一些限制。首先,EMethylNET目前僅基於組織樣本的DNA數據進行檢測,尚未應用於體液樣本,如血液或尿液。其次,該模型的應用還需要進一步的臨床驗證和研究,以確定其在實際臨床環境中的效能和可靠性。 儘管如此,研究人員對EMethylNET的潛力表示樂觀,並希望這項研究能夠為早期癌症檢測和診斷領域帶來重大突破。這項研究的結果提供了一個強有力的證據,表明AI技術在醫療領域的應用潛力,尤其是在癌症檢測和早期診斷方面。隨著進一步的研究和發展,AI檢測工具有望成為未來臨床實踐中的重要工具,幫助提高癌症治療的效果和病人的生存率。 根據國際癌症研究機構的最新估計,每年有超過1900萬例新發癌症病例,1000萬人死於癌症。

Read More
人工智能加密貨幣犯罪

人工智能加密貨幣犯罪最新趨勢 ChatGPT竟用作「輔助」非法活動

區塊鏈分析公司Elliptic最近發布了一份名為「AI助力加密貨幣犯罪的最新趨勢:Elliptic報告」的全面報告。該報告揭示了人工智能(AI)在促成各種加密貨幣犯罪中的不斷上升的問題,並提到人工智能加密貨幣犯罪的五大新趨勢。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 儘管AI在許多行業中都帶來了革命性的變化,但其在加密貨幣領域的濫用正變成一個重大問題。 Elliptic:人工智能加密貨幣犯罪的五大新趨勢 Elliptic的報告確定了在加密貨幣犯罪中利用AI的五個核心類型。第一個也許是最臭名昭著的是使用AI生成的深偽技術。詐騙者常常使用虛假的圖像或視頻來模仿公眾人物,創造出具有說服力的詐騙手法。 相關新聞:分析:AI犯罪將在2024年全面爆發 恐影響多國選舉結果 例如,詐騙分子利用馬斯克(Elon Musk)和前新加坡總理李顯龍(Lee Hsien Loong)等人的深偽視頻來宣傳欺詐性的投資計劃。詐騙分子在TikTok和X.com等社交媒體平台上散布這些深偽短片,欺騙毫不知情的投資者。 為了打擊這些詐騙行為,Elliptic建議注意特定的警示信號。「幸運的是,有一些警示信號可以幫助您避免成為深偽詐騙的受害者。要驗證視頻的真實性,您可以檢查唇部運動和聲音是否同步,確認陰影是否出現在預期位置,並檢查面部活動(如眨眼)是否自然,」Elliptic指出。 另一種由AI促成的普遍犯罪是創建詐騙代幣。在許多區塊鏈中,創建新代幣相對容易,詐騙分子利用這一點為其詐騙計劃製造炒作和人為操縱價格的機會,然後進行「拉地毯」、「唱高散貨」」騙局。 名稱中提到AI的代幣,如「GPT」,特別受到瞭解的選擇。Elliptic的調查揭示了許多涉及此類代幣的退出詐騙,強調在代幣投資中需要保持警覺。網絡犯罪分子還利用ChatGPT等大型語言模型來輔助其非法活動。這些AI工具可以生成新代碼或審核現有代碼,這可能被濫用來識別和利用漏洞。 雖然像微軟和OpenAI等公司報告了俄羅斯和朝鮮等國家行為者的惡意使用情況,但該技術尚未達到可以持續成功進行網絡攻擊的程度。然而,黑暗網絡論壇上出現的HackedGPT和WormGPT等不道德AI工具的出現對安全構成了重大威脅,它們提供釣魚、惡意軟件創建和黑客攻擊等服務。 AI與加密貨幣的交叉點:揭示的機遇與威脅 AI還在自動化詐騙部署方面產生了影響。某些詐騙行為涉及創建虛假投資、空投或贈送網站,並在社交媒體和即時通訊應用程序中廣泛宣傳。 一旦被曝光,這些網站就會被棄置,然後再次以全新的網站和營銷方式重新開始。AI被用於簡化這個循環過程,使其更高效且難以追踪。 身份盜竊和虛假文件的製作一直是暗網的常見手法。現在,一些服務正在整合AI來擴大其操作規模。例如,有一個宣傳使用AI生成高質量假身份證和護照的文件渲染服務。 「Elliptic已經確定了一個加密貨幣地址,用於支付給該服務,該服務在一個月內收到足夠的支付以生成近5,000個假文件,」該公司補充道。 今年1月,商品期貨交易委員會(CFTC)發布了一份有關以AI為動力的詐騙的消費者警示。該機構對通過加密貨幣套利算法和其他AI輔助技術承諾巨額回報的詐騙計劃發出了警告。 CFTC強調,詐騙分子往往做出虛假承諾,利用公眾對AI的著迷。其中一個著名的詐騙案例導致了30,000比特幣(BTC)的損失,當時價值約17億美元。的確,AI和加密貨幣的交叉點既帶來了巨大的機遇,也帶來了重大的挑戰。儘管AI可以增強加密貨幣的安全性和效率,但其被濫用的潛力凸顯了對策的需要,這需要有計劃且具備專業知識的回應。通過了解這些新趨勢,利益相關者可以更好地保護加密貨幣生態系統,防範犯罪策略的演變。

Read More
AI採用率

報告指全球AI採用率達72% 生成式AI使用量在2024年翻倍

根據全球管理咨詢公司麥肯錫的最新研究,全球各地的企業和組織正以越來越高的速度採用人工智能(AI),全球AI採用率達72%,特別是生成式AI的應用量在2024年成長了一倍。亞洲和中國在AI採用方面處於領先地位,而失業問題逐漸不再是商業優先事項。 全球AI採用率達72% 至少一個業務功能中採用AI 根據這份調查涵蓋了1363名受訪者的結果,有72%的受訪者表示他們的組織在至少一個業務功能中採用了某種形式的AI。這一比例相比一年前的約50%有了顯著增長。另外,65%的受訪者表示他們的組織定期使用生成式AI,這一比例是去年報告中33%的兩倍。 AI和生成式AI的影響已經跨越國界和行業。去年,全球任何地區的AI採用率都沒有超過66%,但今年幾乎每個地區的超過三分之二的受訪者報告稱他們的組織正在使用AI,其中亞太地區和中國的增長最快。 該研究是在2024年初進行的,在網上調查收集了1363名參與者的回應。麥肯錫表示,這份數據集可以代表各個地區、行業、公司規模、職能專業和任期的全面範圍。為了調整不同參與國家的回應率差異,麥肯錫使用全球國內生產總值(GDP)的貢獻加權來評估數據。 去年,麥肯錫發表了一份報告,指出「生成式AI每年可能為全球經濟增加2.6萬億至4.4萬億美元的價值」,相當於整個人工智能的經濟影響的15%至40%。 雖然AI是一個廣泛的術語,包括各種旨在模擬人類智能的技術,但生成式AI是AI的一個特定子集,專注於創建新的內容。傳統的AI系統通常分析和解釋數據,基於現有信息做出決策並解決問題。但生成式AI使用深度學習技術生成與訓練數據集相似的新數據,包括文字、圖像、音樂甚至有限的3D世界。 從行業角度來看,AI的使用量在專業服務行業中增長最快,包括人力資源、法律服務和管理咨詢等領域。組織正在利用AI在需要人類互動進行重複任務的領域中的威力。

Read More
NVIDIA市值超越蘋果

NVIDIA市值超越蘋果 突破3萬億美元 人工智能代幣抛售潮

晶片巨擘NVIDIA市值突破3萬億美元大關,已超越蘋果公司。與此同時,隨著交易量激增10%,典型的「買消息賣事實」局面展開,AI代幣價格出現拋售潮。 NVIDIA市值超越蘋果 「按每名員工計算價值高達1.02億美元」 數據顯示,在最近一個交易日,僅次於GameStop的GME股票,英偉達是成交量第二大的股票。此前,這家晶片製造商進行了10比1的股份分拆,這將讓公司員工和散戶能以更實惠的價格輕鬆購買NVDA股票。 加密監視工具Radar在一則貼文中強調:「英偉達突破3萬億美元市值,按每名員工計算價值高達1.02億美元。」 數據顯示,NVDA股票的價值現在是蘋果(AAPL)股票的5倍。在分拆後,NVDA股價曾衝高至120美元,後來回落至目前的102美元。最近,英偉達公司的市值超越羅素2000指數,成交量高達459.4億美元,創6月3日新高。 儘管美國商務部最近決定,對出口AI處理器到中東數國實施新的限制,目的是解決安全隱患,避免高性能晶片被轉售到中國。美國商務部的公告指出:「對於最尖端技術,我們通過部際程序進行全面的盡職調查,徹底審查申請者打算將這些先進技術運往世界各地的許可申請。」 由於晶片製造商AMD和英偉達在出口AI加速器時遇阻,需獲得許可審批已放緩,NVDA股價在5月底曾一度受挫。在此之前,外界普遍預期與AI和大數據相關的加密代幣將出現漲勢,尤其是在NVIDIA股價超越蘋果後。此番預期源於AI代幣價格與該GPU巨頭的往績事件存在正相關性。 AI代幣交易量大增 NVIDIA10比1分拆一事引發了市場對AI相關加密貨幣的興趣,投資人廣泛猜測其可能影響。其中,Render(RNDR)價格在週日上漲5%,從8.921美元的低位攀升至9.262美元的高位。同樣,Near Protocol(NEAR)也上漲3%,而Injective(INJ)價格則飆升10%,至29.31美元的當日高位。 NVIDIA崛起的背後:AI代幣能否持續上升? 此番漲勢是典型的「買傳聞」局面,而在一貫的「賣消息」反應中,這些代幣價格隨之下跌。AI加密幣的交易量增長10%,顯示出大規模獲利了結的跡象。因此,AI加密貨幣的總市值下滑近3%,至348億美元。 「買傳聞、賣消息」策略解析 「買傳聞、賣消息」是一種基於預期市場對謠言、事件或新聞的預期反應的逆向交易策略。投資人試圖在信息被廣泛傳播和消化之前,先一步行動來獲得價格波動中的利潤。該策略的運作模式是,當傳言指向某個可能對資產價格產生正面影響的事件時,有識之士可能會根據推測買入資產。 一旦消息公布,前提是市場已為預期中的事件定價,拋售潮隨之而來。這讓提前介入的人得以實現獲利。

Read More
ChatGPT整合到iPhone

馬斯克:如蘋果將OpenAI的ChatGPT整合到iPhone 將禁止公司使用蘋果設備

特斯拉創辦人馬斯克威脅稱,如蘋果將OpenAI的ChatGPT整合到iPhone、iPad和Mac的操作系統中,他將禁止在自己的公司使用蘋果設備。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 這一整合在蘋果最近的一次活動中才剛剛宣布。馬斯克在6月10日的一篇X文中強調:「如果蘋果將OpenAI整合到操作系統層面,那麼蘋果設備將在我的公司被禁止使用。這是一個無法接受的安全違規行為。」 馬斯克甚至建議來訪特斯拉、太空探索技術公司和其他公司的訪客需要將他們的蘋果設備「存放在法拉第籠」中。 相關新聞:ChatGPT準確性成疑 引發私隱投訴 蘋果將OpenAI的ChatGPT整合到iPhone Siri在必要時將用戶的問題轉發給ChatGPT 蘋果在週一的年度 WWDC(蘋果全球開發者大會)上宣布,將在 Siri 中引入 ChatGPT。蘋果證實了與 OpenAI 的長期傳聞合作,作為新一代「蘋果智慧」升級的關鍵組成部分,將應用於 iOS 18、MacOS 18 和 macOS Sequoia。這是自 2011 年推出以來對蘋果數字助理進行的最大改進。 在開發者大會上,這家科技巨頭公開了一套名為「蘋果智能」的全新生成式人工智能功能,將於今年稍後推出iOS 18、iPadOS 18和macOS Sequoia。 蘋果用戶將能夠在其蘋果設備上使用 OpenAI 的領先工具組,包括最新的 ChatGPT-4o AI 模型,但 Siri 將首先徵求使用者的許可。 「我們已經加入了 Siri 的支援,這樣 Siri 就可以在適合的時候利用 ChatGPT 的專業知識為您提供幫助。」蘋果軟體工程高級副總裁 Craig Federighi 在演示中表示。「您將能夠免費使用 ChatGPT,無需創建帳戶,您的請求和資訊將不會被記錄。」 「對於 ChatGPT 的訂閱用戶,您將能夠連接您的帳戶並在我們的服務中使用付費功能,」他補充道。 其中一項功能將使蘋果的語音助手Siri在必要時將用戶的問題轉發給ChatGPT。該功能會在將問題、文件或照片發送到ChatGPT之前先向用戶進行確認,然後由Siri直接呈現答案。該功能將由GPT-4o提供支持,這是OpenAI的最新ChatGPT版本。 馬斯克:蘋果無法自主創建自己的人工智能「是明顯荒謬的」…

Read More
工作中使用生成式AI

近九成香港知識型員工於工作中使用生成式AI LinkedIn:AI反令新工種增加

微軟香港與職場社交平台LinkedIn昨日(3日)共同發佈《2024年工作趨勢指數》年度報告,揭示現時香港職場上使用人工智能(AI)的情況。報告訪問了包括香港在內的31個國家及市場,共3.1萬位來自各行各業的員工。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 報告指出,專業人士在個人檔案中增加AI(人工智能)技能的趨勢顯著上升,大多數企業領導層表示他們不會聘請缺乏AI技能的求職者。另一方面,許多員工開始在工作中使用個人版的AI工具,領導層在技術變革前需要一個周詳部署,從AI應用的實驗階段,過渡至利用AI對業務帶來具體影響的時期。 近9成員工於工作中使用生成式AI 報告顯示,有88%的香港知識型員工於工作中使用生成式AI,高於全球75%及亞太區83%平均水平。其中,86%使用自己的AI工具。香港的企業領導層在進行AI部署前,亦會進行全面思考,有23%的AI活躍用戶可能已聽過其行政總裁分享在工作中使用生成式AI的重要性。同時,企業需更加注重關於AI指令的培訓和為特定職能而設的AI使用案例,報告顯示,只有14%的本地AI活躍用戶可能接受過為其特定職能而設的AI培訓。 AI改變招聘標準 AI亦刷新了企業招聘的標準,並打破員工職涯發展的限制,77%的香港企業領導層傾向聘請經驗較少但擁有AI技能的求職者,而非經驗較豐富但缺乏AI技能者,這一數字略高於全球71%的水平。LinkedIn表示,平台上的招聘廣告中提到AI的信息錄得17%的增長,這反映了專業人士培養AI能力的逼切性和重要性。 企業內部AI轉型的步驟 微軟香港及澳門區總經理陳珊珊指出,員工使用自己的AI工具帶來企業數據安全風險,建議採用企業級的AI解決方案。她表示,企業管理層面臨兩大挑戰:數據私隱、版權、網絡安全、可靠性等技術挑戰以及投資回報率、系統整合等適應性挑戰。為保持競爭力,企業領導層應加快AI轉型,可先培育一群AI活躍用戶,以關鍵群體起步,並且在提供AI工具的同時展開全面培訓。 企業級AI解決方案 自去年起,微軟逐步向香港企業用戶開放企業級GPT功能,現時約有八成香港客戶使用AI相關產品,但規模仍然偏小。報告建議企業領導層可以利用員工對AI的熱情,培養一群AI活躍用戶作計劃內部提倡者或關鍵群體,以傳播AI轉型的影響力,激勵更多員工使用AI來提升企業整體業務運作的效率。同時,開展企業全面的AI培訓以推動持續改革,例如為不同職能而設的AI培訓和AI指令培訓,以提升員工技能,並為企業挽留和吸引更多優秀的人才。 員工自行使用AI工具的風險 調查顯示,儘管85%的香港企業領導層認為需採用AI保持競爭力,但有66%的領導層擔心企業缺乏實踐計劃和願景。由於對數據私隱、版權等存在疑慮,加上投資回報率(ROI)考量,香港企業領導層的AI部署相對緩慢。員工不會等待企業部署,開始自行在工作中使用AI,香港有86%的AI用戶把自己的AI工具帶到工作中,令企業數據安全面臨威脅, LinkedIn:AI反令新工種增加 LinkedIn香港及台灣地區人才方案主管及總經理吳薇薇就指,自ChatGPT興起後,在兩個工種網上職位說明書 (Job description) 有提及對AI技能的要求,增加了21倍,包括工程師、通用工作。 吳薇薇更指,因生成性AI流行,更衍生了新的工種:「我們見過一間律師行,請一個工程師」。她坦言,外界不少提到AI會取代人類工作,「但其實它都創造了一些新的工作」,如律師行見到應由AI去令公司更有效率的可行性。 隨今年畢業生將投入社會,吳薇薇就建議,網上有不少AI coach,可以檢視學生的履歷,可向AI查詢日後打算投生那個行業的工作,它會建議求職者學習那一些工作。 吳薇薇續指,不論是新入行還是在職人士,都會建議使用不同應用的AI coach,而LinkedIn每星期都會加入新的課程,「就是根據出面的skills,做一些新的training。」

Read More
髮再生

髮再生創辦人黃創安兒子自立門戶開HairCoSys 推脫髮檢測AI 數據揭港男脫髮最大原因為…

脫髮年輕化,成為全球都市人都要面對的問題。在電視電台經常出現的「髮再生」,其創辦人黃創安兒子黃浩然近年成立了AI人工智能檢測頭髮初創公司HairCoSys ,成為首個從外觀到微觀地、以照片綜合分析頭髮健康的AI模型。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 香港科技大學電子工程學碩士畢業的黃浩然,先後從事從事晶片設計、金融貿易等工作,至數年前加入髮再生,約兩年半前創業。他接受CFTime專訪時表示,創業的一個契機是:「爸爸有一個問題就係,點解好多人搵佢(治療脫髮)時,往往都係很遲。」當時他就游說父親「可不可以你放我出去,給我幾年時間,有沒有機會做得好呢?」目標就是提早處理所有人的脫髮問題。 髮再生創辦人黃創安兒子黃浩然:「日日睇AV都厭,睇頭皮相真係睇到眼凸!」 HairCoSys透過AI,開發出能識別多種頭髮和頭皮狀況技術,成為首個從外觀到微觀地、以照片綜合分析頭髮健康的AI模型。只要下載設計簡單的手機應用程式,任何人隨時隨地拍幾張照片,就可以得到AI客觀的頭髮健康狀況分析、護髮建議及美髮貼士,更有個人化的產品、服務和療程建議。 過去不少第二代創業,都憑家族資金令公司開始時得以順利發展,而髮再生予HairCoSys最大的「資產」,反而是一張張頭髮圖片。當中HairCoSys決定使用AI技術,就與這些相片有關,黃浩然笑指創業初期:「睇AV都厭,睇頭皮相真係睇到眼凸!」當時他就思考,有沒有辦法將AI套用到頭髮檢查上面,於是決定設立人工智能模組來代替肉眼。 HairCoSys成立半年後,便加入了科技園,除了獲得辦公室、資金等援助之外,最重要是在旗下數據中心協助下,迅速令AI學習「讀取」頭皮照片,黃浩然指:「我哋依照不同的症狀嚟將相片分類,足足用咗一年時間。」 AI經多次升級,現時技術上已可憑照片判斷脫髮的情況「先拍幾張照片,就決定了你是是不是因為嚴重,還是初步的問題」。接著就可以用鏡頭在頭皮拍幾張照片,「可以知道有什麼症狀,例如頭皮、頭油、頭線、頭瘡等等。」而AI亦可作頭髮「量化分析」,包括數量、粗幼度及密度。 坊間檢測頭皮的服務累見不鮮,但不少檢測後,就沒有下文,「而我哋就同唔同公司合作,有一個 recommendation,例如提供返合適嘅洗頭水、treatment等等。」 現時公司正以B2B(企業與企業)為主,客戶主要為髮型屋、 hair spa、植髮診所、護髮產品零售店等。問到為何不以香港為主要市場,黃浩然坦言,以髮型屋為例,不少香港都是以各髮型師夾租為主,「試過有啲髮型師想用、有啲唔想,分佣方面就比較困難」,而發展海外市場「一嚟怎樣可以將香港的科技帶出去不同的地方,以及我想受益的人更多。」而會否害怕競爭對手購買數據,他就解釋:「大黃生都鼓勵我咁做,不如畀多啲人知道,究竟有咩問題。」 「港男頭油問題特別誇張」 問到香港人的數據有什麼特別的地方,黃浩然就指,香港人頭油問題最為嚴重,「男人特別誇張」,「當他早上當起床的時候有洗頭,就是他還沒吃飯前,十點前就已經覺得有油」他建議有這個問題的男性,就要開始正視;而女性來說,要留意她們的髮界,「如果明顯比之前闊,就要留意!」 他亦指,不少英國男士都有脫髮問題,反而女士沒有,除了遺傳之外,原來跟習慣有關,「因為英國男人可能未必經常都洗頭!」 成功打贏各國生物技術產品有原因 去年HairCoSys獲得香港城市大學HK Tech 300天使基金,而今年4月隨城大團隊參加第 49 屆日內瓦國際發明展(IEIG),更榮獲金獎。 黃浩然指,當地各國參加者不乏科學家、生物科技專業團隊,「我記得評判當初聽完我哋present之後,就即刻講Oh amazing!」黃浩然認為獲獎的原因之一,是對比其他生物技術產品,「落地時間很長,用嘅人未必多」,「我哋只要影張相,已經可以幫到全世界嘅人,落到地嘅成數有幾高,依個係好關鍵。」 黃浩然亦指,公司目前計劃開拓國際市場,包括歐美、東南亞及中東地區,當中包括土耳其,「嗰度係全球最多植髮醫務診所嘅地方」。近月公司亦積極發展BtoD(data數據)市場,期望令髮再生多年來集得的數據得以發揚光大。 訪問後段,他不忘提醒CFTime讀者,頭髮周期最長為六年,當中有四年就是生長期,「如果生長期只係兩年,到甩個時先去處理,其實已經太遲。」

Read More
馬斯克計劃建造一座超級計算工廠

據報馬斯克計劃建造一座超級計算工廠

Tesla創辦人據報馬斯克計劃建造一座超級計算工廠(Gigafactory of Compute),以推動人工智能(AI)的發展。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 最近,馬斯克表示,他預計到2024年底,他的xAI將能夠迎頭趕上OpenAI和DeepMind Google。這位億萬富翁的xAI打算與Oracle合作,共同打造一台超級計算機,用於驅動其「Grok」人工智能大型語言模型的下一個版本。 馬斯克計劃建造一座超級計算工廠 旨在用於培訓和開發Grok AI系統 據《The Information》報導,xAI向利益相關者展示的演示文稿稱該項目被形容為「計算超級工廠」,旨在用於培訓和開發公司下一代的Grok AI系統。早在今年4月,Cointelegraph報導稱,馬斯克曾計劃以150億美元的估值籌集40億美元,並隨後表示這些資金將用於將GPU數量從約1萬提升到10萬。 稍後有報導指出,由於投資者的高度興趣,馬斯克將目標提高到180億美元的估值,並計劃籌集60億美元。 如果《The Information》的消息屬實,而且xAI打算建造一台超級計算機,那麼這些資金很可能用於將10萬台GPU集群轉變為統一的超級計算架構,或者正如xAI所稱的「計算超級工廠」,這個比喻是源於特斯拉被稱為「Gigafactories」的工廠。 這些舉措是在馬斯克開始提高對公司能力和實現其建立超越人類認知能力的AI的最終目標的期望。在巴黎舉行的2024年VivaTech大會上,馬斯克對與會者表示,他相信到2024年底,xAI將趕上行業領先者OpenAI和DeepMind Google。他還表示,他相信到2025年底,AI系統將能夠在所有方面超越人類。 這位全球最富有的人指出,這樣的AI系統將能夠取代所有人類的工作,使我們開始質疑自己的存在意義。他問道,「如果電腦和機器人能夠比你做得更好,那麼你的生活還有意義嗎?」 同時,馬斯克承認,也許我們在未來的角色將是「賦予AI意義」。他的言論提高了對該公司能力和實現其目標的期望。

Read More
ChatGPT傳播虛假信息

歐盟數據監管機構指責 ChatGPT傳播虛假信息

根據一份最新報告,ChatGPT仍未達到歐盟的數據準確性標準,指ChatGPT傳播虛假信息。歐盟表示OpenAI為使ChatGPT符合規定的努力是「不足夠的」。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 對OpenAI對用戶安全的承諾產生了質疑 根據歐盟隱私監管機構的報告,OpenAI的病毒式聊天機器人ChatGPT仍未達到歐洲聯盟的數據準確性標準。歐洲數據保護委員會(EDPB)的報告並非法律文件,但它將為歐盟27個成員國對ChatGPT進行監管提供共同的方法。 ChatGPT傳播虛假信息 未達到數據標準 去年,各國監管機構在幾個歐洲國家對這一人工智能模型的持續案件刺激下組成了「ChatGPT工作組」。該工作組隸屬於EDPB。 相關新聞:ChatGPT準確性成疑 引發私隱投訴 該工作組在5月24日發表的報告中表示: 「儘管採取的措施符合透明原則,有助於避免對ChatGPT輸出的誤解,但這些措施不足以達到數據準確性原則。」 大型語言模型(LLMs)以「幻覺」而聞名,即指人工智能聊天機器人自信地傳播虛假信息。 像ChatGPT或Google的Gemini這樣的聊天機器人都使用LLMs。根據歐洲嚴格的《通用數據保護法規》(GDPR),用戶可以對被誤傳或未能更正有關自己的不準確信息提起訴訟。 根據工作組的報告,「由於(AI)系統的概率性質,當前的培訓方法導致的模型可能也會產生有偏見或捏造的輸出。」 「ChatGPT提供的輸出可能被最終用戶視為事實準確,包括與個人有關的信息,而與其實際準確性無關,「它補充道。歐盟加倍重視合規性。OpenAI此前曾以技術複雜性為由未能更正虛假信息,但歐盟監管機構正在加倍努力。 「特別是,無法通過技術上的不可能性來證明不符合這些要求是無法接受的。」工作組指出。 在一個新開的案例中,一位奧地利公眾人物正在起訴ChatGPT未能更正他們的出生日期。OpenAI表示這樣做在技術上是不可行的,但這份新報告將對這一人工智能模型施加壓力。 與該案件有關的數據保護律師Maartje de Graaf表示,目前公司無法使人工智能聊天機器人符合有關處理個人數據的歐盟法律。 「如果一個系統無法產生準確和透明的結果,就不能用它來生成關於個人的數據。技術必須遵循法律要求,而不是反過來,」de Graaf表示。OpenAI的安全問題引起關注。 專家表示,為了避免違反歐盟的《通用數據保護法規》,ChatGPT將需要進行雄心勃勃的改變,該法規對歐洲聯盟的數據保護進行了規定。 這些規則還為阿根廷、巴西、智利、日本、肯尼亞、毛里求斯、南非、韓國、土耳其和英國的數據法提供了一個工作模型。與此同時,OpenAI對用戶安全的承諾受到質疑。 該公司遭遇了一系列知名人士的離職,其中包括聯合創始人Ilya Sutskever、Gretchen Krueger、Jan Leike和其他半打人,這些人提出了文化轉型的論點。 本週早些時候,OpenAI宣布暫停ChatGPT語音“Sky”,因為有人擔心它與女演員Scarlett Johansson在AI主題電影《Her》中的聲音相似。

Read More