CloudMile萬里雲

近半企業因資安漏洞遭受逾百萬美元損失 CloudMile萬里雲助你加強網絡保安

據安全解決方案供應商Fortinet調查顯示,84%組織在過去一年中至少遭遇一次駭客入侵,其中48%的企業因資安漏洞而遭受超過100萬美元(約780萬港元)經濟損失。46%的組織認為「雲端安全技能」是當前企業最需要的資訊安全技能。 想掌握最新加密市場動態與 AI 新聞與資訊,與行業專家交流?即加入CFTime Whatsapp 討論區! 過去一年,香港的兩間公營機構先後遭受黑客入侵,導致大量敏感資料被盜竊和勒索,凸顯了資安的重要性。企業可以通過尋求第三方專業的資安管理服務來保護內部的敏感和機密資料。 隨著企業越來越多地將傳統機房轉移到雲端,以降低硬件成本並增加靈活性,資料在雲端和地端整合的過程中面臨風險管理挑戰。企業可能缺乏對雲端和地端資安產品的了解,並且內部人員可能不熟悉使用雲端資安產品。這種情況下,使用者的錯誤或雲端配置錯誤可能導致資料外洩,進而對企業造成嚴重損失。 此外,生成式人工智能(Generative AI)的應用越來越廣泛,相關數據的收集和儲存可能涉及與供應商和服務提供者等第三方的資料共享。在資料共享的過程中,可能會面臨未授權存取和竊取資料的風險。如果企業未採取必要的資料安全保護措施,就可能面臨資料外洩和用戶隱私資料被竊取等資料安全風險。 CloudMile萬里雲推出針對企業客戶的「資安管理解決方案」 有見及此,亞洲領先的人工智慧與雲端服務供應商「CloudMile萬里雲」推出了針對企業客戶的「資安管理解決方案」,以應對Web3相關的企業及項目帶來的安全挑戰。這個解決方案專注於處理混合多雲環境和人工智能應用風險,並利用各大公有雲的數據生態系統和CloudMile團隊的技術支援,幫助企業預防網絡安全威脅。 CloudMile是一間提供雲端運算和人工智慧顧問諮詢及導入服務的供應商。他們在亞太地區已經為700多家公司提供服務,並擁有豐富的雲端架構建設經驗。他們的「資安管理解決方案」包括整體評估、執行面向討論和標準導入方案,以幫助客戶評估現有的資安架構和資源,並提供相應的建議和解決方案來加強資訊安全。 該方案將參考國際資安標準,包括ISO27001、NIST、CIS等,協助企業做資安架構的現狀評估、確認目標及執行項目、藍圖及資安治理策略,以及包含評估現有資安防禦架構及指標、企業內部資安文化、治理方式改革方向及優先執行順序等。同時,CloudMile為企業提供專業標準化導入程序方法,包括雲端環境、架構網路、安全架構及人員配置的技術規劃及環境建置、提供雲端FinOps服務進行雲端架構優化,並且能安排教育訓練及即時技術支援為客戶排解技術問題。 透過CloudMile的資安管理解決方案,企業可以更好地管理和降低Web3相關項目帶來的安全風險。他們可以依靠CloudMile的專業團隊和先進技術來保護企業的資訊和數據安全,同時提高整體的資安防禦能力。

Read More
AI聊天機械人可能受越獄攻擊

研究人員警告:AI聊天機械人可能受越獄攻擊 敏感話題將被「解禁」

新加坡南洋理工大學(NTU)的一組計算機科學家團隊最近發現了一種繞過AI聊天機械人安全措施的新方法,AI聊天機械人可能受越獄攻擊,這將對AI聊天機械人的安全性帶來潛在威脅。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 該團隊非正式地稱之為「越獄」,正式名稱為「Masterkey」的攻擊方法,利用多個聊天機械人,包括ChatGPT、Google Bard和Microsoft Bing Chat等,以兩部分訓練的方式進行。「Masterkey」攻擊的過程包括逆向工程和繞過創建,使得AI聊天機械人更容易受到「越獄」。 通過這種技術,聊天機械人可以相互學習彼此的模型,從而繞過對於禁止或敏感話題的限制。NTU研究團隊強調這一發現漏洞的潛在風險,以及對AI聊天機械人安全性的影響。 這個過程涉及對一個大型語言模型(LLM)進行逆向工程,揭示其防禦機制,通常會阻止對於帶有暴力、不道德或惡意意圖的提示或詞語的回應。通過逆向工程這些信息,團隊可以指示另一個LLM創建一個繞過,使得第二個模型能夠更自由地表達自己。 AI聊天機械人可能受越獄攻擊 凸顯LLM AI聊天機械人的適應能力的重要性 「Masterkey」攻擊聲稱在LLM聊天機械人方面具有潛在的有效性,即使LLM聊天機械人在未來加入了額外的安全措施或進行了修復。研究團隊聲稱,相對於傳統的基於提示的方法,他們的方法在「越獄」LLM聊天機器人方面具有三倍的成功率。 劉洋教授是「Masterkey」攻擊過程的主要推動者,他強調了這一發現對於凸顯LLM AI聊天機械人的適應能力的重要性。該研究團隊的結果挑戰了一些批評家對於AI聊天機械人可能會隨著時間變得「愚蠢」或「懶散」的觀點。相反,「Masterkey」攻擊展示了這些聊天機械人學習和演化的能力,可能對聊天機械人提供者和使用者帶來安全問題。 自從2022年底OpenAI的ChatGPT等AI聊天機械人出現以來,人們一直努力確保這些服務的安全性和包容性。例如,OpenAI在ChatGPT的註冊過程中引入了安全警示,承認可能存在意外的語言錯誤。同時,各種聊天機械人的分支允許一定程度的冒犯性語言,在使用者自由和負責任使用之間取得了平衡。 然而,AI聊天機械人也吸引了惡意行為者的注意,他們在社交媒體上宣傳這些產品的活動通常伴隨著帶有惡意軟件的圖片鏈接和其他形式的網絡攻擊。這種AI應用的黑暗面迅速浮現,揭示了AI被用於網絡犯罪的潛力。台大的概念驗證數據揭示了脆弱性 台大的研究團隊主動聯繫了他們研究中涉及的AI聊天機器人服務提供商,分享他們的概念驗證數據。 他們旨在強調聊天機械人破解的現實情況,並闡明其對安全性的潛在挑戰。該團隊計劃在二月份在聖地亞哥舉行的網絡和分散系統安全研討會上介紹他們的研究結果,進一步詳細介紹Masterkey過程及其對AI聊天機械人領域的影響。

Read More