在持續致力於打造安全且透明的 AI 未來之際,Google推出了三款新生成式AI ,旨在提升人工智慧的安全性和透明度。這些模型是 Google Gemma 2 系列的一部分,旨在比許多現有模型更安全、更高效且更透明。
即加入CFTime TG 讨论区!想掌握最新加密市场动态与 AI 新闻与资讯,更能随时获得免费 web 3入场券!CFTime Whatsapp 討論區!仲有 CFTime Facebook 同 IG!
Google 在其網站上的部落格文章中表示,這些新模型——Gemma 2 2B、ShieldGemma 和 Gemma Scope——建立在 5 月推出的原始 Gemma 2 系列的基礎之上。
Google Gemma 2 2B 是一款輕量級模型
與 Google 的 Gemini 模型不同,Gemma 系列是開源的。這種方法反映了 Meta 在其 Llama 模型中的策略,旨在為更廣泛的受眾提供可訪問且強大的 AI 工具。
Gemma 2 2B 是一款輕量級模型,用於生成和分析文字。它功能多樣,可以在各種硬體上運行,包括筆記型電腦和邊緣設備。根據 Google 的說法,它能夠在不同環境中運作,使其成為尋找靈活 AI 解決方案的開發人員和研究人員的誘人選擇。
同時,Google 表示,ShieldGemma 模型專注於通過充當安全分類器集合來增強安全性。ShieldGemma 旨在檢測和過濾有害內容,包括仇恨言論、騷擾和色情內容。它在 Gemma 2 之上運作,提供一層內容審查。根據 Google 的說法,ShieldGemma 可以過濾生成模型的提示和生成的內容,使其成為維護 AI 生成內容完整性和安全性的寶貴工具。
Gemma Scope 模型允許開發人員更深入地了解 Gemma 2 模型的內部運作
Gemma Scope 模型允許開發人員更深入地了解 Gemma 2 模型的內部運作。根據 Google 的說法,Gemma Scope 由專門的神經網路組成,有助於解開 Gemma 2 處理的密集、複雜資訊。通過將這些資訊擴展為更易於理解的形式,研究人員可以更好地了解 Gemma 2 如何識別模式、處理數據並做出預測。這種透明度對於提高 AI 的可靠性和可信度至關重要。
Google 推出這些模型也正值微軟工程師 Shane Jones 發出警告之際,他對 Google 的 AI 工具生成暴力和色情圖片以及無視版權表示擔憂。
這些新模型的發布恰逢美國商務部發布的一份初步報告,該報告認可了開放式 AI 模型。該報告強調了讓生成式 AI 更容易被小型公司、研究人員、非營利組織和個人開發人員訪問的好處。
然而,它也強調了監控這些模型以防潛在風險的重要性,突出了對 ShieldGemma 等安全措施的需求。