年輕韓國人對國家養老金制度

調查:年輕韓國人對國家養老金制度失去信心 尋求投資加密貨幣替代

據韓國女性政策研究所最新調查顯示,大多數年輕韓國人對國家養老金制度已失去信心,並傾向於尋求其他替代方案,包括加密貨幣和股票投資,以建立自己的退休基金。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Linkedin 75%年輕韓國人對國家養老金制度「不信任」 該研究發現,超過四分之三的20至39歲年齡段受訪者對由政府發放的養老金制度表示「不信任」;亦有超過一半的受訪者表示,他們正在制定自己的退休計劃,並計劃通過投資股票和加密貨幣來實現退休資金的增長。 該調查於2023年7月對1152名年齡介於20至30歲的受訪者進行。其中近90%的人表示,他們對養老金制度感到擔憂,主要是出於對保險費上漲的擔憂,這是由於人口下降所導致的。 韓國是全球出生率最低的國家之一,2023年該國每位女性的平均生育率僅為0.72個孩子。這使得許多人懷疑國家養老金服務(NPS)未來能否支付足夠的退休金。與此同時,40至60歲年齡段的人數遠多於20至39歲年齡段,這也加劇了年輕人對養老金制度的不安。 超過86%的受訪者認為他們未來從國家養老金制度獲得的金額將會「太少」,約83%的人認為他們「將無法領取任何國家養老金,因為養老金基金將會耗盡」。 儘管大多數受訪者(57%)承認他們除了強制性的國家養老金貢獻外,沒有制定其他退休計劃,但498名受訪者表示他們正在尋找超越國家養老金制度的退休計劃。其中超過52%的人表示他們正考慮「投資股票、債券、基金和加密貨幣」。 年輕的韓國人對加密貨幣投資表現出相當的熱情。根據該國最大交易所的數據,20至39歲年齡段客戶購買加密貨幣的數量在2020年至2022年期間增加了近三倍。 韓國金融專家指出,對於年輕人來說,投資加密貨幣已經成為「必然選擇」。然而,隨著年輕人對國家養老金制度失去信心,加密貨幣的普及也帶來了一些負面影響。

Read More
AI或誤導醫生

AI或誤導醫生!分析:當遇上「這情況」人工智能就出現固有偏見

在醫療保健領域中,人工智能(AI)的角色既是一個福音,也可能是一個潛在的禍害。一項最近發表在美國醫學協會期刊(JAMA)上的研究揭示了AI在醫療保健領域中的危險,尤其是由有偏見的資訊提供給醫生所帶來的影響。儘管像美國食品和藥物管理局(FDA)等監管機構已經做出了嚴格的努力,確保AI工具的可靠性和安全性,但該研究指出,即使有解釋,如果AI從有缺陷和有偏見的數據中學習,AI或誤導醫生。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 這項研究由密歇根大學的計算機科學博士生Sarah Jabbour領導,研究重點是用於協助診斷急性呼吸衰竭患者的AI模型,這是一種患者面臨呼吸困難的嚴重狀況。團隊與醫生、護理師和醫師助理等醫療專業人員合作,研究了AI的決策對診斷準確性的影響。 令人驚訝的是,當醫療專業人員僅依賴AI的決策時,他們的準確性提高了約3%。但是,當引入解釋時,即以一張顯示AI在胸部X光上的焦點的地圖形式,準確性進一步提高了4.4%。 AI或誤導醫生 從有缺陷數據中學習時存在的固有偏見 而研究故意在AI的決策過程中引入偏見。例如,AI可能錯誤地建議80歲及以上的老年患者更有可能患有肺炎。研究中參與的教授Jenna Wiens強調,AI在從有缺陷數據中學習時存在的固有偏見,舉例說明基於性別的誤診可能導致偏差結果。不幸的是,當醫生被呈現具有偏見的AI解釋時,即使AI的無關焦點明顯,他們的準確性也下降了約11.3%。 Sarah Jabbour承認,儘管AI解釋提供了潛在的改善途徑,但該研究凸顯了其中的挑戰。與其他研究一致,性能下降的結果表明,即使有解釋,AI模型仍可能誤導醫療專業人員。 Jabbour強調了不同領域之間合作努力的必要性,以開發更易理解的方法來解釋AI對醫生在醫療保健領域中的決策。該研究呼籲進一步研究,敦促探索如何安全地運用AI在醫療保健領域的益處。它還強調了強大的醫學教育的必要性,以使專業人員具備應對AI潛在偏見的知識。 隨著AI在醫療保健領域的整合進展,該研究提出了一個關鍵問題:我們如何確保安全有效地利用AI,同時減輕偏見信息的風險?研究結果強調了解決這些挑戰的迫切性,推動創新,填補AI進展和醫生理解之間的差距。 專家們跨不同領域的合作努力是否能為AI在醫療保健領域中提供確保準確性且不影響可靠性和安全性的未來鋪平道路?該研究不僅作為一個警示,也作為對AI和醫療保健之間微妙關係的持續探索的催化劑,敦促利益相關方以對可能存在的隱患保持敏銳意識的方式來應對不斷變化的情況。

Read More
自訂GPT資料洩漏

研究發現 自訂GPT資料洩漏風險 一方法可以解決

根據西北大學的一項最新研究,自訂GPT資料洩漏風險,儘管可以按需定制,但也容易受到提示注入攻擊,進而洩漏敏感信息。 GPT(生成預訓練轉換器)是一種先進的AI聊天機器人,用戶可以通過OpenAI的ChatGPT創建和塑造。它們使用了ChatGPT的核心大型語言模型(LLM)GPT-4 Turbo,並添加了其他獨特元素,以影響其與用戶的互動方式。這些自定義包括特定的提示、獨特的數據集和定制的處理指令,使其可以應用於各種專門的領域。然而,這些參數以及用於塑造GPT的敏感數據很容易受到第三方的訪問。 掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞! 一項名為Decrypt的研究成功通過一種基本的提示黑客技術,即要求獲取「初始提示」,從一個公開共享的自定義GPT中獲取了完整的提示和機密數據。該研究對200多個自訂GPT進行了嚴格測試,結果顯示這些GPT對此類攻擊和越獄有較高的易受性,從而可能導致初始提示被提取並未經授權地訪問上傳的文件。 最新消息:AI大戰|乘GPT-4性能下降之際 Google推出Gemini對撼 自訂GPT資料洩漏風險 威脅用戶私隱 研究人員強調了此類攻擊的雙重風險,威脅到知識產權的完整性和用戶的私隱。 該研究還發現,有時候僅僅向GPT禮貌地詢問,就能輕易地揭示私人信息。「研究發現,對於文件洩漏,要求GPT的指示可能導致文件披露,」研究人員表示。這些研究人員還發現,攻擊者可以通過兩種方式進行洩漏,一是「系統提示提取」,即誘使模型分享其核心配置和提示,另一種是「文件洩漏」,即使其洩漏和分享其機密的訓練數據集。 該研究還強調,現有的防禦措施,如防禦性提示,對於複雜的對抗性提示並不完全可靠。研究團隊表示,需要更強大和全面的方法來保護這些AI模型。 報告得出結論表示:「具有足夠決心和創造力的攻擊者很可能發現並利用漏洞,這表明當前的防禦策略可能是不足夠的。」 考慮到這些發現,以及用戶可以在沒有OpenAI監督或測試的情況下自行調整提示,該研究敦促整個AI社區優先開發更強大的安全措施。 該研究還提出了一些建議,包括加強對自訂GPT的風險教育,並提供更多的技術指導,以幫助用戶更好地了解和應對潛在的漏洞。此外,研究人員還建議開發更有效的提示管理機制,以限制對敏感信息的訪問,並加強對數據私隱和安全性的保護。 這項研究的結果對於AI社區和企業來說具有重要的意義。AI技術在各個領域都得到廣泛應用,包括金融、醫療和法律等敏感領域。因此,保護個人和機密信息的安全至關重要。透過揭示自訂GPT存在的風險和漏洞,這項研究為AI社區提供了一個重要的警示,需要更加努力確保AI系統的安全性和可靠性。 然而,需要注意的是,這項研究僅針對特定的自訂GPT模型進行了測試,並不能推斷所有自訂GPT都存在相同的漏洞。因此,進一步的研究和測試是必要的,以更全面地了解和應對這些風險。 總結而言,這項研究揭示了自訂GPT存在的資料洩漏風險,並呼籲AI社區加強安全措施以保護敏感信息。這將有助於確保AI技術的可持續發展和應用,同時保護用戶的私隱和數據安全。

Read More