AI或誤導醫生!分析:當遇上「這情況」人工智能就出現固有偏見

AI或誤導醫生

在醫療保健領域中,人工智能(AI)的角色既是一個福音,也可能是一個潛在的禍害。一項最近發表在美國醫學協會期刊(JAMA)上的研究揭示了AI在醫療保健領域中的危險,尤其是由有偏見的資訊提供給醫生所帶來的影響。儘管像美國食品和藥物管理局(FDA)等監管機構已經做出了嚴格的努力,確保AI工具的可靠性和安全性,但該研究指出,即使有解釋,如果AI從有缺陷和有偏見的數據中學習,AI或誤導醫生。

掌握最新加密市場動態與 AI (ChatGPT)新聞與資訊,請即追蹤 CFTime Facebook 及 Google 新聞

這項研究由密歇根大學的計算機科學博士生Sarah Jabbour領導,研究重點是用於協助診斷急性呼吸衰竭患者的AI模型,這是一種患者面臨呼吸困難的嚴重狀況。團隊與醫生、護理師和醫師助理等醫療專業人員合作,研究了AI的決策對診斷準確性的影響。

令人驚訝的是,當醫療專業人員僅依賴AI的決策時,他們的準確性提高了約3%。但是,當引入解釋時,即以一張顯示AI在胸部X光上的焦點的地圖形式,準確性進一步提高了4.4%。

AI或誤導醫生 從有缺陷數據中學習時存在的固有偏見

而研究故意在AI的決策過程中引入偏見。例如,AI可能錯誤地建議80歲及以上的老年患者更有可能患有肺炎。研究中參與的教授Jenna Wiens強調,AI在從有缺陷數據中學習時存在的固有偏見,舉例說明基於性別的誤診可能導致偏差結果。不幸的是,當醫生被呈現具有偏見的AI解釋時,即使AI的無關焦點明顯,他們的準確性也下降了約11.3%。

Sarah Jabbour承認,儘管AI解釋提供了潛在的改善途徑,但該研究凸顯了其中的挑戰。與其他研究一致,性能下降的結果表明,即使有解釋,AI模型仍可能誤導醫療專業人員。

Jabbour強調了不同領域之間合作努力的必要性,以開發更易理解的方法來解釋AI對醫生在醫療保健領域中的決策。該研究呼籲進一步研究,敦促探索如何安全地運用AI在醫療保健領域的益處。它還強調了強大的醫學教育的必要性,以使專業人員具備應對AI潛在偏見的知識。

隨著AI在醫療保健領域的整合進展,該研究提出了一個關鍵問題:我們如何確保安全有效地利用AI,同時減輕偏見信息的風險?研究結果強調了解決這些挑戰的迫切性,推動創新,填補AI進展和醫生理解之間的差距。

專家們跨不同領域的合作努力是否能為AI在醫療保健領域中提供確保準確性且不影響可靠性和安全性的未來鋪平道路?該研究不僅作為一個警示,也作為對AI和醫療保健之間微妙關係的持續探索的催化劑,敦促利益相關方以對可能存在的隱患保持敏銳意識的方式來應對不斷變化的情況。