臺北榮民總醫院皮膚部 住院醫師
余文庭
人工智慧教育的依賴性及局限性
隨著人工智慧(artificial intelligence,
AI)技術的蓬勃發展,加上2022年底生成式AI(例如ChatGPT)問世,其在醫學教育中的應用也越來越廣泛,逐漸成為當代醫學教育的趨勢。然而隨著AI的普及也衍生出一些問題,包括學生過度依賴AI以及AI本身的局限性。
(一)學生依賴性問題
AI在學術應用中的便利性,尤其是生成內容和數據分析的能力,使學生逐漸將其視為學習過程中的主要工具。然而,這種依賴性可能導致醫學生批判性思維能力的削弱,過度依賴AI撰寫報告或解答問題,習慣性直接接收AI提供的答案,忽略了自主思考的重要性,長期下來對醫學知識的掌握僅停留在表層,沒有內化融會貫通構建成自己的知識架構。此外AI的高度自動化特性可能限制學生的創造能力,只一味依賴AI提供的答案或做法,喪失獨立探索新方法的動力和醫學創新的能力。
應對策略
- 融入批判性思維的課程設計:在課堂上引導學生分析AI生成的答案,並設計多層次的問題,讓學生深入思考並挑戰AI的結果。
- 限制AI的使用範圍:在部分課程或評估中,要求學生手動完成作業,以促進其思考和解決問題的能力。
- 強調過程學習:鼓勵學生記錄並展示學習過程,而非僅重視最終結果。例如要求學生解釋其分析步驟與推理過程。
- 評估學生的AI使用技能:設計專門的課程與評估,幫助學生學會如何有效且適當地使用AI輔助工具,而非完全依賴。
(二)AI的局限性
AI的訓練過程依賴於輸入的數據資料,若這些數據來源單一或存在偏誤,可能導致不準確或有偏見的結果。例如在影像診斷中,AI可能因缺乏某些族群的數據而對這些族群的疾病預測不準確。此外AI雖能快速分析大量數據,但其推理過程基於已知模式,無法像人類醫師一樣靈活考慮病人的多層面因素。例如AI可能根據症狀提供診斷建議,但無法充分考量病人的心理狀態、社會背景及其他複雜因素。加上AI的運作機制往往缺乏透明性,無法理解其推理過程,因此其生成的結果也不具備足夠的證據等級。
應對策略
- 優化數據來源:在訓練AI模型時,應確保數據的多樣性與代表性,避免因數據偏誤而產生的問題。
- 培養學生的AI結果檢驗能力:設計課程教授學生如何檢驗AI生成的結果,包括比對臨床資料和文獻資料,發現潛在錯誤。
- 建立人機協作模式:強調AI作為輔助工具的角色,培養學生在使用AI時仍能進行自主判斷,結合自身的臨床知識作出最終決策。
- 提升AI透明度:在醫學教育中引入解釋性AI(Explainable AI),幫助學生理解AI的運作原理,提升信任度。
- 注重倫理教育:讓學生了解AI的倫理問題,包括數據隱私、偏見與公平性,並培養其在使用AI時的責任感。
結論
AI的引入為醫學教育帶來了諸多機遇,但同時也產生了學生依賴性問題與AI局限性這兩大挑戰。解決這些挑戰需要教育者與學生共同努力,透過課程設計、技術優化與倫理教育,實現AI與人類醫療能力的最佳結合。未來的醫學教育應以AI為輔助,強調人類批判性思維與創造力的不可取代性,確保學生在利用AI技術的同時,仍能培養全面的醫學素養與獨立解決問題的能力。
參考資料:
- Gordon M, Daniel M, Ajiboye A, et al. (2024). A scoping review of artificial intelligence in medical
education: BEME Guide No. 84. Medical teacher, 46(4), 446–470.
- Mir MM, Mir GM, Raina NT, et al. (2023). Application of Artificial Intelligence in Medical Education:
Current Scenario and Future Perspectives. Journal of advances in medical education & professionalism, 11(3),
133–140.
- Narayanan S, Ramakrishnan R, Durairaj E, & Das A. (2023). Artificial Intelligence Revolutionizing the Field
of Medical Education. Cureus, 15(11), e49604.