新光醫院教學部/輔仁大學醫學系副系主任
穆淑琪
當AI導入醫學倫理教學的得失利弊
前言
人工智慧(Artificial Intelligence,
AI)技術的快速發展正在改變許多行業,其中醫學領域是最顯著之一,顯而易見的影響也包括臨床運用最貼近的病歷記載,引用大數據與研究結合,更讓研究的發表快速且蓬勃發展,其中醫學倫理教學涉及醫學教育六大核心能力中的多個面向,其目的正是培養醫學生和醫護專業人員在臨床操作中的倫理決策能力。面對AI絕不是偶遇而是必然的正面迎擊,而身處此AI浪潮的我們不禁自問,一定得是迎擊嗎?為什麼不能是善於運用與緊密融合呢?相比其他的醫學教育,也因醫學倫理的教學較難量化,當然想像中的困難度必定來得高,對於AI的導入在醫學倫理的教學之路是否會因而走得更辛苦呢?隨著AI技術的引入,醫學倫理教學也迎來了新的契機與挑戰。本文將探討AI導入醫學倫理教學的得失利弊好壞,並提出建議得以讓醫學倫理的教學更有效率並減少其可能產生的風險。
AI導入醫學倫理教學的好處
-
提高教學效率
AI的技術可以通過自動化與個性化教學來提升醫學倫理教學的精準效率,利用AI的自然語言處理和機器學習算法,我們的教學可以更智能化,這些系統能夠自動評估學生的學習進度並提供個性化的反饋和學習建議。這不僅減少了教師的工作負擔,還能確保每個學生都能得到個別化且更符合需求的指導。
-
提供豐富的教學資源
AI可以通過分析大量的醫學文獻、案例和數據,為醫學倫理教學提供豐富的資源。AI系統可以快速檢索和整理相關資料,產出具有代表性的案例分析和模擬場景,這些資源可以用於課堂教學和學生自學,教學的豐富性也可藉著AI協助開發虛擬現實(VR)和增強現實(AR)技術,讓學生通過沉浸式體驗學習更融入擬真的情境以提升醫學倫理的學習效果。
-
鍵接醫倫與臨床決策的培訓
AI技術能夠模擬臨床決策過程,幫助學生在真實情境中學習和應用醫學倫理原則。通過AI模擬系統,學生可以在安全的虛擬環境中進行決策練習,這有助於提高他們的決策能力和應變能力。同時,AI還可以通過分析學生的決策過程,考量每個學員特質特性,提供個別化的反饋和建議,幫助他們改進和提升自己的倫理決策技能,讓醫學倫理的教學更客製化。
-
媒合醫學倫理與跨學科合作
AI技術的應用促進了醫學與其他學科的合作,特別是電腦科學和數據科學。最近更是因著AI教父黃仁勳的到訪台灣,更讓這種跨學科的合作更白熱化,也有助於開發AI的教學工具和方法,並推動醫學倫理教學的創新。也透過與其他學科的合作,醫學倫理教學可以吸收更多元的視角和方法,從而提高教學品質與效果。
-
醫學倫理巧遇生成式AI的火花
生成式AI是一種可以創造新內容和想法的人工智慧,包括創造對話、故事、影像、視訊和音樂,甚而可以模仿人類智能,圖像識別,自然處理和翻譯。生成式 AI
是人工智能的下一步。您可以訓練AI,讓其學習人類語言、編程語言、藝術、化學、生物學或任何複雜的主題。生成式 AI
會重複使用訓練資料來解決新的問題,設若醫學倫理的教學以生成式AI的導入,並根據所處理的倫理議題與模式並加以學習產出,期待日後可有聊天機器人互動討論,添增醫學倫理的有趣回饋與反思,讓學習者充分發揮想像力,建立前所未有的新思考模式。
AI導入醫學倫理教學的壞處
-
道德和法律風險
AI技術在醫學倫理教學中的可能更簡易運用大量個人數據和敏感信息,其道德和法律風險不可忽視。數據的收集、存儲和使用必須符合相關法律法規和道德準則,否則可能會侵犯個人隱私和數據安全,另外仍得小心AI系統的決策過程往往是隨機與智能學習後的產物,但學習的過程是未透明化的,這可能導致責任歸屬不明,進而引發法律和道德爭議。
- 教學質量的依賴性
雖然AI可以提供豐富的教學資源和個性化的學習體驗,但它無法完全替代人類教師的智慧和經驗。醫學倫理教學需要高度的批判性思維和人文關懷,這些能力是AI難以模仿和實現的。如果學生過度依賴AI,有可能會削弱他們的自主學習能力和倫理判斷能力。
- 技術限制和偏見
AI技術本身存在一些局限性和偏見,這些問題可能會影響醫學倫理教學的效果。例如,AI的學習可能存在著偏見,這會導致教學內容的公正與準確性。同時仍該考慮AI技術的發展和應用需要大量資金和技術支持,這對於資源分佈不均的教育體系仍舊是一個挑戰,因著資源的不對等可能會拉開教育的差距,影響教學的普及和公平。
-
制式的人機互動模式
人機互動的質量和效果受到多種因素的影響,如果人機互動的學習歷程過於制式與公式化,少了醫學人文重視的「人」的「溫度」,則有可能會降低學生的學習興趣和效果,特別是人機互動無法完全替代人與人之間的情感交流和人文關懷,這對於醫學倫理教學來說是特別強調與重視的教學元素。
- 缺乏透明度和解釋性
AI系統的學習決策過程能夠透明與理解是非常重要的,可確認導入AI於醫學倫理的教學是可被信賴的,如傳統的解釋性AI機器學習模型,來提高醫療專業人員對AI建議的信任度。AI無法向人類解釋其決策和行動背後的成因,這項缺點在機器學習中有時又稱為「黑盒子」,待導入於醫學倫理的教學中,AI通常無法詳細的說明它做出某個決定的推理過程與原因。因為人工智慧若無法解釋其決策成形的機制,則人類便無法對其產生信任,將導致人們質疑其行為,而「可解釋的AI人工智慧」有望解決這個問題,但這種可解釋AI學習在醫學倫理的教學中,正因為倫理的教學個別化與單一獨特性為一重要變項,也讓可解釋的AI即使努力透明化運用於醫學倫理教學有其困難度,更進化的「可解釋的人工智慧」無疑是人工智慧技術發展的下一步,它得努力取得人類的信任和信心,也提升了自身運作流程的透明度,當然更期待未來與醫學倫理教學的緊密度與實用性。
-
隱私保護相關責任與法律問題
醫學倫理教學時常會引用臨床個案情境,此時病人的隱私和臨床數據的資料安全是至關重要的,AI運用於醫學倫理教學時更應該訴求高標準的資安門檻,如使用加密技術來保護敏感的病人與醫療數據。在開發和應用AI技術時,常需明確界定責任的歸屬。
-
文化差異與公平偏差的挑戰
文化種族差異的考量是目前AI系統中尚未建立完整的學習模式,所以在醫學倫理教學較常考慮的「人」因素,設若遇到的是文化種族、特殊的宗教訴求不同時,更需要經時累月的數據的收集、清理和模型的訓練開始,通過適當的數據採樣,可以確保AI系統在醫學應用中不偏向某些人群,並同時考量少數的種族與不同的文化差異,確實為倫理教學常常出現的「干擾因子」。
結論與建議
AI技術在醫學倫理教學中的應用具有潛力,但也伴隨著諸多挑戰。為了充分發揮AI的優勢並減少其風險,我們應特別注意可能出現的缺失與不足並加以補強,確保數據安全和隱私保護,醫學倫理的教學更應特別重視此一訴求,建立嚴格的病人隱私的保護與臨床數據資安的管理;同時加強師資培訓和跨學科合作,提供教師除專業素養的修行與培訓,也培訓教師更熟練地掌握AI的技術與隨心順意地運用於教學的領域,特別於重視人文關懷和批判性思維的醫學倫理教學,也應提醒自己熟練AI的教學技巧後,應避免過度依賴AI技術,期許醫學倫理教學時得以教出具獨立思考和倫理判斷能力的學生,進階至生成式AI的導入時,確有優化人機的互動和體驗,因而確保學生能夠順利適應和使用AI技術,並得以提升醫學倫理的學習興趣與效率,總之,AI技術的導入為醫學倫理教學帶來了新的契機與挑戰,只有在充分認識和應對AI的導入後,認知與小心應對其潛在的風險,才能好好地發揮AI的優勢,可期待醫學倫理教學的新面貌與更智能化教學模式所帶來的教學成效。
參考文獻
- Quinn TP, Coghlan S. Readying Medical Students for Medical AI: The Need to Embed AI Ethics Education.
arXiv:2109.02866v1 [cs.AI] 7 Sep 2021.
- Nagendran M, Chen Y, Lovejoy C, Gordon AC, Komorowski M, Harvey H, Topol EJ, Ioannidis JPA, Collins GS, and
Maruthappu M. Artificial intelligence versus clinicians: systematic review of design, reporting standards,
and claims of deep learning studies. BMJ, 368, March 2020.
- American Medical Association. Advancing AI in Medical Education through Ethics, Evidence, and Equity.Journal
AMA Journal of Ethics
September 21, 2023.
- Zhang W, Cai M, Lee HJ, Evans R, Zhu C, Ming C. AI in Medical Education: Global Situation, Effects, and
Challenges. Education and Information Technologies. 29, 4611-33, 2024.
- Gundersen T, Bærøe K. The Future Ethics of Artificial Intelligence in Medicine: Making Sense of Collaborative
Models. Science and Engineering Ethics. 28:17, 2022.
- Kerasidou A. Artifcial intelligence and the ongoing need for empathy, compassion and trust in healthcare.
Bulletin of the World Health Organization, 98(4), 245, 2020.
- Zohny H , McMillan J , King M. Ethics of Generative AI. J Med Ethics. 10.1136/jme-2023-108909 on 24
January, 2023.
- McLennan S, Fiske A, Tigard D, Müller R, Haddadin S, Buyx A. Embedded Ethics: A Proposal for Integrating Ethics
into the Development of Medical AI. BMC Medical Ethics. 23:6, 2022.
- Bajwa J, Munir U, Nori A, Aditya B, Nori C, Williams B. Artificial intelligence in healthcare: transforming the
practice of medicine. Future Healthcare Journal. 8, No 2: e188–94, 2021.
- Sendak MP, D’Arcy J, Kashyap S. A path for translation of machine learning products into healthcare delivery.
EMJ Innov.10:19-00172, 2020.
- Davahli MR, Karwowski W, Fiok K, Wan T, Parsaei HR. Controlling safety of artificial intelligence-based systems
in healthcare. Symmetry.13:102, 2021.
- Hatherley JJ. Limits of Trust in Medical AI. Journal of Medical Ethics.
46(7), 2020.
- Grote T. Randomised Controlled Trials in Medical AI: Ethical Considerations. Journal of Medical Ethics.
Nov;48(11):899-906, 2022.
doi: 10.1136/medethics-2020-107166. Epub May 14, 2021.
- Pedro AR, Dias MB, Laranjo L, Cunha AS, Cordeiro JV. Artificial Intelligence in Medicine: A Comprehensive Survey
of Medical Doctors’ Perspectives in Portugal. PLOS ONE. https://doi.org/10.1371/journal.pone.0290613
September 7, 2023.