高雄醫學大學
劉克明名譽教授
在人工智慧時代重新思考醫學教育與臨床醫療
最近在醫學領域,機器學習模式建立的人工智慧(AI)平台在預測任務中的準確性,已經開始達到或超越獲得醫師執照認證的專科醫師預測的準確性。這種運用自動化認知任務的能力的軟體,對人類醫師未來在醫療照護中的角色,引發了新的挑戰。新興的科技可以取代人們從事他們的工作,迫使他們學習新技能,因此很明顯,這一迫在眉睫的挑戰,需要由醫學教育系統來解決。
雖然目前的醫學教育旨在為快速發展的醫療照護領域準備下一代醫師,以滿足他們服務的社區的需求,但要如何透過醫學教育的改革,以培育能勝任人工智慧時代醫療重任的醫師,並提供適當的醫療環境,將是醫學教育界面臨的諸多挑戰之一。美國學術醫療中心協會名譽主席Dr. Wartman (President Emeritus, Association of Academic Health Centers, Washington, DC., USA) 對這個挑戰,與 Dr. Combs提出看法如下。
1. 資訊超載 (Information overload):
Dr. Wartman 與 Dr. Combs 認議這是個資訊超載的時代,醫學生的教育系統正在面臨由兩種強迫性的力量驅動的危機:醫師思維以外的可方便取得醫學知識具體化的增加和學習者之間壓力引起的精神疾病。
傳統上,醫師被定義為一位接受嚴謹的醫學教育、培訓和實際臨床操作演練,擁有特殊知識和技能的專業人員。但現在可運用的醫學知識數量,超過了人類思維的組織能力。通常被稱為“資訊超載“ ,不僅僅是由生物醫學和臨床知識的龐大數量所引起的,而且還是由於其快速的增加,以及對學習者盼望能夠在美國醫師執照考試三個階段的測驗,獲得高分,且在高度競爭性住院醫師訓練課程被錄取的壓力。此外,目前的臨床醫療機構要求高業積和滿足患者對醫療結果的期望 - 這些要求都會對學習者的心理健康產生負面影響。
在現有的資訊為基礎的教育課程中,對醫學生們的要求,正在對他們的福祉產生深遠的影響,造成醫學生們面臨著資訊超載和對醫學了解永遠不夠的擔憂。最近,醫學生的心理健康狀況日益受到關注。因此,許多醫學院校提出醫學生健康和復原方案,這些方案無疑地皆以醫學生們心理健康問題為重點,然而並沒有充分解決醫學生們的根本問題:苛刻的學習環境。
儘管醫學教育者對這些趨勢有廣泛的認識,但醫學教育仍然主要以資訊為基礎,猶如醫師仍然是醫學知識的唯一來源。然而在這個網路授予能力時代 (Web-enabled era) 的事實並非如此。透過網路,患者很容易搜尋到大量正確和不正確的資訊,以便於臨床接觸時提出,並期望與他們的醫師進行有意義的討論。這些期望不僅要求醫師與時並進保持最新狀態,還要能夠以對病患他們個人的關注和優先選擇有意義的語言與患者溝通。要做到這一點,需要對有效溝通進行專門的培訓,並且深入了解患者決策的基礎,包括患者對醫療資訊的理解如何受他們內在價值觀和偏見的影響。
此外,醫師執業所需的技能將越來越多地涉及與人工智慧(AI)平台應用的合作和管理的能力,這些人工智慧(AI)平台匯集大量數據,產生診斷和治療的建議,並為這些建議選定置信度 (assign confidence ratings) 。正確地解釋或然率的能力,需要具備隨機過程中的數學理解力,這是目前的醫學教育課程未適當地處理的問題。在某種程度上,更複雜的數學理解力的需要,是受到精準和個人化醫療 (precision and personalized medicine) 的分析所驅動的,這種分析依賴人工智慧 (AI) 來預測哪種治療,對某些特定群組患者的特殊疾病將發揮作用。長久以來,在大量病人群中,對“一般患者”進行的基本診斷或治療選擇的方法已不再足夠精確,將無法滿足個人化醫療的精準。因此,對於具有不同的身體、文化和遺傳屬性的患者的治療,在個人化醫療中會有所不同。隨著越來越多的執業醫師使用人工智慧 (AI) 平台來支持臨床決策,他們將需要具備熟練的各種醫療專業技巧,能對他們患者解釋治療方案。如果僅僅擴展現有的課程要來解決這些缺點是不夠的。
2.醫學和人工智慧 (Medicine and AI):
正如我們早些時候指出的那樣,人類思維的組織能力和保存能力與醫療日益複雜化之間的不一致正在日益增長,應會迫使醫學院校的課程,進行有意義的重新規劃。新的課程應該從傳統的關注資訊的獲取為重點,轉向為強調知識的管理和溝通。為了這種改變,沒有比將每位患者都視為一項重大數據挑戰者的觀察更為重要的。而對於臨床醫生來說,需要進一步理解或然率 - 例如隨著個人化醫療繼續擴大其在臨床照護中的角色,人工智慧臨床決策支持系統產生的診斷或治療建議的置信度 (Confidential ratings) 可能會提高。臨床醫生要具備能夠清楚地、敏感地向患者及其家人解釋這些或然率的能力,代表了一種額外的和必要的教育需求,這種討論人類、臨床和倫理的重要需求,是沒有任何電腦或機器計算能力能達到的。
良好的溝通,需要深入理解認知的心理學,正如 Dr. Tversky and Dr. Kahneman的開創性工作所闡明的那樣。這些作者探討了不同的措辭,如何影響參與者對假設的生死決定的反應。所謂的“框架效應 (framing effect)”的重要性,已經在包括醫療照護在內的各種環境中得到證實。重要的是,當潛在性的患者被問及在醫療決策中證據的作用時,其個人的選擇可能會超過醫學的證據,有害的證據可能被認為比有效的證據更具吸引力。隨著患者對醫療資訊的了解越來越多,醫師們必須能夠評估和回應決策的簡捷法 (heuristics of decision making)。關鍵的一點是,醫師和患者的簡捷法和偏見,需要被視為臨床遭遇的重要部分,必須要被熟練地處理,以達到最佳診斷和治療,這是在今日的醫學教育中沒有被教授的。
1991年,Dr. Van Doren曾寫道:我們已經變成為一個被動的接受服務的國家,其中大多數是由我們不理解的複雜機器的操作所提供的。我們同意並進一步論證選擇的心理學,應該是在重新構思的醫學院課程的前導與中心。這並不是說基礎醫療資訊應從課程中排除,相反地,它應該與或然率、溝通和同理心技能的教學相整合。
3.管理和倫理 (Stewardship and Ethics):
在這個新年代,人們也需要採用一種全新的倫理教學方法,以幫助學生們 能反應患者、醫療照護人員和人工智慧 (AI) 平台中出現的複雜情況。這種現象帶來的倫理挑戰並不是新發生的,但強調知識的獲取和醫療技術的能力,似乎已經減少了課程中同理心的重要性。無論人工智慧計畫 (AI program) 推薦的診斷或治療的置信度 (Confidential ratings) 有多高,人類及其對治療的反應在個體層級上都是變化多端的。因此,醫師必須加強他們關懷患者的痛苦和表達同情心的能力。
已故的 Dr. Kalanithi在他的書藉 “當呼吸成為空氣 (When Breath Becomes Air)”中寫道: “醫生的職責不是避免死亡,或將病人送回他們的舊生活,而是把生活已經解體的一位病人和其家人,帶入我們的懷抱,並持續的工作,直到他們能夠站起來,而且面對並理解他們自己的存在”。Dr. Broyard曾提出 “並不是每一位病人都能夠被救活,但疾病可能被照護者的反應方式而減輕”, 以反應其臨床邂逅的經驗。Dr. Broyard和其他作者,提出藉著尊重病人依照他們的價值觀,以及了解這些價值觀如何影響決策,而做出選擇的權利,表現出對於其他人持續的關懷的重要性。這樣做意味著擁有真實的、經過測試的能力,以提供患者所需的獨特的人道服務 - 透過解決照護其他人的複雜性來超越或然率。也許將一些生物醫學和臨床知識轉移到人工智慧 (AI) 平台上,將為恢復醫學生對同理心的重視提供課程的空間。
4.課程改革面臨的挑戰 (Challenges to Curricular Reform):
醫學教育改革的歷史充分證明,課程變革是漸進的、被動的,並且大部分的變革都環繞在邊緣。已經發生的變化,例如早期臨床經驗,更多問題導向的學習和臨床技能測驗等,並沒有從根本上改變學習環境和資訊的保存等,然而這些才是由醫學院課程委員會、醫學教育評鑑委員會 (LCME),畢業後醫學教育評鑑委員會 (ACGME) 和國家醫師執照考試委員會 (NBME) 測驗計劃要求實施的期望。鑑於上述課程需求,21世紀醫學教育的改革必須是根本的,而且不是漸進的。目前的學習環境,由於其過度要求資訊的保存,已被證明是有害的,需要徹底的修改。科技創新的速度,意味著一些教職員工的技能與學生相比已經過時。在最近 Dr. Wartman 去訪問醫學院,當學生被問及“是否按照他們喜歡的方式進行教學”時,沒有學生說有這種事。
因此,我們提倡新的課程,以對人工智慧的挑戰,同時減少對學習者心理健康的不利影響。然而這些課程應強調四個主要特徵:
1. 知識獲取,而不是知識保存;
2. 與人工智慧 (AI) 應用平台的合作和管理;
3. 更佳地理解或然率,以及如何將它們有意義地應用於患者和家屬的臨床決策;
4. 培養同理心和同情心。
這種課程改革的障礙是巨大的,其包括長期間的教師實踐和資金流入,大學政策和程序、以及監管和認證機構的漸進式改革的歷史。Dr. Wartman and Dr. Combs認為,在現有的監管結構下,不可能進行重大課程改革。也許改變認證和執照的框架,應該是我們在重新構思21世紀醫學教育時的首要考慮因素。
5.臨床醫療政策建議與人工智慧 (Policy recommendations and AI):
Dr. Wartman 與 Dr. Combs 提出在人工智慧 (AI) 時代,醫學教育改革的建言。在此同時,美國醫學會 (AMA) 亦針對人工智慧 (AI) 時代,提出醫療照護方面的政策建議,其過程如下。
美國醫學會 (AMA) 提出,人工智慧 (AI) 促進醫學科技創新的承諾,引起了醫療照護利益相關者越來越多的興趣。它亦激發了對設計、實施和使用中的新挑戰的一系列擔憂 - 特別是如何將人工智慧 (AI) 納入醫療業務並影響患者。透過這些不同的觀點,2018年美國醫學會 (AMA) 在其年會上,通過了第一個針對人工智慧的政策,就此問題為醫療和科技利益相關者提出了廣泛的政策建議。
“隨著科技的不斷發展和進化,我們有一個獨特的機會來確保人工智慧 (AI) 被應用於嘉惠於患者、醫師和廣泛的醫療照護社團”,美國醫學會 (AMA) 董事會成員Dr. Ehrenfeld (Jesse M. Ehrenfeld,MD, MPH) 說道:“結合人工智慧 (AI) 的方法,與不可替代的人類臨床醫師系統,能夠以優於單獨行動的方式提供醫療照護。但我們必須迅速地解決設計、評估和實施方面的挑戰,因為這項科技越來越多地融入到醫師為患者提供醫療照護服務的過程中。
該政策規定美國醫學會 (The policy states the AMA):
1. 將利用其在數位醫療和其他優先領域的持續參與,以改善病患結果和醫師的專業滿意度,並藉以協助確定醫療照護人工智慧 (AI) 平台的優先程度。
2. 將確認把執業醫師的觀點,整合於醫療照護人工智慧 (AI) 平台的開發、設計、驗證和實施的機會。
3. 將促進精心設計、高品質、臨床驗證的醫療照護人工智慧 (AI) 平台的發展,其:a.設計和評估是符合以使用者為中心的設計的最佳實踐,特別是對於醫師和醫療照護團隊的其他成員;b.是簡明的;c.符合重現性的主要標準;d.確定並採取措施解決偏見問題,避免引入或加劇醫療照護的差異,包括在對弱勢群於進行測試或部署新的人工智慧工具時; 和e.保護病患和其他個人的隱私權益,並保護個人資訊的安全性和完整性。
4. 將鼓勵為患者、醫師、醫學生,其他醫療照護專業人員和醫療管理人員提供教育,以促進更好地理解醫療照護人工智慧 (AI) 平台的承諾和局限性。
5. 將探討醫療照護人工智慧(AI)的法律影響,例如責任或智慧財產權問題,並倡導適當的專業和政府監督,以安全、有效的和公平地使用和接近醫療照護人工智慧 (AI) 平台。
結論:
現有的醫學知識超出了人類思維的組織能力,但醫學教育仍然以資訊獲取和應用為基礎。進一步造成學習者之間的資訊超載危機複雜化的是,現在醫師的技能必須包括與人工智慧(AI)應用平台合作和管理,這些應用平台匯總大數據,產出診斷和治療建議,並為這些建議設定置信度等級。 因此,對醫學院課程進行全面檢討,應該關注知識的管理(而不是資訊的獲取)、人工智慧的有效利用、改善溝通和培養同理心等。
至於未來的臨床醫療,必須要有能力結合人工智慧 (AI) 的平台與人類臨床醫師系統,冀以提供高品質的醫療照護。同時必須迅速地解決設計、評估和實施方面的挑戰,以確實將人工智慧(AI)平台迅速地融入臨床醫療照護。
致謝:
筆者非常感謝Dr. Wartman (Steven A. Wartman, MD, PhD, MACP, President Emeritus, Association of Academic Health Centers, Washington, DC., USA) 同意翻譯其文章。
參考資料: