當機器人走進病房, 我們準備好了嗎?

當機器人走進病房,我們準備好了嗎?

紀志賢

 

  人形機器人開始出現在新聞版面,現實上醫院也早已有機器人。在這些消息背後,有些事情值得我們停下來想一想。

  過去談到醫療機器人,多半停留在科幻的想像。但這幾年,這條邊界正在快速移動。有幾家公司已經開始接受人形機器人預購,有些甚至提供月租方案。從市場動態來看,「可以買一台機器人回家當助手」這件事,已經不再是遙不可及的了 (1)。然而,在熱鬧的發布消息背後,有一個比較少被認真問到的問題:這些機器人,真的適合進入醫院嗎?

  很多人以為機器人還沒真正進入醫療現場,其實不然。今天的醫院裡,早就有各式各樣的機器人在默默運作——負責送藥的自動藥車、送餐的配送機器人、進行器械毒的設備,還有協助手術的機械手臂。這些系統已經成為醫療流程的一部分,而且穩定、有效。但有一件事很值得注意:它們幾乎沒有一個長得像人。這其實說明了一個很簡單的邏輯:在醫療場域,形態是由任務決定的,而不是任務由形態決定。送藥不需要雙腳,手術不需要走路,消毒不需要手指。人形設計,反而往往增加成本與故障風險。一篇 2025 年的系統性文獻回顧分析了 27 篇相關研究,發現人形機器人在醫院的實際應用,主要集中在社交互動、物理復健和健康資訊傳遞,真正與醫護人員進行臨床協作的案例,少之又少 (2)

  支持人形機器人的人會說:人類環境本來就是為人設計的,所以長得像人的機器人應該更容易適應。這個邏輯有一定道理,但問題在於,這樣的場景在醫療流程中其實並不常見。醫院裡的多數工作是高度標準化的——固定路線、固定動作、固定位置。在這樣的環境下,專用型機器人通常比通用型的人形機器人更有效率、更可靠,也更容易維護。人形的「通用性」,在醫療場域中並沒有真正轉化成優勢。一篇 2025 年測試人形機器人執行七種醫療程序的技術研究也得出類似結論:在需要精確控制與力道的醫療操作上,人形機器人仍然明顯落後於現有的專用設備 (3)

  技術上的限制,比一般人想像的更具體。首先是電力:多數人形機器人的續航力只有幾小時,但醫院是需要長時間待機的環境。其次是精細操作能力,許多看似簡單的醫療動作——更換敷料、插鼻胃管、在深夜安撫一個因為疼痛而躁動的病人——對機器人來說仍然困難。更根本的問題是情境理解:機器可以辨識影像,但要在混亂的急診室環境中整合各種訊號、做出適當判斷,至今仍是非常困難的事 (1)

  但技術問題之外,還有一個比較少被討論的面向:當機器人進入病房,它並不是單純的設備,而是一個持續運作的感測系統。攝影機、麥克風、生命徵象監測——這些資料都會被蒐集、分析,甚至傳輸。這就帶來一個核心問題:這些資料屬於誰?如何使用?是否安全?目前多數廠商對資料處理方式並不透明 (1)。學術研究也記錄了這個問題:AI 與機器人導入醫療的核心倫理挑戰,包括資料隱私、演算法偏誤,以及病患自主權的保障 (4)。更棘手的是,許多 AI 技術最終由私人企業擁有與控制,使得患者資料的保護問題格外複雜 (5)

  「人們以為自己買了一個朋友,但他們只是買了一個間諜。」
— Joanna Bryson,引述自 New Scientist (1)

  然後是那個最難回答的問題。如果一個機器人做一百次任務,有九十九次是正確的,這樣夠不夠好?在日常生活裡,這個比率聽起來相當不錯。但在醫療場域,一個被低估的主動脈剝離、一個被忽略的敗血症早期徵兆、一次藥物配送的品項或劑量錯誤,這些都不是邊緣情境,而是醫師日常工作裡最需要警覺的那一類狀況。而且研究指出,AI 系統的錯誤往往不是隨機分布的,而是帶有方向性偏差的 (6)。當錯誤朝同一個方向發生時,反而更難被察覺,也更危險。這正是為什麼目前在醫院運作最穩定的機器人,幾乎都是功能高度受限的專用設備。因為限制能力,就是限制風險。

  機器人在工廠表現良好,因為環境可控、流程固定、變異有限。但醫院不是工廠,它更像一個高度混亂的情境。每個病人的狀況不同,突發狀況難以預測,資訊往往不完整。一份針對醫護人員態度的研究也發現,接受機器人的前提往往是「在特定任務上表現可靠」,而不是「什麼都做」(7)

  最後還有一個問題,是最少被正面回答的:如果機器人出錯,誰來負責?當機器人參與醫療決策,它成為一個影響結果但不承擔責任的角色。如果發生意外,責任在機器製造商?醫院?還是沒有充分監督的醫師?目前的法律框架,對這個問題並沒有被完全清楚回答。學術研究指出三個可能的責任層次——製造商、醫院,以及醫師——但現行法規尚未完全明確定義邊界 (8)。國際上雖已有相關 AI 法規陸續推出,但在規範完善之前,醫院若貿然大規模導入,等於在法律灰色地帶運作 (9)。導入機器人,不只是技術選擇,同時也是機構所承擔的法律風險。

  醫院早就有機器人了。它們在走廊送藥、在開刀房室穩住手術刀、在病房消毒——只是它們不長得像人。在醫療場域,有效比擬人更重要,任務決定形態,而不是反過來由型態決定任務。人形機器人或許有一天會成熟,但在那之前,我們已經知道什麼是可靠的、什麼是風險高的。真正的問題不是技術能不能做到,而是:在還沒有完全準備好的時候,我們要不要讓它進病房?

 

致謝與作者聲明
本文由作者獨立撰寫,內容未曾發表於其他期刊。撰寫過程中曾使用 Claude協助進行語句潤飾、文法校對與段落結構建議,最終內容由作者負責確認與修訂。作者聲明無利益衝突。本文部分觀點係延伸自 New Scientist(2026)之報導,並結合醫療場域進行再詮釋與分析。

 


 

參考文獻

  1. Stokel-Walker C. A very serious guide to buying a robot butler. New Scientist. 2026.
  2. Ruiz LKFT, et al. Care provided by humanoid robots: a scoping review. Invest Educ Enferm. 2025.
  3. Atar S, et al. Humanoids in hospitals: a technical study. arXiv. 2025.
  4. Elendu C, et al. Ethical implications of AI and robotics in healthcare. Medicine (Baltimore). 2023.
  5. Murdoch B. Privacy and artificial intelligence. BMC Med Ethics. 2021.
  6. Taylor RA, et al. Leveraging AI to reduce diagnostic errors. Acad Emerg Med. 2025.
  7. Ozturkcan S, et al. Humanoid service robots: the future of healthcare? J Inf Technol Teach Cases. 2022.
  8. Eldakak A, et al. Civil liability for the actions of autonomous AI. Humanit Soc Sci Commun. 2024.
  9. Saenz AD, Harned Z, Banerjee O, Abràmoff MD, Rajpurkar P. Autonomous AI systems in the face of liability, regulations and costs. npj Digit Med. 2023;6:185. doi:10.1038/s41746-023-00929-1

 

作者資訊

姓名 單位 職稱
紀志賢 成大醫院 急診部 教授 兼 部主任 兼 主治醫師