機器人醫生能下“病危通知書”嗎?

?機器人資訊 ????|???? ?2020-03-27

  (記者 蔣榮耀)最近,美國加州一家醫院發生了件怪事:一名機器人醫生告訴78歲的病人,他的病沒治了。由一名機器人來給人類下“病危通知書”,病人的家屬不敢相信也無法接受,于是將他們的憤怒在媒體上公開了。

 

  詳情是這樣的:一位長期受慢性肺病折磨的病人3月初住進了加利福尼亞州弗里蒙特一家醫院急診科。初步診斷后,一名機器人在重癥監護室對病人進行了隨訪。機器人告訴病人,他將無法返回家中接受臨終關懷,但是他可以在醫院使用嗎啡來減輕痛苦。這次診斷意味著,一名機器人給病人下了“病危通知書”。在入院4天后,病人死亡。

 

  盡管醫院也認為這件事的發生是偶然且“極其不正常”的,但是隨著人工智能技術的進步,人與機器人發生矛盾的事情一定會越來越多。從這個案例看,家屬質疑的并不是機器人的能力——事實上機器人對病情的判斷是準確的。那么問題究竟出在哪里呢?

 

  大家還記得電影《我,機器人》開頭嗎?兩輛車掉進水里,機器人需要做一個選擇,是先救警探還是孩子。最終機器人救了警探,因為它計算出警探有45%的生還機會;而孩子只有11%的生還機會。在這個場景中,機器人的能力或者判斷似乎也并沒有錯,但是當遇到同樣問題時,人類已經在千百年的發展中形成了自己的價值觀:應該先救援老弱婦幼。

 

  在美國加州醫院的案例中,病人家屬認為,“這些(病人不行了)話應該是一個活生生的人來告訴我們,而不是冰冷的機器。”家屬也沒有質疑機器人的診斷能力,而是從價值觀上,他們不能接受“冰冷”的機器人給病人判了“死刑”。

 

  機器人今天確實已經在廣泛領域得到應用,在工業、教育、醫學等領域,機器人已經開始替代一些人類的工作。隨著機器人不斷智能化,當機器人替代我們完成了各項工作,有沒有一些活兒是機器人不應該去做的呢?

 

  機器人給病人下病危通知,機器人選擇先救警察而不是小孩,引發人類擔心的根源,首先是因為機器人沒有倫理道德。我們的擔心,其實就是機器人可能引發一系列倫理風險問題。

 

  但本文開頭提到的案例,還有擔心機器傷害人類的問題,其實是另外一層的沖突:法律沖突。機器人給病人下病危通知,有沒有法律效力?在我們的法律社會,一個人犯了錯會承擔后果,民事案中承擔民事責任,刑事案件中承擔刑事責任。機器人呢?機器人能夠成為承擔責任的主體嗎?既然機器人不能夠成為承擔責任的主體,反過來是不是可以理解為,機器人其實無權給病人做出診斷?或者我們需要在機器人不能承擔責任的情況下,設計出追究相關人的法律責任的制度?

 

  隨著AI技術和5G技術的發展,機器人的發展、創新和使用一定會大步向前走。機器人所帶來的倫理道德風險問題和法律問題會越來越多,看來我們是該考慮考慮怎么辦了。

免責聲明:本網部分文章和信息來源于互聯網,本網轉載出于傳遞更多信息和學習之目的。如轉載稿涉及版權等問題,請立即聯系網站所有人,我們會予以更改或刪除相關文章,保證您的權利。