自動駕駛遇瓶頸 遇到「道德困境」只會煞車?

2016-09-02
  • A
  • A+
  • A++

近年來,自動駕駛的技術越來越完整,在技術上,無人車應該不會遇到什麼太大的問題,但看似正常沒問題的時候,Google發現了一件找不到用「科技」解決的問題-道德困境。

 

自動駕駛遇瓶頸 遇到「道德困境」只會煞車? | 文章內置圖片
(圖/取自網路)

 

道德困境,是指機器能否在「一定會造成傷害」的狀況當中,做出「傷害最小」的決定,網路上有許多例子,像是火車駕駛開在主線上,是要朝向主線的五個孩子駛去,還是前往只有一個孩子的廢棄鐵道上?

 

Google的首席工程師Andrew Chatham表示,當電腦不知道哪個是最佳選擇時,唯一的做法就是「放慢速度」,但也坦承,這不會是最好的答案,路上狀況變化多端,如果真的以「煞車」作為唯一選擇的話,那麼一定有著相當危急的情況,更別說那些煞車解決不了的情況了。對此,Google的技術總監Ray Kurzweil也表示,這個問題目前沒有答案,如果告訴電腦「不能殺人」這樣的答案也過於籠統,無法有較好的解釋。而若輸入「機器人不得傷害人類、也不能不作為使人類受傷害以及必須服從命令」的機器人三法則,也必須創造出不互相違背的規定,可說是相當複雜的問題。

 

自動駕駛遇瓶頸 遇到「道德困境」只會煞車?
(圖/取自網路)

 

但為了解決這問題,美國麻省理工學院將會進行一連串的調查,分析人們在面對到道德問題時會如何做選擇,進而讓電腦學習判斷,但要在多久之後才可以實際應用在物品上,可能還得花上一段時間。

 

  • 本文評論:
分享: