近年來,自動駕駛的技術越來越完整,在技術上,無人車應該不會遇到什麼太大的問題,但看似正常沒問題的時候,Google發現了一件找不到用「科技」解決的問題-道德困境。
(圖/取自網路)
道德困境,是指機器能否在「一定會造成傷害」的狀況當中,做出「傷害最小」的決定,網路上有許多例子,像是火車駕駛開在主線上,是要朝向主線的五個孩子駛去,還是前往只有一個孩子的廢棄鐵道上?
Google的首席工程師Andrew Chatham表示,當電腦不知道哪個是最佳選擇時,唯一的做法就是「放慢速度」,但也坦承,這不會是最好的答案,路上狀況變化多端,如果真的以「煞車」作為唯一選擇的話,那麼一定有著相當危急的情況,更別說那些煞車解決不了的情況了。對此,Google的技術總監Ray Kurzweil也表示,這個問題目前沒有答案,如果告訴電腦「不能殺人」這樣的答案也過於籠統,無法有較好的解釋。而若輸入「機器人不得傷害人類、也不能不作為使人類受傷害以及必須服從命令」的機器人三法則,也必須創造出不互相違背的規定,可說是相當複雜的問題。
(圖/取自網路)
但為了解決這問題,美國麻省理工學院將會進行一連串的調查,分析人們在面對到道德問題時會如何做選擇,進而讓電腦學習判斷,但要在多久之後才可以實際應用在物品上,可能還得花上一段時間。
【101傳媒/整理報導】
-------------------------------------------------------
文章內容若有侵權疑慮,請來信告知。
客服信箱:[email protected]
免責聲明:
部分圖片、觀點,來源於網際網路及其他網路平台,主要目的在於分享訊息,讓更多人獲得需要的資訊,其版權歸原作者所有。如涉及侵權請告知,我們會在24小時內刪除相關內容。