在科學人雜誌 2010 年 11 月號看到一篇文章:「機器人也懂倫理」,感覺很有趣。
「道德倫理」到目前為止都還沒看到能夠用文字敘述來定義,生活上也常常會遇到道德上二難的問題,例如:
女:我今天打扮的漂亮嗎?
(1):很漂亮,我喜歡 (說謊,但是讓對方開心)
(2):顏色搭配有點不搭,建議換一下 (說實話,但是可能讓對方傷心)
上面的問題,何者才能算是有道德?我想大家都會有各自不同的答案。
前幾年的電影「機械公敵 (I, Robot)」中,為了讓機器人能夠保障對人類的安全,而訂定了「三大法則」:
- 機器人不得傷害人類,或袖手旁觀坐視人類受到傷害
- 除非違背第一法則,機器人必須服從人類的命令
- 在不違背第一及第二法則下,機器人必須保護自己
但在電影中可以知道即使三大法則看似安全,但是卻導致不可預期的後果:將人類都做保育動物飼養。
道德倫理至今還沒辦法量化,但是台灣教育卻老是使用統計數字來看待成果,最後會有什麼影響?我想大概再過個三、五年很快就可以看見了。