科學家擬向機械人讀 Bedtime Stories 從而灌輸道德觀念
是真正的睡前故事?還是人類的惡夢開始?
大家看電影、看科幻小說,還是打電玩,都經常遇到這情節:人類創造出人工智能(Artificial Intelligence),賦予機械人「生命」,但到最後卻控制不到這個智能,機械人又不想受人類控制而作出反擊…結局是如何,每個故事都有它的演繹,不過現實中,人類面對人工智能又會迎來一個怎樣的結局呢?
大家有留意 Issac Asimov 的科幻作品《I, Robot》的話,就會知道「機械人三章」(Three Laws of Robotics):
1. 機器人不得傷害人類,或因不作為(袖手旁觀)使人類受到傷害;
2. 除非違背第一法則,機器人必須服從人類的命令;
3. 在不違背第一及第二法則下,機器人必須保護自己。
不過三章都有其漏洞,而且現實歸現實,科學家正研究讓機械人 - 人工智能 - 接觸道德觀念,這研究由 Mark Riedl 主理,他是喬治亞洲科技大學的娛樂智能實驗室總監,他認為只要灌輸「價值觀」,就能有效防止機械人演化到「超智能」,也防止人類被人工智能消滅的發生。Riedl 採用 Quixote 技術,包括讀一些故事,內裡包含特定文化中「廣泛接受」的行為,Riedl 指這樣比下獨立指令更有效讓機械人得到道德觀念,也避免人工智能在指令中找出漏洞,「說故事」可令人工智能自我分析推理出一套思路及行為。(是…是在看《Chappie》嗎?)但觀乎研究只是以「好與壞」兩個方面、0-10 的評分去做,看來這個作業模式過於簡單,但研究人員有信心這個道德觀念可避免人工智能的「神經分裂」。大家不嫌長篇大論的話,可以看這裡有研究的詳情。
又其實,何解人類總是喜歡當上帝的角色(Playing God),要去主宰所有事?況且,與其擔心機械人的道德觀念,不如先擔心人類的道德觀念才是正經。
大家不妨看看近年來對人工智能這議題的電影或電玩:
《I, Robot》2004 年電影,根據 Issac Asimov 同名小說
《Ex Machina》,2015 年電影
《Kara》, Quantic Dream 作品,《Detroit: Become Human》遊戲前身