8、008(1 / 2)

酒紅色的小機器人拿著調酒器來回的晃,雲棲梔就看著它搖,看著看著就稍微走了神,無意識歎了口氣。

小機器人頓了頓:“親愛的小梔子,怎麼歎氣了呢?是心情不好,還是有什麼地方沒能得償所願?”

雲棲梔都懵了。因為她都沒意識到自己在歎氣,剛想表示什麼,又突然反應過來這也是問話的大好機會,然後便有些磕絆的應聲:“我、呃,比如說、呃類似於在糾結要不要救人,或者自己要做到什麼程度之類的?”

所有末世題材的小說、電影、遊戲裡麵,“救人”衍生出來的各種後續,尤其是救了不該救的人後續被殘忍捅刀出賣的劇情都快讓人產生ptsd了。

所以她詢問的這個問題比較關鍵,也確實是她有過猶豫並且完全不知道該怎麼操作的。

“你是獨.立的個體,自我選擇並堅持認知是你的權利。”

小機器人又晃了晃調酒器,即便是電子機械音都能聽出幾分活潑來:“你可以選擇救任何人,可以選擇不救任何人……即便某個人類做過無數善事,你不想救就可以不救。某個人類十惡不赦,你想救就可以救。”

“你可以費儘心思花費大量資源去救某位70歲的老奶奶,同樣也可以舍棄一整輛車被困的小孩——以上這些都是基於‘人類’對於道德要求以及優先序列為你舉的例子。”

“畢竟對於可愛的小機器人來說,善人惡人、老人小孩之類的分等分類沒有什麼意義。”

雲棲梔當然不會以人類的標準去要求機器人,所以表情也沒變化,隻是平穩表達自己的心情:“你說的沒錯,但人……怎麼說呢,我從福利院一路考到藍都科技,都不知道聽到過多少陰陽怪氣,被說過多少次酸話嘲諷,受到過幾次明裡暗裡的排擠。我都敢直接說自己挺堅強的了,但……在這種事情上,我想我永遠都沒有辦法做最好最合適的決定。”

小機器人看著雲棲梔,顯示屏上的眼睛一眨一眨的:“那親愛的小梔子,你是想分級救、全都救、還是全都不救?”

“要是事情能這麼簡單就好了。”

雲棲梔十分坦誠:“就是因為以後恐怕不救也糾結,救了也糾結,左右為難才會這麼猶豫。並且我當然是隻想救好人和一般人,不想救大壞人。可我又分辨不出來。”

“而且現實是……”

雲棲梔稍微一頓後繼續:“即便我真的有那本事隻救好人和一般人,也不代表他們就真的能一直替我保守秘密或者不會賣我。畢竟……這麼說吧,假如說我救了一個好人,好人女兒被壞人劫持了,要求他背刺我,不然就撕票,你覺得這個好人會不會做?”

小機器人眨了眨眼。

雲棲梔也沒想著讓機器人去解答人倫問題,她心中早有答案:“結論是不管這個好人選擇了哪一種,我們之間原本友好和諧的關係都會全然破裂。他一看到我估計就會心生痛苦,長久下來就有可能是芥蒂。我一看到他在感動的同時,也絕不會再把他當做親信了,甚至會一邊補償一邊防備。”

“因為人就是這樣,總是同時具備兩麵性。”

“感性的人對我來說完全不可信。畢竟那麼多的電影電視劇足以證明正常人永遠沒法預料一個滿腦子隻裝著‘情’的人能搞出什麼事來。”

“而越理智的人越識時務、越多疑、越不會隨便站隊。他們通常情況下隻會中性或者中偏好。”

“理智+壞就是大惡人。理智+好……這樣的人實在是太少了、少到幾乎可以忽略不計。”

“一般就是理智+中立。這樣的人會將一切事物儘皆排出性價比,就像是你說的一車小孩和70歲老人。在真的無法兼顧後,到時候一旦被排到下方就完球,理智中立還會以十分堅決十分冷靜十分顧全大局的態度賣人,然後等到人都掛了之後再滿心滿眼痛苦。”

雲棲梔聳了聳肩:“到那時候老人骨灰都冷了,再怎麼‘痛苦’還有毛用。甚至都沒法說清楚這做的到底是好還是壞——畢竟對大局來講是好,對老人絕對算壞。”

“以己及人,我雖然完全心甘情願為一車小孩主動犧牲,但絕不心甘情願‘被’犧牲。雖然都是犧牲,但感受是截然不同的。而如果能好好活著,誰又會想死呢。”

小機器人眨了眨眼。

雲棲梔突然反應過來:“我話太多,也說的太沒意義了吧。”

“並沒有。”小機器人爪爪晃了晃:“我隻是覺得很新奇。這還是我第一次聽到類似的言論。”

雲棲梔便笑了起來:“其實我說的完全不客觀甚至非常主觀啦!如果人真的能這麼簡單就分類了那還好些呢。人嘛,本就是跟大自然一樣神奇、捉摸不透並且完全沒法總結的物種啊。”

小機器人一邊非常認同的點頭,一邊顯示屏上浮出微笑的表情來。

雲棲梔原本隻是普通講話,但她其實長這麼大就從來沒有跟多少人聊過自己的心理和想法。所以麵對這個能交談的小機器人後,在自己都沒意識到時就已經開始傾訴了,此時把一些話說出來後,哪怕確實跑了題,但心裡還是寬快不少,像是移開了塊大石。

所以即便問題並沒有得到解答,雲棲梔也挺高興的。

上一章 書頁/目錄 下一頁