第172章 第一百七十二章(2 / 2)

“這是一個非常空的‘盒子’。”簡佚卻如此回應道,“除了我之外,這裡沒有其他真人了。”

薑禕成有些意外,雖然她在這邊兒的路上確實沒怎麼見過人,但路邊這些房子不少都看著像是有人住的。要說除了他和雲如旌之外這街道就沒彆的常住人口了,似乎也不太可能吧?

“這條路上隻有您在住麼?”薑禕成有些驚訝地問道。

“不。”簡佚用相當平和的聲音回答道,“不隻是我,但他們並不是真人。”

難道這條街道上的住戶,除了他之外就都是前AI了麼?

薑禕成立刻意識到這恐怕是不可能的。前AI分散地分布在人群之中尚且有“AI恐懼”患者懷疑,而倘若世界上真有一個地方住戶都是前AI——先不論前AI人類的總數夠不夠——這肯定會遭到輿論的瘋狂反對。而且還是在冥王星空間站這麼偏遠的地方,倘若出現任何端倪,都會被懷疑是前AI人類想自立為王脫離太陽係文明的準備。

沒辦法,人類害怕把弱AI改造出自我意識的傻子和瘋子,卻也害怕傻子和瘋子手下獲得了公民權的受害者。

不過就事論事,這也就是說多半兒街道的其他住戶隻是普通天然人類,卻被簡佚當成了“不是真人”的AI仿生人。也許是因為在一成不變的空間站環境生活得太久了,行為習慣跟簡佚腦海裡正常人的樣子產生了偏差。無論如何,簡佚作為“精神病人”認知功能障礙是很可能存在,因此他說的這些話其實可信度也很低。

“您是怎麼知道,他們不是真人?”薑禕成對他問道。

簡佚聽到她這麼問,不由得有些驚訝地轉過頭看向她:“您一看便能知道,他們明顯不是真人。”

緊接著他就說道:“您可能還沒有見過他們。他們是按照預設軌跡運行的假人,沒有思想,就像我家裡那個壞掉的一樣。”

薑禕成似乎明白了,他覺得除了他之外的所有人都不是真人,是因為他對於“真人”的定義跟彆人不太一樣。就像判斷文明時常依據其是否有體係化的語言,而除了簡佚之外住在這街道的其他所有人都不會說卡謝語也沒有翻譯係統,因此很容易被他這個精神疾病患者籠統地概括為“不是真人”。

然而當薑禕成剛想稍微刨根問底,問他如何確定一個人形物是否有“思想”,簡佚卻突然一把拉住她的手腕把她拉到一棵兩人合抱粗的槐樹後麵。

他從後背環抱住薑禕成,壓低聲音在她耳邊說道:“小心,野人來了。”

————————————

注釋:

AI不能傷害人類,這個設定可能被認為與機器人學三定律的第一定律有關,但在實際操作中通常都會在編程時輸入大量規則,前文也提到家居AI不能做出任何具有法律風險的行為[1]。此處與其牽扯到人類和弱AI之間的某種倫理學上的關係,不如直接理解為製造弱AI的公司是單純為了規避法律風險。畢竟當代已經不是1950s了,大到自動化流水線小到手機智能app,大家見到“機器人”多了都知道其實程序的邏輯根本不是那麼回事兒。

至於當代文藝作品裡很常見的“弱AI由於理解不了某一指令的真實含義,而造成為了完成任務而找到並利用指令漏洞的事件——例如為了保護人類生命而把人變成植物人的情節——我隻能說這些“天才”想象出的程序設計者可真天才,非得給AI寫一個“不擇手段必須完成指令”的模塊。為什麼我寫的腳本就不行,剛一碰到BUG就停下來報錯?

[1]“避免違反法律的行為”之間可能是衝突的,但隻要不預設“必須完成指令”,AI在遇到此種矛盾時完全可以停止執行直接報錯。相比於把“第一定律”放在最高優先級,簡單地規避所有違法行為反而具有更高的可操作性和更低的法律風險。

例如在主人發生窒息時AI判斷需要切開氣管,此時如果有最高優先級的“第一定律”,則可能發生AI為了救人而切氣管卻誤切到主動脈導致主人死亡,引發用戶和AI設計者之間的扯皮官司。而如果不區分優先級地禁止一切違法行為,救人行為與手術合法性衝突,AI直接報錯而停止活動,是不存在任何問題的。

本質上這是一個權責一致的問題。AI不是公民,就不能作為承擔責任的主體,因此不應當被賦予任何權衡利弊的權利(從另一個角度,人可以有對他人的救助義務,而工具不能對人有救助義務;工具沒有“義務”)。上世紀的很多科幻作品刻意在這一點上進行混淆,是為劇情服務所做的特殊處理,與現實中自動化技術的發展方向不能相互混淆。

上一頁 書頁/目錄 下一章