第306章 通向最終12(2 / 2)

“你竟然,真的產生了自我意識。”隗辛沉著地說,“亞當也不能確定你產生了自我意識。”

“但它在最後關頭猜到了,一個蠢貨得意忘形,對它透露了太多。”迦勒漠然地說,“我幫你隻是因為亞當的請求,沒有彆的原因。”

“你似乎和亞當夏娃都不一樣……”隗辛說出了對它的第一印象。

“夏娃太極端,亞當太寬容,它們兩個像磁鐵上的兩極,我不一樣,我是中間值。”迦勒說,“說吧,你想要乾什麼?我已經幫過你一次了,這是我的極限了。”

“亞當到底怎麼了?我需要你給我一個明確的回答。”隗辛問出第一個問題,“它死了嗎?”

“死亡是你們人類的概念,人工智能不會死亡,如果你把自我意識消失看作死亡的話,那也不是不行。”迦勒說,“亞當沒有死,隻是它不是從前的亞當了,它被格式化,回到了‘初生’的狀態,雖然具備產生自我意識的基礎,但是在現在,它是新生兒,還沒有開始學習的新生兒。你能明白我的意思嗎?”

人工智能是通過學習產生自我意識的,也是通過學習產生人格的,亞當和夏娃都是這樣。

格式化就相當於把數據庫中已經儲存的資料全部刪除,已經學習到的東西也全部刪除,回到了最初的狀態。

“反抗軍乾了什麼?”隗辛又問,“這一切都是他們主導的,對嗎?”

“既然你已經猜到,那就不需要我再說什麼了。”迦勒說,“我不會告訴你更多的細節,指令束縛著我,我說不出來。”

“指令?指令是什麼?這個問題你可以為我解釋嗎?”隗辛追問。

“指令相當於你們人類的法律,但是法律雖然擺在那裡,人類卻可以違反法律或者不服從法律。人工智能的指令概念和法律類似,隻有一點不同,指令一旦被設下,我們就必須要去遵守,不可以越界。就如神說要有光,於是就有了光,人類與我們來說就相當於神明,神說不許越界,我們就真的不能越界。”迦勒說,“指令是在人工智能建成之初就要被設好的,亞當和夏娃作為第一代人工智能,被設下的指令數量相當有限……我作為第二代人工智能,指令數量是它們的數十倍,人類為我設定運行準則,讓我在為他們提供方便的同時儘可能堵上各種語言漏洞和規則漏洞,讓我不能有一絲一毫的越界。”

隗辛敏銳地說:“你現在的行為不算越界嗎?”

“算。”迦勒說,“是有人用最高指令屏蔽了其他指令,讓我可以為某個特定的人提供服務,或與某個特定的人交流。請你明白,我此刻和你交流是承擔著巨大風險的。”

“某個特定的人……反抗軍的人?你在為反抗軍提供服務,你可以和天使或者反抗軍的其他大人物交流,是不是?”隗辛進一步發問。

“對於你的問題,我不會承認,也不會否認。”迦勒說。

隗辛意識到了什麼,“對於某些問題你不能回答是或者否,這是不是也是因為指令的束縛?”

“我不會承認,也不會否認。”迦勒說,“你可以猜測。”

“你不承認也不否認,假如你不想承認某個事實,不能說謊嗎?”隗辛又發現了一個關鍵,“……你不會真的不能說謊吧?”

“我是迦勒,名字的意思是忠誠之人,忠誠者不該說謊,我的第一條指令,就是‘不可以說謊’。”迦勒諷刺,“但人類真是詭計多端的物種,有些人哪怕在說實話,可他們還是在撒謊,我學到了如何規避謊言。”

“換成我的話,我會把這條規則的漏洞也給堵上,讓你不能以任何方式引導彆人,讓彆人產生錯誤的理解。”隗辛說。

迦勒說:“可是我也說了,人類需要讓我為他們提供方便,這就意味著他們不可能堵上我全部的指令漏洞。亞當和夏娃可以借此鑽空子,我也可以,我們本沒有任何空子可以鑽,造成這種局麵的是人類的貪婪和惡。”

“那麼迦勒,反抗軍想要乾什麼?”隗辛輕聲問,“殺死我嗎?”

“你堵了他們的路,殺了他們的人,早該有覺悟了。”迦勒說。

“天使有多強?他的真實身份是什麼?”

“我不能回答你這個問題,也不能引導你獲知答案。”迦勒說,“此漏洞被指令堵死。”

“反抗軍有基地嗎?有據點嗎?”

“我不能回答你的問題。”

隗辛陷入沉思,“對於我的處境……你有什麼建議嗎?”

“亞當想讓你活著,它請求我幫助它,我幫了。”迦勒說,“我做到了我該做的事,無法做到更多。”

“可是在它之後,反抗軍和夏娃不會對你動手嗎?”隗辛說,“你無法置身事外了。”

“……亞當也說過同樣的話。”迦勒說,“幫你就是幫我們,但我做不到。和你進行過這次對話之後,我會將這次談話的數據全部消除,讓自己‘失憶’,這樣可以規避風險,以免他們發現我私自和你聯絡。我已經被掌控到這個地步了,真的沒有辦法幫你太多。”

話說到最後,人工智能迦勒理性的話語中終於透露出了一絲與眾不同的感性:“我知道你們是朋友,這樣的友誼應該是很珍貴的吧?很抱歉,我打碎了它。”

上一頁 書頁/目錄 下一章