第1098章 思維邏輯不等於自我意識(1 / 2)

“這幾年,我先後用C100和C200製造出好幾批樣品機器人,並且一直在觀察評估,確定沒有任何問題,最終才在幾個月前,把C300裝進了雅薇的大腦。”

“目前來看,我的擔憂應該是多餘的,即使有了C係列的智能芯片,機器人也隻是在模擬人類,並沒有產生脫離於程序設定的自主意識,所以還是能夠掌控的。”

“後來我仔細想了一下,思維邏輯並不等於自我意識,這是兩個完全不同的概念,使用了C係列芯片的智能產品僅僅隻擁有思維邏輯,並沒有誕生出以自我為中心的獨立意識。”

“所謂的‘思維邏輯’其實也是由開發者事先構建好的,就好比已被發現的公式和定律,C係列的智能芯片隻不過是在合理的使用這些東西,用已有的公式和定律進行複雜運算和各種推導,而它不可能創造出新的公式和新的定律。”

“換而言之,除非程序出BUG,否則它會始終服從主人的命令,不會違背一些基礎設定。”

黎薇一本正經地說了一大堆,夜星宇逐字逐句地認真聽完,途中想起自己曾對雅薇施展過賦靈神通,於是便不動聲色地偷偷瞄了雅薇一眼。

此時的雅薇還算正常,沒看出什麼古怪,但她以前有過幾次誇張舉動,比如學著侯曉扮鬼臉什麼的,感覺不像是一個機器人能做的事。

夜星宇不由懷疑:雅薇那家夥似乎有點不對勁,不會已經誕生出自我意識了吧?

他按耐住疑慮,向黎薇問道:“如何判斷一個機器人有沒有自我意識?”

“我剛才不是已經說了嗎?你有沒有認真聽?”黎薇沒好氣地答道,“擁有自我意識的機器人會有自己的想法,無視三大定律的存在。”

她口中的“三大定律”,由上個世紀的科幻小說作家阿西莫夫最先提出,具體如下:

第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不顧。

第二定律:機器人必須服從人類給予它的命令,當該命令與第一定律衝突時例外。

第三定律:機器人在不違反第一、第二定律的情況下,要儘可能保證自己的生存。

但經過這麼多年的認知發展,原本的機器人三大定律有了一些小小的改變,與最初的版本略為不同,最終歸結為以下三點:

第一,機器人不能傷害自己的主人。(非主人身份的其他人類不在此列)

第二,機器人必須服從主人的命令。(隻限於主人,且不能違反第一條)

第三,機器人不但要保護好自己,更要保證主人的安全。(不能違反第一條和第二條)

對比後可以得出結論,修改後的三大定律擯棄了道德因素,更偏向於實用觀點,是把機器人視為私人物品,而不是全人類的公眾財產,甚至可以把機器人當作一種戰爭武器來使用。…。。

如果還在沿用以前的三大定律,戰鬥類型的機器人將不可能出現,更沒有存在的意義。

上一章 書頁/目錄 下一頁