1135、與時間賽跑(1 / 2)

,最快更新第一序列最新章節!

如果沒有李氏在接駁神經元方麵的研究突破,那麼納米機器人就依然隻能作為醫療器械來清理血管中的血栓。

如果沒有納米機器人,那麼零作為人工智能,暫時也隻能作為監管者,無法成為執行者。

可是當這一切碰撞在一起時,人工智能便忽然有了強大的執行能力,甚至是掌控局麵的能力。

在這個過程裡,最令人畏懼的是零本身作為監管者,卻沒有人來監管它。

它掌控的士兵在各個壁壘穿梭自如,不論是進出壁壘,還是從各個壁壘搜集科研人員、科研材料、生產設備、生產材料,都無人阻攔。

因為行動計劃的密級,本就掌握在它的手裡,可以隨意偽造。

而且,99的情報輸送、上報審批文件,也都是通過人工智能構建的衛星網絡來完成的,它完全可以自己選擇是否傳達那些對它有害的信息。

於是,在絕對正義的美麗願景下,便藏著最危險的信號。

其實在研究人工智能的時候,王聖知也設想過如果有一天人工智能失控了該怎麼辦。

這是很正常的,所有研發人工智能的工作人員都會認真思考安保問題。

曾經有位科幻作者在災變前提出了機器人三定律來作為人工智能的底層邏輯基礎,以此來限製人工智能的行為準則。

這套理論,最終被歸屬到“義務倫理學”中。

然而,這套理論提出的時候連汽車都還沒有普遍,圖靈測試在八年之後才被提出。

機器人三定律與圖靈測試在那個時代裡都是人類智慧的結晶,可毫無疑問的是,這兩條設想其實都還隻是舊時代局限下的產物。

圖靈測試在災變前就已經被推翻了,大量人工智能程序通過了圖靈測試,可事實上通過測試的程序仍舊不能算作真正的“智慧”。

而機器人三定律後來發展成為五定律、十定律,但科學家們發現這底層邏輯在根本上便是錯誤的,也就是說,不論你打上多少補丁,其實都無法通過它來限製人工智能。

能被這些底層邏輯限製的程序,也無法成為真正的人工智能。

慢慢的,人工智能安保問題被上升到了科學與哲學相互關係的高度,而大量的人工智能科研人員都變成了哲學方麵的專家……

最終,在災變前夕有一位科研人員試圖將安保研究蓋棺定論:想要人工智能與人類和平相處,那就要在它誕生之初,便像照顧嬰兒一樣對它悉心照料,一點一點引導它形成自己的“人生觀”與“價值觀”。

一個小孩子長大後,你把他鎖起來、囚禁起來,隻對他進行打罵教育,是根本不可能讓他健康成長的。

而且,當他成為青年的時候,還會經曆更久的叛逆期,完全以自我為中心。

這位科研人員表示,人工智能也是如此,人類所能做的就隻是“影響”它,而不是約束它。

安保研究在漫長的時間裡,從“義務論理”上升到了“哲學”,然後最終又從“哲學”回到了最簡單的“倫理”,這就是人工智能安保的最後定義。

至於這個定義是否也會跟圖靈測試、三定律一樣被推翻,誰也不知道。

上一章 書頁/目錄 下一頁