第93章 改變世界的AI(2 / 2)

這同樣也是李林博士的設計,人工智能每遇到一個人,每看到一件事,都會延伸出兩個可能,一個是0,一個是1,從人類的角度來說,就是一個是肯定,一個是否定。

假如眼前有兩條路,那走上去的那一條就是肯定回答,另一條沒有去走的路是否定回答。

任何一個人類站在路口也隻能選擇一條路。

孔明說,他的AI是不會有兩個選擇的,非0即1,正是這個選擇限製了AI的發展。

他的AI沒有選擇權。

他的AI會從周圍人的反應中獲取信息,來判斷應該做出什麼樣的選擇。

也就是說,如果是以前的人工智能,當它眼前擺著兩條路時,它需要選擇走上一條路;當它麵前是十條路時,它隻能重複進行選擇,直到最後隻剩下兩個選擇時,選擇其中一條。

而如果是他的AI,它會一次獲取這十條路的信息,再進行一次選擇就可以得出結果。

這的確是一個進步,隻是似乎沒有那麼偉大。

有人提出置疑。

也有人立刻就明白了這是一項什麼樣的改變!

一個人工智能是不可能僅僅麵對十條路這樣的選擇的,它們的計算非常龐大,速度非常快。

而信息的來源也可以更加複雜。

對以前的人工智能來說,每次隻能處理兩個信息。對孔明的AI來說,卻可以將複雜的信息隻進行一次處理——這非常符合人類的思考模式!

一個人站在路口時,他會考慮的前方的交通燈要花多少時間,這條路上的路況如何,路上的車輛有多少,同路的人行有多少,逆行的行人有多少。

現在是什麼時間?

他一會兒要去辦什麼事?

他在這個路口要花多少時間?

他去辦的事要花多少時間?

等他辦完事是幾點?總共花了多少時間?

甚至還有一些無關的信息會一起彙入他的腦海。

身邊這個女孩子穿的裙子的長短;

旁邊這個老人會不會摔倒;

對麵的那輛車是什麼牌子的?

這個路口有沒有警察?

路對麵有一家店可以買到香煙;

他聞到了炸雞的香味。

……

等等。

那麼這個人下一步可能會去買炸雞。

也可能過了路口以後先去買一包煙。

他還可能因為過多關注身邊的女孩子而錯過交通燈。

他也可能為了避讓老人而換另一個方向走。

但如果是人工智能,它的思考就是直線。

它隻會將眼前的事擺列成一條直線。

等交通燈。

過路口。

辦事。

回家。

正是因為人工智能的思考是直線式的,才會阻礙人類對人工智能的看法。

孔明對所有人說:“他們會是一個調皮的朋友。”

然後他對兩個AI說話。

孔明:“早上好。”

穿著裙子的是人造人,她看了一眼手表說:“現在是下午。”

穿著牛仔褲的是機械人,他同樣看了一眼手表,問:“需要我為你做什麼嗎?現在這個時間,你需要我去買些晚餐的材料嗎?”

孔明笑著說:“現在確實是下午了,但我不想吃晚飯。”

人造人說:“你應該好好吃晚飯。”

機械人說:“沒錯,我們才不用吃晚飯,你是人,你必須吃晚飯。”

人造人反駁機械人:“我也應該吃晚飯。”

機械人對人造人說:“好吧,那你晚飯要吃什麼?”

人造人:“我是個女士,我晚上隻吃沙拉。”

機械人:“你可以放心發胖,反正你也不可能交男朋友或結婚。”

人造人:“你太過分了!”

兩個AI跳過孔明開始爭吵起來。

這時屏幕上的留言已經相當多了。

因為在以前的人工智能,它們都會把注意力集中在人類身上,是絕不可能發生像這麼有意思的事的。

孔明勸架:“你們今天剛剛見麵,都客氣一點。”

人造人:“我覺得我們合不來!他太不尊重我了。”

機械人:“我說的是實話。她的心眼太小了。”

孔明轉頭對大家說:“如果你們想要一個這樣的AI,可以向我的公司下訂單。目前有人造人和機械人兩種選擇。他們可以承擔簡單的家務勞動和簡單的工作。做為公司的第一代產品,他們更注重情感交流。我是孔明,謝謝你們。”

孔明站起來對大家鞠了一個躬。等他直起身,人造人和機械人已經商量好了。

他們不能住在一起。

人造人諷刺機械人:“你可以站在牆角充電,這一點我倒是真的不如你。”

機械人:“……你真是太幼稚,太小心眼了。”

留言暴發起來。

——我想要一個人造人的AI,她看起來很有意思。

——我也覺得機械人的AI沒有人造人的AI有意思,是因為人造人的是女性?所以性彆影響了她的思考方式?

——我覺得有這種可能。

楚楚看完宣傳片,思考一會兒,問:“……這個女AI的模板是我嗎?”

孔明堅定的搖頭:“不是。”

楚楚點頭:“我就覺得我沒有這麼不講理。”