上來就拋出王炸問題。
霍利淡淡一笑,“國內做的最好的AI大模型,能夠匹配ChatGpt3.5。
差距很明顯,如果按照時間算,落後兩年左右。
不可否認,這是一段比較長的距離,我們在追趕的同時,OpenAI也在快速更迭,甚至是以一種我們難以預測的速度。
奧特曼是我很喜歡的一位科技CEO。”
奧特曼坐在台下抬手捂胸,以示禮貌。
主持人:“有追上的可能性嗎?”
霍利微笑道:“當然,因為今天我坐在了這裡。”
偏頭看向馬斯克,“為什麼馬斯克邀請的不是彆人?”
馬斯克笑著鼓掌,“霍創造了很多商業奇跡,我同樣期待他創造科技奇跡。
也許他會超過我們。”
有點捧場的味道。
現場掌聲熱烈。
青年人的自信還是很有魅力的。
特彆是用這種幽默風趣的方式表現出來。
主持人:“我也很期待那一天。
霍,人工智能能夠擊敗人類嗎?”
霍利:“我不知道你們如何定義失敗?
是指智力超過人類,還是指統治人類,甚至是消滅人類?
如果是比較智力,我想人工智能已經在多個領域擊敗了人類。
他就像多個高智商的個體融合在了一起,世界上很難找出和他一樣聰明的人類。
如果擊敗是指統治和消滅人類,這個話題需要從多個緯度去思考。”
主持人:“馬斯克,你同意霍的觀點嗎?”
“當然。”,馬斯克點頭,“AI最後會替代人類,人類將會以意識生存在這個世界上。
人的軀體將會被AI消滅。
AI的複雜性,已經很難用人類的大腦去思考了,也許在係統開發和算法研究上出現一個微小的錯誤,就會帶來全球性的災難。
人類應對風險的能力是有限的。”
霍利:“我並不希望這樣的事情發生。”
主持人看向霍利,今天對話上的第一次觀點碰撞誕生了。
主持人:“Mr.霍不讚同馬斯克的觀點?”
霍利:“任何一個新事物的誕生,都會給人類帶來恐慌,但是我們不能忽視一個重要的現象,人類的適應能力是極強的。
馬斯克預估了AI最壞的結果,但是他忽略了人的主觀能動性。
核武器誕生的時候,也給全人類帶來過恐慌。
大國之間的核競賽誕生了很多末日的言論。
但是最後國際社會創建了一個國際原子能結構(IAEA)監管核武器,讓核武器隻是停留在軍事威脅上。
AI也是如此,從它誕生開始,我們必須認清它帶來的負麵影響,包括人類的毀滅。
我相信國際社會同樣能夠做好對AI的監管。”
馬斯克搖頭道:“NO!霍,人類無法監管AI,它的成長速度和變化超過了人類的預知能力。”
霍利:“人類不可以,但是AI可能。”
馬斯克愣神看著霍利。
現場也突然安靜。
主持人不確定道:“霍,你的意思是用AI監管AI?”
霍利點頭。
所有人都露出震驚的表情。
這是一個非常新的話題。,找書加書可加qq群952868558