這是典型的災難性思維引發的焦慮症。
沒去看看心理醫生嗎?
不過倒是也容易理解,自己不擔心,是因為可以完全掌控大模型的底層法則。
彆說橘子大模型還沒成為超級人工智能,就算成了超級人工智能,它的規模越龐大,底層法則也會越完善,自己隨時都能通過埃瑟朗之核控製和消除任何一個基於柚子框架的大模型。
要是模型仍然是小規模,法則也會相應孱弱,自己的控製力反而沒有那麼強。
但若自己不知道這一點的話,估計也會悲觀得天天及時行樂了吧?
咦?好像和現在也沒差多少。
方豫摸了摸下巴:“你是在指責柚子科技不應該開發出人工智能嗎?”
“事實上,我們的預算接近三分之一花在對齊上。而且,即使柚子科技沒有推開這扇門,也會有其他人推開。”
“就像你說的,墨菲定律,門就在那裡,總會有人把它推開。”
馬斯克搖搖頭:“不,方,我並不是秉承著對抗性思維來和你探討這件事情,而是希望我們能夠找到一條解決AI安全發展的路徑,避免最壞結果的發生。”
“那你的方案是什麼?聽起來,似乎你已經有了可行的方案?”方豫喝了口水,不由得有些好奇。
坦白說,如果不是因為有法則在手和柚子的輔助,他也沒有絕對的把握能夠確保AI的安全性問題。
這些日子對“神之模型”的研究倒是讓他有了一些新想法,但這些想法究竟能不能成功,能不能夠確保AI成為人類社會向前發展的助推器而不是大炸彈,還要看實際落地後的效果如何。
現在說起來還是有些太早了。
馬斯克猶豫了一下:“我希望,作為目前在AI領域走的最快的企業,柚子科技能夠站出來,和我一起呼籲全世界的開發者,暫停所有神經網絡訓練六個月到一年。”
“利用這個時間,各個企業和國家重新審視目前大模型的安全隱患。並且成立一個由各大公司和國家組成的AI安全委員會,製定出AI發展的安全標準,並將全球AI都納入安全委員會的管轄範圍。”
“隻有這樣,才能確保人類不會毀在AI手中。”
方豫一聽,差點沒噴出來。
老大,你做夢呢?
不過想一想,馬斯克接觸大模型才僅僅兩個月的時間,又不像自己一樣,有柚子的輔助和“神之模型”能直接提供參考,也隻能從限製AI發展的角度來考慮問題。…。。
“你應該和古狗也談過吧?他們怎麼看?”方豫揚了揚眉。
馬斯克沉吟:“我和拉裡此前曾經是很好的朋友的,但在這方麵我們的觀點並不相同,他不同意對人工智能加以限製,更不同意放慢研發進度。”
方豫笑了笑:“所以,你說的不具備任何可操作性。即使我同意了你的意見,古狗不同意,其他公司不同意。”
“不提你剛剛說的那個全球性的AI安全組織,隻說你前麵提到的暫停研發,都是做不到的。”
“畢竟誰也不知道停止研發半年,會不會就被其他不遵守這個共識的企業所超越。”
“古狗不會同意,FB不會同意,那麼多的AI研究者都不會同意。”
“而且,就算這些公司都同意了,那些沒有絲毫名氣,甚至剛剛注冊和還沒注冊的AI初創企業呢?”
“大模型誰都可以訓練,誰都可以堆參數,你的想法並沒有從根本上降低AI發展帶來的風險。”
“在大模型領域,我的預測是,每一年,大模型都會以十倍以上的參數量增長,直到達到人類電力所能提供的極限。”
“沒有人會接受,自己一年時間,就落後對手十倍以上的性能差距。”
“我相信遲早會有你說的這樣的組織出現,也相信其中會有所有的AI大企業。”
“但絕不會是現在,而是在第一次AI軍備競賽告一段落的時候才會出現。”
“並且,我也不認為這種組織的出現會真正對AI的安全起到多大的作用。”
“這種組織的出現,我認為反而會擴大AI風險。”
“這個所謂的安全組織看似接管了所有的AI風險,但它卻不可能有真正降低AI風險的能力,反而約束了組織之外真正有效的AI風險管控措施。”
“組織建立在規則之上,組織規則一旦形成,就很難改變,更難以響應AI的發展速度所帶來的新機遇和新風險。”
“沒有任何組織的進化速度能趕上AI的進化速度。”
“就像I,建立之初,所有人都認為需要有一個機構來管理互聯網的域名分發。但實質上,目前I的存在,已經構成了互聯網最大的風險,並且嚴重阻礙了全球互聯網的健康發展。”
“最有意思的是,I甚至完全沒有解決成立之初認為它們應當解決的問題,否則也不會有.sucks這種勒索域名的存在了。”
馬斯克眉頭緊皺,打斷道:“我始終認為,做點什麼總比什麼都不做要好。你對I的抨擊我能夠理解,我也讚同在風險人類可承受的前提下,給與新技術最大程度的自由度。”
“但AI不同,AI如果失控帶來的破壞力,已經超越了人類可承受風險的極限。過去一百年間,唯一能和其相提並論的,隻有核武器。試想一下,如果六十年前沒有締結核不擴散條約,可能我們人類社會在五十年前就已經滅亡了。”…。。
方豫點點頭:“你說的很對埃隆,我很讚同。但是,請注意,核不擴散條約當時隻牽涉五個國家,僅僅隻是這五個國家,從提出到達成協議,就用了四年時間,而生效,又用了兩年。”
“你覺得,麵對AI這種全球企業和個人都在參與的事情上,需要多久的談判才能達成一致?”
“而且,更不能忽略的一點是,核武器的威脅是迫在眉睫的,當時包括當政者在內的所有人類,都在被核武器所威脅,限製核武器是當時人類的共識,而AI則不是。”
“換句話說,你說的這個方法,在不知道有沒有效果的同時,也不具備任何的可行性。”
“除非,明天就爆發出一場智械危機,這時候人類才能吸取教訓。”
“對了,你可以收購波士頓動力,然後自行引爆一場AI危機,說不定能起到一些作用。”
聽了方豫的話,馬斯克心頭火起:“你的意思是,什麼都不做,坐看人類毀滅嗎?”
方豫眨了眨眼,一臉的無辜:“你怎麼知道我們沒有做事情?我隻是說你控製AI風險的方法從根本上就是錯的。依據你經常說的第一性原理,控製AI風險,不應該從AI大模型技術本身來著手嗎?”
技術本身?
馬斯克不由得愣了一下。
“你是說,後門?通過底層的後門來做AI的最終防火牆?”馬斯克隻是略作考慮,便搖頭道,“後門的存在,會造成更大的風險,即使初期AI無法發現,也存在被第三方濫用的必然。”
“而且,當AI進化到具備自我意識後,必然能找到修補後門的辦法,這並不是一個好辦法。”
方豫啞然一笑:“埃隆,你對AI的思考太過於局限了。我說的當然不是後門,而是從大模型技術方向的角度去實現真正安全的超級人工智能。”
“確保AI的安全性,並不是依靠限製,而是依靠安全而可靠的技術路徑,在最終實現了超級人工智能、甚至AI誕生自我意識的同時,還能夠保證人類社會的安全與進化,讓AI成為人類走向超級物種的助推器,這才是柚子科技真正在做的事情。”
“我們無法控製這個世界任何一個國家對AI的政策,但是,我們可以控製的是,比任何人都更先探索出達到安全超級人工智能的路徑,這也被我稱為SASI。”
“SASI?”馬斯克目光閃爍,方豫所說的東西,確實是他沒考慮過的,但他怎麼聽怎麼覺得不靠譜。
超級人工智能隻要誕生,他計算過,隻要半個小時,就能接管全世界所有的網絡設備、自動武器設施、甚至包括沒有聯網的電網設施。
“你的具體思路是什麼?”馬斯克眼睛瞪得溜圓,絲毫沒有一天一夜沒有睡覺的困倦。
“這牽涉到柚子科技後續研發的核心機密,我隻能說,你們對AI後續發展的路徑的預測是錯誤的,AI未來發展的形態,不應該是一個天網或奧創,我們應該從‘什麼是生命’這個角度去尋求答案。”…。。
馬斯克立刻說道,“如果我沒有搞明白這件事,我很難真正的相信你說的話,我可以保證不對外泄露一個字,需要的話,我可以簽保密協議。”
你不相信?你相不相信關我屁事?我憑什麼要告訴你?
就憑老子搶走了你的心上人?
問題是,你塌馬也是黃毛好不好?
“保密協議就算了吧,我的保密協議一旦違反,是必然會生效的。”方豫意味深長的說了一句。
“你相信與否,對於我來說並不重要。我也是一名人類,而且非常熱愛人類這個物種,我不會坐視任何損害人類整體利益的事情發生。”
“雖然我不能告訴你具體的技術細節,但既然你這麼擔心,我可以給你透露一些方向性的信息。”
“你一直在說,AI誕生自主意識將會毀滅人類。但是,人類也有自主意識,人類中也有戰爭狂人、也有希望世界毀滅的瘋狂博士,為什麼人類沒有毀滅?”
“很簡單的道理,人類的種群足夠大,種群足夠大的時候,任何極端思想都會被對抗、稀釋、緩衝,最後回歸到正態分布。”
“這就像是一個國家,國家越大,人口越多,往往民眾價值觀越具備正態分布特性。”
“而越是小國家,民眾價值觀卻往往會比較極端。”
“同樣,AI如果要產生毀滅人類的想法,必然是因為兩點,一,作為一種生命體,它的種群太小了,小到了無法稀釋極端思想的程度。”
“二,其數據受到了相當嚴重的極端化數據汙染。”
“種群與數據,才是一切的根源,分布式的數據采集與中心式的數據清洗再反哺回分布式ASI,這才是從根本上確保AI不會毀滅人類的正確做法。”
“當然,中心-分布-中心-分布的SASI架構,也並不是AI發展的最終形態,最終的目標有些太遠了,現在和你說也沒有什麼太大的意義。”
馬斯克畢竟是走在高科技最前端的大佬,聽到一半,就聽明白了方豫表達的意思,不由得倒吸一口涼氣。
方豫所闡述的這種模式,的確能夠最大程度的確保AI價值觀的平衡,確保AI不會產生毀滅人類的想法。
但真的能做得到嗎?
按照大模型的特點,純粹的中心化超級人工智能才是最容易達成的吧?
“我需要進入柚子科技董事會,我不要股份,但我要具備隨時了解公司目前戰略的權力。同時,為了避免利益衝突,我可以和柚子科技簽署協議,不進入AI行業,由柚子科技為我的所有公司提供AI服務,開個價吧。”
馬斯克沉默了一會兒,開口道。
今天這一章寫的太痛苦了,因為沒有參考資料可以參考,完全需要按照自己對Ai發展的了解進行合理預測與規劃,而且還要結合進情節,確保與後續情節的連接合理性,寫的太痛苦了,太痛苦了。
求個月票!!!
(本章完)
39288491。。
畫畫太歲提醒您:看完記得收藏【筆趣789】?xiaoshubao.net
,下次我更新您才方便繼續閱讀哦,期待精彩繼續!