易科的“太白”出世,以一種迅雷不及掩耳的速度擊穿人類圍棋陣營,但即便是1V5,即便是人類頂尖棋手,不少人對於易科堂而皇之的宣稱AI已經在圍棋領域超越人類智慧還是不滿。
這裡麵還有許多言之有理的理由,比如,AI出現的太突然,所有人都來不及仔細研究它的下棋路數;比如,時間太近,棋手們沒有完全調整到最佳狀態……
隻是,眼下已經來不及為人類棋手遺憾了,現在趕到戰場的是來自穀歌的“阿爾法”。
繼AI無可匹敵的戰勝人類,易科快速確定與穀歌的技術切磋時間,直接定在了7月3日,仍舊是全程開啟直播。
方卓不懂圍棋,但他對於這種技術的驗證和交流很有興趣。
這次不僅僅是兩個AI的對弈,易科也是在申城舉辦了一次與穀歌的深度學習Deep Learning的交流活動,同時還有英偉達以及矽穀近期這領域的研發人員、創業公司一起參加。
易科是真的抱著切磋的意願,穀歌與矽穀那邊也沒有太多比試高低的意思,因為,這個賽道的折騰確實還沒瞧見太多突破的希望,仍舊屬於蓄力階段。
也正是基於這種情況,不少沒被邀請的研發者和公司瞧見兩大公司的互動,也積極報名參加活動,而易科在與穀歌討論之後就乾脆擴大了規模,時間也順勢推遲到7月10日。
這便不是一場圍棋對弈的AI互動,而是以它當作開胃菜的深度學習DL的研討會議。
7月10日,易科、穀歌、英偉達等公司在申城的易科中心舉辦會議,同時,易科還邀請了先前被擊敗的柯潔、李世石、申真諝等人作為嘉賓,見證“太白”與“阿爾法”的對決。
這兩個AI都有擊敗人類頂尖棋手的履曆,太白上個月掀起的多麵打與輿論炒作也成功讓大眾對AI充滿興趣,再加上又有現場直播,所以,觀看者眾多。
上午九點鐘,兩台機器人坐在舞台的正中央,現場架設了大屏幕,方卓、拉裡等人坐在第一排,棋手柯潔、申真諝等嘉賓在直播室點評。
不同於上次同樣直播的1V5,“太白”與“阿爾法”的落子都十分迅速,偶爾也有遲疑的時候,但這種時刻相較於人類便顯得極其短暫。
對弈是傳統規則,各自是有三小時時間,然而,僅僅三十二分鐘,這場萬眾矚目的棋就以“太白”贏下1子而結束。
這三十二分鐘是絕大多數人看不懂的三十二分鐘,不過,他們能看到棋手們的表現,能看到直播室裡剛開始有分歧,中間有爭執,最終變成沉默的過程。
當柯潔被邀請上台,以專業人士的身份對這盤棋進行點評,他麵對鏡頭十分茫然,好一會之後才說道:“AI在圍棋上可能已經完全超出人類想象了,上個月我好像在AI的棋裡看到了古力、李昌鎬、吳清源他們的影子,又、又好像看到了我自己的影子。”
柯潔神色中帶著掙紮和痛苦,伸手捂臉:“今天,我看不到了,完全看不到了,我好像不懂,不懂圍棋到底該是什麼樣了……”
主持人眼看柯潔已經有些失態,趕緊把這位人類頂尖棋手請下台,並且打了打圓場,但這個場麵無疑讓觀看直播的人印象深刻。
AI對弈的開胃菜結束,方卓拿到話筒進行了簡單的發言。
“圍棋是人類智慧的傑作,但AI也是如此。”
“我對於AI的期待就是它能夠極大的解放人類的雙手,這一天大概很遠,但就像今天的‘太白’相較於上個月的它,已經又有進步。”
“AI會以一種讓人驚歎的迭代速度進化,我們今天彙聚在這裡也是為了尋找正確的發展方向。”
“AI是在圍棋領域贏了人類,但這不是人類智慧的終結,反而是人類智慧的延伸,是科技的又一次進步,也是對未來的又一次探索。”
方卓這種看法的表達還是贏來了不少掌聲與直播間的好評。
對於許多人來說,這場熱鬨也就看到這裡了,但對從業者、研發人員來說,真正的部分才剛剛開始,不論易科還是穀歌都在深度學習DL領域有很深的研究,這種圍棋對弈隻是展露出的表象,內裡的運轉與思考才是更讓人重視的。
吳恩達作為易科“Venus”項目的負責人之一,與穀歌旗下公司的席爾瓦就DL的模型邏輯進行了交流。
不管太白還是阿爾法,它們都是基於卷積神經網絡的發展而來,這一基礎是類似的,而它的突破源於2012年Alex、Ilya和Hinton合作發表的關於Alex深度卷積神經網絡的論文,也正是在這之後,相關的研究出現了爆炸式的增長。
吳恩達與席爾瓦談的是在Alex之後的架構創新,是將傳統的搜索算法與深度學習模型的有效整合,以及,整個團隊在局部感受野、參數共享與稀疏連接、平移不變性這些方麵做出的努力。
這種易科與穀歌以及場下嘉賓的交流極其愉快,也讓方卓頗為滿意,他雖然不懂,但瞧著這樣的場麵就覺得知識被塞進了腦子裡。
隻是,等到第二天,當吳恩達提出團隊在研發上的困惑時,激烈的辯論到來了。
易科是有“Siri”這樣的語音助手作為人工智能的實踐,而吳恩達的團隊不僅在做卷積神經網絡的研究,也在做循環神經網絡RNN的研究,他們認為後者更適合與語音助手相結合,但效果並不算很好,完全達不到想要的成績。
問題出在哪裡?
吳恩達表述了困惑,也談了談易科內部的解決方向。
參會的一部分人讚同易科的解題思路,但穀歌方麵卻出現了不同的聲音。
“為什麼非要使用循環神經網絡?”穀歌的烏思克爾特本來正在休假,但因為對DL的交流感興趣便報名過來,“為什麼不試試自注意力Self-attention?我認為它對NLP領域將會有更優秀的改變。”
“Self-attention可以進行更好的並行計算能力,而不是像RNN那樣進行順序處理,它還能直接比較序列中任意兩個位置的向量表示,這樣就能更有效的捕捉和利用長距離依賴關係,但RNN不行!”
“RNN雖然理論上也能捕捉長距離依賴,但實際上往往因梯度消失或爆炸問題而難以實現!”
烏思克爾特研究的是穀歌的機器翻譯改進方法,他的父親就是計算語言學的教授,儘管剛開始進入穀歌時對語言翻譯的工作很不喜歡,但最終還是專注於這一領域的研究,而他近期正在琢磨的便是“自注意力Self-attention”在相關領域的改善。
吳恩達很快明白這位穀歌研究員的意思,也在幾經思索後給予反駁:“自注意力沒有顯式地編碼位置信息,這就意味著如果以它為核心的模型無法區分序列中相同詞語在不同位置的意義差異,而在自然語言的處理中,詞語的語義又與位置緊密相關。”
“而且,自注意力模型必然因為序列中每對元素計算的注意力權重而有巨大的參數量,這極可能導致過擬合。”
他這邊剛說話,穀歌自家DL的席爾瓦也反駁了烏思克爾特提出的新路線,其中一個重要原因在於RNN的循環結構太符合大家對序列數據處理的理解,即當前狀態依賴於過去的信息,而自注意力的全局依賴一看就不如RNN直觀。
易科與穀歌的兩大領導者都批評了自注意力Self-attention,但烏思克爾特並不服氣,他直接登台闡述自己更多的想法。
而且,針對吳恩達與席爾瓦抨擊的缺點也給出一些解決思路,比如,引入位置編碼,比如,進行多頭注意力的研究。
有人覺得眼前一亮,有人覺得異想天開,還有人現場進行快速的分析和演算。
第一排的方卓極其茫然,他扭頭詢問旁邊沉思的英偉達掌門人黃仁勳:“他們在討論什麼?”
“烏思克爾特說, GPU是最適合深度學習技術的硬件。”黃仁勳給出一句總結。
方卓:“???”