首頁 > 軟體

缺席一年後,谷歌I/O大會回來了!3D視訊聊天,10倍效能TPU,還有Android 12重磅登場!

2021-05-21 02:00:19

5月19日凌晨1點,谷歌IO 2021開發者大會重新迴歸。谷歌可謂是厚積薄發,積攢2年創新技術輪番轟炸:3D視訊聊天Starline,十倍效能TPU V4,聊天不設限的語言模型LaMDA,還有Android 12重磅登場。

時隔兩年的谷歌IO大會再次迴歸。

5月19日凌晨1點,谷歌CEO桑達爾·皮查伊(Sundar Pichai)精神抖擻地登場。

在谷歌園區戶外進行的開場 Keynote 上,釋出了一系列引人矚目的全新產品。

谷歌多年研發,整合了內部AI和增強現實實力,全息視訊聊天技術Project Starline正式面世。

還有第四代定製AI晶片 TPU V4,其算力是上一版本的兩倍。兩項全新的深度學習技術LaMDA 和 MUM帶來前所未有的效能和使用體驗。

每年一更的Android系統也是必不可少,全新Android 12色彩鮮豔,整體UI大變樣。

手機拍照診斷面板病,WearOS更新等許多精彩彩蛋都藏在本次IO大會上。

本屆大會上,雖然長達幾個小時的演講平平無奇,但AI依然貫穿了谷歌整個產品的主線。

正如皮查伊所說,「讓谷歌為每一個人提供更多幫助。」

Project Starline,視訊也3D?

感謝視訊,疫情期間讓我們可以與家人和朋友保持聯絡,繼續進行學習和工作。

遠端會議、遠端上課、和身處國外的家人視訊聊天,但是面對面的感覺還是差點兒意思。

是Project Starline進一步拉近了人們之間的距離。它的效果,就好像對方真的坐在你面前一樣。

這塊「魔鏡」究竟採用了怎樣的黑科技?

Starline這一項目使用了定製深度感測器,數十個景深掃描感測器以及 65 英寸「光場顯示器」。

從多個角度捕捉使用者的外形和外觀,然後將它們融合在一起,創建極其細緻的實時3D模型。

由此產生多達每秒幾千兆位元資料,為了可以通過現有的網路傳送如此大尺寸的影象,谷歌開發了新的壓縮和流媒體演算法,使資料減少了超過100倍。

實際上,Project Starline在谷歌內部已經開發多年,一個集成了軟體和硬體,整合了計算機視覺、實時渲染、增強現實、空間音訊等技術的谷歌新技術項目。

這個整體構造更像是一個「3D電話亭」。

谷歌還為此開發了突破性的光場顯示器,可以讓人感受到螢幕對面人的真實形象。

圈內人都將其稱為「全息技術」,或者說「網真」。

目前,Starline項目仍然只是一個原型,可能還很昂貴,暫時無法走進我們家中。

新一代定製AI晶片TPU v4:十倍效能提升

4096個 v4 TPU,一個pod就可以提供超過一個exaflop的AI計算能力。

這是谷歌最新推出的AI定製第四代晶片,速度是v3的兩倍,效能相比前一代提升了十倍多。

一個TPU pod的計算能力達到了每秒百億億次浮點計算的級別,相當於一千萬檯筆記本電腦之和。

以前要想獲得1個exaflop(每秒 10 的 18 次方浮點運算)的算力,通常需要建立一個定製的超級計算機。

TPU是谷歌的第一批定製晶片之一,當包括微軟在內的其他公司決定為其機器學習服務採用更靈活的FPGA時,谷歌很早就在這些定製晶片上下了賭注。

但谷歌今天已經部署了許多這樣的計算機,很快就會在資料中心有幾十個TPUv4 pods。

此外,最重要的是,谷歌這些資料中心將以90%或接近90%的無碳能源運行。

皮查伊表示,最新的定製晶片TPUv4 pods將在今年晚些時候提供客戶。

能和你愉快地聊天的LaMDA

在語言模型上谷歌也有了新的突破:LaMDA(對話應用程式的語言模型)。

對話一直是機器學習領域難以處理的難題,因為即便對話可能圍繞著特定主題展開,但經常是從一個地方開始,最後到完全不同的地方結束。

例如,與朋友聊有關電視節目的話題,聊著聊著就變成討論拍攝這個節目的國家,最後又變成對這個國最好吃的美食的討論。

谷歌表示, LaMDA可以使問題的回答更加「make sense」,讓對話更自然的進行,而且這些回覆都不是預先設定的(和那些聊天機器人不同),甚至相同的答案不會用第二次。

與老前輩BERT相同,LaMDA也是基於Transformer架構,但不同的是,LaMDA接受了更多在對話方面的訓練,尤其是在如何區分開放式對話方面。

LaMDA基於谷歌先前的一個研究:https://ai.googleblog.com/2020/01/towards-conversational-agent-that-can.html

說到對話,鋪天蓋地的文章都是在講,BERT的研究又有了進展,或者是GPT-3如何厲害,說基於這些模型的AI都能「跑團」了。

但是,本小編感覺這些進步似乎都沒有體現在客服用的「智慧」聊天機器人上。

在經歷了無數次機器人不知所云的回答之後,小編決定,對於這種情況,就只回復:「人工」。

「你如何像你的祖母解釋『bot』這個詞」「我祖母去世了」「好的!謝謝你的反饋...(贊)」

「這個週末的天氣如何?」「我找不到你所在位置的結果。」「這個週末布魯克林的天氣如何?」「布魯克林現在的溫度是46華氏度,天氣晴朗。」「這週末呢?」「啥?」「週末!」「對不起,你說什麼?」

比BERT強大1000倍的MUM

說完谷歌在和人「正常」地聊天上的進展,現在來聊一下全新的搜尋模型MUM(多工統一模型)。

為什麼說是比BERT強大1000倍呢,因為GPT-3是OpenAI的,大概不太方便比較。

雖然谷歌沒說,但是我們都知道GPT-3的應用很廣,除了剛才說的「跑團」,還有類似搜尋引擎方面的功能。

不過,在提供更靈活可靠的搜尋結果方面,谷歌提出的MUM確實要更勝一籌。

在部落格中,谷歌的開發者舉了一個例子:「如何為八月在蒙大拿州的漂流做準備」。這個問題涉及到了多個方面,比如,天氣會比科羅拉多州更熱嗎?需要什麼衣服和裝備?在哪裡可以租木筏?

就目前而言,我們需要通過多次的搜尋才能得到想要的結果。而MUM則可以幫助使用者更好地完成這種複雜的搜尋任務。

MUM同時接受了75種不同語言和多種任務的訓練,因此能比之前的模型更加全面地瞭解資訊和有關世界的知識。

谷歌的開發者又舉了一個去遠足的例子:「我爬過亞當山,在下一個秋天我想去富士山,我需要做哪些不同的準備?」

MUM一看,哦,使用者這是在對比這兩座山,那麼海拔和路線的資訊可能和這個問題有關。而且,在爬山這個背景下,「準備」可能包括健身訓練以及尋找合適的裝備之類的東西。

於是MUM便可以回答:「雖然兩座山的海拔大致相同,但秋天的富士山處在雨季,所以可能需要準備防水外套。」

除了直接的回答,MUM還會給出一些相關視訊或者文章作為備選連結,方便使用者做更深入的探索。

多語言優勢

75種語言的訓練不止讓MUM瞭解到的資訊更全面,也同時讓MUM具有跨越不同語言的能力。

還是富士山的例子,比如你不會日語,而關於富士山的資訊更多的是用日語寫的,那麼在傳統的搜尋中,這些資訊就很難被找到或理解。

但是MUM可以將那些不同語言的知識轉化成使用者偏好的語言,並找到最相關的結果。

因此,在使用MUM搜尋有關富士山的資訊時, 就可以看到諸如在哪裡可以欣賞到最佳的風景,或者哪裡有溫泉,亦或者是流行的紀念品商店等等,而這些資訊通常以日語的形式出現。

多類型處理

依然是去爬富士山的例子,比如你有一雙登山靴,想知道能不能穿著去爬富士山。

這時候就可以拍一張靴子的照片問MUM,模型便會聯絡之前的問題和拍攝的圖片進行判斷,告訴使用者這雙靴子合不合適,同時給使用者列舉出一些推薦的連結。

Android 12

Android 12 的設計風格改變,應該是迄今為止最大規模的一次。

新版OS系統啟用了全新的Material You設計語言,MY 設計理念重新思考了從顏色搭配到介面元素形狀,從光影到動畫效果的所有視覺元素。

整套UI的自定義程度也變得比過去更高了。

系統色調會隨桌布而改變,想換即換,每天心情colorful。

除了視覺上的變化以外,Android12也變得更為高效。

谷歌在優化了CPU使用後也提升了續航力,新系統運行更快、反應速度更短。

這次的更新讓原生的安卓使用者可以更加清晰地看到都有哪些軟體正在訪問你的資料,同時提供了更多的設定選項讓使用者可以控制程式能夠獲取的隱私資訊。

狀態列的右上角增加了一個新指示器,可以看到應用何時在使用麥克風或攝像頭。而且,還在下拉選單中添加了相應的開關,方便取消對應用程式訪問隱私資訊的授權。

同時還有新的位置許可權選項,讓應用只能檢視大概位置,而不是精確的位置。

目前Android 12 Beta 1已經開放下載,除了自家的谷歌Pixel機型可以嚐鮮之外。

首發支援Android 12 beta 1的手機還有華碩、OnePlus、OPPO、realme、vivo、夏普、Tecno、小米等等。

還在等什麼,快去嚐鮮吧。


IT145.com E-mail:sddin#qq.com