還記得今年3月Meta CEO朱克伯格(Mark Zuckerberg)曬出的這張與輝達 CEO黃仁勛的合照嗎?當時小紮稱,黃仁勛是「科技界的Taylor Swift」。
這被認為是兩個億萬富翁的世紀會面。
而就在剛剛,台北時間7月30日淩晨,黃仁勛與朱克伯格兩人再度現身電腦圖形學頂會SIGG RAPH 2024上,不僅迎來 AI 行業的世紀對談,探討 AI 和虛擬世界的基礎研究與未來。而且最後,小紮送黃仁勛一件客製皮衣,黃仁勛用自己標誌性的「全新」皮衣與朱克伯格交換,留下了精彩一刻。
朱克伯格在對談中表示,從互聯網到流動互聯網之後,Facebook這類軟件在蘋果 iOS系統平台上受到了極大的限制,而如今,以Llama為首的開源AI模型將成為打敗蘋果封閉生態、微軟 PC平台的下一個新的至寶。「我非常樂觀地認為,在下一代比賽中,開源 AI 將會為Meta贏得勝利。」
「我未來10年或15年的事情之一,就是我只想確保Meta能夠建立基礎技術,並將在此基礎上建立社交體驗,因為我已經嘗試了太多的東西。如果你剛剛被告知,在某種程度上,你需要透過平台來構建它,我只是想,不,去他媽的下一代(fuck that for the next generation),就像我們要一直往下構建,並確保在那裏。」朱克伯格再度炮轟蘋果封閉生態對於Meta公司的打擊。
黃仁勛則強調,AI 正在變革一切。而「我們(輝達十年前)改變了公司的一切,從處理器到系統,再到軟件堆疊,所有的演算法和影片基礎研究都轉向深度學習。」
老黃小紮對談:開源AI正變革互聯網時代
「This is SIGGRAPH, these 90% PhDs.」一上台,黃仁勛就調侃了小紮,稱這個會議上的人90%都是博士,暗指小紮輟學創立Facebook的事情。
相比於大學本科期間就打造出Facebook並退學創業的朱克伯格,黃仁勛是在30歲才成為輝達的聯合創始人。於是他提到:「我要是知道得花這麽長時間才能成功的話……」
「你打從一開始就不會做這些了?」朱克伯格問道。
「不,我會像你一樣從大學輟學然後早點開始。」 黃仁勛表示。
實際上,輝達和Meta之間的關系頗有淵源。當全球最強開源模型LLaMA一代推出之時,Meta采用輝達A100 GPU卡進行訓練,如今最新的Llama 3則是輝達p00進行訓練推理形成的。
早前朱克伯格承諾,到今年年底,Meta將擁有35萬塊輝達p00 GPU,算力總和將接近於60萬塊p00所能提供的算力,預計投入成本高達70億美金以上。
朱克伯格在對話當中表示,Meta有一套算力集群訓練技術方案。如今,多模態模型對於算力要求越來越高,而 AI 已經深入到每家公司,在這其中構建GPU基礎設施和執行大型推薦系統變得異常重要。
談到開源 AI,朱克伯格有些激動的表示,開源 AI 模型技術將成為 AI 時代下打敗閉源模型的重要動力。
「所以在這方面(Meta)有很多歷史。隨著時間的推移,我們做了很多開源工作。坦率地說,我認為部份原因是我們在其他一些科技公司之後開始建設分布式計算基礎設施和數據中心。正因為如此,當我們建造這些東西的時候,它並不是一個有利競爭。所以我們想,好吧,我們最好把它開啟,然後我們將受益於圍繞它(開放)的生態系。所以我們有很多這樣的專案。我認為,最大的一個可能是開放計算,我們采用了伺服器設計和網絡設計。最終,數據中心設計並釋出了所有這些內容。透過讓它成為某種行業標準,所有的供應鏈基本上都圍繞它組織起來,這對每個人都有省錢的好處。」朱克伯格表示。
黃仁勛也同意開源 AI 的重要性,也支持Meta公司的願景。他表示,模型開源之後,每個人都可以有個AI ,每個企業都可以有一個AI,每個工程師和每個軟件開發人員都有一個AI。「我相信你也相信每個人和每個公司都應該能夠制造自己的AI,所以你(Meta模型)實際上是開源的。」
「所以這是一項非常棒的體驗。當Llama出現的時候,我們有點積極地傾向於為 AI 模型做這件事。具體來說,我想我有幾種方式來看待這個問題。我的一個想法是,在過去的20年裏,在公司裏建造東西真的很有趣。但最困難的一件事是,我們必須透過競爭對手的流動平台(蘋果)釋出我們的應用程式。所以一方面,流動平台對這個行業來說是巨大的恩惠,這是非常棒的。但另一方面,透過你的競爭對手來交付你的產品是具有挑戰性的。在我成長的那個時代,Facebook第一個版本是在網絡上,而且是開放的。然後作為向流動通訊器材的過渡,有利的一面是,現在每個人的口袋裏都有一台‘電腦’。所以那很好。但缺點是,我們能做的事情受到了更多的限制。當你看這幾代計算時,有一種很大的限制和偏見,每個人都只看著流動通訊器材,認為因為封閉的生態系,因為蘋果基本上贏了,並制定了條款。從技術上講,我知道市面上有更多的安卓手機,但蘋果基本上擁有整個市場和所有的利潤。基本上,安卓在發展方面有點像蘋果。所以我認為蘋果很明顯贏得了這一代人。但並不總是這樣。或者即使你回到一代人以前,蘋果也在做他們那種封閉的事情。但是微軟,顯然不像這個完全開放的公司,但與蘋果相比,Windows執行在所有不同的原始器材制造商和不同的軟件,不同的硬件上。這是一個更加開放的生態系和視窗。Windows是領先的生態系。它基本上是那種PC時代的東西,開放的生態系之一。我有點希望,在下一代計算中,我們將回到開放生態系獲勝並處於領先地位的領域。然後,總會有一個封閉的和一個開放的。我認為兩者都有理由去做,兩者都有好處。我不是這方面的狂熱者,並不是我們釋出的所有東西都是開放的。但我認為,總的來說,對於整個行業正在構建的計算平台來說,這是很有價值的。如果軟件特別開放,這真的塑造了我的哲學,無論是與Llama AI,還是我們在AR和VR方面所做的工作,我們基本上是在做基於開源技術的系統架構,比如在AR上構建系統。因此,從某種意義上說,Android或Windows基本上是這樣的,但我們將能夠與許多不同的硬件公司合作,制造各種不同的器材。我們基本上只是想把生態系恢復到開放的水平。」朱克伯格這一段言論,直接炮轟蘋果封閉系統對於Meta產品和收入的影響。
隨後,朱克伯格就開啟了「fuck」之旅,他說「讓我談論封閉的平台,我就會生氣」。
黃仁勛隨後繼續稱贊Meta的開源願景,認為這種方式能讓所有人使用 AI 技術。
隨後談及虛擬現實的發展, 朱克伯格指出,利用現有非常高質素的 AI 技術,AR技術能夠在全像AR出現之前以非常快的速度變得更好。「幸運的是,我們處於有利地位,因為我們正最終得到只是一系列不同價位、不同技術水平的眼鏡產品。所以我認為,基於我們現在看到的雷朋Meadows,我會猜測 AI 眼鏡在300美元的價位上將會是一個量級非常大的產品,數千萬或數億人最終將會擁有(它)。」
「我們開始建立一個GPU芯片。現在,當您部署GPU時,您仍然將其稱為p00。所以你們知道,當朱克伯格稱它建立擁有60萬p00的數據中心的時候,我認為出現了好‘顧客’。但這件事太不可思議了我有一個巨大的系統,非常難以協調、難以執行。你說你進入GPU的旅程比大多數人都晚,但你的規模比任何人都大。我祝賀你所做的一切真是難以置信,這真是個時尚偶像。」黃仁勛在演講結尾表示。
輝達正規劃一場NIM時代
值得註意的是,伴隨這次訪談,本次SIGGRAPH 2024上,輝達公布20多份研究論文和產品。其中,黃仁勛重點展示了一項輝達的「第二曲線」業務——推理微服務NVIDIA NIM。
7月29日,輝達推出了一套全新的NIM微服務,專門針對不同工作流提供客製服務,包括OpenUSD、3D建模、物理學、材質、機器人 、工業數碼孿生和物理AI,旨在賦能開發人員,特別是在DGX Cloud上整合Hugging Face推理即服務。
同時,Shutterstock還推出了一項生成式3D服務。而在AI和圖形領域,輝達釋出了全新的OpenUSD NIM微服務和參考工作流,專為生成式物理AI套用而設計。這包括一項透過面向機器人仿真的全新NIM微服務來加速人形機器人開發計劃。
實際上,所謂輝達Nvidia inference microservices(NIMs)是透過經最佳化的容器的形式提供模型,以部署在雲、數據中心或工作站上,是NVIDIA AI Enterprise業務的一部份。借助 NVIDIA NIM,全球超過2800萬名開發者能夠輕松地為Copilots、聊天機器人等構建生成式 AI 套用,所需時間從數周縮短至幾分鐘。
簡單來說,你可以理解為NIM是一種軟件模型服務即平台,與無問芯穹推理模型服務、Hugging Face有點類似。
事實上,隨著2022年底OpenAI推出ChatGPT聊天機器人產品,GPT大模型技術在幾個月內積累了超過 1 億使用者,幾乎推動了各行各業的開發活動激增。
而到了2023 年,開發者開始使用 Meta、Mistral、Stability等公司的 API 和開源社區模型建立模型或技術服務。
如今,2024年起,企業組織正將註意力轉向大規模生產部署,其中包括將 AI 模型連線到現有企業基礎設施、最佳化系統延遲和吞吐量、日誌記錄、監控和安全性等。 但是,這種生產路徑既復雜又耗時,需要專門的技能、平台和流程,尤其是大規模部署。
就在此時,NVIDIA NIM應運而生。
今年3月,輝達首次公布該產品,並在今年6月Computex電腦展上正式宣布,包括Cadence、Cloudera、Cohesity、DataStax、NetApp、Scale AI 和新思科 技 等近200家技術合作夥伴正在將 NIM 整合到他們的平台中,以加快特定領域套用的生成式 AI 部署,例如Copilot、程式碼助手和數碼人 虛擬形象等。另外,從 Meta Llama 3 開始,在 Hugging Face 上現已開始提供 NIM。
黃仁勛在今年6月表示:「每個企業都希望在其營運中融入生成式 AI,但並非每個企業都擁有專門的 AI 研究團隊。NVIDIA NIM 可被整合到任意平台中,任何地方的開發者都可以存取,並且可以在任意環境中執行——它正在助力科技行業將生成式 AI 普及到每一個企業組織。」
具體來說,NVIDIA NIM主要有五個優勢:隨時隨地部署、使用行業標準 API 進行開發、利用特定領域的模型、在最佳化的推理引擎上執行、支持企業級 AI等。 與此同時,開發者可以使用 NVIDIA 托管的雲 API 測試新的生成式 AI 模型,或者透過下載 NIM 來自行托管模型,並在主要雲提供商或本地使用 Kubernetes 快速部署,以減少開發時間、復雜性和成本。而且,NIM 微服務透過打包演算法、系統和執行時最佳化並添加行業標準 API 來簡化 AI 模型部署流程。
因此,借助 NIM,企業可以最佳化其 AI 基礎架構,以更大限度地提高效率和成本效益,而無需擔心 AI 模型開發的復雜性和容器化。在加速 AI 基礎架構的基礎上,NIM 有助於提高效能和可延伸性,同時降低硬件和營運成本。
另外,基於NIM,輝達還提供跨不同領域客製模型服務。比如,NVIDIA NeMo使用專有數據為大模型、語音 AI 和多模態模型提供微調功能;NVIDIA BioNeMo透過生成生物學化學和分子預測模型集合加速藥物研發;NVIDIA Picasso透過Edify模型實作更快的創意工作流程。這些模型在視覺內容提供商的特許庫中進行訓練,從而能夠部署自訂的生成式 AI 模型,以建立視覺內容。
目前,開發者現在可以從 Hugging Face AI 平台上,存取 Meta Llama 3 模型的 NVIDIA NIM 微服務。透過基於 NVIDIA GPU 的 Hugging Face 推理端點,只需點選幾下,開發者就能在其選擇的雲平台上輕松地存取和執行 Llama 3 NIM。
具體到案例中,輝達透露,作為全球最大的電子制造商,鴻海集團(Foxconn)正在使用 NIM 開發針對特定領域的大模型,並將這些模型嵌入到其 AI 工廠的各種內部系統和流程中,用於智能制造、智慧城市和智能電動汽車;而西門子正在將其營運技術與 NIM 微服務整合,用於車間 AI 工作負載,此外西門子還利用NIM為Machine Operators 構建了一個本地部署版本的 Industrial Copilot。
另外,輝達稱,數十家醫療公司正在一系列套用中部署 NIM,以便在手術規劃、數碼助手、藥物研發和臨床試驗最佳化等一系列套用中為生成式 AI 推理提供動力。而且,埃森哲 、德勤、Infosys、Latentview、Quantiphi、SoftServe、塔塔咨詢服務(TCS)和威普羅(Wipro)已經建立了 NIM 能力,以幫助全球企業快速開發和部署生產型 AI 策略技術。
黃仁勛曾表示,未來,每台器材都將執行 AI 軟件。因此,各個國家必須要做自己的主權 AI,而當前,企業以及制定主權 AI 戰略的國家正希望建立具有特定領域知識的自訂大語言模型,以便生成式 AI 套用能夠反映其獨特的業務或文化。因此,這些新服務的推出恰逢其時。
黃仁勛強調,輝達用「加速計算」技術重新發明了電腦。在過去的8年裏,輝達提高了每個GPU芯片效能,AI 算力效能提高了1000倍。
「現在,你可以擁有一台搭載GPU顯卡、速度快100倍、能效高20倍、成本低20倍的電腦,能夠解決復雜問題以及 AI 技術。」黃仁勛稱,「事實上,我創造了‘加速計算’這個詞。」
黃仁勛解釋說,機器人技術需要三台電腦:一台用於訓練AI,一台用於在精確的物理模擬環境中測試AI,另一台則安裝在機器人內部。
「幾乎每個行業都將受到 AI 技術的影響,無論是科學計算以更少的能源更好地預測天氣,還是與創作者合作生成影像,或為工業視覺化建立虛以場景。生成式AI還將徹底改變機器人自動駕駛汽車領域。」黃仁勛表示。
黃仁勛強調,未來,客戶服務這一職業仍將由人類主導,但會有AI參與其中。所有這些創新技術,就像任何新工具一樣,都有望增強人類的生產力和創造力。「想象一下,有了這些工具,你將能夠講述哪些新故事。」
(本文正選於鈦媒體App,作者|林誌佳,編輯|胡潤峰)