1. <ruby id="2nt17"><table id="2nt17"></table></ruby><listing id="2nt17"><thead id="2nt17"></thead></listing>
    <ruby id="2nt17"><table id="2nt17"></table></ruby>
    <strong id="2nt17"></strong>
    <li id="2nt17"></li>

        1. 對話沈抖:今天市面上有很多大模型,但大部分會迅速消失

          摘要

          「我們本來也覺得看熱鬧的人少了,但沒想到用戶的熱情未減?!?/p>

          對話 | 張鵬 

          編輯 | 黎詩韻、鄭玄

           

          在「文心一言」放開后的第 24 個小時,沈抖進到后臺看了下數據,發現文心一言回答了用戶「3342 萬個」問題,這個數字超出了他的預期。

           

          兩天后,沈抖和包括我本人在內的幾名媒體人坐在一起聊起這件事時說,「我們本來也覺得看熱鬧的人少了,但沒想到用戶的熱情未減?!?/p>

           

          9 月,在中國大模型熱潮持續了整整半年之際,普通人終于有機會上手。

           

          8 月 31 日起,包括「文心一言」在內的多款大模型陸續通過備案,正式對公眾開放。這一消息不僅讓用戶雀躍嘗試,也引發了企業的熱情回應。沈抖說,在文心一言開放當天,在百度智能云千帆大模型平臺上,日活企業數增長超過 40%。——后者是百度面向企業端推出的大模型開發與管理平臺。

           

          在大模型時代,百度希望在同一時間線,推動個人和企業用上大模型。從宏觀角度來說,這有利于大模型這項前沿技術的普及。從公司角度來說,這有助于百度自己做生意。盡管 C 端用戶的商業價值未能立刻顯現,但 B 端客戶的商業價值則直接體現為模型 API 調度費、以及云計算收入。

           

          去年 5 月,已經掌管百度移動生態(MEG)多年的沈抖,被委以百度智能云事業群(ACG)總裁這一重職。集團對他的期待是,抓住 AIGC 時代的機遇,把智能云做成百度第二增長曲線。

           

          但沈抖面對的狀況卻非常棘手。百度并不是中國最大的云計算廠商,只是在用于 AI 相關服務的公有云上排名領先。當時,沈抖也希望用 AI 帶動整個云服務增長,無奈當時的 AI 能力太「碎片化」,無法擺脫服務成本高、難以規?;?、利潤微薄的現狀。

           

          但幾個月后,大模型時代到來。從競爭格局上看,過去以 IaaS(基礎設施即服務)和 PaaS(平臺即服務)為主的基礎云服務,正在讓渡于以 AI 為主的 MaaS(模型即服務)的云服務。沈抖認為這正是百度智能云「彎道超車」的機會。

           

          而從營收的角度上看,大模型的通用能力,讓云服務得以更標準化,從而在不同場景中規模復用,降低服務成本、增加利潤。正是因此,百度管理層在 2023 年二季度財報電話會議中對投資者表示,AI 和大模型會讓百度智能云獲得更高的利潤率。

           

          以下是我們和沈抖對話的全文,由極客公園整理。

           

          01 C 端文心一言、B 端千帆平臺,成功的一體兩面

           

           問:看熱鬧到了真正干實事的時候。前兩天,百度在 C 端開放了文心一言,你怎么看這個用戶使用數據?在意料之中還是意料之外?后臺的運維能力是怎樣的?

          沈抖:數據是我當天晚上 12 點半發到群里,同事們第二天就發布了這個數據。數據是我從系統里截的,原封不動地呈現給了外界,絕對真實。

          我們本來也覺得「看熱鬧」的少了,所以預期沒有那么高。沒想到當天有 3342 萬個回答量,這說明用戶對文心一言期待還是很高的。大家不是上來問一句、兩句就走了,而是經過了多輪的對話。從這個角度上來說,用戶的熱情還在。

          文心一言從 3 月 16 號開始內測已經有五六個月時間,無論在效果提升、還是成本降低上,都給了我們比較充裕的準備時間。比如文心大模型的推理速度已經較當初提升了 30 多倍,大幅降低了推理成本,也讓我們能夠承載得了這么大的用戶量。

           

          問:所以這段時間百度大模型的技術進步,也包含成本上的進步?

          沈抖:對,大模型本身就是資源密集型的技術范式。

          我們開始沒有想到流量會這么大,機器(算力)資源本身很寶貴,我們覺得放太多機器在那兒也是浪費,就沒有額外放太多機器。當天用戶規模上來以后,好在因為我們的推理性能提高了,所以還是給用戶提供了穩定的服務。

          我們手里也握著不錯的算力儲備,接下來也會繼續降低訓練、推理的成本,滿足用戶需求沒有問題。當時我們內部群里討論,流量來了能不能抗住。我說,讓流量來得更猛烈些,都是幸福的煩惱。

           

          問:文心一言在 C 端的放開,對百度的好處是什么?

          沈抖:你可能擔心的是,向 C 端開放如果不能帶來商業價值,是不是可持續的問題。

          事實上,只要真正給用戶創造了價值,商業化只是時間早晚的問題。技術發展史上,那些有價值但變現難的事例很少。文心一言確實給 C 端用戶帶來了真真實實的價值,昨天我看有一些評論講,沒有了文心一言,他的辦公效率就會下降。所以只要有價值,未來文心一言的商業化是順其自然的。

           

          問:中國大模型的 C 端產品形態,會跟 ChatGPT 保持一致嗎?也就是訂閱制收費嗎?

          沈抖:現在講大模型的產品形態還太早了,它的定義也還沒有那么清楚。

          當年移動互聯網起來的時候,我們可以用幾個關鍵詞講清楚它的定義,比如 SoLoMo(Social、Local、Mobile,利用社交媒體、地理定位服務和移動終端設備提供更好的用戶體驗)。但現在大模型還無法用幾個明確的詞定義。它的能力更強大,但邊界也更寬泛,還遠沒到收斂產品形態的時候。

          OpenAI 是技術驅動的公司,用戶體驗其實不是它的強項。它今天設計出的產品形態還很早期,接下來產品的迭代速度會非???、形態也會劇烈變化。

           

          問:ChatGPT 向 C 端用戶收訂閱費的商業模式,在中國是可行的嗎?

          沈抖:我們可能會演變出新的變現方式,比如常見的廣告、電商加游戲三大變現方式。

          如果你愿意一個月花兩千塊錢雇一個助理,那當 AI 能做助理 1/10 的事情,比如幫你制定旅游行程、預定機票和酒店、甚至調動打車和外賣軟件等,你會不會愿意花兩百塊?只是變現方式不一定是會員費,可能是交易傭金或其他方式。

          再比如,游戲里邊一堆 NPC 角色都是生成式 AI 驅動的、電商領域「數字人」直播也由生成式 AI 支撐,這都可能產生不同的變現方式。最終 C 端的產品形態,決定了它的變現方式。

           

          問:如果 C 端產品最終是生產力工具,有沒有可能不是個人掏錢、而是公司給個人掏錢?

          沈抖:有可能。比如百度網盤也算是一個效率工具,很多公司會買網盤賬號給員工用。我們還接觸過企業,給每個員工配一個 Copilot 賬號寫程序。這都是企業給個人買單的案例。

           

          「文心一言」界面

           

          問:作為內容公司,我們也特別想用大模型來生產文章。你們剛上線了 To B 的大模型服務平臺「千帆」,推出「千帆」的背景是怎樣的?能怎么幫助零程序員的公司部署大模型?

          沈抖:這是非常好的問題。事實上,這就是我們做千帆平臺的原因。

          這次大模型在 B 端落地的特點是大公司先行,很多客戶都是金融機構、能源機構、教育機構等。它們有一個明顯的特點是需要私有化部署,但這樣門檻很高,還要自己培養一堆技術人員迭代模型,可能會減慢大模型生效的時間。

          反倒像很多中小公司,你們大概率不會排斥一個(平臺型)SaaS 產品,也不會排斥公有云。千帆平臺就是這樣的產品。企業可以在上面直接調用 API,也可以訓練樣本做微調,幾乎零代碼打造自己的模型。我們做千帆的目的,就是要降低大模型的部署門檻、推動大模型的廣泛應用。

           

          問:似乎你們和 OpenAI 的路徑有所不同。OpenAI 是先推 C 端產品 ChatGPT,再慢慢推 B 端產品,百度卻是 C 端和 B 端齊頭并進。為什么會有這種差異?

          沈抖:技術都有接受度的問題,得讓更多的用戶真正用它,找到它的價值所在。大家都在談大模型,但多少人真的用過大模型?B 端企業客戶更能感受到大模型對它們整個生產范式的潛在影響,它們更需要用起來。

          但如果它們既不用公有云的 API,也不自己搭一套環境去體驗、嘗試,那就是純粹在那兒天馬行空地想象。所以我們需要做千帆,讓它們先把大模型用起來。其實關于大模型的全方位開放,C 端等了很久,B 端也等了很久。只是 B 端離商業化更近。

           

          問:文心一言放開后,千帆平臺的 B 端需求被拉動了多少?

          沈抖:在文心一言開放的當天,在百度智能云千帆大模型平臺上,日活企業數增長超過 40%,考慮到 TO B 的反應速度通常滯后一些,實際的情況會更好一些。

          放開不僅會拉動 C 端數據上漲,也一定會拉動 B 端的數據上漲。因為這會幫 B 端企業降低成本、加快迭代速度(注:用國內模型成本更低、更方便)。

          但從數據漲幅上,B 端暫時還比不上 C 端。今天假設有人要在 B 端用「文心一言」,他與其上來就調用 API,不如先去 C 端體驗一下。當他認為體驗好,才會來千帆上用它。讓 B 端用起來,需要一個培育的過程。

           

          問:如果 C 端和 B 端齊頭并進,你們怎么設置優先級?重點主要放在 C 端還是 B 端?

          沈抖:當資源出現沖突時,才需要設置優先級。大模型的特點是,它在底下很厚的一層都是通用的,那在上面找應用,無論 To B 還是 To C,都是百度要齊頭并進做的。沒有到資源沖突的地步。

          在 C 端,百度正在積極研究大模型可落地的產品形態和商業模式。百度要基于大模型重構自己的 C 端產品,比如從百度自己的產品數據來看,百度網盤、百度文庫等產品,基于大模型重構后,用戶使用粘性和會員付費率都有很大提高;全新打造的文心一言 APP 和重構后的百度搜索,也成為大模型應用新入口。在 B 端,百度智能云通過打造出最好的大模型平臺,服務好 To B 市場。

           

          問:其實最通用的基座是你們的云計算,無論服務內部客戶、還是外面客戶,都是你們的成功。

          沈抖:是的,你服務好了內部客戶、就服務好了外部客戶,服務好了外部客戶、就服務好了內部客戶,這是 MaaS 的美妙之處。否則的話,假設外部和內部完全是兩套技術棧,成本就太高了。

          我們是兩條腿走路。百度當然希望能做出一鳴驚人的 To C 產品,但我們也非常愿意通過底層大模型和算力,支撐更多的企業和開發者做出好的 To C 應用。其實無論上面誰成功,都是底層大模型的成功。

           

           

          02大模型開啟殘酷淘汰賽,開源模型的未來堪憂

           

           問:除了文心一言外,千帆平臺還上線了其他模型。千帆跟 Hugging Face 這樣的模型聚合平臺有什么區別?

          沈抖:在目前或相當長一段時間內,不管是出于模型的場景適配性、還是客戶的心理需求,企業都希望能嘗試不同的模型。從這個角度來講,我們也需要提供第三方模型。

          但也不是每一個模型都值得去試,那會是很大的資源浪費。所以千帆有自己的篩選原則,我們放上來的都是相對比較優秀、易用的模型。

           

          問:所以 Hugging Face 的定位是社區,千帆的定位是平臺?

          沈抖:沒錯。千帆不只是解決你來選模型的問題,更解決你把模型真正用起來的問題。用起來又包括數據、訓練、調優、Prompt 工程,以及應用搭建等一系列問題,還要充分考慮到成本和效率。千帆提供的是一站式服務,這是千帆跟 Hugging Face 的區別。

          Hugging face 模型廣度足夠,而千帆依托云廠商天然的優勢,有足夠大的運營空間,也可以做到端到端的訓練和推理性能優化。例如,訓練過程中的加速,故障的快速感知、定位、恢復;推理過程中基于百度龐大的異構計算集群的擴展性,有非常好的資源彈性,也可以提供 serverless 的服務,使得客戶獲得低基礎設施成本、無需運維、高擴展性的收益。這是千帆要比 Hugging Face 做得更深的地方。

           

          百度智能云千帆大模型平臺 | 圖片來源:百度智能云官網

           

          問:你似乎不看好開源模型,但開源攤薄了企業部署大模型的成本,也不能說它沒有意義。你到底怎么看開源模型?

          沈抖:你說 LLaMA(注:Facebook 的開源大模型)的成本誰攤?是 Facebook。那 Facebook 的成本誰攤?如果想不清楚這個問題的終點,那它(開源)就是無源之水、無本之木,終歸有一天會出問題。

          因為這跟傳統的開源軟件不一樣,過去一個人參與開源的投入,就是他自己的時間成本。但今天如果一個人想搞開源大模型,機器、數據的成本都太高了。

           

          問:可以用愛發電,不能用愛計算。

          沈抖:對,訓一輪你得扔幾千萬進去。

          今天跟傳統開源玩法有一點相似是,它們都是用開源來吸引用戶的注意力,最終還是希望選其他(閉源)大模型。

           

          問:有沒有可能出現類似 Red Hat 和 IBM 的關系(注:2018 年,IBM 宣布收購全球最大的開源公司紅帽)?假設像 IBM 這樣不甘心的有錢企業主,愿意支持開源方呢?這樣開源就有資金、數據支持了。

          沈抖:開源肯定是會長期存在的。隨著大模型越來越受關注,政府、企業都可能捐贈去支撐這方面的研究,促進整個市場教育。但它最后能產生多大的價值?我覺得它大概率不會成為主流,也不會形成完整閉環的商業模式。

          傳統的軟件開發可以形成閉環。比如你寫了一段代碼或升級了一個功能,可以很快 check in(簽入),整個開源軟件的能力一下就提高了一層。但今天 LLaMA 發布完了以后,不管有多少人在用,它沒法 check in 回去,數據放不回去、算力放不回去、能力也放不回去,形成不了閉環。

           

          問:很多開源派認為,開源模型讀過萬億參數,雖然比不上閉源模型,但是也是很可用的了。就像模型本身雖然沒有 985 和 211 畢業的水平,但至少是個??扑娇梢杂脕碜龈怪钡奈⒄{了。

          沈抖:Foundation Model(基礎模型)到底要不要進步?如果說今天 Foundation Model 已經很好了,不用再改了,那沒有問題。但今天的情況是,Foundation Model 只有 60 分,我們要爭取做到 90 分、95 分的問題。

           

          問:為什么要進步?很多企業的真實感受是,GPT3.0 都已經能解決問題,那進步的意義是什么?

          沈抖:這是一個很好的問題,我們內部也討論過。今天 Foundation Model 做到 60 分也能解決很大一部分問題,但它離完美地解決,差距還是很大的。而人性的需求是,但凡你能讓我一次解決的,分兩次絕對不干。

          今天你在 Foundation Model 只有 60 分的基礎上,訓練出了 85 分。那之后 Foundation Model 達到 85 分,你是不是能得 95 分呢?人在這方面的追求是無極限的。

          這個極限肯定是要繼續往上拉的。拿搜索舉例,20 多年前的搜索就能用,那谷歌這 20 多年都在干嘛?你看似結束了,實際上沒有。

           

          問:怎么看大模型接下來的競爭格局?

          沈抖:今天市面上有非常多模型,但我認為它們很多都會迅速消失。

          現在很多模型之所以還存在,是因為很多人還不知道它的好壞。反正誰也試不了,誰也用不了,一測排名還挺靠前。但隨著模型的放開,優劣更容易評判了。今天這些做大模型的,你給他三千萬個問題輸進去試試,估計一大半都得干趴下。

          這會導致流量的逐步集中,頭部模型更容易形成規模效應,從而進一步分攤模型研發的成本。差距會進一步拉大。

           

          問:淘汰賽會什么時候開始?

          沈抖:不好說,畢竟大家融的錢可能還得花一段時間。

          對于大企業來講,燒還是燒得起的,但也要看它燒的價值何在。有一些企業是沖著反正自己的應用場景很多,這時候讓它去調別人家的大模型 API 肯定不干,所以一定會做一個自己的模型。好點、差點(無所謂),至少不用依賴外部。大企業做模型這件事還會持續一段時間。

           

           

          03大模型讓云計算服務走向「標準化」,百度云終于賺錢了

           

           問:未來大模型會不會成為所有應用的底座?這會誕生一個完全不同的開發、應用生態嗎?

          沈抖:毫無疑問,大模型會成為一個新時代的操作系統,變成很多應用的底座。

          一直以來,人和人、和機器打交道,都是用語言作為指令。但過去,機器不懂自然語言,我們就硬生生寫了一套程序語言讓它理解?,F在大模型理解了自然語言,整個應用開發范式就發生了根本性的變化。開發變得由創意驅動,而不是由代碼能力驅動。

          另外,大模型也有把系統串聯起來的能力。像現在插件的出現,也就是獨立完成某種能力、等待被調用的組件,大模型可以把插件組合起來完成一個特定的任務。這都會進一步改變開發范式。

           

          問:如果大模型能打通所有插件解決問題,這是不是變相實現了互聯互通?

          沈抖:其實依然沒有。實際上,這些 APP 現在也都存在于同一個手機上、同一個應用程序里,它照樣沒有實現互聯互通。將來在大模型基座上,美團接進來、滴滴接進來,但它們還是沒有互通的。

           

          問:底層的問題沒有解決。

          沈抖:對,互聯互通應該指的是數據打通,你的數據我可以訪問、我的數據你可以訪問。但在大模型底座下,我們只是愿意跟這個中樞對話,但我們插件彼此之間并沒有對話。

           

          問:這種不互聯互通的情況,會不會導致開發者不能流暢地實現跨資源調度?這會是中國大模型開發生態的缺陷嗎?

          沈抖:我覺得主要的原因是沒放開、流量規模沒起來。比如文心一言一下子有了 3000 多萬的流量,開發者一算可能 1% 是自己的,那也有 30 萬的訪問了,他就會決定來干。

           

          問:在大模型時代,百度云怎么定義自己在生態里的位置?利益機制如何分配?

          沈抖:以百度一家之力是絕對干不過來的。不是恐怕干不過來,是絕對干不過來。

          首先,插件一定會是非常繁榮的生態,它和大模型之間是相輔相成的。插件要從大模型中獲取流量,大模型又需要插件能力的支持,就像今天假設手機上沒有微信、抖音 ,用戶可能都不用它了。

          其次,在面向終端客戶的應用上,無論是私有云部署、還是通過千帆這樣的平臺級方案,最終一定需要生態伙伴完成最后一公里交付的問題,比如金蝶、用友、軟通動力等。它們有特別熟悉的客戶和業務流程,最終需求都會被它集成。

          總結一下,一是開發生態的能力聚合、二是幫大模型做交付的合作伙伴、三是用大模型強化自身服務的客戶,這都是生態。

           

          問:大模型的技術范式,給云計算帶來了哪些改變?

          沈抖:技術發展的脈絡是越來越高級。換句話講,離底層越來越遠,越來越不需要關注細節,封裝越來越好,有大量的人在背后把這些活給干了。這本身也是云貢獻的價值。

          早期的 CPU 云貢獻的價值,就是客戶不用自己買機器一個一個卡綁,它封裝得越來越好、可以在上邊直接用。隨著大模型時代到來,「AI 加速芯片」GPU 慢慢成為算力中心,算力增長速度遠遠超過 CPU。這會加速我們從 CPU 云向 GPU 云的切換。

          在 GPU 云的時代,最終我們會把云的能力進一步封裝,不讓底層暴露出來,形成更高級的交互形態,直接對接大模型的 API。今天的云還是給工程師開發的,交互形態還不夠徹底,但未來底層的工程師會減少,更多人會往上層走。這是一個大幅的變化。

           

          百度智能云 | 圖片來源:視覺中國

           

          問:大模型會重塑云計算的市場格局嗎?如果會,什么時候能看到信號?

          沈抖:我喜歡這個問題。如果沒有大模型的話,百度的云會打得非常吃力。我們過去一直在喊「深入行業、聚焦場景、云智一體、AI 普惠」,百度智能云想做的就是把 AI 放到整個 To B 的服務里,讓它成為一個增長點。

          但過去,傳統的 AI 是非常碎片化的。它要針對一個問題生成一個能力,再解決這個問題,通用性比較差。這就導致它都是項目制,很難規?;?,毛利也低。

          而生成式 AI 出來以后,我們看到它的通用性非常好、一下子能解決很多問題,在應用層往下基本都是統一的,哪怕需要微調、需要插件,都是標準化的動作。這跟之前非常碎片化的 AI 應用完全不一樣。這本身就是云業務的巨大變化,所謂的 IaaS 變成了 MaaS。

           

          問:過去中國的 AI 公司都是要落項目,非???。沒法像現在這樣,通過標準化的產品解決問題。

          沈抖:我們那時候跟 Robin(注:百度創始人、董事長兼 CEO 李彥宏)討論云戰略,他也要求我們必須得標準化、規?;?,不然體現不出來百度作為一個技術公司的價值。

           

          問:所以接下來長期都會是標準化和規?;??

          沈抖:大模型在早期有很大的不確定性,今天,很多客戶對大模型的能力上限、邊界、成本、交付、需求方式都還沒有統一認知。短時間內,我們還不能保證客戶都到公有云上來,肯定還是先通過項目制的方式去做。

          但即使是這樣的項目制,也跟以前的項目制不一樣。比如我給你私有化部署了模型,它更像是 Windows 或者是 office,先是 95 版,接著是 97 版,又來了 2000 版,你得不斷的升級??此莆医o你一個光盤裝到家里了,實際上你得不斷地訂閱。這跟原來搭建的也不一樣。

           

          問:但你們的財務已經出現了改善。今年一季度百度智能云首次實現季度盈利,你們提到原因就是云服務的標準化,實現了規模復用、降低了成本。

          沈抖:是的。在單純項目制、或者項目制占比比較高的情況下,交付后毛利太低了。

           

           

          04執掌百度云一年多,迎來了最好的機遇

           

           問:作為百度最高決策層的一員,你平常最關心和焦慮的問題是什么?經常要跟團隊討論的問題是什么?

          沈抖:在產品形態上,Robin 有一個要求,一定要用 AI 原生思維來重構所有的產品。是重構,而不是接入。

          在技術上,我們思考的是今天生成式 AI 的能力還能往上蹦多高。文心一言現在的評測結果還不錯,但它還遠遠沒到人類語言、或者優秀人類語言理解的上限。怎么能繼續快速拉升這個能力,肯定是我們第一位思考的問題。

          接著是行業應用上,模型怎么能真正用起來、在哪些場景能用起來、用起來的門檻有多高、邊界有多寬、怎么能提高它的效率、怎么激發大家想到更好的用法……這都是我們要不斷思考的東西。

           

          問:這些都是比較偏軟的層面,偏硬的層面呢?

          沈抖:現在算力集群從千卡到萬卡,百度是中國真正在萬卡級別上跑單一任務的公司。

          在萬卡集群下,組織、效率、保障這些真正底層的工作大家看不見,但是它們極其重要。比如,我們要提高底層硬件和軟硬一體的訓練、推理效率。這都是蠻關鍵的東西。

           

          問:你在百度這么多年一直都負責搜索、廣告業務,直到去年才主掌智能云,馬上就遇到了大模型的歷史機遇。會覺得是一種幸運嗎?你的感受是怎樣的?

          沈抖:沒那么夸張,但我確實很興奮、很幸運能去做這么一件事。

          去年接手的時候,我就有(把云服務)規?;?、標準化的思路。但因為 AI 能力太碎片化了,做起來非常難。當時我就使勁在想,有什么東西是既需要 AI 能力、又需要 AI 算力、同時還能讓很多人同時去用的?找半天找不著。

          然后,大模型就出現了。一下子就感覺順手了。

           

          百度集團執行副總裁、百度智能云事業群(ACG)總裁沈抖 | 圖片來源:百度

           

          問:你個人學的是人工智能方向,大模型是不是也跟你更匹配?

          沈抖:這跟我研究生做的事情很相似。雖然我一直學計算機的,但我做得偏軟件的多一些,一直在人工智能這條線上做。

          當時接了云(偏底層硬件)以后,我真的又把操作系統、計算機組成原理的書拿來看了一遍。如果說真是 CPU 時代的 IaaS、網絡組件、存儲計算那套東西,我覺得還是有點難的。

          但大模型出來以后,我發現那些東西被封裝在下面了,我現在主要研究大模型就可以,比如讀論文、自己用 Python 把千帆上的 API 調用一遍等等。我覺得順手多了。

           

          問:接下來,你對百度智能云的發展增速有怎樣的預期?

          沈抖:百度智能云現在就接近兩百億的盤子,還相對比較小。在大模型的加持下,我們的客戶需求變得很旺盛,現在都忙不過來。不過要想真正讓用戶用起來、做好交付,還需要一個過程。

           

          問:四季度會迎來小爆發嗎?

          沈抖:有人估計四季度會是爆發的。需求確實開始起來了,但我覺得爆發的話,可能要到明年。

           

          問:你怎么評價自己的運氣?

          沈抖:我覺得這是百度的運氣。百度做 AI 做了這么多年,下了這么大功夫,如果大模型不來的話,云的商業化路徑確實更難一些,也很辛苦。這正好說明有 Vision 的公司,最后運氣也不會太差吧。

           

           

          最新文章

          極客公園

          用極客視角,追蹤你不可錯過的科技圈.

          極客之選

          新鮮、有趣的硬件產品,第一時間為你呈現。

          張鵬科技商業觀察

          聊科技,談商業。

          国产精品久久久久一区二区三区,美女禁区a级全片免费观看,一个人看的www视频免费下载,亚洲精品国产精品乱码不99

          1. <ruby id="2nt17"><table id="2nt17"></table></ruby><listing id="2nt17"><thead id="2nt17"></thead></listing>
            <ruby id="2nt17"><table id="2nt17"></table></ruby>
            <strong id="2nt17"></strong>
            <li id="2nt17"></li>