王小川談大模型格局:大模型降價賣的是雲服務,AI 超級應用會 “像人一樣”!

華爾街見聞
2024.05.24 01:06
portai
I'm PortAI, I can summarize articles.

百川智能發佈最新一代基座大模型 Baichuan 4,並推出首款 AI 助手 “百小應”。王小川表示,大模型降價賣的是雲服務,AI 超級應用需要更多時間打磨,目前市場上的百萬級 DAU 的 AI 應用遠遠算不上超級應用。對於降價行為,核心是看商業模式是什麼,如果是 To B 服務,降價賣的是整套雲服務。百川智能開放四款 API,所有開發者、企業用户均可接入。

5 月 22 日,百川智能發佈最新一代基座大模型 Baichuan 4,並推出成立之後的首款 AI 助手 “百小應”。

百川智能還宣佈開放 Baichuan 4,Baichuan3-Turbo,Baichuan3-Turbo-128k,Assistant API 四款 API,所有開發者、企業用户均可登錄百川智能開發者中心選擇並接入相應 API,便捷高效地體驗百川智能新一代模型的強大能力。

在媒體溝通環節,王小川分享了對 AI 超級應用、AI 產品發展路徑、AI 商業模式、大模型價格戰營銷戰、AI 技術瓶頸、AI 搜索格局等問題的思考與觀點。

超級應用要滿足剛需,DAU 超 3000 萬

當前百萬 DAU 的 AI 應用遠遠算不上超級應用

媒體:很多模型公司都發布了自己的 AI 應用,有些甚至去年就發佈了,現在發佈 “百小應”,會不會有些晚了?

王小川:其實我反倒覺得早了。

今天的大模型應用還需要更多時間的打磨,目前市場上的百萬級 DAU 的 AI 應用遠遠算不上超級應用,之前發的各種應用只是模型的展現。

對我們來説,我們之前有輸入法、搜索引擎和瀏覽器的經驗,知道一個應用到達什麼樣的狀態的時候才會變成一個廣泛被使用的產品,現在各家的產品狀態都還沒到。

今天發佈的 “百小應”,離我們心中要的也還有距離,但我們也需要有機會把它發出來,讓行業端有基礎的瞭解,也能讓團隊轉起來。

所以不是早不早的問題,是整個行業都還沒有到成熟的狀態。

超級應用要滿足剛需 DAU 超過 3000 萬

媒體:如何定義超級應用,是不是要有上億用户,預期是怎樣的?

王小川:超級應用我認為要滿足剛需,規模上還得再提升兩個數量級。

這個不光是我們自己,行業內的各家也都沒有達到。100 萬 DAU 不叫超級應用,從 100 萬 DAU 變成 1 億,上浮下浮 3.3 倍,得到 3000 萬到 3 億之間,我覺得這個叫做超級應用。

ChatGPT 我覺得還不算超級應用,如果 OpenAI 足夠用心,超級應用它能做,以它現在的技術有機會,但它有自己的基因,沒有往產品方向投入太多精力。

從超級應用角度看,現在大家都沒有到,但我們自己心中有這個畫面感。

經過去年 4 月份到今年 5 月份這一年的時間,團隊積累了足夠的手感,做了大模型 AI、也做過超級應用,對於未來應用長什麼樣有期待。

在 Baichuan 4 和 “百小應” 發佈後,節奏上可以真正走向 “雙輪驅動” 的模式,朝前邁進的時候會有里程碑,總得有這個 “1” 邁出去,使大家有經驗和有試水,能把兩種信息都融匯在一起,能使這個團隊走得更健康一些。

超級應用要在模型提升之後出現,百川也有應用端的儲備

媒體:此前有觀點不太看好同時做模型和做應用的創業公司,百川為什麼要 “雙輪驅動”?

王小川:我的基本判斷,同一代模型,百川更有機會把超級應用做出來,並能做到最好——超級應用要在模型有一定提升之後才能做出來,我們也有自己應用端的儲備。

每一家選擇的路徑不太一樣,有的是先把模型拱起來,也有的是去做應用。

上海有家做模型跟應用做成兩個公司,我覺得可能會出問題。

模型和應用平衡,是每家公司最頂層戰略要考慮的問題。模型是模型,應用是應用,模型做大了不代表應用做好。

超級應用可靠性高、能與用户對話,像人一樣是 AI 發展的路徑

媒體:如果 “百小應” 想要成為一個超級應用,它應該具備什麼樣的特點?如果想讓用户用起來,它應該切中用户什麼樣的訴求?

王小川:首先可靠性得高。

今天模型在用的時候可能是 60%、80% 的可靠性,有時候靈,有時候不靈。

還有些基本的必要條件,在可見的未來裏模型一定要跟搜索做結合,因為模型是一個推理引擎,它對知識瞭解度不夠,有了搜索之後,使得它的知識的廣泛程度和真實度能得到提升,這是一個基本條件。

第二是能跟用户對話,有充分理解用户意圖的能力。

如果想成為用户的助理,一定要知道用户想要什麼。繼續往超級應用走的話,AI 會更多像行業裏的職業人士一樣,而不是現在還是很泛的狀態,什麼都懂一點。

以當下大家關注的機器人為例,今天做機器人都有兩個特點:

一個是做人形。

為什麼做人形而不是滾輪的,這是很重要的一件事情;當做人形的時候才能幫它更好融入今天的環境,讓它懂得怎麼開冰箱門,怎麼坐電梯;做其他形狀的時候,它沒法和今天的物理環境進行很好的互動。

第二,它的學習樣本要來自現在的人類社會,像人一樣的工作,也要像人一樣做學習。

如果你想做 AI 的炒菜鍋和 AI 炒菜機器人,以前的邏輯一定是做 AI 炒菜鍋,今天做一個會炒菜的機器人比做一個炒菜鍋更容易。

因為炒菜機器人有大量的數據可以學習,看人是怎麼炒的,要做炒菜鍋還要有額外的設計。

因此,像人一樣工作,像人一樣學習,這件事情是 AI 發展的路徑。

最後就會變成一個職業人士,往下會變成 AI 律師,AI 醫生,AI HR,這種情況下我覺得就可能變成超級應用。

現在談商業模式為時過早,“從工具變成夥伴”,Kimi 的打賞很驚豔

關鍵要有超級應用

媒體:關於 C 端的商業模式,除會員、廣告等外,AI 應用的商業模式是否會有本質區別?

王小川:我覺得現在談商業模式過早,包括 Kimi,現在有足夠的用户價值,有足夠的體量,不管是走流量模式,還是廣告模式都會有意義。

現在這種探索沒問題,但我覺得有或沒有,其實沒有本質區別。

媒體:ChatGPT、文心一言都有收費版本,百川未來會不會走類似的變現路徑?

王小川:這不在我們考慮當中。

文心一言,我覺得它還沒有百度文庫的收入多。

今天 API 和模型本身的收入,都不叫成功實踐,不是我們要追趕和類比的情況,在今天也不是最性感的商業模式,文心一言和 ChatGPT 都不是。

關鍵是要有超級應用,解決用户的痛點;然後收入來講,我持毫無疑問樂觀的狀態,但現在談收錢這件事情好像意義確實不大。

Kimi 的打賞很驚豔很驚喜,百川提出 “從工具變成夥伴” 的概念

媒體:如何看待 Kimi 最近推出的打賞模式?打賞之後下一步會是什麼?

王小川:我覺得挺好的,就應該把 AI 像人一樣去做,我覺得這是正確的商業理念。

剛才提到大模型是一個新的物種,以前做超級應用大家的路徑老想做工具;去年我們提一個概念 “從工具變成夥伴”,這個概念大家應該接受的比較多。

有兩個例子,年初的時候一個大公司的高管跑來跟我們聊,説大模型不靠譜,七位數的乘法都不會做。

你要是(把它)當成計算機,七位數的乘法不會做那是很鬧心的,但是人也不會。在座的各位,我相信沒有一個人能把七位數的乘法做出來。

我們要把大模型當成人一樣思考,而不是把它當機器一樣思考,你要是當機器,調用計算器就行了,要當夥伴來想。

Kimi 搞了打賞,很驚豔、很驚喜,同樣的理念,不是當成工具,不是為工具買單,而是當成一個夥伴,當成一個人。

Kimi 和它的朋友,累了休息一下。

整個路徑裏面強調未來新的超級應用不要把它當成工具用,而是夥伴來看。

這是我們去年提到的能產生陪伴,有知識,有經驗,並能提供服務的概念。

往下我覺得商業是跟着產品價值走,價值到了之後,打賞付費能起來,否則再怎麼規劃場景也沒用,用户都不用。

大廠降價倒逼市場理性選擇定位,To B 服務降價後賣的是雲服務

To B 服務,大模型降價賣的是雲服務

媒體:如何看待最近由 DeepSeek 帶起的,各家大模型廠商參與的大模型降價的行為?

王小川:之前提到過,我認為大模型廠商一定要有自己的超級應用。

如果只是學習 OpenAI,有個模型,然後做 API 的服務,對於創業公司來説,在中國是走不通的。

一方面是因為在國內的商業環境裏,ToB 的市場比 ToC 小十倍,To B 傳統公司確實做得更大。

另外,可以預見到 API 這塊大廠肯定來卷,這都是他們的射程範圍內的。對於創業公司來説,只靠價格低,競爭力其實是不夠的。

所以第一天就要雙輪驅動 “超級模型 + 超級應用”,這是充分必要條件,不能只有應用沒模型或者只有模型沒應用。

對於降價行為本身,我覺得是大家都太看好這個時代的前景,不願意失去任何機會,寧願零價格也要入場。

第二,降價我認為核心要看你的商業模式是什麼,如果你是做 To B 服務的,降價最後賣的不是模型本身,賣的是整套雲服務,所以雲廠商是比較偏傳統的服務模式,進到一個新的戰場,這次降價僅限於雲服務廠商的動作。

這波降價跟之前的滴滴美團降價還不一樣,因為那時候的價格戰或補貼背後帶有網絡效應,是雙邊的網絡;商業模式在改變生產關係,司機和乘客的關係,外賣員和用户之間的關係,所以那個是建立雙邊網絡效應。

而這次降價是 B 端的降價方法,而不是像滴滴美團這樣的價格競爭,我覺得這並不像 C 端;這次不是生產關係改變,而是直接做生產力供給,將 AI 直接供給生產力。

我覺得這件事情對我們而言,就是別摻和進去。現在跟我們沒啥關係,我們的超級模型也不是對外服務;但一定要做差異化,所以戰略上更堅定走雙輪驅動的模式。

大廠降價,倒逼市場理性選擇定位

媒體:有觀點認為,大模型價格戰會讓國內 To B 商業模式徹底失效,或者天花板拉得更低,你怎麼看?To B 還能賺錢嗎?

王小川:我覺得就像原來的滴滴美團,這會刺激整個 To B 市場更快繁榮,大家會更願意嘗試使用,有價值空間,只是看被哪個公司賺走了。

漲潮退潮最後才會有珍珠,一定有泡沫在裏面,價格戰會使得泡沫反而變得更加繁榮,並不是沒泡沫就是好的狀態。

在之前的泡沫裏面,很多公司覺得自己得去訓練模型,這是不健康的,市面上不需要那麼多的模型提供方,不需要千模大戰、萬模大戰。

隨着有越來越多開源和低廉成本閉源模型,每個廠商要更清楚知道定位,到底是做應用還是自己做模型,還是模型應用一體化,會讓大家更加理性。

之前大廠很恐慌,現在好很多,尤其是大廠這麼做貢獻,會使得 To B 應用繁榮得更快,但會有一些沒想清楚的公司退出去。

技術進步帶來推理成本下降

也許今天虧錢,再過一年就不虧錢

媒體:價格戰背後也有成本下降的因素,應用還沒起來成本就下降的原因是什麼?

王小川:推理成本是否下降跟用户規模沒有什麼關係,更多還是技術的進步,包括底層 GPU,算力層、infra 的建設和模型聯動,所推理成本指數級的下降確實是技術進步帶來的一件事情。

今天大廠降低 token 價格,我相信大廠也預期未來模型成本會降低特別多,也許今天虧錢,再過一年不虧錢;這種情況下,大廠商並不會考慮短期虧損的問題,而是考慮未來預期有沒有機會模型降到足夠的便宜。

我覺得大家對模型降價本身也有推理成本的降低的預期,就是因為技術進步。

營銷戰猛烈和融資需求有關

百川有足夠的資金更專注產品

媒體:現在各家除了打價格戰,營銷戰也蠻猛的,你們的應用也出來了,會不會有類似的打法和策略?

王小川:可能不太一樣,因為我知道現在各家有的為了獲客,1 個用户 200 塊錢,還不説獲客之後提供服務的費用。

我覺得這只是競爭過程中大家為了能趕快出去,能儘快拿下下一輪融資的舉動,我認為並不是健康的行為。

因為百川也會公佈我們融資的情況,我們手上有足夠的資金,我不是通過立馬發一個東西出去,這種不健康的狀態,去拉下一輪的融資。

因此我們會走得更健康一些,會把我們的精力在產品價值的體現,我們認為我們團隊是有足夠多的歷史經驗的。

什麼是好的產品,好的產品出去之後一定會得到用户認可的,跟今天的同行是不一樣的,這個產品發佈之後,肉眼可見會進入後一個時期。

除了長文本還要強調推理能力,GPT-5 延期,是否技術瓶頸看年底

傳説中的 GPT-5 有一些 Delay,是否遇到技術瓶頸年底才看得出來?

媒體:未來百川新的模型發佈節奏延長到每個季度,在百川看來無論是國內還是國外的公司,大模型技術方面是否遇到更大的挑戰或瓶頸,前沿的探索是不是變得更難了?

王小川:我們去年提了一個概念,理想慢一步,落地快三步,這是針對美國的提法。

其實在模型探索當中,從 0 到 1 的突破,美國從資金的儲備也好,還有他們科學家的文化也好,都比國內強很多,所以在探索的道路里確實成本會很高。

可以簡單講,每一次重大的技術突破都是美國引領的,他們做到了,我們再去跟,在模型上有 GPT-4、GPT-4o 的發明之後我們再去跟,使得我們能大大降低國內成本的投入,這樣能把精力更多放到怎麼能把用户端做好,所以在國內的區別是需要做平衡。

大模型的瓶頸,至少在我心裏,Sora 和 GPT-4o 不代表最大的突破,傳説中的 GPT-5 有一些 delay,到年底才能看得出來。

長文本之後,還要更強調模型內在自洽性和推理能力

媒體:如果長文本捲到無限長以後,還有什麼方向可以發展?

王小川:還有推理能力,做數學題,或者能有更多的思考。

今天的模型自洽性都不夠,模型思考的嚴謹性,有足夠好的邏輯,都是更加重要的事。

我倒不覺得長文本是它唯一的事情,現在國內也知道模型長文本很重要,但是它只是做大的必要條件,不是充分條件。

在充分條件裏,我認為模型本身要更強調內在的自洽性和推理能力,這兩件事情並不是能靠長窗口去解決。

相比多模態百川更關注文本能力

多模態還沒有智力

媒體:百川未來在多模態上有什麼樣的規劃?

王小川:相比多模態,百川更關注於文本能力,我覺得多模態還沒有智力。

這次大模型主要是語言智能的突破,感知和認知。

符號本身就是對世界建模的過程,且已經儘可能把人類對世界的認知積累下來,語言在這裏面就是對世界進行類比的過程,是認知過程本身。

但今天語言用着用着可能沒數據了,開始探索能否在圖像、視頻裏面產生智能。

在學術界也都沒有跑通,機器還沒有足夠智能,能自動發現規律,因此語言基本和智力是等價的概念。

包括 AlphaGo、Stable Diffision,都是對世界規律的復現,不是代表智力認知活動。

AI 發展之後,百度的搜索份額還會被搶

媒體:如何看待百小應和秘塔在搜索結果呈現上的差異?這種差異是技術上的設計造成的,還是説有其他的原因?

王小川:我們的應用分粗讀和精讀,粗讀的東西背後搜的網頁更多。

它之前一直在看東西,但是顯示出來是少的,是它認真讀的。沒把粗讀的東西放進來。

第二塊可以對比搜索效果,當你提出問題看看結果怎麼樣;讀更多文章本身不是技術瓶頸問題,還是技術理念和產品實現的選擇問題。

媒體:如何看待生成式 AI 給搜索帶來的機會?AI 跟搜索結合是百川的方向嗎?

王小川:搜索在國外國內的現狀不一樣,國外 Google 絕對是老大哥的狀態,國內百度是不斷被搶份額的狀態。

最早購物被淘寶做了,旅遊是攜程,生活經驗是小紅書。

再往下,AI 發展之後,在大的趨勢裏我覺得依然可能是百度搜索被搶份額的狀態。

如果僅僅使用模型來對搜索做總結,我認為這種做法在價值創造和競爭力方面,是走不出大廠射程的。

對我們而言,需要兩件事情都做,自建搜索能力,同時也得有數據能力。

技術成本相對可控,現在最大的成本是 Scale Up,大模型實驗加上 Scale Up,遠大於其他地方。

本文作者:王錚 Silvia,來源:王錚 Silvia,原文標題:《王小川談大模型格局:大模型降價賣的是雲服務,AI 超級應用會 “像人一樣”!》