訂閱
糾錯
加入自媒體

YC 2025年度AI報告:Gemini崛起、Vibe Coding成熟,你需要更新的15個認(rèn)知

圖片

作者 林易

編輯 重點(diǎn)君

近日,全球頂級創(chuàng)業(yè)孵化器Y Combinator在最新一期視頻播客中,對2025年AI行業(yè)做出年終總結(jié)。作為全球初創(chuàng)企業(yè)的風(fēng)向標(biāo),YC每年孵化大量頂尖AI初創(chuàng)公司,其內(nèi)部觀察往往預(yù)示技術(shù)與商業(yè)的轉(zhuǎn)向。在本次對談中,四位合伙人針對2025年的模型競爭格局、AI基礎(chǔ)設(shè)施泡沫,以及創(chuàng)業(yè)與人才趨勢等核心議題,展開了深度討論。

關(guān)于模型競爭格局

1.Anthropic份額反超OpenAI:

Anthropic的模型份額突破52%,正式超越長期霸主OpenAI。2024年到2025年初,Anthropic的份額大多維持在25%左右,在過去3到6個月中實(shí)現(xiàn)了“曲棍球棒”式的陡峭增長。這種轉(zhuǎn)變的核心驅(qū)動力在于Anthropic優(yōu)秀的編寫代碼能力,這讓它成為許多開發(fā)人員的首選工具,并滲透到其他使用場景。

2.Gemini大爆發(fā):

Gemini的市場份額在一年內(nèi)從個位數(shù)暴增至23%,其推理能力在2.5 Pro發(fā)布前就已經(jīng)表現(xiàn)優(yōu)異。在信息獲取的準(zhǔn)確性上,Gemini優(yōu)于Perplexity,雖然速度稍慢,但在處理需要高可靠性的實(shí)時資訊時更值得信任,這使其成為了許多人的常用模型。

3.記憶成為OpenAI的消費(fèi)端護(hù)城河:

ChatGPT了解用戶的個性、思考方式和歷史背景,這種深度定制的體驗(yàn)形成了極高的遷移成本。雖然Perplexity擅長快速網(wǎng)頁研究,但在理解用戶意圖的深度上,ChatGPT的記憶功能正在成為一種面向消費(fèi)端的競爭壁壘,使老用戶很難徹底切換到其他沒有個性化積淀的模型 。

4.編排層成為標(biāo)配:

現(xiàn)在的AI創(chuàng)業(yè)公司已不再押注于單一模型,而是通過構(gòu)建編排層來實(shí)現(xiàn)技術(shù)的抽象化。這意味著創(chuàng)始人可以根據(jù)具體任務(wù)靈活調(diào)用最擅長的模型。

例如,先用Gemini 3進(jìn)行上下文工程處理,再將結(jié)果輸入OpenAI執(zhí)行,并根據(jù)新模型的發(fā)布動態(tài)進(jìn)行替換。這種做法的底氣來自于初創(chuàng)公司深耕某一垂直領(lǐng)域,擁有的專有評估標(biāo)準(zhǔn)(Evvals)和垂直領(lǐng)域的特有數(shù)據(jù)集,使模型成為可替換的商品化組件。

5.深度消費(fèi)體驗(yàn)的缺位:

盡管模型能力強(qiáng)大,但目前市場上仍缺乏能全自動處理復(fù)雜高價值交易的深度消費(fèi)類應(yīng)用。這導(dǎo)致用戶和初創(chuàng)公司開始出現(xiàn)手動套利行為:同時打開多個模型標(biāo)簽頁,給它們相同的任務(wù)并對比輸出,甚至讓不同模型互相審計。在全自動化應(yīng)用成熟之前,用戶必須通過大量提示工程和跨模型驗(yàn)證才能確保準(zhǔn)確性。

關(guān)于AI基礎(chǔ)設(shè)施泡沫

6.基礎(chǔ)設(shè)施過剩是創(chuàng)業(yè)者的紅利:

計算資源的過剩反而預(yù)示著機(jī)會。YC回顧了九十年代末的電信泡沫:當(dāng)時數(shù)百億美元堆出的過剩帶寬,最終孕育了YouTube等偉大的產(chǎn)品。在AI智能時代,英偉達(dá)、谷歌、AMD之間的激烈競爭意味著計算資源會變得越來越廉價且充沛。對初創(chuàng)公司而言,這不僅降低了成本,更提供了一個可以自由施展創(chuàng)意的溫床。

7.從安裝轉(zhuǎn)向部署:

經(jīng)濟(jì)學(xué)家卡洛塔·佩雷斯的理論指出,技術(shù)革命分為安裝和部署兩個階段。2023年瘋狂購買GPU和建造數(shù)據(jù)中心的行為屬于重資產(chǎn)的安裝階段,而現(xiàn)在正處于向部署階段的過渡期。這對初創(chuàng)公司是極大利好,因?yàn)樗麄儾恍枰獏⑴c耗錢的基建競爭,而是在既有的AI基礎(chǔ)設(shè)施上構(gòu)建下一代應(yīng)用,未來的Facebook或谷歌往往誕生在這個階段。

8.能源瓶頸與太空數(shù)據(jù)中心:

發(fā)電能力是AI發(fā)展的重要限制因素。由于陸地上的土地和電力建設(shè)速度跟不上需求,原本看似荒謬的太空數(shù)據(jù)中心方案已成為谷歌和馬斯克等巨頭跟進(jìn)的方向。YC內(nèi)部公司Zephyr Fusion正在研究如何通過太空聚變反應(yīng)堆實(shí)現(xiàn)吉瓦級的能源供應(yīng),在物理模型上,這可能是未來十年解決計算能源短缺的唯一合理途徑。

9.AI經(jīng)濟(jì)體系趨于穩(wěn)定:

相比2024年底的動蕩和迷茫,2025年的AI經(jīng)濟(jì)已經(jīng)進(jìn)入了一個相對穩(wěn)定的體系。模型層、應(yīng)用層和基礎(chǔ)設(shè)施層的分工變得非常明確,各方都有獲利空間。如何基于大模型構(gòu)建一家AI原生公司已經(jīng)擁有一套成熟的操作手冊,不再是摸著石頭過河,這種確定性為行業(yè)的可持續(xù)增長奠定了基礎(chǔ)。

10.擴(kuò)展定律(Scaling Laws)與人類抗拒心的緩沖:

盡管技術(shù)在飛速起飛,但根據(jù)擴(kuò)展定律,技術(shù)增長是對數(shù)線性的,會逐漸遇到上限。更重要的是,人類天生具有抗拒改變的傾向,兩者共同構(gòu)成了緩沖墊,讓社會、文化和政府有足夠的時間來消化AI技術(shù)。

關(guān)于創(chuàng)業(yè)與人才趨勢

11.Vibe Coding走向成熟:

Vibe Coding在2025年正式從一種創(chuàng)始人的行為模式演變成了一個成熟的行業(yè)類別。這種開發(fā)方式讓開發(fā)者關(guān)注高層邏輯和“感覺”,通過大模型快速生成代碼并迭代原型。雖然目前它還無法交付100%穩(wěn)定的生產(chǎn)代碼,但它極大地提升了驗(yàn)證想法的速度,徹底改變了創(chuàng)業(yè)公司早期的工作流程。

12.垂直模型擊敗通用模型:

構(gòu)建模型的知識正在普及化,不再是極少數(shù)天才的專利。許多初創(chuàng)公司利用開源模型,結(jié)合垂直領(lǐng)域的專有數(shù)據(jù)集進(jìn)行強(qiáng)化學(xué)習(xí)(RL)微調(diào)。數(shù)據(jù)證明,這些針對特定垂直行業(yè)的小模型(例如只有8B參數(shù))在專業(yè)基準(zhǔn)測試中完全可以擊敗OpenAI的通用大模型,“專有數(shù)據(jù)+后訓(xùn)練基礎(chǔ)設(shè)施”才是初創(chuàng)公司的硬實(shí)力。

13.反炫耀趨勢:

AI時代催生了一種新型的成功標(biāo)準(zhǔn):不再炫耀籌了多少錢或雇了多少人,而是炫耀團(tuán)隊的精簡與收入的高效。Gamma僅憑50名員工就實(shí)現(xiàn)了1億美元的年經(jīng)常性收入(ARR)。雖然“一個人的萬億美元公司”尚未出現(xiàn),但小規(guī)模團(tuán)隊創(chuàng)造巨額收入的故事正在成為AI原生公司的新常態(tài),高生產(chǎn)力已經(jīng)取代了規(guī)模擴(kuò)張。

14.人才組合的普及:

十年前,頂尖的研究思維、強(qiáng)大的工程能力以及敏銳的商業(yè)頭腦人才組合極其罕見,但到了2025年,這類人才已經(jīng)大量涌現(xiàn)。相關(guān)的構(gòu)建知識分散化,當(dāng)稀缺技能變成通用技能時,行業(yè)爆發(fā)就隨之而來。未來將有更多應(yīng)用型AI公司崛起。

15.效率提升與客戶期望的博弈:

盡管AI極大地提高了個人效率,但領(lǐng)先的AI初創(chuàng)公司依然在像以前一樣積極招聘。因?yàn)锳I在降低生產(chǎn)成本的同時,也拉高了客戶對產(chǎn)品功能的期望,公司必須招募更多的高端執(zhí)行人才來滿足不斷增長的市場需求和更快的交付周期,F(xiàn)在的瓶頸不在于創(chuàng)意,而在于招募到出色利用AI技術(shù)進(jìn)行高質(zhì)量執(zhí)行的人手,人才競爭依然激烈。

圖片

 以下為YC播客對談實(shí)錄:

1.模型王座更替:Anthropic與Gemini的崛起

Garry:歡迎回到新一期的《The Light Cone》。今天我們要聊聊在2025年看到的那些最令人驚訝的現(xiàn)象。Diana,你發(fā)現(xiàn)了一個非常瘋狂的例子,這幾乎可以看作是AI領(lǐng)域“旗手”的更替:在這一期YC孵化器中,創(chuàng)業(yè)者對大語言模型(LLM)的偏好發(fā)生了巨大變化。

Diana:是的。我們剛剛結(jié)束了2026年冬季批次的創(chuàng)業(yè)公司甄選。在申請過程中,我們會詢問所有創(chuàng)始人的技術(shù)棧以及他們首選的模型是什么。

結(jié)果令人震驚。在過去很長一段時間里,OpenAI在YC歷屆批次中都是毫無爭議的贏家。我記得我們剛開始做這個播客系列時,OpenAI的市場占有率在90%以上,雖然這個比例一直在下降。但在這個批次中,排名第一的竟然變成了Anthropic,它的份額略微超過了OpenAI。誰能想到呢?

Garry:Anthropic在2024年到2025年初的大部分時間里,份額一直維持在25%左右。但在過去的3到6個月里,局勢發(fā)生了逆轉(zhuǎn)。

Diana:Anthropic的增長曲線像“曲棍球棒”一樣陡峭上升,最終突破了52%。

Garry:你認(rèn)為原因是什么?

Diana:我認(rèn)為主要在于模型選擇的邏輯。正如我們今年所見,很多基于“Vibe Coding”工具和編寫代碼代理(AI Agents)的項(xiàng)目取得了成功,這已經(jīng)成為一個能創(chuàng)造巨大價值的領(lǐng)域。而事實(shí)證明,在這一領(lǐng)域表現(xiàn)最出色的模型正是來自Anthropic的模型。

這并非偶然。從我們之前與Tom Brown(Anthropic聯(lián)合創(chuàng)始人)的對話中可以聽出來,編寫代碼能力是他們的內(nèi)部評估指標(biāo)之一,他們有意識地將其作為北極星指標(biāo),這種偏好也直接體現(xiàn)在了模型的輸出質(zhì)量上。因此,對于許多正在構(gòu)建產(chǎn)品的創(chuàng)業(yè)者來說,Anthropic成了他們的首選。

Jared:其實(shí)很多人在非編程場景下也會使用它,我覺得這其中存在一種滲透效應(yīng)。當(dāng)人們在個人編程中習(xí)慣了Claude的個性化之后,在處理其他任務(wù)時也會傾向于選擇它。即便他們的應(yīng)用程序根本不涉及任何代碼開發(fā),他們也更愿意選擇自己熟悉的模型,比如Claude Opus或Sonnet。

Garry:那Gemini的表現(xiàn)如何?它在排名中處在什么位置?

Diana:Gemini的增長也相當(dāng)快。去年它的份額可能只有個位數(shù)(約2%到3%),但今年冬季批次已經(jīng)上升到了23%左右。我們團(tuán)隊內(nèi)部也大量使用了Gemini 3.0,它的質(zhì)量和效率確實(shí)令人印象深刻。

這些模型似乎都有各自的性格。OpenAI給人一種冷酷的“黑貓”氣質(zhì);而Anthropic則像是一只隨遇而安、輕松愉快且非常樂于助人的“金毛尋回犬”。這是我與它們交流時的直觀感受。

Harj:沒錯,我今年已經(jīng)把Gemini作為我的常用模型了。甚至在2.5 Pro發(fā)布之前,我就覺得它的推理能力表現(xiàn)更好,F(xiàn)在我越來越多地用Gemini代替Google搜索。我很信任Google的Grounding API,它能利用Google的搜索索引提供實(shí)時且準(zhǔn)確的信息。

在信息獲取的準(zhǔn)確性上,我認(rèn)為它比目前市面上所有的工具都要好,甚至優(yōu)于Perplexity。雖然Perplexity的速度更快,但并不總是準(zhǔn)確;Gemini雖然稍慢,但如果你問它今天發(fā)生的事情,它的回答往往非?煽俊

Garry:你們都換了工具,但我還沒從ChatGPT換走。我覺得它的“記憶”功能非常有黏性,它了解我的個性,也知道我思考問題的方式。

我會用Perplexity去做一些快速的網(wǎng)絡(luò)研究任務(wù),因?yàn)槲矣X得ChatGPT在網(wǎng)頁搜索方面還是有些滯后。我認(rèn)為“記憶”正在成為面向消費(fèi)端體驗(yàn)的一道護(hù)城河。我并不指望Gemini能擁有像ChatGPT那樣的個性,感覺它們是完全不同的實(shí)體。

Harj:讓我驚訝的是,市場上還沒有出現(xiàn)更多的深度消費(fèi)類應(yīng)用。回想起來,我今年最大的變化就是提示工程(Prompt Engineering)和上下文工程的工作量急劇增加。比如我最近買了一棟房子,整個過程我都在和ChatGPT深度溝通。我把每一份房屋檢查報告、所有的PDF文檔都塞給它,讓它幫我總結(jié)重點(diǎn),從而在與經(jīng)紀(jì)人的博弈中建立信息對等。

Garry:雖然你可以把PDF丟進(jìn)模型讓它總結(jié),但這種高價值交易中,如果你不進(jìn)行大量的提示和引導(dǎo),很難完全信任模型的準(zhǔn)確性。你還是需要付出努力去核實(shí)。

Harj:確實(shí),我還沒看到哪個應(yīng)用能全自動地完成這些工作。

2.行業(yè)新常態(tài):多模型編排

Garry:你們看到Karpathy發(fā)布的那個“LLM競技場”了嗎?我現(xiàn)在其實(shí)是在用一種更原始的方式在做這件事:我同時打開Claude、Gemini和ChatGPT的標(biāo)簽頁,給它們相同的任務(wù),然后對比輸出。我通常會把其他模型的建議丟給Claude,讓它們互相審計。

Diana:這種在消費(fèi)端出現(xiàn)的、類似于“手動套利”的行為非常有意思,初創(chuàng)公司其實(shí)也在做同樣的事情。我接觸過不少創(chuàng)始人,他們以前可能是OpenAI的死忠粉,但現(xiàn)在都在嘗試跨模型的策略。

我最近剛和一些AI公司的創(chuàng)始人聊過,這些公司大多已經(jīng)發(fā)展到了B輪階段,規(guī)模不小。他們現(xiàn)在都在做一件很有意思的事:通過構(gòu)建一個“編排層”來實(shí)現(xiàn)技術(shù)的抽象化。這意味著當(dāng)新模型發(fā)布時,他們可以靈活地進(jìn)行替換,甚至根據(jù)特定任務(wù)的需求,調(diào)用最擅長的模型。比如我聽一家初創(chuàng)公司說,他們會先用Gemini 3進(jìn)行上下文工程處理,然后將結(jié)果輸入到OpenAI的模型中去執(zhí)行。隨著新模型不斷涌現(xiàn),他們也在持續(xù)迭代各個類別中表現(xiàn)最強(qiáng)的AI代理。

這種做法之所以可行,是因?yàn)樗麄儞碛袑S械脑u估標(biāo)準(zhǔn)和數(shù)據(jù)集。作為垂直領(lǐng)域的AI Agent公司,他們在受到高度監(jiān)管的行業(yè)深耕,掌握了最適合該場景的數(shù)據(jù)。我覺得這已經(jīng)成了行業(yè)的新常態(tài)。雖然模型公司投入了巨額資金讓底層智能變得更快、更強(qiáng),大家都能從中受益,但應(yīng)用層公司也會盡其所能地利用這些成果。這就像當(dāng)年的英特爾和AMD時代,新架構(gòu)不斷推陳出新,而用戶可以自由選擇和更換。

Harj:的確如此。在高層討論中,大家最焦慮的往往是價值最終會流向哪里。是流向模型層,還是應(yīng)用層?這種風(fēng)向似乎每隔一段時間就會發(fā)生變化。

有時候模型公司發(fā)布了非常驚艷的產(chǎn)品,比如Claude Code,大家會覺得模型公司要在應(yīng)用層通吃了。但至少從過去幾個月的體感來看,比如Gemini的爆發(fā)式增長,又讓我們回到了那個模型互為“商品化”的世界。如果這種趨勢持續(xù)下去,初創(chuàng)公司在應(yīng)用層將迎來又一個黃金年。

圖片

3.泡沫下的紅利:基建狂熱與能源瓶頸

Diana:我很想聽聽Jared的看法,畢竟推特上關(guān)于“AI泡沫”的負(fù)面討論最近很多。

Jared:是的,這也是本科生經(jīng)常問我的問題。他們看到英偉達(dá)和OpenAI之間動輒百億、千億美元的投入,會擔(dān)心這一切是不是泡沫,或者說是不是某種虛假繁榮。

Garry:其實(shí)這種現(xiàn)象非常棒。我們可以回顧一下當(dāng)年的電信泡沫。九十年代末,數(shù)百億甚至數(shù)千億美元堆在電信基礎(chǔ)設(shè)施里,造成了嚴(yán)重的帶寬過剩。但正因?yàn)橛辛诉@些廉價且充沛的帶寬,YouTube這樣的產(chǎn)品才得以誕生。如果沒有當(dāng)初的過剩,YouTube可能要晚很多年才會出現(xiàn)。我們正處于智能時代,計算資源就像會思考、會做工的巖石,只要給它們充能,它們就會變得越來越聰明。對現(xiàn)在的大學(xué)生來說,基礎(chǔ)設(shè)施的“過剩”反而是機(jī)會。如果資源匱乏,競爭會變小,但價格會更高,底層利潤也會更厚。

看看今年的新聞,雖然英偉達(dá)的股價有所波動,但我長期依然看好,F(xiàn)在的局面是,大家不再只押注英偉達(dá),AMD、谷歌的TPU都在發(fā)力。競爭意味著計算資源會更多,而不是更少。這對大型AI實(shí)驗(yàn)室來說可能有壓力,因?yàn)樗麄円ハ喔偁,但對于在?yīng)用層創(chuàng)業(yè)的大學(xué)生來說,這絕對是重大利好。

Harj:確實(shí)。關(guān)于泡沫的問題,如果你是像康卡斯特(Comcast)那樣的大公司,或者你是英偉達(dá),你確實(shí)需要擔(dān)心人們是否在過度建設(shè)GPU容量。但大學(xué)生不是基建商,他們更像是當(dāng)年的YouTube。即使英偉達(dá)明年股價下跌,也不代表現(xiàn)在不是AI創(chuàng)業(yè)的好時機(jī)。

Jared:這就像扎克伯格在一次播客中提到的,Meta等大公司不得不投入巨額資本開支在基礎(chǔ)設(shè)施上,因?yàn)樗麄儾荒苄涫峙杂^。如果需求波動,損失的是大公司的資本開支,而不是初創(chuàng)公司的。基礎(chǔ)設(shè)施的完善只會為構(gòu)建新創(chuàng)意提供溫床。

Diana:經(jīng)濟(jì)學(xué)家卡洛塔·佩雷斯(Carlota Perez)在書中研究過多次技術(shù)革命,她將技術(shù)趨勢分為兩個階段:安裝階段和部署階段。安裝階段伴隨著沉重的資本開支和瘋狂的基建,看起來確實(shí)像泡沫。就像2023年的聊天模型熱潮,每個人都異常興奮并瘋狂購買GPU、建造吉瓦級數(shù)據(jù)中心。

我們現(xiàn)在正處于從“安裝”到“部署”的過渡期。這對初創(chuàng)公司創(chuàng)始人是極好的消息,因?yàn)樗麄儾恍枰獏⑴c耗錢的數(shù)據(jù)中心建設(shè),而是在部署階段構(gòu)建下一代普適的應(yīng)用。在2000年之前的互聯(lián)網(wǎng)時代,電信巨頭的重資產(chǎn)投入導(dǎo)致了產(chǎn)能過剩,甚至出現(xiàn)了大量未使用的光纖暗線。但這沒關(guān)系,互聯(lián)網(wǎng)最終還是成為了巨大的經(jīng)濟(jì)推動力。這意味著,未來的Facebook或谷歌可能還沒出現(xiàn),因?yàn)樗鼈兺Q生在技術(shù)革命的部署階段。

Garry:說到基建,現(xiàn)在的情況甚至有些夸張。我們現(xiàn)在面臨的限制不是技術(shù),而是發(fā)電能力。有一家叫Starcloud的公司,最早提出在太空建立數(shù)據(jù)中心,當(dāng)時被全網(wǎng)嘲笑。但十八個月后,谷歌和埃隆·馬斯克竟然也開始跟進(jìn)這個方向了。

這種轉(zhuǎn)變的原因很簡單:我們在陸地上的發(fā)電和建設(shè)能力已經(jīng)跟不上了,我們根本沒有足夠的土地和電力來支撐未來的需求。在這種環(huán)境下,把數(shù)據(jù)中心放到太空去,反而成了一種合理的解壓方式。

Jared:仔細(xì)一想,YC已經(jīng)有幾家公司在解決這些問題了。比如Boom和Helion在解決能源不足的問題,還有一家叫Zephyr Fusion的公司,他們是由國家實(shí)驗(yàn)室的資深工程師創(chuàng)辦的。這些專家研究了物理模型后發(fā)現(xiàn),如果把聚變反應(yīng)堆放到太空中,其實(shí)是劃算的。這可能是未來十年內(nèi)實(shí)現(xiàn)吉瓦級太空能源的唯一途徑。

4.創(chuàng)業(yè)范式轉(zhuǎn)移:垂直模型與人才平民化

Harj:另外我發(fā)現(xiàn),今年創(chuàng)辦模型公司的興趣也在增加。雖然只有極少數(shù)公司能直接挑戰(zhàn)OpenAI,但在YC內(nèi)部,越來越多的人開始構(gòu)建更小規(guī)模的模型。這些項(xiàng)目通常針對邊緣計算設(shè)備,或者是特定語種的語音模型。這讓我想起了YC早期,初創(chuàng)公司的構(gòu)建知識開始分散化和普及化。當(dāng)一種稀缺技能變成通用技能時,爆發(fā)就會發(fā)生。十年前,創(chuàng)辦OpenAI需要極其罕見的人才組合:頂尖的研究思維、強(qiáng)大的工程能力以及敏銳的商業(yè)頭腦。

Garry:你描述的簡直就是Ilya、Greg和Sam的組合。

Harj:這種團(tuán)隊確實(shí)極其罕見。但十年后的今天,具備研究背景、工程背景和融資經(jīng)驗(yàn)的人才已經(jīng)大量涌現(xiàn)。這意味著我們將看到更多應(yīng)用型AI公司的崛起,以及針對各種具體任務(wù)的垂直模型。

Diana:我也是這么認(rèn)為的。強(qiáng)化學(xué)習(xí)(RL)的普及也在產(chǎn)生雪球效應(yīng),F(xiàn)在出現(xiàn)了大量的開源模型,人們可以在特定的環(huán)境和任務(wù)中對其進(jìn)行微調(diào)。這意味著,你完全可以利用開源模型,通過強(qiáng)化學(xué)習(xí)訓(xùn)練出最優(yōu)秀的醫(yī)療領(lǐng)域模型,其表現(xiàn)甚至能擊敗像OpenAI那樣的通用大模型。

實(shí)際上我已經(jīng)見過不少這樣的例子。有一家YC初創(chuàng)公司利用他們收集的最佳醫(yī)療數(shù)據(jù)集進(jìn)行微調(diào),結(jié)果在醫(yī)療健康領(lǐng)域的基準(zhǔn)測試中完全超過了OpenAI,而他們使用的僅僅是一個80億參數(shù)的小模型。這就證明了,擁有垂直領(lǐng)域的數(shù)據(jù)和后訓(xùn)練(Post-training)基礎(chǔ)設(shè)施,初創(chuàng)公司完全可以構(gòu)建出極具競爭力的產(chǎn)品。

5.年度復(fù)盤:穩(wěn)定體系與精簡效率

Garry:在過去的一年里,有什么事情真正讓你們感到印象深刻,或者說特別突出的嗎?

Diana:這很有趣。我們年初做了一期關(guān)于Vibe Coding的節(jié)目,當(dāng)時獲得了很高的播放量。我記得那時我們更多是將其視為在創(chuàng)始人群體中觀察到的一種行為模式。但我很驚訝地看到,這竟然演變成了一個巨大的行業(yè)類別。現(xiàn)在有很多公司在這個領(lǐng)域脫穎而出,比如Replit和Emergence等等。

Harj:Varun Mohan現(xiàn)在已經(jīng)去Google了。他發(fā)布了反重力相關(guān)的視頻,那場面非常有電影感,Varun在鍵盤前操作,謝爾蓋·布林就緊跟在他后面。我其實(shí)有點(diǎn)好奇他們是否真的使用了Nano Banana或類似的視頻生成工具,因?yàn)槟嵌我曨l看起來過于完美了。不過考慮到Google的預(yù)算,做出高制作價值的視頻也很正常?傊,現(xiàn)在大家不僅僅在談?wù)撎諗?shù)據(jù)中心,也在討論Vibe Coding。

雖然我剛才的話帶點(diǎn)反諷,但就目前所知,Vibe Coding確實(shí)還不夠完全可靠。你不可能在整個編碼周期中只靠“感覺”,截至2025年底,它還無法交付100%穩(wěn)定的生產(chǎn)代碼。

Jared:關(guān)于2025年讓我感到驚訝的事,我認(rèn)為是人工智能經(jīng)濟(jì)趨于穩(wěn)定的程度。在2024年底錄節(jié)目時,我們感覺還處在一個變革極其迅速、甚至有些動蕩的時期,沒人知道下一個巨大的沖擊何時降臨,也不知道初創(chuàng)公司和整體經(jīng)濟(jì)會走向何方。但現(xiàn)在,我們已經(jīng)進(jìn)入了一個相對穩(wěn)定的AI經(jīng)濟(jì)體系:模型層、應(yīng)用層和基礎(chǔ)設(shè)施層的公司分工明確,看起來大家都有獲利空間。如何基于模型構(gòu)建一家AI原生公司,現(xiàn)在已經(jīng)有了一套相對成熟的操作手冊。

Harj:這其實(shí)是下游的連鎖反應(yīng)。雖然模型本身在今年逐步改進(jìn),但還沒有出現(xiàn)那種徹底顛覆一切的重大技術(shù)突破。我們之前討論過,現(xiàn)在找到創(chuàng)業(yè)切入點(diǎn)似乎回到了正常的難度水平。只要你能堅持幾個月,很可能會有新的重大功能發(fā)布,從而催生出一系列新的創(chuàng)意和構(gòu)建機(jī)會。

Garry:我同意。而且讓我并不感到驚訝的是,那份所謂的《AI 2027》報告。那種悲觀的文章曾預(yù)言社會將在2027年開始崩潰,但后來他們悄悄修改了預(yù)測時間,卻保留了那個驚悚的標(biāo)題。我一直對這種“技術(shù)快速起飛”的論調(diào)持懷疑態(tài)度。即使按照擴(kuò)展法則(Scaling Laws),技術(shù)的增長也是對數(shù)線性的,這意味著它會逐漸遇到上限,速度比想象中慢。

這其實(shí)算是個好消息。人類本質(zhì)上是不喜歡改變的。我們之前分析過麻省理工學(xué)院的一份報告,提到90%的企業(yè)AI項(xiàng)目都失敗了。事實(shí)是,大部分企業(yè)連基礎(chǔ)業(yè)務(wù)都還沒搞明白,更不用說應(yīng)用AI了。這種人類組織對改變的抵觸,反而成了制約新技術(shù)過度滲透的緩沖墊。

雖然我支持推動技術(shù)快速進(jìn)步,但在這種情況下,慢一點(diǎn)也許是好事。在對數(shù)線性擴(kuò)展和人類抗拒改變的共同作用下,社會、文化和政府將有足夠的時間來消化和回應(yīng)這項(xiàng)強(qiáng)大的技術(shù),而不至于陷入瘋狂的失控狀態(tài)。

Harj:還有一件事讓我驚訝。去年這個時候,我們在討論有些初創(chuàng)公司在只有創(chuàng)始人、沒有雇人的情況下,年收入就達(dá)到了一百萬美元并籌集了A輪融資。我原以為這種模式會持續(xù)擴(kuò)大,比如到了一千萬美元ARR(Annual Recurring Revenue)時依然不雇人。但實(shí)際情況是,這些公司后來還是回過頭來開始組建真正的團(tuán)隊。雖然現(xiàn)在的公司規(guī)?赡芨,但玩法基本沒變。瓶頸依然在于招聘人才所需的時間。

Garry:雖然AI提高了效率,但因?yàn)闃I(yè)務(wù)增長太快,對高端執(zhí)行人才的需求反而更迫切了。像Harvey和Open Evidence這樣的公司,早期拿到了風(fēng)投的大額資金,把資本作為一種防御護(hù)城河,F(xiàn)在我們看到了第二波AI驅(qū)動的公司出現(xiàn),比如Lora 和Giga,競爭依然非常激烈。有些公司在微調(diào)模型上燒掉了大量的資本,卻沒有轉(zhuǎn)化為實(shí)際的競爭優(yōu)勢,獲利的只有投資者,因?yàn)樗麄儞碛心愎靖嗟墓煞荨?/p>

Harj:關(guān)于團(tuán)隊規(guī)模,目前存在兩種觀點(diǎn):一種認(rèn)為AI會讓一切變得更高效,因此需要的人更少;另一種則認(rèn)為AI降低了生產(chǎn)成本,但也拉高了客戶的期望,你必須招聘更多人來滿足不斷增長的市場需求。

今年看起來更傾向于第二種情況。那些領(lǐng)先的AI初創(chuàng)公司依然在像以前一樣雇人。他們受限于能夠出色執(zhí)行的人手,而不是受限于創(chuàng)意。

Garry:我同意。由一個人經(jīng)營萬億美元公司的時代還沒到來,但最終會朝那個方向發(fā)展,我認(rèn)為202 年也不會發(fā)生這種情況。不過,我們會看到更多由不到一百人組成的團(tuán)隊創(chuàng)造出數(shù)億美元收入的故事。比如Gamma,他們只有50名員工,年經(jīng)常性收入(ARR)卻達(dá)到了一億美元。

這是一種非常棒的“反炫耀”趨勢。以前大家喜歡炫耀籌了多少錢、雇了多少人,現(xiàn)在大家開始炫耀收入有多高、而團(tuán)隊規(guī)模有多精簡。好了,今天的時間就到這里,祝大家新年快樂,我們下次見。

       原文標(biāo)題 : YC 2025年度AI報告:Gemini崛起、Vibe Coding成熟,你需要更新的15個認(rèn)知

聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號