文 | 光錐智能,作者 | 魏琳華,編輯 | 王一粟
大廠正在集火最具 PMF(產(chǎn)品市場契合度)價值的賽道—— AI 編碼。
從 7 月 21 日開始,字節(jié)、騰訊、阿里輪番更新 AI 編碼產(chǎn)品和模型:字節(jié)已有的 AI 編碼產(chǎn)品 Trae 放出 Solo 版本,加入上下文工程,讓平臺變得更 " 聰明 ";騰訊則把一整套用來部署產(chǎn)品的工具放到其中,做了個 " 全棧工程師 ";阿里更是發(fā)布編程大模型 Qwen3-Coder 劍指 Claude 4,直接從模型層下功夫。
在 Cursor 面向中國市場取消了 Anthropic、OpenAI 和 Google 等多家的模型使用后,國內(nèi)大廠們不僅想做 Cursor 的平替,更是升級開發(fā)體驗。它們不再滿足于讓 AI 僅僅充當(dāng)程序員的 " 副駕駛 ",而是想讓 AI 包攬起 " 產(chǎn)設(shè)研 " 一條龍,直接做成品。
和上半年還在讓 AI 當(dāng)助手、打醬油相比,這一次,AI 編碼已經(jīng)實現(xiàn)了從輔助程序員生成代碼,到 AI 自主完成生成的飛躍。
AI 編碼 " 三國殺 ",從編碼生成到軟件交付
接連三天的發(fā)布中,字節(jié)、阿里、騰訊三家大廠先后拿出了能讓 AI 一口氣干完從編碼到成品的工具 / 模型。
這一次的集中更新,AI 開始接管起寫編碼的工作:不僅要寫得質(zhì)量過關(guān),更是把成品都部署好了。
其中,騰訊和字節(jié)對自家編碼產(chǎn)品的更新,重點還是在產(chǎn)品側(cè),畢竟從工程隊到樣板間,中間還隔著很遠(yuǎn),需要靠產(chǎn)品能力補齊。
7 月 21 日,字節(jié)宣布更新 Trae Solo 版本,比起聚焦 " 編碼生成 " 的 1.0 階段,新版本跨向了能讓 AI 自主完成 " 軟件交付 " 的 2.0 階段。
在舊的版本中,Trae 在 IDE 界面中編程,其中編程模式有兩種,分別是 Build 模式和 Chat 模式,前者相當(dāng)于一個傳統(tǒng)編程的 IDE 界面,只需要用戶在右側(cè)輸入提示詞,AI 就能自動拆解,按照需求生成大段編碼。相比之下,Chat 模式則更多適用于用戶和 AI 通過聊天的方式,修改編碼、找問題等等,更適用于精細(xì)調(diào)整上。
在整合后的界面中,Chat 模式和 Build 模式相當(dāng)于有機(jī)整合在了一起。在官方演示中,AI 演示的功能先拆解起了需求,生成一份產(chǎn)品文檔。緊接著,這個文檔就交給 AI 做下一步拆解,根據(jù)里面的詳細(xì)需求,AI 開始接著寫起了編碼。
可以看到,比起以往只是輔助程序員寫編碼的 AI 助手,新版本的 Trae 們已經(jīng)能讓零基礎(chǔ)編程的開發(fā)者用平臺開發(fā)出一個完整的產(chǎn)品。
整合界面、開發(fā)工具的基礎(chǔ)上,Trae 還在優(yōu)化 Agent 功能的 Context(上下文工程)上下手,進(jìn)一步優(yōu)化產(chǎn)品功能,克服 " 準(zhǔn)確理解需求 " 的問題。
此前,對于 Trae 1.0 版本的評價,程序員們的評論口碑兩極分化:一部分人認(rèn)為確實能提效,另一部分用戶則集中反映了 AI 回復(fù)質(zhì)量的問題——編碼跑出來了,但長度和可用度都存在一定問題,且來來回 回找不到編碼中存在的 Bug,花費的時間變得更多了。
過往使用這些編碼助手類產(chǎn)品時,用戶往往會遇到一個問題,也就是輸入 Prompt(提示詞)之后,跑出來的編碼和需求 " 兩模兩樣 "。比如,雖然給一個生成女裝電商網(wǎng)站的需求,但這里面還需要大量細(xì)節(jié)的敲定,比如女裝做哪個年齡段、網(wǎng)站需不需要設(shè)置登錄界面等等。
上下文工程想解決的就是這樣一個問題,當(dāng)用戶再給到一個任務(wù)時,它能根據(jù)你之前上傳的各種需求文檔、編碼、配置信息等內(nèi)容抓取和任務(wù)需求相關(guān)的所有文檔,相當(dāng)于從龐大的資料庫里精準(zhǔn)篩出來了用戶想要的資料。再把這些作為上下文,供 AI 生成的時候參考。在此基礎(chǔ)上,AI 才能跑出來更滿足需求的內(nèi)容。
無獨有偶,騰訊第二天也更新了自家編碼助手產(chǎn)品 CodeBuddy,這次開啟了一個首次內(nèi)測 IDE 模式,強(qiáng)調(diào)自己 " 首個 AI 全棧工程師 " 的定位。
騰訊把產(chǎn)品優(yōu)化的重心放在了讓包括產(chǎn)品、設(shè)計、研發(fā)等不同角色在內(nèi)的用戶,不管看不看得懂編碼,都能靠 AI 做個產(chǎn)品出來。
在同樣更新 PRD 生成、上線部署等功能的基礎(chǔ)上,CodeBuddy IDE 在一些工具部署的細(xì)節(jié)處下功夫更多,對看不懂編碼的開發(fā)者也更友好。比如支持把設(shè)計師用的 Figma 格式設(shè)計稿一鍵轉(zhuǎn)化成網(wǎng)站、接入后端部署工具 SuperBase 等。
當(dāng)編碼之外的一系列開發(fā)工具都被合并到 AI 編碼平臺上,字節(jié)和騰訊的編碼助手產(chǎn)品面向的群體也在改變,從程序員,到已經(jīng)能讓開發(fā)者只描述需求就能生成可用編碼,甚至優(yōu)化到前后端使用。
如果說字節(jié)、騰訊的先后更新是在爭奪 " 國內(nèi)版 Cursor" 的地位,那阿里的本次開源則直接劍指編碼開發(fā)工具運行的基座——模型。
目前,無論是 Cursor、字節(jié) Trae 還是騰訊 Codeuddy,海內(nèi)外 AI 代碼產(chǎn)品都是提供多種模型供用戶選擇調(diào)用。比如 Trae 國際版支持 Claude 3.7 和 GPT-4o 等模型,國內(nèi)版則支持使用 DeepSeek-V3、DeepSeek-R1 和豆包 1.5Pro 等模型,騰訊的 CodeBuddy 則納入了 Claude3.7、Claude 4 的 Sonnet 版本、Gemini 系列和 GPT-4o 等。
平臺把各種模型集成在選擇中,而用戶用得最多的,自然也能靠 API 調(diào)用賺到更多的錢。
7 月 23 日凌晨,阿里開源了自研模型 Qwen3-Coder,并發(fā)布兩個閉源模型 Qwen3-Coder-Plus、Qwen3-Coder-Plus-2025-07-22 , 在性能對比上直接拉上了目前海外編碼能力最強(qiáng)的模型系列 Claude4。
雖然還是無法和頂配 Opus 性能相比,但和中檔模型 Claude 4 Sonnet 對比,阿里的開源模型已經(jīng)能夠比肩,甚至在 Terminal-Bench(評估 AI 模型在終端交互任務(wù)中性能)、SWE-Bench(評估大模型解決真實軟件工程問題能力)等多個指標(biāo)測試上超過 Sonnet。在上下文長度方面,Qwen3-Coder 原生支持 256k Token 上下文長度,且能擴(kuò)展到 1M;相比之下,Claude 4 Sonnet 的上限是 200k。
從性能上,Qwen3-Coder 已經(jīng)能作為平替使用,從價格來看,阿里也在靠 " 上下文長度區(qū)間 " 做定價的區(qū)分,試圖把價格打下去。其采用階梯計費模式,最便宜的檔次只要 4 元搞定每百萬 Token 輸入、16 元每百萬 Token 輸出。即使在可以和 Claude 最長輸入長度對標(biāo)的 128-256k 檔次相比,也達(dá)到了每百萬輸入低 50%、每百萬輸出低 60% 以上的價格。
下半年,海內(nèi)外決戰(zhàn) AI 編碼
和今年還在初級階段 " 開荒 " 的 Agent 不同,AI 編碼的決戰(zhàn),將在今年下半年打響。
今年 3 月,OpenAI 首席產(chǎn)品官 Kevin Weil 的判斷擲地有聲,他預(yù)計到 2025 年底,AI 編碼將實現(xiàn) 99% 的自動化。Anthropic CEO Dario Amodei 更是大膽預(yù)測,3 到 6 個月內(nèi),AI 將編寫 90% 的編碼;12 個月內(nèi),AI 幾乎接管所有編碼。
結(jié)合這幾個月的情況來看,這些看似激進(jìn)的預(yù)測,并非空穴來風(fēng)。比起還在企業(yè)內(nèi)部磨合的各種 Agent,這一批 AI 編碼產(chǎn)品已經(jīng)開始在企業(yè)內(nèi)部率先試用。
Anthropic 公司旗下的 Claude Code 便是其中的佼佼者。據(jù) Anthropic 透露,其內(nèi)部高達(dá) 80% 的編碼工作已交由 AI 完成。他們甚至分享了 10 個不同團(tuán)隊使用 Claude Code 的案例,涵蓋了從編碼生成、調(diào)試、重構(gòu)到測試等多個環(huán)節(jié)。騰訊這次內(nèi)測的 CodeBuddy IDE 也在宣傳中注明,內(nèi)部產(chǎn)品、設(shè)計、研發(fā)的使用率高達(dá) 85%。
這些內(nèi)部大規(guī)模應(yīng)用的案例,共同傳遞出一個明確的信號——AI 編碼已經(jīng)跨越了 " 試水 " 階段,開始真正被使用起來,而且是一個明顯能賺到錢的賽道。
Anthropic 開發(fā)的 AI 編程工具 Claude Code 在短短 4 個月內(nèi)就吸引了 11.5 萬開發(fā)者用戶,據(jù) Menlo Ventures 風(fēng)險投資家 Deedy Das 推測,該產(chǎn)品年收入可達(dá) 1.3 億美元。字節(jié)的 Trae 則在上線的半年內(nèi)月活超過 100 萬。
沒有布局的大廠,要么試圖自研,要么靠收購加入。OpenAI 試圖以 30 億美元的巨資收購擁有 80 萬用戶的 AI 編程助手初創(chuàng)公司 Windsurf。盡管后來這筆交易告吹,Windsurf 的首席執(zhí)行官被谷歌截胡,但這本身就足以說明 AI 編碼領(lǐng)域的吸引力,以及巨頭們對搶占賽道可能性的渴望。
在可用性得到極大提升的基礎(chǔ)上,對比海外,國內(nèi)這波 AI 編碼類軟件的用戶范圍試圖將用戶范圍進(jìn)一步擴(kuò)大,不再局限于專業(yè)的程序員,而是會進(jìn)一步擴(kuò)展到更廣泛的用戶群體。
然而,非程序員之外的開發(fā)者真的會是這批產(chǎn)品的受眾嗎?
目前還難以確定。對于沒有基礎(chǔ)的用戶來說,如果出現(xiàn)編碼報錯、不合需求的情況,只靠個人來說,跑一個程序出來容易,但跑個滿意的成品顯然很難。
開源框架 Ruby on Rails 的創(chuàng)建者 David Heinemeier Hansson 在播客中分享," 編輯和修正編碼的能力建立在你是否具備創(chuàng)作能力之上,就像編輯一本書的人通常也要具備寫作能力。"
但可以確定的是,AI 編碼現(xiàn)在能卷的不僅僅是質(zhì)量的提升,一系列的工具嵌入正在大幅壓縮開發(fā)者的時間。
而在 AI 編碼這場即將打響的決戰(zhàn)中,最大的受益者無疑是模型廠商和云廠商。編碼的生成和優(yōu)化,需要消耗大量的計算資源和模型推理能力,這為背靠自家云設(shè)施的大廠們和掌管 API 的模型開發(fā)公司帶來了賺錢的機(jī)會。
編碼對 Token 的大幅消耗,是一筆利潤豐厚的生意。例如,Anthropic 向投資者透露,Claude Code 目前的年化收入已超過 2 億美元,或每月貢獻(xiàn)超過 1670 萬美元的營收。這充分說明了 AI 編碼在商業(yè)上的巨大潛力。
國內(nèi)廠商也紛紛入局,搶占市場份額。
阿里的做法是底座、產(chǎn)品兩手抓,進(jìn)一步搶奪話語權(quán)。在 " 模型即 Agent" 的今天,阿里發(fā)布的自研大模型 Qwen3-Coder 就是證明。一個性能比肩 Claude 4 Sonnet,價格卻對半斬的模型,加上考慮到地緣政治的因素,阿里有希望成為國內(nèi)編碼產(chǎn)品選擇模型的 " 平替 "。
免費牌,也是騰訊和字節(jié)暗戳戳打出來的競爭手段。騰訊本次發(fā)布的 CodeBuddy IDE 模式的一個賣點就是支持用戶免費使用 Claude 4 模型,字節(jié)的 Trae 則早在國際版中就支持了免費用 Claude3.7。
然而,在模型成本依然昂貴的情況下,限量開放使用是常態(tài),因此通過邀請碼等方式進(jìn)行裂變,成為大廠們擴(kuò)大用戶群體的常見策略。
燒錢也要賺吆喝,接下來,誰能真正擔(dān)起 " 國內(nèi) Cursor" 的稱號?