頂級(jí) AI 人才,正成為 AI 賽道上最稀缺、也最具品牌效應(yīng)的資產(chǎn)。
在這輪人才流動(dòng)的風(fēng)暴中心中,我們發(fā)現(xiàn)一個(gè)格外顯眼的細(xì)節(jié):這群主導(dǎo)過 ChatGPT、Gemini、Claude 等大模型研發(fā)的核心成員中,華人科學(xué)家的比例出奇地高。
這個(gè)這個(gè)變化并不是突然出現(xiàn)的,這幾年興起的 AI 浪潮中,美國的頂級(jí) AI 人才中華人占比不斷升高。 根據(jù) MacroPolo 發(fā)布的《全球人工智能人才追蹤調(diào)查報(bào)告 2.0》,來自中國的頂尖 AI 研究人員占比在 2019 年到 2022 年間,從 29% 提升到了 47%。
而在智譜研究發(fā)布的《ChatGPT 團(tuán)隊(duì)背景研究報(bào)告》,更是發(fā)現(xiàn)在 ChatGPT 核心的 87 人團(tuán)隊(duì)中,有 9 人都是華人,占比超過 10%。因此,我們也重新梳理了近期在硅谷頭部公司中廣受關(guān)注的華人 AI 研究員畫像,并試圖從中總結(jié)出一些特征:
1 頂尖名校出身,學(xué)術(shù)能力極強(qiáng)
他們大多本科就讀于清華、北大、中科大、浙大等頂尖高校,計(jì)算機(jī)或數(shù)學(xué)背景居多;研究生階段普遍進(jìn)入 MIT、斯坦福、伯克利、普林斯頓、UIUC 等名校深造,幾乎每人都有頂會(huì)高引論文傍身(NeurIPS、ICLR、SIGGRAPH 等),
2 年輕高產(chǎn),爆發(fā)周期集中于 2020 年之后
年齡多在 30~35 歲;碩博階段恰逢深度學(xué)習(xí)的全球爆發(fā)期,學(xué)術(shù)基礎(chǔ)扎實(shí),熟悉工程體系和團(tuán)隊(duì)協(xié)作。不少人職業(yè)的第一站就是接觸大廠或服務(wù)大規(guī)模人群的 AI 產(chǎn)品或平臺(tái),起點(diǎn)更高、節(jié)奏更快。
3 強(qiáng)多模態(tài)背景,攻堅(jiān)模型后訓(xùn)練
他們的研究方向普遍著重于跨模態(tài)(文本、語音、圖像、視頻、動(dòng)作)的統(tǒng)一推理系統(tǒng),包括 RLHF、蒸餾、對(duì)齊、人類偏好建模、語音語調(diào)評(píng)估等具體細(xì)節(jié)。
4 即便頻繁流動(dòng),但基本不會(huì)脫離生態(tài)
Google、Meta、微軟、英偉達(dá),Anthropic、OpenAI ……他們的流動(dòng)范圍橫跨 AI 初創(chuàng)與巨頭,但研究主題、技術(shù)積累往往保持連貫性,基本不換賽道。
OpenAI → Meta
Shuchao Bi
2013 - 2019 年,他在 Google 擔(dān)任技術(shù)負(fù)責(zé)人,主要貢獻(xiàn)包括構(gòu)建多階段深度學(xué)習(xí)推薦系統(tǒng),顯著提升 Google 廣告收益(數(shù)十億美元級(jí)別)。
2019 - 2024 年,他擔(dān)任 Shorts 探索負(fù)責(zé)人,期間,聯(lián)合創(chuàng)建并主導(dǎo) Shorts 視頻推薦與發(fā)現(xiàn)系統(tǒng),并 組建并擴(kuò)展大規(guī)模機(jī)器學(xué)習(xí)團(tuán)隊(duì),覆蓋推薦系統(tǒng)、評(píng)分模型、互動(dòng)發(fā)現(xiàn)、信任與安全等方向。
2024 年加入 OpenAI 后,他主要領(lǐng)導(dǎo)多模態(tài)后訓(xùn)練組織,是 GPT-4o 語音模式與 o4-mini 的聯(lián)合創(chuàng)造者
期間,他主要推進(jìn) RLHF、圖像 / 語音 / 視頻 / 文本推理、多模態(tài)智能體、多模態(tài)語音到語音(VS2S)、視覺 - 語言 - 行動(dòng)基礎(chǔ)模型(VLA)、跨模態(tài)評(píng)估系統(tǒng)等,也涉及多模態(tài)鏈?zhǔn)酵评?、語音語調(diào) / 自然度評(píng)分、多模態(tài)蒸餾與自監(jiān)督優(yōu)化,其核心目標(biāo)是通過后訓(xùn)練構(gòu)建更通用的多模態(tài) AI Agent。
Huiwen Chang
早期的文本生成圖像主要依賴擴(kuò)散模型(如 DALL · E 2、Imagen),這些模型雖然生成質(zhì)量高,但推理速度慢、訓(xùn)練開銷大。而 MaskGIT 和 Muse 則采用了「離散化 + 并行生成」 的方式,大幅提升了效率。
此外,她也是擴(kuò)散模型頂級(jí)論文《Palette: Image-to-image diffusion models》的聯(lián)合作者之一。
這篇論文發(fā)表于 SIGGRAPH 2022,提出了一種統(tǒng)一的圖像到圖像翻譯框架,并在圖像修復(fù)、著色、補(bǔ)全等多個(gè)任務(wù)上超過 GAN 和回歸基線,至今已被引用超過 1700 次,成為該領(lǐng)域的代表性成果之一。
2023 年 6 月起,她加入 OpenAI 多模態(tài)團(tuán)隊(duì),聯(lián)合開發(fā)了 GPT-4o 圖像生成功能,繼續(xù)推動(dòng)圖像生成、多模態(tài)建模等前沿方向的研究與落地。
博士階段,他的研究方向聚焦于模型壓縮、量化、視覺語言模型、稀疏推理等關(guān)鍵方向。
在 2023 年加入 OpenAI 之前,他曾在英偉達(dá)、Adobe 和 Google 擔(dān)任實(shí)習(xí)研究員,并在 MIT 長期從事神經(jīng)網(wǎng)絡(luò)壓縮與推理加速相關(guān)研究,積累了深厚的理論基礎(chǔ)與工程實(shí)踐經(jīng)驗(yàn)。
他也是 GPT-4o 系統(tǒng)技術(shù)文檔的核心作者之一(比如 GPT-4o 系統(tǒng)卡),并憑借 AWQ 論文獲得 MLSys 2024 最佳論文獎(jiǎng)。
Hongyu Ren
Hongyu Ren 本科在北京大學(xué)獲得計(jì)算機(jī)科學(xué)與技術(shù)學(xué)士(2014 – 2018)學(xué)位,隨后在斯坦福大學(xué)獲得計(jì)算機(jī)科學(xué)博士(2018 – 2023)學(xué)位。
在加入 OpenAI 之前,他曾在 Google、微軟以及英偉達(dá)有過多段實(shí)習(xí)經(jīng)歷,比如 2021 年在蘋果擔(dān)任實(shí)習(xí)研究員期間,參與 Siri 問答系統(tǒng)的搭建。
用他的話來說:「I teach models to think faster, harder and sharper.(我教模型更快、更努力、更敏銳地思考。)」
學(xué)術(shù)領(lǐng)域,他的 Google 學(xué)術(shù)總引用數(shù)超過 17742 次,高被引論文包括:《On the Opportunities and Risks of Foundation Models》(引用 6127 次);《Open Graph Benchmark》(OGB)數(shù)據(jù)集(引用 3524 次)等。
Jiahui Yu
Jiahui Yu 本科畢業(yè)于中國科學(xué)技術(shù)大學(xué)少年班,獲得計(jì)算機(jī)科學(xué)學(xué)士學(xué)位,隨后在伊利諾伊大學(xué)香檳分校(UIUC)獲得計(jì)算機(jī)科學(xué)博士學(xué)位。
他的研究重點(diǎn)包括深度學(xué)習(xí)、圖像生成、大模型架構(gòu)、多模態(tài)推理和高性能計(jì)算。
在此之前,他曾在 Google DeepMind 工作近四年,期間是 PaLM-2 架構(gòu)與建模的核心貢獻(xiàn)者之一,并共同領(lǐng)導(dǎo)了 Gemini 多模態(tài)模型的開發(fā),是 Google 多模態(tài)戰(zhàn)略中最重要的技術(shù)骨干之一。
Jiahui 在 Google 學(xué)術(shù)上總引用次數(shù)超過 34500 次,h 指數(shù)達(dá) 49,代表性研究成果包括圖文對(duì)齊基礎(chǔ)模型 CoCa、文本生成圖像模型 Parti、神經(jīng)網(wǎng)絡(luò)可伸縮設(shè)計(jì) BigNAS,以及廣泛應(yīng)用于 Adobe Photoshop 的圖像修復(fù)技術(shù) DeepFill v1 和 v2 等。
Shengjia Zhao
2022 年,他加入 OpenAI,擔(dān)任核心研發(fā)成員,深度參與 GPT-4 和 GPT-4o 的系統(tǒng)設(shè)計(jì)工作。曾主導(dǎo) ChatGPT、GPT-4、所有 mini 模型、4.1 和 o3 的研發(fā)工作,還曾領(lǐng)導(dǎo) OpenAI 合成數(shù)據(jù)團(tuán)隊(duì)。
他是《GPT-4 Technical Report》(被引超過 1.5 萬次)和《GPT-4o System Card》(被引超過 1300 次)的聯(lián)合作者,并參與了多個(gè)系統(tǒng)卡(如 OpenAI o1)的撰寫,是推動(dòng) OpenAI 基礎(chǔ)模型標(biāo)準(zhǔn)化與公開化的重要貢獻(xiàn)者之一。
Google → Meta
Pei Sun
2009 年,Pei Sun 在清華大學(xué)獲得了學(xué)士學(xué)位,隨后前往卡內(nèi)基梅隆大學(xué)攻讀碩士和博士學(xué)位,順利完成碩士階段學(xué)習(xí),并在博士階段選擇退學(xué)。
他曾在 Google DeepMind 擔(dān)任首席研究員,期間主攻 Gemini 模型的后訓(xùn)練、編程和推理工作,是 Gemini 系列模型(包括 Gemini 1、1.5、2 和 2.5)后訓(xùn)練、思維機(jī)制構(gòu)建與代碼實(shí)現(xiàn)的核心貢獻(xiàn)者之一。
更早些時(shí)候,他曾在 Google 擔(dān)任軟件工程師五年多,后又加入分布式存儲(chǔ)公司 Alluxio 任職工程師超過一年,參與系統(tǒng)架構(gòu)研發(fā)。
Banghua Zhu
Banghua Zhu 本科畢業(yè)于清華大學(xué)電子工程系,后赴美國加州大學(xué)伯克利分校攻讀電氣工程與計(jì)算機(jī)科學(xué)博士,師從著名學(xué)者 Michael I. Jordan 和 Jiantao Jiao。
此外,他還在 RLHF、人類反饋對(duì)齊、開源對(duì)齊模型等方向有所貢獻(xiàn)。其 Google 學(xué)術(shù)顯示引用總數(shù)超過 3100,h 指數(shù)為 23,也是大模型競技場「Chatbot Arena」、「Benchbuilder」、「Starling」等多個(gè)熱門開源項(xiàng)目的核心作者之一。
根據(jù)其發(fā)布內(nèi)容,他將在英偉達(dá)參與模型后訓(xùn)練、評(píng)估、AI 基礎(chǔ)設(shè)施和智能代理構(gòu)建等項(xiàng)目,強(qiáng)調(diào)與開發(fā)者及學(xué)術(shù)界的深度協(xié)作,并計(jì)劃將相關(guān)成果開源。
Jiantao Jiao
Jiantao Jiao 是加州大學(xué)伯克利分校電氣工程與計(jì)算機(jī)科學(xué)系以及統(tǒng)計(jì)系的助理教授。
他于 2018 年獲得斯坦福大學(xué)電氣工程博士學(xué)位,目前是多個(gè)研究中心的聯(lián)合負(fù)責(zé)人或成員,包括伯克利理論學(xué)習(xí)中心(CLIMB)、人工智能研究中心(BAIR Lab)、信息與系統(tǒng)科學(xué)實(shí)驗(yàn)室(BLISS)以及去中心化智能研究中心(RDI)。
和 Banghua Zhu 一樣,他也是 Nexusflow 聯(lián)合創(chuàng)始人之一,目前已經(jīng)正式加入英偉達(dá),擔(dān)任研究總監(jiān)兼杰出科學(xué)家。
Jiao 的總引用次數(shù)達(dá) 7259,h 指數(shù)為 34,代表性論文包括《Theoretically principled trade-off between robustness and accuracy》,以及與 Banghua Zhu 等人合作的《Bridging Offline Reinforcement Learning and Imitation Learning: A Tale of Pessimism》,均發(fā)表在 NeurIPS 等頂會(huì)。
Catherine Wu
Catherine Wu 曾在 Anthropic 擔(dān)任 Claude Code 的產(chǎn)品經(jīng)理,專注于構(gòu)建可靠、可解釋、可操控的 AI 系統(tǒng)。據(jù) The Information 報(bào)道,Catherine Wu 已被 AI 編程初創(chuàng)公司 Cursor 挖角,出任產(chǎn)品負(fù)責(zé)人一職。
她的職業(yè)起點(diǎn)并不在投資圈,而是扎根于一線技術(shù)崗位。
更早之前,她在摩根大通實(shí)習(xí),并于普林斯頓大學(xué)獲得計(jì)算機(jī)科學(xué)學(xué)士學(xué)位,在校期間還曾赴蘇黎世聯(lián)邦理工學(xué)院進(jìn)行交換學(xué)習(xí)。
特斯拉 | Phil Duan
段鵬飛(Phil Duan)是特斯拉 AI 的首席軟件工程師,現(xiàn)負(fù)責(zé) Autopilot 下的 Fleet Learning 團(tuán)隊(duì),致力于推動(dòng)特斯拉自動(dòng)駕駛系統(tǒng)(FSD)中「數(shù)據(jù) + 感知」核心模塊的建設(shè)。
他本科畢業(yè)于武漢理工大學(xué),主修光信息科學(xué)與技術(shù),隨后攻讀俄亥俄大學(xué)電氣工程博士與碩士學(xué)位,研究方向?yàn)楹娇针娮?,并以博士論文榮獲 2019 年 RTCA William E. Jackson Award,該獎(jiǎng)項(xiàng)是美國航空電子與電信領(lǐng)域授予研究生的最高榮譽(yù)之一。