中文字幕乱老妇女一视频,97青草香蕉依人在线视频,男人的天堂国产综合,伊人中文字幕亚洲精品

<style id="pje8p"><tr id="pje8p"></tr></style>
    • 關(guān)于ZAKER 合作
      愛范兒 13小時(shí)前

      美國現(xiàn)在最貴的,是中國 AI 人才:清北中科大學(xué)霸正在「統(tǒng)治」硅谷 AI 圈

      過去兩周,AI 行業(yè)最出圈的不是哪個(gè)產(chǎn)品,而是人。經(jīng)常一覺醒來,社交媒體的時(shí)間線都在刷新?lián)Q湯不換藥的新聞:又雙叒叕有哪位 AI 大牛被挖走了。

      頂級(jí) AI 人才,正成為 AI 賽道上最稀缺、也最具品牌效應(yīng)的資產(chǎn)。

      在這輪人才流動(dòng)的風(fēng)暴中心中,我們發(fā)現(xiàn)一個(gè)格外顯眼的細(xì)節(jié):這群主導(dǎo)過 ChatGPT、Gemini、Claude 等大模型研發(fā)的核心成員中,華人科學(xué)家的比例出奇地高。

      這個(gè)這個(gè)變化并不是突然出現(xiàn)的,這幾年興起的 AI 浪潮中,美國的頂級(jí) AI 人才中華人占比不斷升高。 根據(jù) MacroPolo 發(fā)布的《全球人工智能人才追蹤調(diào)查報(bào)告 2.0》,來自中國的頂尖 AI 研究人員占比在 2019 年到 2022 年間,從 29% 提升到了 47%。

      而在智譜研究發(fā)布的《ChatGPT 團(tuán)隊(duì)背景研究報(bào)告》,更是發(fā)現(xiàn)在 ChatGPT 核心的 87 人團(tuán)隊(duì)中,有 9 人都是華人,占比超過 10%。因此,我們也重新梳理了近期在硅谷頭部公司中廣受關(guān)注的華人 AI 研究員畫像,并試圖從中總結(jié)出一些特征:

      1 頂尖名校出身,學(xué)術(shù)能力極強(qiáng)

      他們大多本科就讀于清華、北大、中科大、浙大等頂尖高校,計(jì)算機(jī)或數(shù)學(xué)背景居多;研究生階段普遍進(jìn)入 MIT、斯坦福、伯克利、普林斯頓、UIUC 等名校深造,幾乎每人都有頂會(huì)高引論文傍身(NeurIPS、ICLR、SIGGRAPH 等),

      2 年輕高產(chǎn),爆發(fā)周期集中于 2020 年之后

      年齡多在 30~35 歲;碩博階段恰逢深度學(xué)習(xí)的全球爆發(fā)期,學(xué)術(shù)基礎(chǔ)扎實(shí),熟悉工程體系和團(tuán)隊(duì)協(xié)作。不少人職業(yè)的第一站就是接觸大廠或服務(wù)大規(guī)模人群的 AI 產(chǎn)品或平臺(tái),起點(diǎn)更高、節(jié)奏更快。

      3 強(qiáng)多模態(tài)背景,攻堅(jiān)模型后訓(xùn)練

      他們的研究方向普遍著重于跨模態(tài)(文本、語音、圖像、視頻、動(dòng)作)的統(tǒng)一推理系統(tǒng),包括 RLHF、蒸餾、對(duì)齊、人類偏好建模、語音語調(diào)評(píng)估等具體細(xì)節(jié)。

      4 即便頻繁流動(dòng),但基本不會(huì)脫離生態(tài)

      Google、Meta、微軟、英偉達(dá),Anthropic、OpenAI ……他們的流動(dòng)范圍橫跨 AI 初創(chuàng)與巨頭,但研究主題、技術(shù)積累往往保持連貫性,基本不換賽道。

      OpenAI → Meta

      Shuchao Bi

      Shuchao Bi 本科畢業(yè)于浙江大學(xué)數(shù)學(xué)系,后赴加州大學(xué)伯克利分校深造,先后獲得統(tǒng)計(jì)學(xué)碩士學(xué)位,并攻讀數(shù)學(xué)博士。

      2013 - 2019 年,他在 Google 擔(dān)任技術(shù)負(fù)責(zé)人,主要貢獻(xiàn)包括構(gòu)建多階段深度學(xué)習(xí)推薦系統(tǒng),顯著提升 Google 廣告收益(數(shù)十億美元級(jí)別)。

      2019 - 2024 年,他擔(dān)任 Shorts 探索負(fù)責(zé)人,期間,聯(lián)合創(chuàng)建并主導(dǎo) Shorts 視頻推薦與發(fā)現(xiàn)系統(tǒng),并 組建并擴(kuò)展大規(guī)模機(jī)器學(xué)習(xí)團(tuán)隊(duì),覆蓋推薦系統(tǒng)、評(píng)分模型、互動(dòng)發(fā)現(xiàn)、信任與安全等方向。

      2024 年加入 OpenAI 后,他主要領(lǐng)導(dǎo)多模態(tài)后訓(xùn)練組織,是 GPT-4o 語音模式與 o4-mini 的聯(lián)合創(chuàng)造者

      期間,他主要推進(jìn) RLHF、圖像 / 語音 / 視頻 / 文本推理、多模態(tài)智能體、多模態(tài)語音到語音(VS2S)、視覺 - 語言 - 行動(dòng)基礎(chǔ)模型(VLA)、跨模態(tài)評(píng)估系統(tǒng)等,也涉及多模態(tài)鏈?zhǔn)酵评?、語音語調(diào) / 自然度評(píng)分、多模態(tài)蒸餾與自監(jiān)督優(yōu)化,其核心目標(biāo)是通過后訓(xùn)練構(gòu)建更通用的多模態(tài) AI Agent。

      Huiwen Chang

      2013 年,Huiwen Chang 本科畢業(yè)于清華大學(xué)計(jì)算機(jī)系(姚班),后赴美國普林斯頓大學(xué)攻讀計(jì)算機(jī)科學(xué)博士,研究方向聚焦于圖像風(fēng)格遷移、生成模型和圖像處理,曾獲微軟研究院獎(jiǎng)學(xué)金。

      在加入 OpenAI 之前,她在 Google 擔(dān)任高級(jí)研究科學(xué)家,累計(jì)工作超過六年,長期從事生成模型與計(jì)算機(jī)視覺研究,曾在 Google Research 發(fā)明 MaskGIT 和 Muse 文本生成圖像架構(gòu)。

      早期的文本生成圖像主要依賴擴(kuò)散模型(如 DALL · E 2、Imagen),這些模型雖然生成質(zhì)量高,但推理速度慢、訓(xùn)練開銷大。而 MaskGIT 和 Muse 則采用了「離散化 + 并行生成」 的方式,大幅提升了效率。

      MaskGIT 是非自回歸圖像生成的新起點(diǎn),Muse 則是將這一方法推向文本圖像生成的代表作。它們不像 Stable Diffusion 那樣廣為人知,但在學(xué)術(shù)與工程體系中,是非常重要的技術(shù)基石。

      此外,她也是擴(kuò)散模型頂級(jí)論文《Palette: Image-to-image diffusion models》的聯(lián)合作者之一。

      這篇論文發(fā)表于 SIGGRAPH 2022,提出了一種統(tǒng)一的圖像到圖像翻譯框架,并在圖像修復(fù)、著色、補(bǔ)全等多個(gè)任務(wù)上超過 GAN 和回歸基線,至今已被引用超過 1700 次,成為該領(lǐng)域的代表性成果之一。

      2023 年 6 月起,她加入 OpenAI 多模態(tài)團(tuán)隊(duì),聯(lián)合開發(fā)了 GPT-4o 圖像生成功能,繼續(xù)推動(dòng)圖像生成、多模態(tài)建模等前沿方向的研究與落地。

      Ji Lin

      Ji Lin 主要從事多模態(tài)學(xué)習(xí)、推理系統(tǒng)與合成數(shù)據(jù)方向的研究。他是多個(gè)核心模型的貢獻(xiàn)者,包括 GPT-4o、GPT-4.1、GPT-4.5、o3/o4-mini、Operator、以及 4o 圖像生成模型等。

      他本科畢業(yè)于清華大學(xué)電子工程專業(yè)(2014 – 2018),從麻省理工學(xué)院獲得電子工程與計(jì)算機(jī)科學(xué)博士學(xué)位,導(dǎo)師為知名學(xué)者 Prof. Song Han。

      博士階段,他的研究方向聚焦于模型壓縮、量化、視覺語言模型、稀疏推理等關(guān)鍵方向。

      在 2023 年加入 OpenAI 之前,他曾在英偉達(dá)、Adobe 和 Google 擔(dān)任實(shí)習(xí)研究員,并在 MIT 長期從事神經(jīng)網(wǎng)絡(luò)壓縮與推理加速相關(guān)研究,積累了深厚的理論基礎(chǔ)與工程實(shí)踐經(jīng)驗(yàn)。

      學(xué)術(shù)方面,他在模型壓縮、量化和多模態(tài)預(yù)訓(xùn)練等方向有多篇高影響力論文,Google 學(xué)術(shù)總引用數(shù)超過 17800,代表成果包括視頻理解模型 TSM、硬件感知量化方法 AWQ、SmoothQuant 以及視覺語言模型 VILA。

      他也是 GPT-4o 系統(tǒng)技術(shù)文檔的核心作者之一(比如 GPT-4o 系統(tǒng)卡),并憑借 AWQ 論文獲得 MLSys 2024 最佳論文獎(jiǎng)。

      Hongyu Ren

      Hongyu Ren 本科在北京大學(xué)獲得計(jì)算機(jī)科學(xué)與技術(shù)學(xué)士(2014 – 2018)學(xué)位,隨后在斯坦福大學(xué)獲得計(jì)算機(jī)科學(xué)博士(2018 – 2023)學(xué)位。

      他曾獲得蘋果、百度以及軟銀 Masason 基金會(huì) PhD Fellowship 等多項(xiàng)獎(jiǎng)學(xué)金,研究方向聚焦于大語言模型、知識(shí)圖譜推理、多模態(tài)智能與基礎(chǔ)模型評(píng)估。

      在加入 OpenAI 之前,他曾在 Google、微軟以及英偉達(dá)有過多段實(shí)習(xí)經(jīng)歷,比如 2021 年在蘋果擔(dān)任實(shí)習(xí)研究員期間,參與 Siri 問答系統(tǒng)的搭建。

      2023 年 7 月加入 OpenAI 后,Hongyu Ren 參與構(gòu)建了 GPT-4o、4o-mini、o1-mini、o3-mini、o3 和 o4-mini 等多個(gè)核心模型,并領(lǐng)導(dǎo)后訓(xùn)練團(tuán)隊(duì)。

      用他的話來說:「I teach models to think faster, harder and sharper.(我教模型更快、更努力、更敏銳地思考。)」

      學(xué)術(shù)領(lǐng)域,他的 Google 學(xué)術(shù)總引用數(shù)超過 17742 次,高被引論文包括:《On the Opportunities and Risks of Foundation Models》(引用 6127 次);《Open Graph Benchmark》(OGB)數(shù)據(jù)集(引用 3524 次)等。

      Jiahui Yu

      Jiahui Yu 本科畢業(yè)于中國科學(xué)技術(shù)大學(xué)少年班,獲得計(jì)算機(jī)科學(xué)學(xué)士學(xué)位,隨后在伊利諾伊大學(xué)香檳分校(UIUC)獲得計(jì)算機(jī)科學(xué)博士學(xué)位。

      他的研究重點(diǎn)包括深度學(xué)習(xí)、圖像生成、大模型架構(gòu)、多模態(tài)推理和高性能計(jì)算。

      在 OpenAI 任職期間,Jiahui Yu 擔(dān)任感知團(tuán)隊(duì)負(fù)責(zé)人,主導(dǎo)開發(fā) GPT-4o 圖像生成模塊、GPT-4.1、o3/o4-mini 等重要項(xiàng)目,提出并落地了「Thinking with Images」感知體系。

      在此之前,他曾在 Google DeepMind 工作近四年,期間是 PaLM-2 架構(gòu)與建模的核心貢獻(xiàn)者之一,并共同領(lǐng)導(dǎo)了 Gemini 多模態(tài)模型的開發(fā),是 Google 多模態(tài)戰(zhàn)略中最重要的技術(shù)骨干之一。

      他還擁有在英偉達(dá)、Adobe、百度、Snap、曠視和微軟亞洲研究院等多家機(jī)構(gòu)的實(shí)習(xí)經(jīng)歷,研究內(nèi)容涵蓋 GAN、目標(biāo)檢測、自動(dòng)駕駛、模型壓縮、圖像修復(fù)與大規(guī)模深度學(xué)習(xí)訓(xùn)練系統(tǒng)等多個(gè)方向。

      Jiahui 在 Google 學(xué)術(shù)上總引用次數(shù)超過 34500 次,h 指數(shù)達(dá) 49,代表性研究成果包括圖文對(duì)齊基礎(chǔ)模型 CoCa、文本生成圖像模型 Parti、神經(jīng)網(wǎng)絡(luò)可伸縮設(shè)計(jì) BigNAS,以及廣泛應(yīng)用于 Adobe Photoshop 的圖像修復(fù)技術(shù) DeepFill v1 和 v2 等。

      Shengjia Zhao

      Shengjia Zhao 本科畢業(yè)于清華大學(xué)計(jì)算機(jī)系,曾在美國萊斯大學(xué)交換,后于斯坦福大學(xué)獲得計(jì)算機(jī)科學(xué)博士學(xué)位,專注于大模型架構(gòu)、多模態(tài)推理和對(duì)齊方向的研究。

      2022 年,他加入 OpenAI,擔(dān)任核心研發(fā)成員,深度參與 GPT-4 和 GPT-4o 的系統(tǒng)設(shè)計(jì)工作。曾主導(dǎo) ChatGPT、GPT-4、所有 mini 模型、4.1 和 o3 的研發(fā)工作,還曾領(lǐng)導(dǎo) OpenAI 合成數(shù)據(jù)團(tuán)隊(duì)。

      他是《GPT-4 Technical Report》(被引超過 1.5 萬次)和《GPT-4o System Card》(被引超過 1300 次)的聯(lián)合作者,并參與了多個(gè)系統(tǒng)卡(如 OpenAI o1)的撰寫,是推動(dòng) OpenAI 基礎(chǔ)模型標(biāo)準(zhǔn)化與公開化的重要貢獻(xiàn)者之一。

      在學(xué)術(shù)表現(xiàn)上,他 Google 學(xué)術(shù)總引用數(shù)超過 21,000 次,h 指數(shù)為 25,曾獲得過 ICLR 2022 Outstanding Paper Award、JP Morgan PhD Fellow、Qualcomm 創(chuàng)新獎(jiǎng)學(xué)金(QinF)與 Google Excellence Scholarship 等多項(xiàng)獎(jiǎng)項(xiàng)。

      Google → Meta

      Pei Sun

      2009 年,Pei Sun 在清華大學(xué)獲得了學(xué)士學(xué)位,隨后前往卡內(nèi)基梅隆大學(xué)攻讀碩士和博士學(xué)位,順利完成碩士階段學(xué)習(xí),并在博士階段選擇退學(xué)。

      他曾在 Google DeepMind 擔(dān)任首席研究員,期間主攻 Gemini 模型的后訓(xùn)練、編程和推理工作,是 Gemini 系列模型(包括 Gemini 1、1.5、2 和 2.5)后訓(xùn)練、思維機(jī)制構(gòu)建與代碼實(shí)現(xiàn)的核心貢獻(xiàn)者之一。

      在加入 DeepMind 之前,Pei 曾在 Waymo 任職近七年,擔(dān)任高級(jí)研究科學(xué)家,主導(dǎo)了 Waymo 兩代核心感知模型的研發(fā),是自動(dòng)駕駛感知系統(tǒng)演進(jìn)的中堅(jiān)力量。

      更早些時(shí)候,他曾在 Google 擔(dān)任軟件工程師五年多,后又加入分布式存儲(chǔ)公司 Alluxio 任職工程師超過一年,參與系統(tǒng)架構(gòu)研發(fā)。

      Nexusflow →英偉達(dá)

      Banghua Zhu

      Banghua Zhu 本科畢業(yè)于清華大學(xué)電子工程系,后赴美國加州大學(xué)伯克利分校攻讀電氣工程與計(jì)算機(jī)科學(xué)博士,師從著名學(xué)者 Michael I. Jordan 和 Jiantao Jiao。

      他的研究聚焦于提高基礎(chǔ)模型的效率與安全性,融合統(tǒng)計(jì)方法與機(jī)器學(xué)習(xí)理論,致力于構(gòu)建開源數(shù)據(jù)集和可公開訪問的工具。他的興趣方向還包括博弈論、強(qiáng)化學(xué)習(xí)、人機(jī)交互以及機(jī)器學(xué)習(xí)系統(tǒng)設(shè)計(jì)。

      他代表性論文《Chatbot Arena》提出了人類偏好驅(qū)動(dòng)的大模型評(píng)測平臺(tái),成為 LLM 領(lǐng)域的重要基準(zhǔn)之一。

      此外,他還在 RLHF、人類反饋對(duì)齊、開源對(duì)齊模型等方向有所貢獻(xiàn)。其 Google 學(xué)術(shù)顯示引用總數(shù)超過 3100,h 指數(shù)為 23,也是大模型競技場「Chatbot Arena」、「Benchbuilder」、「Starling」等多個(gè)熱門開源項(xiàng)目的核心作者之一。

      他曾在 Microsoft 擔(dān)任研究實(shí)習(xí)生,在 Google 擔(dān)任學(xué)生研究員,曾聯(lián)合創(chuàng)立 AI 初創(chuàng)公司 Nexusflow,今年 6 月,他宣布加入英偉達(dá) Star Nemotron 團(tuán)隊(duì)擔(dān)任首席研究科學(xué)家,此外將于今年秋季入職華盛頓大學(xué)的助理教授。

      根據(jù)其發(fā)布內(nèi)容,他將在英偉達(dá)參與模型后訓(xùn)練、評(píng)估、AI 基礎(chǔ)設(shè)施和智能代理構(gòu)建等項(xiàng)目,強(qiáng)調(diào)與開發(fā)者及學(xué)術(shù)界的深度協(xié)作,并計(jì)劃將相關(guān)成果開源。

      Jiantao Jiao

      Jiantao Jiao 是加州大學(xué)伯克利分校電氣工程與計(jì)算機(jī)科學(xué)系以及統(tǒng)計(jì)系的助理教授。

      他于 2018 年獲得斯坦福大學(xué)電氣工程博士學(xué)位,目前是多個(gè)研究中心的聯(lián)合負(fù)責(zé)人或成員,包括伯克利理論學(xué)習(xí)中心(CLIMB)、人工智能研究中心(BAIR Lab)、信息與系統(tǒng)科學(xué)實(shí)驗(yàn)室(BLISS)以及去中心化智能研究中心(RDI)。

      他的研究集中于生成式 AI 與基礎(chǔ)模型,對(duì)統(tǒng)計(jì)機(jī)器學(xué)習(xí)、優(yōu)化理論、強(qiáng)化學(xué)習(xí)系統(tǒng)的隱私與安全、經(jīng)濟(jì)機(jī)制設(shè)計(jì)以及自然語言處理、代碼生成、計(jì)算機(jī)視覺、自動(dòng)駕駛與機(jī)器人等方向也頗有興趣。

      和 Banghua Zhu 一樣,他也是 Nexusflow 聯(lián)合創(chuàng)始人之一,目前已經(jīng)正式加入英偉達(dá),擔(dān)任研究總監(jiān)兼杰出科學(xué)家。

      Jiao 的總引用次數(shù)達(dá) 7259,h 指數(shù)為 34,代表性論文包括《Theoretically principled trade-off between robustness and accuracy》,以及與 Banghua Zhu 等人合作的《Bridging Offline Reinforcement Learning and Imitation Learning: A Tale of Pessimism》,均發(fā)表在 NeurIPS 等頂會(huì)。

      Claude → Cursor

      Catherine Wu

      Catherine Wu 曾在 Anthropic 擔(dān)任 Claude Code 的產(chǎn)品經(jīng)理,專注于構(gòu)建可靠、可解釋、可操控的 AI 系統(tǒng)。據(jù) The Information 報(bào)道,Catherine Wu 已被 AI 編程初創(chuàng)公司 Cursor 挖角,出任產(chǎn)品負(fù)責(zé)人一職。

      在加入 Anthropic 之前,她曾是知名風(fēng)投公司 Index Ventures 的合伙人,任職近三年,期間深度參與多家頂尖創(chuàng)業(yè)公司的早期投資與戰(zhàn)略支持。

      她的職業(yè)起點(diǎn)并不在投資圈,而是扎根于一線技術(shù)崗位。

      她曾在 Dagster Labs 擔(dān)任工程經(jīng)理,主導(dǎo)公司首個(gè)商業(yè)化產(chǎn)品的研發(fā),也曾在 Scale AI 擔(dān)任早期產(chǎn)品工程師,參與多個(gè)關(guān)鍵產(chǎn)品的構(gòu)建與運(yùn)營擴(kuò)張。

      更早之前,她在摩根大通實(shí)習(xí),并于普林斯頓大學(xué)獲得計(jì)算機(jī)科學(xué)學(xué)士學(xué)位,在校期間還曾赴蘇黎世聯(lián)邦理工學(xué)院進(jìn)行交換學(xué)習(xí)。

      特斯拉 | Phil Duan

      段鵬飛(Phil Duan)是特斯拉 AI 的首席軟件工程師,現(xiàn)負(fù)責(zé) Autopilot 下的 Fleet Learning 團(tuán)隊(duì),致力于推動(dòng)特斯拉自動(dòng)駕駛系統(tǒng)(FSD)中「數(shù)據(jù) + 感知」核心模塊的建設(shè)。

      他帶領(lǐng)特斯拉團(tuán)隊(duì)開發(fā)高吞吐、快迭代的數(shù)據(jù)引擎,從數(shù)百萬輛汽車中采集、處理并自動(dòng)標(biāo)注駕駛數(shù)據(jù),強(qiáng)調(diào)數(shù)據(jù)質(zhì)量、數(shù)量與多樣性的協(xié)同優(yōu)化。在感知方向,他主導(dǎo)構(gòu)建多項(xiàng)關(guān)鍵神經(jīng)網(wǎng)絡(luò),包括視覺基礎(chǔ)模型、目標(biāo)檢測、行為預(yù)測、占據(jù)網(wǎng)絡(luò)、交通控制和高精度泊車輔助系統(tǒng)等,是 Autopilot 感知系統(tǒng)的核心構(gòu)建者之一。

      他本科畢業(yè)于武漢理工大學(xué),主修光信息科學(xué)與技術(shù),隨后攻讀俄亥俄大學(xué)電氣工程博士與碩士學(xué)位,研究方向?yàn)楹娇针娮?,并以博士論文榮獲 2019 年 RTCA William E. Jackson Award,該獎(jiǎng)項(xiàng)是美國航空電子與電信領(lǐng)域授予研究生的最高榮譽(yù)之一。

      相關(guān)標(biāo)簽

      相關(guān)閱讀

      最新評(píng)論

      沒有更多評(píng)論了