崗位職責(zé):
1. 大模型研發(fā)與優(yōu)化
- 負(fù)責(zé)大規(guī)模預(yù)訓(xùn)練模型(LLM)的設(shè)計(jì)、開(kāi)發(fā)、訓(xùn)練及調(diào)優(yōu),包括架構(gòu)創(chuàng)新、參數(shù)效率提升等
- 開(kāi)發(fā)Prompt優(yōu)化工具提升業(yè)務(wù)人員模型交互效率
- 針對(duì)環(huán)保行業(yè)垂直場(chǎng)景(如如環(huán)衛(wèi)車(chē)和環(huán)衛(wèi)工人調(diào)度系統(tǒng)、設(shè)備診斷知識(shí)庫(kù)等)進(jìn)行模型微調(diào)與領(lǐng)域適配
- 探索模型蒸餾、量化、稀疏化等技術(shù),降低計(jì)算與存儲(chǔ)成本
2. 數(shù)據(jù)處理與工程化
- 構(gòu)建高質(zhì)量多模態(tài)訓(xùn)練數(shù)據(jù)集,設(shè)計(jì)數(shù)據(jù)清洗、增強(qiáng)及標(biāo)注策略
- 開(kāi)發(fā)高效數(shù)據(jù)預(yù)處理流水線,解決大數(shù)據(jù)存儲(chǔ)、分布式加載等工程問(wèn)題
- 構(gòu)建模型微調(diào)Pipeline,對(duì)接環(huán)衛(wèi)作業(yè)數(shù)據(jù)、物聯(lián)網(wǎng)(物聯(lián)網(wǎng))、內(nèi)部管理系統(tǒng)等數(shù)據(jù)流
- 跟蹤LLM領(lǐng)域最新進(jìn)展(如MoE、長(zhǎng)上下文處理、多模態(tài)對(duì)齊),推動(dòng)技術(shù)迭代
3. 模型部署與性能優(yōu)化
- 實(shí)現(xiàn)大模型的高效推理部署,優(yōu)化GPU/TPU資源利用率
- 研究模型服務(wù)化方案(如API服務(wù)、邊緣端部署),解決延遲、吞吐量等性能瓶頸
4.跨團(tuán)隊(duì)協(xié)作
- 與產(chǎn)品、業(yè)務(wù)團(tuán)隊(duì)深度合作,將技術(shù)能力轉(zhuǎn)化為實(shí)際應(yīng)用場(chǎng)景
- 撰寫(xiě)技術(shù)文檔、專(zhuān)利及論文,推動(dòng)團(tuán)隊(duì)技術(shù)影響力
任職要求:
1.計(jì)算機(jī)科學(xué)、軟件工程、數(shù)學(xué)、統(tǒng)計(jì)學(xué)或相關(guān)領(lǐng)域本科及以上學(xué)歷
2.3年以上深度學(xué)習(xí)研發(fā)經(jīng)驗(yàn),3年以上大模型(10B+參數(shù))實(shí)戰(zhàn)經(jīng)驗(yàn)
算法基礎(chǔ):
- 精通PyTorch/TensorFlow框架,熟悉Megatron-LM、DeepSpeed等分布式訓(xùn)練工具
- 深入理解Transformer、注意力機(jī)制、RLHF等核心技術(shù),具備模型源碼級(jí)調(diào)優(yōu)能力
- 理解RAG技術(shù)鏈實(shí)現(xiàn)邏輯,有LoRA、P-Tuning等高效微調(diào)技術(shù)經(jīng)驗(yàn)
工程能力:
- 熟練使用PyTorch+DeepSpeed分布式訓(xùn)練框架
- 有Huggingface/OpenXLab生態(tài)項(xiàng)目落地經(jīng)驗(yàn)
- 熟悉Docker+K8s部署方案
- 熟練使用CUDA、TensorRT等加速庫(kù),具備高性能計(jì)算優(yōu)化經(jīng)驗(yàn)
加分項(xiàng):
具備城市服務(wù)和離散制造業(yè)相關(guān)經(jīng)驗(yàn)優(yōu)先;
具備環(huán)保物聯(lián)網(wǎng)數(shù)據(jù)、環(huán)衛(wèi)作業(yè)數(shù)據(jù)對(duì)接經(jīng)驗(yàn)優(yōu)先;
參與過(guò)環(huán)??蒲许?xiàng)目課題研究者優(yōu)先;
3.工作積極主動(dòng),耐心仔細(xì),溝通協(xié)調(diào)能力好,責(zé)任心強(qiáng),邏輯思維強(qiáng),能承受工作壓力,具有良好的團(tuán)隊(duì)合作精神,能吸收新技術(shù)和實(shí)踐的能力。