1.構(gòu)建供應(yīng)鏈 AI 系統(tǒng)安全架構(gòu),設(shè)計(jì)數(shù)據(jù)加密、模型隱私保護(hù)、訪問控制等安全策略; 2.主導(dǎo) AI 模型安全評(píng)估,開展對(duì)抗樣本檢測(cè)、模型可解釋性增強(qiáng)等安全測(cè)試; 3.制定 AI 系統(tǒng)合規(guī)方案,確保符合《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》及行業(yè)監(jiān)管要求; 4.建立安全監(jiān)控與應(yīng)急響應(yīng)機(jī)制,實(shí)時(shí)監(jiān)測(cè) AI 系統(tǒng)漏洞與攻擊行為; 5.指導(dǎo)團(tuán)隊(duì)開展安全編碼規(guī)范培訓(xùn),推動(dòng)安全開發(fā)流程(SDL)落地.