【上海AI Lab】大模型安全可信团队RA\实习\联培博士\全职\博后招聘
上海人工智能实验室安全团队专注于研究大语言模型、多模态大模型、智能体、具身智能的可信和安全,致力于从理解和提升角度推动人工智能向善发展。如果你对可信推理、安全攻防、对齐、可解释性等技术充满热情,或是对人工智能未来的涌现能力和潜在风险抱有深切的责任感,欢迎加入大模型安全团队。团队研究成果显著,多篇研究成果发表在顶级会议上,如CVPR Best Paper Award Candidate, 连续两年ACL Outstanding Paper Award, ICLR Oral和多篇ACL Oral等。
坐标:上海市徐汇区国际传媒港
时间:每周实习四天以上,至少六个月,一年以上者优先
岗位职责(满足任意一项即可):
- 负责多模态自回归模型,扩散模型的安全可信相关研究,解释和监控大模型的推理逻辑,对模型的reasoning能力进行分析和改进。
- 核心参与深入研究多模态自回归模型,扩散模型和人类价值观对齐的问题,包括内对齐、外对齐、自对齐等,和团队合作开发RLHF, GRPO等强化学习技术,以及对前沿强化学习路线研究。
- 核心参与深入研究AI前沿风险,包括Deceptive alignment, Scheming, AI R&D等问题。
- 核心参与深入研究智能体的安全可信问题,包括终端智能体,电脑智能体和具身智能体等,和团队合作开发评测工具和技术,优化智能体场景下的安全可信问题。
任职要求:
- 本科及以上学历,博士学历优先,计算机科学、电子信息、自动化或机器人相关专业背景优先,一年及以上工作经验者优先;
- 具备扎实的机器学习和深度学习基础知识和算法实践能力,了解大模型的设计和训练流程;
- 精通强化学习知识体系,熟悉主流强化学习算法如PPO、DPO等。
4 熟悉常用的深度学习框架和工具,具备良好的编程能力,熟练使用Python、C/C++等编程语言;
- 在RSS、CoRL、ICRA、IROS机器人会议上或CVPR、NeurIPS、ICLR等人工智能会议有出色发表记录者优先。
加分项:
- 在信息学奥赛、ACM 中获奖;
- 有较强的数学功底;
- 发表过相关论文。
欢迎优秀的本科生私戳,优秀者有机会成为联培博士
有意者请发邮件至 drliu96@sjtu.edu.cn