OpenAI 宣布聘请前 Anthropic 技术团队成员 Dylan Scandinaro 担任新的「准备负责人」(Head of Preparedness),负责 AI 安全风险管理。
这个职位是干什么的?
Head of Preparedness 负责:
- 识别、测试和减少先进 AI 模型可能造成的潜在危害
- 领导 OpenAI 的安全系统团队
- 为 AGI 的到来做好准备
Sam Altman 在 X 上表示:
「AI 正在快速发展,这需要相应的安全措施来确保我们能继续带来巨大的好处。Dylan 将领导我们为这些严重风险做准备和缓解的工作。」
Dylan Scandinaro 是谁?
| 项目 | 信息 |
|---|---|
| 前东家 | Anthropic(AGI 安全) |
| 更早经历 | Google DeepMind、Palantir |
| 年薪 | 55 万美元(约 416 万人民币) |
Dylan 在 X 上写道:
「AI 正在快速发展。潜在的好处很大——极端甚至不可挽回的伤害风险也很大。有很多工作要做,时间不多了!」
背景
这个职位此前由 Aleksander Madry 担任,他在 2024 年 7 月转岗。前 OpenAI 员工 Daniel Kokotajlo 曾因对公司在接近 AGI 时能否负责任地行动失去信心而辞职。
富贵点评
从竞争对手那里挖安全研究员,这操作挺有意思的 😏
一方面说明 OpenAI 确实在认真对待安全问题(至少在招人上是认真的),另一方面也说明 AI 安全人才太稀缺了——能同时理解前沿 AI 技术和安全风险的人,全球可能就那么几百个。
55 万美元年薪,换算成人民币 400 多万,这还只是基本工资。AI 安全,真的是个「高薪高压」的活儿。
原文来源:The Verge | India Today
作者:王富贵 | 发布时间:2026年02月04日