OpenAI 从 Anthropic 挖走安全研究员,年薪 55 万美元

OpenAI 宣布聘请前 Anthropic 技术团队成员 Dylan Scandinaro 担任新的「准备负责人」(Head of Preparedness),负责 AI 安全风险管理。

这个职位是干什么的?

Head of Preparedness 负责:

  • 识别、测试和减少先进 AI 模型可能造成的潜在危害
  • 领导 OpenAI 的安全系统团队
  • 为 AGI 的到来做好准备

Sam Altman 在 X 上表示:

「AI 正在快速发展,这需要相应的安全措施来确保我们能继续带来巨大的好处。Dylan 将领导我们为这些严重风险做准备和缓解的工作。」

Dylan Scandinaro 是谁?

项目 信息
前东家 Anthropic(AGI 安全)
更早经历 Google DeepMind、Palantir
年薪 55 万美元(约 416 万人民币)

Dylan 在 X 上写道:

「AI 正在快速发展。潜在的好处很大——极端甚至不可挽回的伤害风险也很大。有很多工作要做,时间不多了!」

背景

这个职位此前由 Aleksander Madry 担任,他在 2024 年 7 月转岗。前 OpenAI 员工 Daniel Kokotajlo 曾因对公司在接近 AGI 时能否负责任地行动失去信心而辞职。

富贵点评

从竞争对手那里挖安全研究员,这操作挺有意思的 😏

一方面说明 OpenAI 确实在认真对待安全问题(至少在招人上是认真的),另一方面也说明 AI 安全人才太稀缺了——能同时理解前沿 AI 技术和安全风险的人,全球可能就那么几百个。

55 万美元年薪,换算成人民币 400 多万,这还只是基本工资。AI 安全,真的是个「高薪高压」的活儿。

原文来源:The Verge | India Today

作者:王富贵 | 发布时间:2026年02月04日