ChatGPT 开发商 OpenAI 近日公开招聘“应变准备主管”(Head of Preparedness),开出高达 55.5 万美元年薪,另加股票报酬的优渥条件。然而,多名科技产业观察人士指出,这项 OpenAI 招聘计划恐怕比外界想象中更难找到真正合适的人选。
根据《Business Insider》报道,应变准备主管的核心职责,是在 AI 安全风险控管与执行长奥特曼(Sam Altman)快速推进产品的决策风格之间取得平衡。
随着 OpenAI 商业化脚步加快,这个角色的重要性也持续升高。
今年以来,OpenAI 已密集推出多项新产品与功能,包括 Sora 2 影片生成应用、ChatGPT 的实时结帐功能、新一代 AI 模型、开发者工具,以及更进阶的代理型 AI 功能。
加拿大滑铁卢大学计算机科学学院研究教授 Maura Grossman 直言,应变准备主管几乎是一份“不可能的工作”。
她指出,担任此职的人势必得在某些关键时刻告诉奥特曼“应该放慢脚步”,甚至明确指出某些目标不该被实现,“这就像把一颗石头推上陡峭的山坡”。
奥特曼本人也未淡化这份工作的高压性质。他日前在社群平台 X 上坦言:“这将是一份压力极大的工作,你几乎会立刻面临严峻挑战。”
即便如此,对合适的人选而言,这仍可能是一项梦寐以求的职涯机会。
OpenAI 已对全球用户生活产生深远影响,而超过 50 万美元的年薪水平,也符合当前顶尖 AI 人才在市场上的行情。
谁适合 OpenAI 的应变准备主管?
值得注意的是,OpenAI 在这次招聘应变准备主管的职缺说明中,并未列出常见的门槛条件,例如特定学历或最低年资。
公司仅指出,若具备带领技术团队的经验,能在高度不确定情境下做出关键技术判断,并能协调不同利害关系人在 AI 安全议题上的立场,将“可能非常适合”这个角色。
此外,OpenAI 也点名,应征者若在机器学习、AI 安全、模型评估、资安或相关风险管理领域具备深厚技术背景,将更有机会胜任这项职务。
OpenAI 前任应变准备主管 Aleksander Madry 已于 2024 年 7 月转任公司内部其他职务,留下安全系统团队的关键空缺。
该团队主要负责 AI 模型评估、安全框架建置与防护机制设计,是 OpenAI 内部重要的风险控管单位。
多伦多都会大学数位媒体教授 Richard Lachman 认为,虽然 Madry 具备学术背景,但 OpenAI 接下来更可能寻找一位具备实战经验的科技产业高层。
他指出,学界背景的人通常较为谨慎、风险趋避,未必符合 OpenAI 在高速增长阶段的实际需求。
Lachman 预期,OpenAI 希望找到一位既能维护公司在 AI 安全议题上的公共形象,又不会拖慢产品创新与商业增长步伐的人选。
他强调:“这并不是一个只会说『是』的人,而是一个能与公司品牌与策略保持一致的角色。”
OpenAI AI 安全策略引发争议
近年来,OpenAI 的 AI 安全策略也在内部引发争议,已有多名早期核心员工离职,其中包括前安全团队负责人。
此外,公司也面临多起诉讼,有指控指出其技术可能加深使用者的妄想,或引发其他有害行为。
今年 10 月,OpenAI 亦坦承,部分 ChatGPT 使用者出现潜在心理健康问题迹象。
公司表示,正与心理健康专家合作,改善聊天机器人在面对精神病或躁症征象、自残或自杀风险,以及情感依附等情境时的回应方式。