据文视科技消息
来源:it之家
openai 一直致力于开发能够造福全人类的人工智能技术,然而最近的一份报告揭示了一个令人担忧的现象:近一半曾专注于超级智能 ai 长期风险的研究人员已经离开了这家公司。
图源 pexels
据 fortune 报道,openai 前治理研究员 daniel kokotajlo 表示,在过去几个月里,openai 几乎一半的 agi 安全团队成员已经离职。这引发了外界对公司是否正在忽视 ai 安全性的担忧。
agi 安全研究人员主要负责确保未来开发的 agi 系统不会对人类构成生存威胁。然而,随着 openai 越来越专注于产品和化,研究人员的离职意味着公司的安全研究团队正在逐渐缩减。
kokotajlo 指出,自 2024 年以来,openai 的 agi 安全团队已经从约 30 人减少到 16 人左右。他认为,这并不是一个有组织的行动,而是个人逐渐失去信心而离职。
openai 发言人对此表示,公司为能够提供最有能力、最安全的人工智能系统感到自豪,并相信自己具有解决风险的科学方法。
it 之家注意到,今年早些时候,openai 联合创始人、首席科学家 ilya sutskever 宣布辞去 openai 职务,其领导的负责安全问题的 ” 超级对齐 ” 团队也遭到解散。
免责声明:本文系转载,宝威全站app的版权归原作者所有;旨在传递信息,不代表本网的观点和立场。如侵权,请联系删除。