谁在openai保护人类?OpenAI联合创始人兼前首席科学家Ilya Sutskever和超级联盟团队联合负责人Jan Leike已经从OpenAI辞职,人们越来越担心首席执行官Sam Altman的领导能力和对人工智能安全的承诺。
超级联盟团队宣称的目标是:“超级智能将是人类发明的最具影响力的技术,可以帮助我们解决许多世界上最重要的问题。但超级智能的巨大力量也可能非常危险,可能导致人类的权力丧失,甚至人类灭绝。”
Jan:“很长一段时间以来,我一直不同意OpenAI领导层对公司核心优先事项的看法,直到我们最终达到了临界点。”
前雇员Daniel Kokotajlo:“我逐渐对OpenAI的领导层和他们负责任地处理AGI的能力失去了信任,所以我辞职了。”
自去年11月以来,至少又有五名注重安全的员工辞职或被解雇。