OpenAI组建儿童安全团队 防止AI工具被误用
在家长和活动人士的监督下,知名人工智能公司OpenAI近期组建了一个新的儿童安全团队,研究防止其AI工具被未成年人误用或滥用的方法。根据OpenAI职业页面的新招聘信息,该团队将与公司内部的政策、法律和调查小组以及外部合作伙伴合作,管理与未成年用户相关的"流程、事件和审查"。建立儿童安全团队,无疑将助力该公司及行业为儿童营造更安全、负责任的AI使用环境。
OpenAI 加强安全团队并赋予董事会对高风险人工智能的否决权
OpenAI正在扩展其内部安全流程,以抵御有害人工智能的威胁。公司新成立的「安全咨询小组」将位于技术团队之上,向领导层提出建议,董事会也被授予否决权——当然,他们是否会实际使用这一权力则是另一个问题。但无论如何,它都没有被真正提及。