OpenAI正在加强内部安全流程,以预防有害AI的威胁。他们成立了一个新的“安全咨询小组”,该小组将向领导层提供建议,并增加了董事会对高风险AI的否决权。这一举措旨在确保AI技术的安全性,并防止潜在的灾难性后果。
在最新的文件和博客文章中,OpenAI详细讨论了他们的“应急准备框架”的更新。该框架旨在明确识别、分析和决策正在开发的AI模型中存在的潜在风险。他们定义了“灾难性风险”,即可能导致巨大经济损失、严重伤害或死亡的风险,包括机器崛起等存在性风险。
OpenAI将由安全系统团队负责管理正在生产中的模型,他们会采取措施限制和调整ChatGPT等系统的滥用。而处于开发阶段的前沿模型将由应急团队负责,在模型发布之前识别和量化风险。此外,还有一个超对齐团队专注于研究超智能模型的理论指导原则。
团队对每个模型在网络安全、影响力、模型自主性和CBRN(化学、生物、放射和核威胁)等四个风险类别进行评估。他们采取各种缓解措施,并根据评估结果决定是否部署或进一步开发模型。在高风险情况下,模型将无法部署,而关键风险将导致停止进一步开发。
通过加强安全团队和赋予董事会否决权,OpenAI致力于确保AI技术的安全性,并减轻潜在风险对社会和经济的影响。这一举措反映了他们对AI发展的责任和承诺。
原创文章,作者:cl15,如若转载,请注明出处:https://www.tephone.com/article/1566