八度互联-OpenAI 详细介绍自己如何确保安全地构建、部署和使用 AI 系统

 

OpenAI  今天发布博客文章,详细介绍了其保证 AI 安全的办法,包括进行安全评价、改进发布后的保证办法、维护儿童以及尊重隐私等。

OpenAI,ChatGPT,人工智能,AI

该公司表示,他们供给的 AI 东西能够进步工作效率、增强创造力,还供给量身定制的学习体会。但是,他们也认识到这些东西存在潜在危险,因而他们在各个体系层面上尽力保证安全性。

他们不仅仅在推出新的人工智能体系之前进行严厉的测验,还征求外部专家的定见而且经过人工反馈的强化学习等技能来改进模型的表现。一起,他们树立了广泛的安全和监控体系。OpenAI 积极与各国政府接触,讨论最佳的监管方式,以保证创立和发布更加安全的人工智能体系。

以下是 OpenAI 博客文章全文:

OpenAI 致力于保证强壮的 AI 安全,让尽或许多的人受益。咱们知道,咱们的 AI 东西为当今人们供给了许多协助。国际各地的用户向咱们反馈,ChatGPT 有助于进步他们的工作效率、增强他们的创造力,并供给量身定制的学习体会。但咱们也认识到,与任何技能一样,这些东西也存在真实的危险——因而咱们正在尽力保证在各个体系层面上的安全性。

构建越来越安全的人工智能体系

在推出任何新的人工智能体系之前,咱们都会进行严厉的测验,征求外部专家的定见,并经过人工反馈的强化学习等技能来改进模型的表现。一起,咱们还树立了广泛的安全和监控体系。

以咱们最新的模型 GPT-4 为例,完结练习后,咱们在整个公司范围内进行了长达 6 个月的测验,以保证其在揭露发布之前更加安全可靠。

咱们以为,强壮的人工智能体系应该接受严厉的安全评价。监管是必要的,以保证这种做法被广泛采用。因而,咱们积极与各国政府接触,讨论最佳的监管方式。

从实际运用中学习以改进保证办法

咱们尽力在体系布置之前预防可预见的危险,但试验室中的学习永远有限。咱们广泛研讨和测验,但无法猜测人们会怎么运用咱们的技能,或乱用它。因而,咱们以为从实际运用中学习,是创立和发布越来越安全的人工智能体系的关键组成部分。

咱们谨慎地将新的人工智能体系逐渐发布给人群,并采纳实质性的保证办法,并依据咱们汲取的教训不断改进。

咱们供给自己服务和 API 中最强壮的模型,以便开发人员能够直接将技能集成到他们的应用程序中。这使咱们能够监控乱用行为并采纳举动,一起拟定应对办法。这样,咱们能够采纳实际举动,而不仅仅在理论上幻想怎么应对。

实际运用中的经历也促进咱们拟定了越来越细化的方针,以应对对人们构成真实危险的行为,一起仍然允许咱们的技能以更有益的方式运用。

咱们以为,社会需求更多时刻适应日益强壮的人工智能,每个受其影响的人都应该在人工智能的进一步发展方面具有发言权。迭代布置有助于不同利益相关者更有用地参加人工智能技能的对话中,而具有运用这些东西的第一手经历至关重要。

维护儿童

咱们安全工作的要点之一是维护儿童。咱们要求人们有必要年满 18 岁,或许在爸爸妈妈赞同的状况下年满 13 岁,才能运用咱们的 AI 东西。现在,咱们正在研讨验证功用。

咱们不允许咱们的技能被用于生成仇视、骚扰、暴力或成人内容等类别。与 GPT-3.5 比较,咱们最新的模型 GPT-4 对受限制内容恳求做出呼应的或许性降低了 82%,而且咱们现已树立了一个强壮的体系来监控乱用状况。GPT-4 现在可供 ChatGPT Plus 订阅者运用,咱们期望跟着时刻的推移让更多人能够运用它。

咱们已做出严重尽力,以尽量减少咱们的模型生成伤害儿童内容的或许性。例如,当用户企图将儿童安全优待材料上传到咱们的图画东西时,咱们会阻止它并向国家失踪和受克扣儿童中心陈述此事。

除了咱们默认的安全护栏外,咱们还与非营利性可汗学院等开发人员协作——该学院开发了一个人工智能助手,既能够作为学生的虚拟导师,也能够作为教师的课堂助手——为他们量身定制安全办法。咱们还在研讨允许开发人员为模型输出设置更严厉标准的功用,以更好地支撑需求此类功用的开发人员和用户。

尊重隐私

八度互联:咱们的大型语言模型是在广泛的文本语料库上进行练习的,其间包括揭露可用的内容、取得授权的内容以及由人类审阅人员生成的内容。咱们不运用这些数据来出售咱们的服务或广告,也不用它们来树立个人档案。咱们只是运用这些数据来让咱们的模型更好地为人们供给协助,例如经过与人们进行更多对话来进步 ChatGPT 的智能水平。

尽管咱们的许多练习数据中包括能够在公共网络上取得的个人信息,但咱们期望咱们的模型了解的是整个国际,而不是个人。因而,咱们致力于在可行的状况下从练习数据会集删去个人信息,微调模型以拒绝个人信息的查询恳求,并呼应个人从咱们的体系中删去其个人信息的恳求。这些办法将咱们的模型生成包括个人信息的呼应的或许性降至最低

进步实际准确性

现今的大型语言模型,基于之前的模式和用户输入的文本,能够猜测下一个或许要运用的词汇。但在某些状况下,下一个最有或许出现的词汇实际上或许存在实际性过错。

进步实际准确性是 OpenAI 和许多其他 AI 研讨机构重视的要点之一,咱们正在取得进展。经过运用被标记为不正确的 ChatGPT 输出的用户反馈作为主要数据来历,咱们进步了 GPT-4的实际准确性。比较于 GPT-3.5,GPT-4更或许发生符合实际的内容,进步起伏到达40%。

当用户注册运用该东西时,咱们尽力做到尽或许通明,以避免 ChatGPT 或许给出过错回复。但是,咱们现已认识到,要进一步降低误解的或许性,并教育大众了解这些 AI 东西现在的局限性,还有很多工作要做。

继续的研讨和参加

咱们以为,处理 AI 安全问题的切实可行办法是投入更多时刻和资源来研讨有用的缓解和校准技能,并测验它们在实际国际中或许的乱用状况。

重要的是,咱们还以为,进步人工智能的安全性和能力应该齐头并进。迄今为止,咱们最好的安全工作来自于咱们最强壮的模型,由于它们更长于遵循用户的指示,更容易操纵或「引导」。

咱们将越来越谨慎地创立和布置功用更强壮的模型,并将跟着咱们的人工智能体系的发展继续加强安全预防办法。

虽然咱们等了 6 个多月才布置 GPT-4 以更好地了解其功用、优势和危险,但有时或许需求比这更长的时刻来进步 AI 体系的安全性。因而,方针拟定者和 AI 开发商需求保证 AI 的开发和布置在全球范围内得到有用监管,这样就没有人会为了取得成功而采纳捷径。这是一项艰巨的挑战,需求技能和制度创新,但咱们渴望为之做出奉献。

处理安全问题还需求广泛的争辩、试验和参加,包括人工智能体系行为的界限。咱们现已并将继续促进利益相关者之间的协作和揭露对话,以创立一个安全的人工智能生态体系。