关于AI安全,OpenAI最新回应:没有人会为了尽快取得成功而“偷工减料”

人工智能体系正在成为(人类)日常生活的一部分。要害问题是要保证这些机器与人类的目的和价值观坚持共同。

——Mira Murati,OpenAI CTO

近些天,对 OpenAI 来说,可谓是一个“多事之秋”。

由于 ChatGPT 及 GPT-4 或许引发的安全问题,OpenAI 受到了来自外界的一些指责和阻挠

  • 马斯克等上千人联名呼吁 “一切人工智能实验室应立即暂停练习比 GPT-4 更强壮的大模型,这一时刻至少为 6 个月”;

  • 意大利禁用 ChatGPT,OpenAl “必须在 20 天内经过其在欧洲的代表向他们通报公司执行这一要求而采纳的办法”;

  • ChatGPT大面积封号;

  • ChatGPT Plus 停售;

  • ……

这些事情标明,虽然 AI 现已证明有才能为人类社会带来许多优点,但技能总是一把双刃剑,也会为人类社会带来带来真实的危险,AI 也不例外

4 月 6 日,OpenAI 官方发布了一篇名为 “Our approach to AI safety” 的博客文章,讨论了如何 “安全地构建、布置和运用人工智能体系” 的方法。学术头条在不改动原文粗心的情况下,对文章做了简单的修改。


OpenAI 致力于坚持强壮的人工智能安全和(人类社会的)广泛获益。咱们的人工智能东西为今日的人们提供了许多优点。来自国际各地的用户告诉咱们,**ChatGPT 有助于进步他们的生产力,增强他们的创造力,并提供量身定制的学习体验。**咱们也认识到,像任何技能相同,这些东西也有真实的危险——所以,咱们尽力保证在各个层面大将安全纳入咱们的体系。

1.树立越来越安全的人工智能体系

在发布任何新体系之前,咱们都会进行严厉的测验,让外部专家参加反应,尽力使用人类反应的强化学习等技能改善模型的行为,并树立广泛的安全和监测体系。

例如,在咱们最新的模型 GPT-4 完成练习后,咱们一切员工花了 6 个多月的时刻使其在公开发布前更加安全和共同。

**咱们以为,强壮的人工智能体系应该承受严厉的安全评价。**需求有监管来保证这种做法被采纳,咱们活跃与政府接触,讨论这种监管或许采纳的最佳形式。

2.从真实国际的运用中学习,以改善保障办法

咱们尽力在布置前防备可预见的危险,然而,**咱们在实验室中能学到的东西是有限的。**虽然进行了广泛的研讨和测验,**咱们无法猜测人们运用咱们技能的一切有利方法,也无法猜测人们乱用技能的一切方法。**这就是为什么咱们信任,跟着时刻的推移,从实际国际的运用中学习是创立和发布越来越安全的人工智能体系的一个要害组成部分。

在有许多的保障办法下,咱们谨慎地逐渐发布新的人工智能体系,将其推送给一个稳步扩展的人群,并根据咱们学到的经历不断改善。

咱们经过咱们自己的服务和 API 提供咱们最有才能的模型,这样开发者就可以直接在他们的应用程序中运用这种技能。这使咱们可以监测乱用情况并采纳行动,并不断树立缓解办法,以应对人们乱用咱们的体系的真实方法,而不仅仅是关于乱用或许是什么姿态的理论

实际国际的运用也使咱们拟定了越来越纤细的方针,以防止那些对人们构成真实危险的行为,一起还答应咱们的技能有许多有利的用途。

至关重要的是,咱们信任社会必须有时刻来更新和调整,以适应才能越来越强的人工智能,而且每个受这种技能影响的人都应该在人工智能的进一步开展中拥有重要的发言权。迭代布置协助咱们将各种利益相关者带入关于采用人工智能技能的对话中,比他们没有亲身经历过这些东西的情况下更有用。

3.维护儿童

关于安全的一个要害作业是维护儿童。咱们要求运用咱们的人工智能东西的人必须是 18 岁或以上,或 13 岁或以上并得到父母的批准,咱们正在研讨验证选项。

咱们不答应咱们的技能被用来发生仇恨、打扰、暴力或成人内容,以及其他(有害)类别。咱们的最新模型 GPT-4 与 GPT-3.5 相比,对不答应的内容恳求的回应率降低了 82%,咱们现已树立了一个强壮的体系来监控乱用。GPT-4 现在可供 ChatGPT Plus 用户运用,咱们期望跟着时刻的推移,能让更多人运用

咱们作出了许多尽力,尽量削减咱们的模型发生伤害儿童的内容的或许性。例如,当用户企图向咱们的图像东西上传儿童安全虐待资料时,咱们会阻挠这一动作,并向国家失踪和受剥削儿童中心陈述。

除了咱们的默认安全护栏外,咱们还与非营利性的可汗学院等开发商协作–该学院树立了一个由人工智能驱动的帮手,既是学生的虚拟导师,也是教师的课堂帮手–为他们的运用情况定制安全缓解办法。咱们还在开发一些功用,使开发者可以为模型输出设定更严厉的标准,以更好地支持那些期望获得这种功用的开发者和用户。

4.尊重隐私

咱们的大型言语模型是在一个广泛的文本语料库上练习出来的,其中包含公开的、授权的内容,以及由人类审查者发生的内容。**咱们不运用数据来出售咱们的服务、广告或树立人们的档案,咱们运用数据来使咱们的模型对人们更有协助。**例如,ChatGPT 经过对人们与它的对话进行进一步的练习来进步才能。

虽然咱们的一些练习数据包含公共互联网上的个人信息,但咱们期望咱们的模型可以了解这个国际,而不是私家。因而,咱们尽力在可行的情况下从练习数据会集删去个人信息,对模型进行微调,以拒绝对私家信息的恳求,并对个人提出的从咱们的体系中删去其个人信息的恳求作出回应。这些步骤最大极限地削减了咱们的模型或许发生包含私家信息的内容的或许性。

5.进步实际的精确性

大型言语模型根据它们之前看到的形式,包含用户提供的文本输入,猜测、发生接下来的一系列的词。在某些情况下,下一个最有或许的词或许在实际上并不精确。

进步实际精确性是 OpenAI 和许多其他人工智能开发者的一个重要作业,咱们正在取得开展。经过使用用户对被标记为不正确的 ChatGPT 输出的反应作为首要数据来历,咱们现已进步了 GPT-4 的实际精确性。与 GPT-3.5 相比,GPT-4 发生实际性内容的或许性增加了 40%。

当用户注册运用该东西时,咱们尽力做到尽或许通明,即 ChatGPT 或许不总是精确的。然而,咱们认识到,要进一步削减呈现错觉的或许性,以及引导公众了解这些人工智能东西现在的局限性,还有许多其他作业要做

6.持续的研讨和参加

咱们以为,处理人工智能安全问题的实用方法是投入更多的时刻和资源来研讨有用的缓解办法和调整技能,并针对实际国际的乱用进行测验。

重要的是,咱们以为,进步人工智能的安全性和才能应该齐头并进。迄今为止,咱们最好的安全作业来自与咱们才能最强的模型之间的协作,由于它们更长于遵从用户的指示,更容易引导或 “辅导”。

跟着才能更强的模型的创立和布置,咱们将越来越谨慎,跟着咱们人工智能体系的进一步开展,咱们将持续加强安全防范办法。

虽然咱们为了更好地了解 GPT-4 的才能、优点和危险,等了 6 个多月才将其布置,但有时或许需求比这更长的时刻来进步人工智能体系的安全性。因而,方针拟定者和人工智能供货商将需求保证人工智能的开展和布置在全球范围内得到有用的管理,没有人会为了赶快取得成功而 “偷工减料”。这是一个艰巨的挑战,需求技能和制度上的立异,但这也是咱们渴望做出的奉献。

处理安全问题也需求广泛的争辩、实验和参加,包含在人工智能体系行为的边界上。咱们现已并将持续促进利益相关者之间的协作和公开对话,以创立一个安全的人工智能生态体系。

|点击关注我 记得标星|