Richard Mathenge在2021年开端为OpenAI的GPT模型进行训练时,感到自己找到了理想的作业。在肯尼亚内罗毕从事多年的客户服务作业后,他终于参与到了一项有意义且有前途的作业。可是,虽然这个岗位充满希望,但它也让他身心疲惫,留下了深深的伤口。

每天,Mathenge和他的团队会反复检查显露的文本并为模型进行符号。他们能够将其分类为儿童性虐待资料、色情性内容、不合法、非性别等多种选项。他们阅览的许多内容让他们感到惊慌。Mathenge说,其中一段描绘了一个父亲在孩子面前与动物产生性关系的场景;其他一些涉及儿童强奸的场景。有些内容如此冒犯,Mathenge回绝议论他们。他告诉我:“这是无法幻想的。”

Mathenge所从事的作业类型关于ChatGPT和Bard等机器人的功能至关重要,但这种作业却被广泛忽视。在一个称为“RLHF”的过程中,机器人经过人类对内容的符号变得更聪明,教会它们怎么依据这些反馈进行优化。包含OpenAI的Sam Altman在内的AI领导者们赞扬了这种实践的技能效果,但他们很少议论某些人为了使AI系统与咱们的价值观保持一致所付出的代价。Mathenge和他的搭档们就是这个现实的接纳端。


在得到这份作业后,Mathenge的第一份作业是自驾车的LiDAR图画进行标注。他会审查这些图画,并挑选出人、其他车辆和物体,协助模型更好地了解他们在路上遇到的事物。当项目结束后,Mathenge被搬运到了OpenAI的模型上。在那里,他遇到了那些令人不安的文本——

他们每天都沉浸在描绘乱伦、兽交和其他显露场景的文字中,团队开端变得孤立。Mathenge说:“我能够看出我的团队不好,我能够看出他们对上班没有兴趣。我的团队就在传递这样的信号,他们不愿意与这样的文字打交道。”

Mathenge的团队成员Mophat Okinyi仍在处理这个问题的后果。他说,反复露出于显露的文本导致了他的失眠、焦虑、郁闷和恐慌症。Okinyi说,他的妻子看到他变了,于是在去年离开了他。“虽然我很快乐看到ChatGPT变得越来越出名,越来越多的人在全球范围内使用它,” Okinyi说,“可是保证它的安全性却摧毁了我的家庭。它摧毁了我的心理健康。说实话,我现在仍在与伤口作斗争。”

你能够在Apple Podcasts、Spotify或你挑选的应用上听到原作者与Mathenge的完整对话。

OpenAI知道这些工人应该定期承受咨询,但Okinyi和Mathenge发现这是远远不够的。Mathenge说:“有一段时间,辅导员做了陈述,但你能够看出他不是专业的。他没有资格,我很惋惜地说。他只问一些根本的问题,比如‘你叫什么姓名?’和‘你觉得你的作业怎么?’”

在一份声明中,OpenAI表明,它十分重视职工和承包商的心理健康。“咱们首次与Sama接触的原因之一,就是由于他们对杰出实践的承诺,”一位发言人说。“咱们之前的了解是,Sama供给福利方案和一对一的咨询,工人能够挑选退出任何作业而不受处分,接触显露内容的次数有限,灵敏信息由专门承受过培训的工人处理。”

OpenAI的发言人表明,公司向Sama寻求了更多关于其作业条件的信息。然后,该发言人说,Sama告诉OpenAI,它将退出内容审查范畴。Sama没有回应谈论恳求。

关于Mathenge来说,他在持续这项作业之前评价权衡的主意听起来像是一种奢华。他只是很快乐能在肯尼亚的经济岌岌可危、全球经济关闭之际找到作业。“那是在新冠病毒盛行的时期,”他说。“在开展中国家找到作业,自身就是一种福音。”


虽然阅历了这一切,Mathenge和他的搭档们仍为他们的作业感到骄傲。并且,这项作业确实有效。如今,ChatGPT回绝产出那些团队协助筛选出的显露场景,并对或许的不合法性行为发出警告。“对我和咱们来说,咱们感到十分骄傲,” Mathenge说。他们虽然骄傲,但仍在苦楚中挣扎

事实上,人工智能的开展与应用在世界范围内受到了广泛重视,虽然咱们所看到的是AI技能给咱们的日子带来的便当和魅力,但背后的劳动力却承受着沉重的压力和苦楚。许多AI技能,包含OpenAI的GPT模型,都依赖于人工进行内容审查和标注,而审查员需求检查并符号很多的令人震惊和不快的内容。他们的作业是艰苦的,有时甚至令人不堪忍耐,却往往被群众所忽视。

这种情况亟需引起全球重视,咱们需求为这些为AI开展做出奉献的人供给满足的支持和保护。工作道德和工作健康是十分重要的,但却往往被人们忽视。即使是在数字化范畴中,也相同需求考虑这些问题。咱们需求寻觅通明和合理的解决方案,以保证这个行业的健康开展和高效工作。

原文:He Helped Train ChatGPT. It Traumatized Him. (bigtechnology.com)