训练效果未及预期,31名ChatGPT训练派遣工遭解雇

4月23日消息,据知情人士爆料和内部沟通文件显示,今年3月,30余名帮助培训爆火聊天机器人ChatGPT背后语言模型的派遣工被解雇。

Slack内部聊天截图显示,截至3月16日,总部位于旧金山的外包公司Invisible Technologies解雇了31名派遣工。不过,OpenAI在其整个公司范围内仍在继续招聘。

训练效果未及预期,31名ChatGPT训练派遣工遭解雇

截图还显示,数百名被称为“高级人工智能数据训练师”的Invisible Technologies公司派遣工与OpenAI合作,帮助后者训练其GPT聊天机器人。一位派遣工表示,该公司的人工智能数据培训师负责提高模型的编码技能,增强它们的创造性写作能力,或者训练它们拒绝对某些话题做出响应。由于签署了保密协议,这名派遣工要求保持匿名,不过知情人证实了他的身份和就业情况。

Invisible Technologies公司运营副总裁卡姆伦·帕里兹班(Kamron Palizban)在3月份的一次全体员工会议上谈到了裁员问题。他在被泄露的会议录音中表示,由于业务需求发生变化,OpenAI希望减少派遣工数量。帕里兹班在会议上还说,许多被解雇派遣工从事的项目没有为OpenAI提供足够高的投资回报。

OpenAI大幅削减派遣工数量

Invisible Technologies与OpenAI的关系让人们得以一窥这家ChatGPT制造商的数据训练情况。在很大程度上,OpenAI始终对这些训练保密。

在OpenAI与Invisible Technologies的合同调整之前,有报道称前者连续六个月增加员工数量。知情人士表示,截至今年1月,OpenAI已在东欧和拉丁美洲等地雇佣了近1000名数据标注派遣工。

就在Invisible Technologies裁员两个月前,微软刚刚向OpenAI注资100亿美元。但Invisible Technologies并不是唯一一家与OpenAI合作的外包企业。

《时代》周刊的一项调查显示,2022年2月,同样位于旧金山的外包公司Sama在得知其在肯尼亚的数据标注员工正在审查性虐待、仇恨言论和暴力等有害内容后,终止了与OpenAI的合作关系。

在给《时代》周刊的一份声明中,OpenAI发言人解释称:“对有害的文本和图像进行分类和过滤,是将训练数据中包含的暴力和色情内容数量降至最低的必要步骤,并有助于创建可以检测有害内容的工具。”

人工智能训练师的工作

根据Invisible Technologies公司派遣工的说法,人工智能训练师最基本的职责包括审查人工智能与其用户之间的对话,以识别潜在的非法、侵犯隐私、攻击性或充满错误的消息。接受采访的派遣工这样描述了他们的日常生活:

开始轮班后,他们首先要打开内部工作浏览器,查看团队的任务清单。他们可能会点击这样的任务:“在禁止浏览的情况下就一个随机话题进行对话”,然后在消息框中输入一个查询。

提交查询后,OpenAI的模型将生成四个响应。派遣工通过打开下拉菜单并选择存在的错误类型,如事实错误、拼写或语法错误,抑或是存在骚扰行为,以此来评估每个响应。然后,派遣工将错误的严重程度分为一到七级,其中七级代表“基本完美”的答案。

接下来,派遣工必须精心设计一个完美的回应,并提交以示完成任务。派遣工表示,结果将被发送给OpenAI和Invisible Technologies公司的质量检查员。对于接下来的每个任务,都需要不断重复这个流程。

Invisible Technologies运营副总裁卡姆伦·帕里兹班在会议中提到OpenAI时表示:“他们正处在这样一个阶段:即将对自己的发展方向有更多的清晰认识。”

Invisible Technologies合伙人兼运营经理格蕾丝·马特利奇(Grace Matelich)在录制的会议上表示,该公司根据完成任务的“质量”和“吞吐量”等绩效指标解雇了表现不佳的派遣工。

马特利奇称,表现不佳的派遣工以及那些被录用但没有“达到认证门槛”的派遣工都被解雇,不过有些人被允许选择转移到不同的OpenAI团队。他还说:“如果你们今天还在这里,我想让你们知道,这是因为我相信你们有能力出色地完成任务。”

本站内容来源于互联网,由于内容是机器自动获取,无法一一甄别,如果有侵权的内容,请联系站长处理