AI 的剥削:肯尼亚工人训练 ChatGPT,看大量有害内容心理受伤
AI 的剥削:肯尼亚工人训练 ChatGPT,看大量有害内容心理受伤1 月 18 日,美国《时代》杂志发布调查报道称,为了降低 ChatGPT 的危害性,其开发公司 OpenAI 以每小时不到 2 美元的价格雇佣肯尼亚工人打标签。
这项工作对 OpenAI 至关重要。ChatGPT 所依赖的 GPT 大型语言模型虽然已展示出令人印象深刻的文本能力,但目前的 GPT-3 还存在很多问题,总是脱口而出暴力、性别歧视和种族主义言论。
为了建立安全系统以控制这种危害,OpenAI 借鉴了 Facebook 等社交媒体的做法。通过给人工智能提供有关暴力、仇恨言论和性虐待的例子,让检测器就可以学会检测言论危害,再将检测器内置到 ChatGPT 中,就可以在仇恨言论到达用户之前将其过滤掉,还可以帮助从人工智能的训练数据集中清除有害文本。
这一切,是通过肯尼亚工人阅读大量仇恨言论并打上数据标签实现的,其中一些员工表示自己已经出现心理问题。这些数据标签工人的工作条件揭示了科技图景中的黑暗部分:虽然人工智能很有魅力,但它往往依赖于隐藏的人力劳动,具有破坏性和剥削性。
页:
[1]