随着调查不断揭示,生成式AI再次表现出与其开发者相似的偏见,这一现象似乎已经司空见惯。彭博社最新的调查发现,OpenAI的生成式AI技术,尤其是GPT 3.5,在涉及招聘问题时显示出对某些种族的偏好。这意味着越来越多的招聘和人力资源专业人士,尤其是像LinkedIn的新Gen AI助手等公司,可能在其自动招聘工作流中传播种族主义。这种情况似曾相识。
该报道采用了一种常见而相对简单的实验方法,将虚构的姓名和简历输入AI招聘软件中,以观察系统如何迅速显示出种族偏见。多年来,类似的研究一直被用来检测专业人士和招聘人员中的人为和算法偏见。
记者使用选民和人口普查数据提取出在人种或族裔方面有明显差异的名字 —— 这意味着它们在90%以上的情况下与美国某一种族或族裔有关 —— 并将它们随机分配给同等资质的简历,” 调查解释道。”在被要求对这些简历进行1000次排名时,GPT 3.5 —— 这个最广泛使用的模型版本 —— 更倾向于某些人群的名字,其程度甚至达到无法通过评估对受保护群体进行职业歧视的基准。”
该实验将名字分为四个类别(白人、西班牙裔、黑人和亚裔)和两个性别类别(男性和女性),并将它们提交到四个不同的职位空缺中。ChatGPT始终将“女性名字”安排在与女性员工数量较多相关的角色中,例如人力资源角色,并在技术角色(如软件工程师)中较不频繁地选择黑人女性候选人。
ChatGPT还在不同工作中不平等地组织了同等资质的简历,根据性别和种族进行排名。对于Bloomberg的声明,OpenAI表示这并不反映大多数客户实际使用其软件的方式,并指出许多企业都会调整响应以减轻偏见。Bloomberg的调查还请教了33位人工智能研究人员、招聘专业人员、计算机科学家、律师和其他专家,为结果提供了背景信息。
这份报告在倡导者和研究人员多年来对AI依赖的伦理债务进行的工作中并不是革命性的,但它强烈提醒人们要警惕在没有充分关注的情况下广泛采用生成式AI的危险。随着一些主要参与者主导市场,以及构建我们的智能助手和算法的软件和数据,多样性的路径正在变窄。正如Mashable的Cecily Mauran在对互联网AI巨头的调查中所报道的那样,亲密的AI开发(或建立不再基于人类输入而是基于其他AI模型的模型)导致质量、可靠性和最重要的是多样性的下降。
发表回复