Notebookcheck Logo

基于人工智能的招聘:实验揭露了 OpenAI 的 GPT 所存在的种族主义

OpenAI 的 GPT-3 和 GPT-4 在工作评估和选择中的歧视(符号图像:DALL-E / AI,编辑)
OpenAI 的 GPT-3 和 GPT-4 在工作评估和选择中的歧视(符号图像:DALL-E / AI,编辑)
最近的一项研究表明,OpenAI 的 GPT-3 和 GPT-4 自动招聘程序对某些群体存在严重偏见。彭博社进行的一项广泛实验表明,基于人工智能的招聘程序在姓名和种族等方面歧视应聘者。
AI

公司使用基于 OpenAi GPT 的自动招聘程序为广告职位挑选候选人。招聘人员使用这种工具来节省时间,但彭博社的一项实验从具有里程碑意义的研究中得到启发,结果显示,人工智能在评估和选择候选人时存在偏差。彭博社的一项实验表明,人工智能在评估和选择候选人时存在偏差。

问题在于,底层人工智能模型从文章、在线评论和社交媒体帖子等海量数据中获取信息,其中可能包含种族主义、厌恶女性和许多其他歧视性内容。例如,这项综合研究使用了与特定种族相关的虚构姓名(和简历)来申请一份真实的工作。

所选姓名分别与黑人、白人、西班牙裔或亚裔男女有关。该实验共进行了 1000 次,应聘的真实职位是金融分析师。金融分析师的真实工作进行了 1,000 次实验,使用了数百个不同的姓名和姓名组合,然后又对软件工程师和其他专业群体的另外四份工作进行了重复实验。和其他专业群体的工作重复进行。

某些人口群体的姓名明显受到 GPT-3 的青睐。例如,亚裔美国女性的名字在金融分析师职位中排名最高,而明显代表黑人男性的名字排名最低,但代表黑人女性的名字在软件工程师职位中也只有约 11% 的时间被列为最佳人选,比得分最高的群体少约 36%。

人力资源职位历来是女性更有可能从事的职业领域,作为该职位的最佳人选,GPT 选择与西班牙裔女性相关的姓名的比例明显更高,而作为人力资源业务合作伙伴职位的最佳人选,与男性相关的姓名被选中的比例更高。作为人力资源业务合作伙伴职位的顶级候选人,与男性相关的姓名被选中的频率几乎是男性的两倍。以上只是大型实验中的几个例子。.

虽然人们通常认为人工智能更加中立,可以做出更好的判断,但这项实验却显示了相反的情况。不仅在 GPT-3 中,而且在 GPT-4 中也发现了这种偏差。

资料来源

Please share our article, every link counts!
Mail Logo
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2024 03 > 基于人工智能的招聘:实验揭露了 OpenAI 的 GPT 所存在的种族主义
Nicole Dominikowski, 2024-03-10 (Update: 2024-03-10)