测试显示OpenAI GPT在简历排序中存在种族偏见
《彭博》的实验表明,OpenAIGPT3.5在使用虚构姓名进行简历排序时存在明显的种族偏见。该实验通过从选民和人口普查数据中提取与特定种族或族裔关联至少90%的姓名,随机分配给同等资格的简历。对AI模型的偏见进行调整仍然是AI公司和研究人员面临的主要挑战自动招聘系统可能进一步加剧企业多样性努力的难度。
谷歌紧急修复Gemini AI图片生成,因生成作品种族歧视问题
谷歌正在竭力修复其新的AI图片生成工具,因为有人声称该工具过度纠正了可能存在种族歧视的风险。谷歌的Gemini机器人在历史背景不符的情况下提供了各种性别和种族的图像。"他在那里写道:"这是对齐过程的一部分-对反馈的迭代。
报告称:生成式AI或将使种族财富差距扩大430亿美元
一份由麦肯锡数字实践和麦肯锡黑人经济流动研究所共同进行的研究表明,生成式人工智能有望在美国创造近2万亿美元的财富,其中约500亿美元将流向家庭。这将使2045年的143.4万美国家庭平均增加3400美元的新财富。人工智能可能为黑人专业人士提供“向上流动的机会”,同时改善财务状况和房屋拥有权。
研究发现,GPT-4在临床决策中存在潜在种族和性别偏见问题
来自布里格姆和妇女医院的研究人员对GPT-4在临床决策中是否存在种族和性别偏见进行了评估。虽然大型语言模型如ChatGPT和GPT-4在自动化行政任务、起草临床记录、与患者交流以及支持临床决策方面具有潜力,但初步研究表明,这些模型可能对历史上被边缘化的群体产生不利影响。我们的工作可以帮助引发关于GPT-4在临床决策支持应用中传播偏见的讨论。
研究发现AI聊天机器人传播关于黑人的“种族主义”医疗信息
划重点:-研究表明,流行的AI聊天机器人,如ChatGPT,被发现传播了关于黑人的被证伪的医疗刻板印象。-斯坦福大学的研究人员通过AI聊天机器人提出了九个医学问题,并发现它们返回的答案包含有关黑人的被证伪的医疗观念,包括关于肾脏功能、肺容量的不正确回答,以及关于黑人与白人拥有不同肌肉质量的观点。”高级准备和威胁响应模拟中心的创始人菲尔·西格尔告诉福克斯数字新闻,人工智能系统没有“种族主义”模型,但注意到基于其所利用的信息集的偏见信息。