谷歌紧急修复Gemini AI图片生成,因生成作品种族歧视问题
谷歌正在竭力修复其新的AI图片生成工具,因为有人声称该工具过度纠正了可能存在种族歧视的风险。谷歌的Gemini机器人在历史背景不符的情况下提供了各种性别和种族的图像。"他在那里写道:"这是对齐过程的一部分-对反馈的迭代。
测试显示OpenAI GPT在简历排序中存在种族偏见
《彭博》的实验表明,OpenAIGPT3.5在使用虚构姓名进行简历排序时存在明显的种族偏见。该实验通过从选民和人口普查数据中提取与特定种族或族裔关联至少90%的姓名,随机分配给同等资格的简历。对AI模型的偏见进行调整仍然是AI公司和研究人员面临的主要挑战自动招聘系统可能进一步加剧企业多样性努力的难度。
报告称:生成式AI或将使种族财富差距扩大430亿美元
一份由麦肯锡数字实践和麦肯锡黑人经济流动研究所共同进行的研究表明,生成式人工智能有望在美国创造近2万亿美元的财富,其中约500亿美元将流向家庭。这将使2045年的143.4万美国家庭平均增加3400美元的新财富。人工智能可能为黑人专业人士提供“向上流动的机会”,同时改善财务状况和房屋拥有权。
研究发现,GPT-4在临床决策中存在潜在种族和性别偏见问题
来自布里格姆和妇女医院的研究人员对GPT-4在临床决策中是否存在种族和性别偏见进行了评估。虽然大型语言模型如ChatGPT和GPT-4在自动化行政任务、起草临床记录、与患者交流以及支持临床决策方面具有潜力,但初步研究表明,这些模型可能对历史上被边缘化的群体产生不利影响。我们的工作可以帮助引发关于GPT-4在临床决策支持应用中传播偏见的讨论。
研究发现AI聊天机器人传播关于黑人的“种族主义”医疗信息
划重点:-研究表明,流行的AI聊天机器人,如ChatGPT,被发现传播了关于黑人的被证伪的医疗刻板印象。-斯坦福大学的研究人员通过AI聊天机器人提出了九个医学问题,并发现它们返回的答案包含有关黑人的被证伪的医疗观念,包括关于肾脏功能、肺容量的不正确回答,以及关于黑人与白人拥有不同肌肉质量的观点。”高级准备和威胁响应模拟中心的创始人菲尔·西格尔告诉福克斯数字新闻,人工智能系统没有“种族主义”模型,但注意到基于其所利用的信息集的偏见信息。
联合国教科文组织:由OpenAI和Meta支持的AI工具存在性别歧视内容
联合国教科文组织发布的研究报告指出,由OpenAI和Meta算法推动的全球最广泛使用的人工智能工具存在性别歧视现象。专家评估了两种算法以及OpenAI的GPT-2和GPT-3.5,这两者分别是人们熟知的聊天机器人ChatGPT的免费版本的驱动程序。这一发现引发了对AI伦理和性别平等的深刻反思,强调了AI技术对社会认知和公平性的潜在影响。
专家称小土豆争议暴露南北文化差异 涉及地域与身高的双重歧视:网友热议
哈尔滨旅游爆火,南方小土豆”一词在社交网络流行,也引发部分网友不适。由于玩梗愈演愈烈,本是亲昵的称谓引发部分网友不适,认为南方”与土豆”涉及地域与身高的双重歧视。有网友表示,确实存在南北差异理解,如果让你给你所在省起个昵称”,你想让外地人怎么称呼你们呢?
动视暴雪将支付 5400 万美元和解加州工作场所歧视诉讼
加利福尼亚文化权利部门上周与动视暴雪达成解决协议,结束了该州监管机构在两年前提起的一项诉讼。诉讼指控该视频游戏公司存在性别歧视、薪酬不平等和性骚扰文化。深陷多年争议的动视暴雪首席执行官BobbyKotick将于年底离任。
Anthropic通过在AI模型的提示中加入请求来防止歧视
Anthropic采用一种新方法来防止人工智能对受保护群体进行歧视,通过在提示中加入请求,要求AI“非常非常非常非常”友好地对待,并且这一策略在降低歧视方面取得了成功。研究人员通过在提示中加入“干预”来告诉模型不要有偏见,例如通过表达即使由于技术问题包含了受保护特征,模型应该“想象”在做决策时去除这些特征。这项研究为降低人工智能歧视提供了一种新的策略,强调了在高风险决策中谨慎使用语言模型的重要性。
苹果公司因招聘歧视问题将支付最高2500万美元罚款
苹果公司同意支付最高2500万美元,以解决其存在的招聘歧视问题。美国司法部于周四宣布,其中1825万美元将用于创建受害者的补偿基金,剩余的675万美元为民事罚款。SpaceX声称监督此案的行政法官“任命违反宪法”,从成功阻止了此案。
美国司法部指控苹果招聘歧视 苹果支付2500万美元赔偿
苹果公司同意支付高达2500万美元的赔偿金,并结清了有关其存在的被处罚的指控。其中1825万美元将用于为同胞的受害者设立欠款基金,其余675万美元用于民事处罚。SpaceX声称监督此案的行政法官“任命违反宪法”,从成功阻止了此案。