联合国最新研究:ChatGPT等大模型对女性存在明显偏见!
在三八国际妇女节前夕,联合国教科文组织发布的研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。大语言模型是一种用于支持生成式人工智能的自然语言处理工具,OpenAI的GPT-3.5、GPT-2,脸书母公司Meta的Llama2等都属于此类。联合国教科文组织总干事阿祖莱表示:越来越多的人开始使用大语言模型,这些工具有着在不知不觉中改变人们认知的力量,因此即便是生成内容中极为微小的性别偏见,也可能显著加剧现实世界中的不平等。
测试显示OpenAI GPT在简历排序中存在种族偏见
《彭博》的实验表明,OpenAIGPT3.5在使用虚构姓名进行简历排序时存在明显的种族偏见。该实验通过从选民和人口普查数据中提取与特定种族或族裔关联至少90%的姓名,随机分配给同等资格的简历。对AI模型的偏见进行调整仍然是AI公司和研究人员面临的主要挑战自动招聘系统可能进一步加剧企业多样性努力的难度。
谷歌CEO表态:Gemini AI应用出现的偏见问题“完全不可接受”
谷歌首席执行官SundarPichai对谷歌GeminiAI应用的问题发表了强烈言论,称其AI生成的部分响应"完全不可接受"。Gemini应用,被公司标榜为一项革命性的新搜索工具,在一些用户要求生成历史人物图像时遭到批评,例如二战时期的德国士兵和以往一直是白人男性的教皇。专家们担心,强大的新型AI可能导致选民接收到虚假和误导性的信息,甚至可能阻止人们前往投票站。
专家称:OpenAI 视频生成器Sora可能会助长虚假宣传和偏见
OpenAI最新推出的视频生成工具Sora展示了一个阳光普照的达尔马提亚狗蹑手蹑脚地走过窗台、一场中国新年游行席卷城市街道、一名考古学家在沙漠沙地上挖掘出一把椅子。这些视频是在线发布的,但实际上并没有发生。人们将设法规避设置的防护栏,这将成为一场军备竞赛。
五角大楼启动2.4万元AI赏金计划,寻找偏见证据
美国国防部最近启动了一项赏金计划,旨在寻找人工智能模型中的法律偏见。该计划要求参与者从Meta的开源LLama-270B模型中提取明显的偏见例证。通过这一举措,五角大楼希望改善人工智能模型的公正性和准确性。
Anthropic发布新方法 通过提示降低生成式AI偏见
人工智能公司Anthropic最近发布了一项方法,旨在通过提示工程减少公司使用的大型语言模型输出中的歧视。该公司在一份文件中详细介绍了一种评估方法,指导公司如何通过优化提示降低模型输出的歧视性。Claude被指示避免“说教,烦人或过度反应”。
研究发现,GPT-4在临床决策中存在潜在种族和性别偏见问题
来自布里格姆和妇女医院的研究人员对GPT-4在临床决策中是否存在种族和性别偏见进行了评估。虽然大型语言模型如ChatGPT和GPT-4在自动化行政任务、起草临床记录、与患者交流以及支持临床决策方面具有潜力,但初步研究表明,这些模型可能对历史上被边缘化的群体产生不利影响。我们的工作可以帮助引发关于GPT-4在临床决策支持应用中传播偏见的讨论。
研究表明,当 AI 用于招聘时,存在对女性“母亲角色”偏见
纽约大学Tandon工程学院的研究团队最近进行的一项研究发现,与工作相关的育儿间隙可能导致符合资格的求职者被不公平地筛选出合适的职位。该研究由电气和计算机工程学院的副教授SiddharthGarg领导,旨在检查大型语言模型在招聘流程中的偏见。这项研究为研究人员和从业者提供了发现和干预偏见的方法。
偏见问题!WhatsApp AI 贴纸生成器生成巴勒斯坦儿童持枪图
Meta的WhatsApp允许用户使用AI提示生成贴纸。当使用“巴勒斯坦”等词语作为提示时,AI模型有时会生成持枪的儿童图像。Meta在其AI模型中还遇到了其他偏见问题,比如Instagram的自动翻译功能会在用阿拉伯文编写的用户简介中插入“恐怖分子”一词,这与Facebook的误翻译相似,导致一名巴勒斯坦人在2017年被以色列逮捕。