Explicitly unbiased large language models still form biased associations

计算机科学 计量经济学 数学 语言学 统计物理学 哲学 物理
作者
Xuechunzi Bai,Angelina Wang,Ilia Sucholutsky,Thomas L. Griffiths
出处
期刊:Proceedings of the National Academy of Sciences of the United States of America [National Academy of Sciences]
卷期号:122 (8) 被引量:4
标识
DOI:10.1073/pnas.2416228122
摘要

Large language models (LLMs) can pass explicit social bias tests but still harbor implicit biases, similar to humans who endorse egalitarian beliefs yet exhibit subtle biases. Measuring such implicit biases can be a challenge: As LLMs become increasingly proprietary, it may not be possible to access their embeddings and apply existing bias measures; furthermore, implicit biases are primarily a concern if they affect the actual decisions that these systems make. We address both challenges by introducing two measures: LLM Word Association Test, a prompt-based method for revealing implicit bias; and LLM Relative Decision Test, a strategy to detect subtle discrimination in contextual decisions. Both measures are based on psychological research: LLM Word Association Test adapts the Implicit Association Test, widely used to study the automatic associations between concepts held in human minds; and LLM Relative Decision Test operationalizes psychological results indicating that relative evaluations between two candidates, not absolute evaluations assessing each independently, are more diagnostic of implicit biases. Using these measures, we found pervasive stereotype biases mirroring those in society in 8 value-aligned models across 4 social categories (race, gender, religion, health) in 21 stereotypes (such as race and criminality, race and weapons, gender and science, age and negativity). These prompt-based measures draw from psychology's long history of research into measuring stereotypes based on purely observable behavior; they expose nuanced biases in proprietary value-aligned LLMs that appear unbiased according to standard benchmarks.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
坚果发布了新的文献求助10
刚刚
clay_park完成签到,获得积分10
刚刚
吴智琼完成签到,获得积分10
1秒前
香蕉觅云应助cc4ever采纳,获得10
1秒前
1秒前
月岛滴滴完成签到,获得积分10
1秒前
所所应助水木年华采纳,获得10
2秒前
高强发布了新的文献求助10
3秒前
4秒前
4秒前
十二应助DHY采纳,获得10
4秒前
4秒前
NexusExplorer应助元气糖采纳,获得10
5秒前
5秒前
传统的如霜完成签到,获得积分10
5秒前
丫丫发布了新的文献求助10
5秒前
所所应助hehe采纳,获得10
5秒前
5秒前
WalkToSky完成签到,获得积分10
5秒前
橘子屿布丁完成签到,获得积分10
5秒前
量子星尘发布了新的文献求助10
6秒前
冷酷新柔发布了新的文献求助10
6秒前
6秒前
7秒前
无花果应助勤奋胡萝卜采纳,获得10
7秒前
7秒前
Hemingwayway发布了新的文献求助10
8秒前
木子完成签到,获得积分10
9秒前
9秒前
hki完成签到,获得积分10
9秒前
77发布了新的文献求助10
9秒前
慕慕倾发布了新的文献求助10
9秒前
情怀应助跳跃小伙采纳,获得10
10秒前
烟花应助zzululu2024采纳,获得10
10秒前
10秒前
lili关注了科研通微信公众号
11秒前
岑晓冰完成签到 ,获得积分10
11秒前
qin完成签到,获得积分10
11秒前
杨无敌1997发布了新的文献求助10
12秒前
Treasure完成签到,获得积分10
12秒前
高分求助中
【提示信息,请勿应助】关于scihub 10000
The Mother of All Tableaux: Order, Equivalence, and Geometry in the Large-scale Structure of Optimality Theory 3000
A new approach to the extrapolation of accelerated life test data 1000
徐淮辽南地区新元古代叠层石及生物地层 500
Coking simulation aids on-stream time 450
康复物理因子治疗 400
北师大毕业论文 基于可调谐半导体激光吸收光谱技术泄漏气体检测系统的研究 390
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 内科学 纳米技术 计算机科学 化学工程 复合材料 遗传学 基因 物理化学 催化作用 冶金 细胞生物学 免疫学
热门帖子
关注 科研通微信公众号,转发送积分 4016711
求助须知:如何正确求助?哪些是违规求助? 3556869
关于积分的说明 11322988
捐赠科研通 3289588
什么是DOI,文献DOI怎么找? 1812514
邀请新用户注册赠送积分活动 888100
科研通“疑难数据库(出版商)”最低求助积分说明 812121