已入深夜,您辛苦了!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!祝你早点完成任务,早点休息,好梦!

Training language models to follow instructions with human feedback

计算机科学 语言模型 集合(抽象数据类型) 人工智能 简单(哲学) 强化学习 训练集 航程(航空) 机器学习 自然语言处理 人机交互 程序设计语言 认识论 哲学 复合材料 材料科学
作者
Long Ouyang,Jeff Wu,Xu Jiang,Diogo Almeida,Carroll L. Wainwright,Pamela Mishkin,Chong Zhang,Sandhini Agarwal,Katarina Slama,Alex Ray,John Schulman,Jacob Hilton,Fraser Kelton,Luke E. Miller,Maddie Simens,Amanda Askell,Peter Welinder,Paul Christiano,Jan Leike,Ryan Lowe
出处
期刊:Cornell University - arXiv 被引量:2714
标识
DOI:10.48550/arxiv.2203.02155
摘要

Making language models bigger does not inherently make them better at following a user's intent. For example, large language models can generate outputs that are untruthful, toxic, or simply not helpful to the user. In other words, these models are not aligned with their users. In this paper, we show an avenue for aligning language models with user intent on a wide range of tasks by fine-tuning with human feedback. Starting with a set of labeler-written prompts and prompts submitted through the OpenAI API, we collect a dataset of labeler demonstrations of the desired model behavior, which we use to fine-tune GPT-3 using supervised learning. We then collect a dataset of rankings of model outputs, which we use to further fine-tune this supervised model using reinforcement learning from human feedback. We call the resulting models InstructGPT. In human evaluations on our prompt distribution, outputs from the 1.3B parameter InstructGPT model are preferred to outputs from the 175B GPT-3, despite having 100x fewer parameters. Moreover, InstructGPT models show improvements in truthfulness and reductions in toxic output generation while having minimal performance regressions on public NLP datasets. Even though InstructGPT still makes simple mistakes, our results show that fine-tuning with human feedback is a promising direction for aligning language models with human intent.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
司空褚完成签到,获得积分10
1秒前
2秒前
4秒前
4秒前
顾矜应助翠翠采纳,获得10
4秒前
keyanzhang发布了新的文献求助10
8秒前
感性的芹菜完成签到,获得积分10
9秒前
科研通AI5应助Lazarus采纳,获得10
9秒前
9秒前
10秒前
13秒前
传奇3应助111采纳,获得10
14秒前
木头人456完成签到,获得积分10
14秒前
昏睡的秋灵完成签到,获得积分10
16秒前
16秒前
maroto完成签到 ,获得积分10
16秒前
沙漠水发布了新的文献求助10
17秒前
英俊的铭应助驰驰采纳,获得10
17秒前
早睡能长个完成签到,获得积分10
17秒前
18秒前
霸气的惜寒完成签到,获得积分10
18秒前
19秒前
19秒前
Voyage发布了新的文献求助10
21秒前
0000完成签到 ,获得积分10
22秒前
22秒前
23秒前
隐形曼青应助吴雨涛采纳,获得10
24秒前
SciGPT应助ling_lz采纳,获得10
26秒前
Morning发布了新的文献求助10
26秒前
脑壳疼完成签到,获得积分10
26秒前
bkagyin应助wg采纳,获得10
27秒前
隐形曼青应助科研通管家采纳,获得10
28秒前
深情安青应助科研通管家采纳,获得10
28秒前
酷波er应助科研通管家采纳,获得10
28秒前
SYLH应助科研通管家采纳,获得10
28秒前
搜集达人应助科研通管家采纳,获得10
28秒前
科研通AI2S应助科研通管家采纳,获得10
28秒前
SYLH应助科研通管家采纳,获得10
28秒前
斯文败类应助科研通管家采纳,获得10
28秒前
高分求助中
Continuum Thermodynamics and Material Modelling 3000
Production Logging: Theoretical and Interpretive Elements 2700
Kelsen’s Legacy: Legal Normativity, International Law and Democracy 1000
Interest Rate Modeling. Volume 3: Products and Risk Management 600
Interest Rate Modeling. Volume 2: Term Structure Models 600
Dynamika przenośników łańcuchowych 600
The King's Magnates: A Study of the Highest Officials of the Neo-Assyrian Empire 500
热门求助领域 (近24小时)
化学 材料科学 生物 医学 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 基因 遗传学 物理化学 催化作用 量子力学 光电子学 冶金
热门帖子
关注 科研通微信公众号,转发送积分 3538721
求助须知:如何正确求助?哪些是违规求助? 3116413
关于积分的说明 9325163
捐赠科研通 2814274
什么是DOI,文献DOI怎么找? 1546563
邀请新用户注册赠送积分活动 720607
科研通“疑难数据库(出版商)”最低求助积分说明 712086