亲爱的研友该休息了!由于当前在线用户较少,发布求助请尽量完整地填写文献信息,科研通机器人24小时在线,伴您度过漫漫科研夜!身体可是革命的本钱,早点休息,好梦!

Large Language Models are Zero-Shot Reasoners

弹丸 任务(项目管理) 水准点(测量) 计算机科学 零(语言学) 人工智能 自然语言处理 认知心理学 语言学 心理学 工程类 地理 大地测量学 化学 有机化学 系统工程 哲学
作者
Takeshi Kojima,Shixiang Gu,Machel Reid,Yutaka Matsuo,Yusuke Iwasawa
出处
期刊:Cornell University - arXiv 被引量:804
标识
DOI:10.48550/arxiv.2205.11916
摘要

Pretrained large language models (LLMs) are widely used in many sub-fields of natural language processing (NLP) and generally known as excellent few-shot learners with task-specific exemplars. Notably, chain of thought (CoT) prompting, a recent technique for eliciting complex multi-step reasoning through step-by-step answer examples, achieved the state-of-the-art performances in arithmetics and symbolic reasoning, difficult system-2 tasks that do not follow the standard scaling laws for LLMs. While these successes are often attributed to LLMs' ability for few-shot learning, we show that LLMs are decent zero-shot reasoners by simply adding "Let's think step by step" before each answer. Experimental results demonstrate that our Zero-shot-CoT, using the same single prompt template, significantly outperforms zero-shot LLM performances on diverse benchmark reasoning tasks including arithmetics (MultiArith, GSM8K, AQUA-RAT, SVAMP), symbolic reasoning (Last Letter, Coin Flip), and other logical reasoning tasks (Date Understanding, Tracking Shuffled Objects), without any hand-crafted few-shot examples, e.g. increasing the accuracy on MultiArith from 17.7% to 78.7% and GSM8K from 10.4% to 40.7% with large InstructGPT model (text-davinci-002), as well as similar magnitudes of improvements with another off-the-shelf large model, 540B parameter PaLM. The versatility of this single prompt across very diverse reasoning tasks hints at untapped and understudied fundamental zero-shot capabilities of LLMs, suggesting high-level, multi-task broad cognitive capabilities may be extracted by simple prompting. We hope our work not only serves as the minimal strongest zero-shot baseline for the challenging reasoning benchmarks, but also highlights the importance of carefully exploring and analyzing the enormous zero-shot knowledge hidden inside LLMs before crafting finetuning datasets or few-shot exemplars.
最长约 10秒,即可获得该文献文件

科研通智能强力驱动
Strongly Powered by AbleSci AI
更新
PDF的下载单位、IP信息已删除 (2025-6-4)

科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
迅速的岩完成签到,获得积分10
4秒前
HYQ完成签到 ,获得积分10
55秒前
1分钟前
嘻嘻完成签到,获得积分10
1分钟前
量子星尘发布了新的文献求助10
1分钟前
ding应助科研通管家采纳,获得10
1分钟前
徐凤年完成签到,获得积分10
1分钟前
沐雨微寒完成签到,获得积分10
1分钟前
2分钟前
2分钟前
欣慰外套完成签到 ,获得积分10
3分钟前
yindi1991完成签到 ,获得积分10
3分钟前
3分钟前
量子星尘发布了新的文献求助10
3分钟前
美满的小蘑菇完成签到 ,获得积分10
4分钟前
5分钟前
乐乐应助科研通管家采纳,获得10
5分钟前
6分钟前
瘦瘦的枫叶完成签到 ,获得积分10
6分钟前
6分钟前
量子星尘发布了新的文献求助10
6分钟前
陀思妥耶夫斯基完成签到 ,获得积分10
6分钟前
张杰列夫完成签到 ,获得积分10
7分钟前
JamesPei应助科研通管家采纳,获得10
7分钟前
馆长应助科研通管家采纳,获得20
7分钟前
馆长应助科研通管家采纳,获得10
7分钟前
馆长应助科研通管家采纳,获得10
7分钟前
花落无声完成签到 ,获得积分10
8分钟前
8分钟前
Lily完成签到,获得积分10
8分钟前
8分钟前
Lily发布了新的文献求助10
8分钟前
8分钟前
量子星尘发布了新的文献求助10
8分钟前
Jim完成签到,获得积分10
9分钟前
9分钟前
Shuo应助科研通管家采纳,获得20
9分钟前
慕青应助科研通管家采纳,获得10
9分钟前
lzxbarry应助科研通管家采纳,获得50
9分钟前
lzxbarry应助科研通管家采纳,获得50
9分钟前
高分求助中
(应助此贴封号)【重要!!请各用户(尤其是新用户)详细阅读】【科研通的精品贴汇总】 10000
计划经济时代的工厂管理与工人状况(1949-1966)——以郑州市国营工厂为例 500
Comparison of spinal anesthesia and general anesthesia in total hip and total knee arthroplasty: a meta-analysis and systematic review 500
INQUIRY-BASED PEDAGOGY TO SUPPORT STEM LEARNING AND 21ST CENTURY SKILLS: PREPARING NEW TEACHERS TO IMPLEMENT PROJECT AND PROBLEM-BASED LEARNING 500
Modern Britain, 1750 to the Present (第2版) 300
Writing to the Rhythm of Labor Cultural Politics of the Chinese Revolution, 1942–1976 300
Lightning Wires: The Telegraph and China's Technological Modernization, 1860-1890 250
热门求助领域 (近24小时)
化学 材料科学 医学 生物 工程类 有机化学 生物化学 物理 纳米技术 计算机科学 内科学 化学工程 复合材料 物理化学 基因 催化作用 遗传学 冶金 电极 光电子学
热门帖子
关注 科研通微信公众号,转发送积分 4596068
求助须知:如何正确求助?哪些是违规求助? 4008190
关于积分的说明 12408923
捐赠科研通 3687090
什么是DOI,文献DOI怎么找? 2032193
邀请新用户注册赠送积分活动 1065428
科研通“疑难数据库(出版商)”最低求助积分说明 950759