清晨好,您是今天最早来到科研通的研友!由于当前在线用户较少,发布求助请尽量完整的填写文献信息,科研通机器人24小时在线,伴您科研之路漫漫前行!

Relative Behavioral Attributes: Filling the Gap between Symbolic Goal Specification and Reward Learning from Human Preferences

计算机科学 任务(项目管理) 偏爱 行为模式 人机交互 人工智能 模棱两可 概括性 剪辑 心理学 软件工程 经济 微观经济学 管理 程序设计语言 心理治疗师
作者
Lin Guan,Karthik Valmeekam,Subbarao Kambhampati
出处
期刊:Cornell University - arXiv
标识
DOI:10.48550/arxiv.2210.15906
摘要

Generating complex behaviors that satisfy the preferences of non-expert users is a crucial requirement for AI agents. Interactive reward learning from trajectory comparisons (a.k.a. RLHF) is one way to allow non-expert users to convey complex objectives by expressing preferences over short clips of agent behaviors. Even though this parametric method can encode complex tacit knowledge present in the underlying tasks, it implicitly assumes that the human is unable to provide richer feedback than binary preference labels, leading to intolerably high feedback complexity and poor user experience. While providing a detailed symbolic closed-form specification of the objectives might be tempting, it is not always feasible even for an expert user. However, in most cases, humans are aware of how the agent should change its behavior along meaningful axes to fulfill their underlying purpose, even if they are not able to fully specify task objectives symbolically. Using this as motivation, we introduce the notion of Relative Behavioral Attributes, which allows the users to tweak the agent behavior through symbolic concepts (e.g., increasing the softness or speed of agents' movement). We propose two practical methods that can learn to model any kind of behavioral attributes from ordered behavior clips. We demonstrate the effectiveness of our methods on four tasks with nine different behavioral attributes, showing that once the attributes are learned, end users can produce desirable agent behaviors relatively effortlessly, by providing feedback just around ten times. This is over an order of magnitude less than that required by the popular learning-from-human-preferences baselines. The supplementary video and source code are available at: https://guansuns.github.io/pages/rba.

科研通智能强力驱动
Strongly Powered by AbleSci AI

祝大家在新的一年里科研腾飞
科研通是完全免费的文献互助平台,具备全网最快的应助速度,最高的求助完成率。 对每一个文献求助,科研通都将尽心尽力,给求助人一个满意的交代。
实时播报
方白秋完成签到,获得积分10
29秒前
1分钟前
1分钟前
FashionBoy应助有魅力老头采纳,获得10
1分钟前
科研通AI2S应助科研通管家采纳,获得10
1分钟前
完美世界应助科研通管家采纳,获得10
1分钟前
上官若男应助科研通管家采纳,获得10
1分钟前
科研通AI2S应助科研通管家采纳,获得10
1分钟前
1分钟前
3分钟前
少夫人完成签到,获得积分10
3分钟前
山河与海完成签到,获得积分10
3分钟前
大方忆秋完成签到,获得积分10
3分钟前
神勇的晟睿完成签到,获得积分10
3分钟前
CodeCraft应助科研通管家采纳,获得10
3分钟前
科研通AI2S应助科研通管家采纳,获得10
3分钟前
3分钟前
4分钟前
ATK20000完成签到 ,获得积分10
4分钟前
依依完成签到 ,获得积分10
4分钟前
5分钟前
zengtx1发布了新的文献求助10
5分钟前
renjianbaiye完成签到 ,获得积分10
5分钟前
5分钟前
零度沸腾完成签到 ,获得积分10
6分钟前
mmyhn发布了新的文献求助10
7分钟前
月亮与六便士完成签到 ,获得积分10
7分钟前
铜豌豆完成签到 ,获得积分10
7分钟前
科研通AI2S应助科研通管家采纳,获得10
7分钟前
想睡觉亦寻完成签到 ,获得积分10
7分钟前
7分钟前
wangye完成签到 ,获得积分10
8分钟前
8分钟前
___淡完成签到 ,获得积分10
9分钟前
HuiHui完成签到,获得积分10
9分钟前
9分钟前
10分钟前
小草完成签到,获得积分10
10分钟前
11分钟前
刘刘完成签到 ,获得积分10
11分钟前
高分求助中
Востребованный временем 2500
The Three Stars Each: The Astrolabes and Related Texts 1500
Classics in Total Synthesis IV: New Targets, Strategies, Methods 1000
Les Mantodea de Guyane 800
Mantids of the euro-mediterranean area 700
The Oxford Handbook of Educational Psychology 600
有EBL数据库的大佬进 Matrix Mathematics 500
热门求助领域 (近24小时)
化学 医学 生物 材料科学 工程类 有机化学 生物化学 内科学 物理 纳米技术 计算机科学 遗传学 化学工程 基因 复合材料 免疫学 物理化学 细胞生物学 催化作用 病理
热门帖子
关注 科研通微信公众号,转发送积分 3413375
求助须知:如何正确求助?哪些是违规求助? 3015724
关于积分的说明 8871675
捐赠科研通 2703441
什么是DOI,文献DOI怎么找? 1482290
科研通“疑难数据库(出版商)”最低求助积分说明 685177
邀请新用户注册赠送积分活动 679951