T
: 感兴趣领域中所有任务的集合A
: 高层次的动作集合O
: 视觉观察的空间d
: 视频演示τ
: 任务dτ = [o1, ..., oT]
: 演示完成任务Tseen
: 利用很多的演示和监督进行训练Tunseen
: 利用单个演示进行测试φ(·)
: 由 Tseen
训练得到的模型πd(a|o)
: 基于视觉观察 o
,实例化一个策略 πd(a|o)
,根据演示 d
,完成任务 Tunseen
d
映射到策略 φ(d) = πd(a|o)
φ(·)
被分解为 φgen(·)
和 φexe(·)
φgen(·)
: G = φgen(d)
根据演示 d
生成任务图 G
φexe(·)
: 图形执行引擎,πd = φexe(G)
执行任务图 G
, 作为策略 πd
G' = {V', E'}
V'
: 状态节点E'
: 节点之间的有向边,表示动作G = {V, E}
V
: 动作E
: 状态d = [o1, ..., oT]
A = [a1, ..., aK]
, 其中的 ai
都是在演示中执行的行动,这些 ai
也同样都是在 CTG 中的初始节点(论文中这里似乎出现了笔误,写成了 the initial edges)seq2seq
模型作为 demo interpreter 演示解释器A
为我们的共轭任务图,提供了合理的初始动作顺序约束(边)A = [a1, ..., aK]
n
: 当前节点o
: 视觉观察l(n|o)
: 当前节点的定位ϵ(a|n,o)
: 边分类器π(a|o) ∝ ϵ(a|n,o)l(n|o)
边分类器根据 n
当前节点和 o
视觉观察,加上当前节点的定位,决定边转移,这等同于选择对应的下一个动作 a
τ
,演示 dτi
,对应的执行动作 Aτi = [a1, ..., aK]
Ai
转化为路径 {Pτi = (V, Eτi)}
,节点 V
是所有动作 ai
,并添加从 Ai
过渡到 Ei
的边τ
,作者使用任务 τ
路径演示路径的并集,作为 ground truth 正确标注的共轭任务图 gτ
的边 Et
Pτi
通过补全缺失边转化成 gτ
Pτi
,训练生成 gτ
本文发布于:2024-02-04 09:00:55,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/170703616054180.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |