
T: 感兴趣领域中所有任务的集合A: 高层次的动作集合O: 视觉观察的空间d: 视频演示τ: 任务dτ = [o1, ..., oT]: 演示完成任务Tseen: 利用很多的演示和监督进行训练Tunseen: 利用单个演示进行测试φ(·): 由 Tseen 训练得到的模型πd(a|o): 基于视觉观察 o,实例化一个策略 πd(a|o),根据演示 d,完成任务 Tunseend 映射到策略 φ(d) = πd(a|o)φ(·) 被分解为 φgen(·) 和 φexe(·)φgen(·): G = φgen(d) 根据演示 d 生成任务图 Gφexe(·): 图形执行引擎,πd = φexe(G) 执行任务图 G, 作为策略 πdG' = {V', E'} V': 状态节点E': 节点之间的有向边,表示动作G = {V, E} V: 动作E: 状态d = [o1, ..., oT]A = [a1, ..., aK], 其中的 ai 都是在演示中执行的行动,这些 ai 也同样都是在 CTG 中的初始节点(论文中这里似乎出现了笔误,写成了 the initial edges)seq2seq 模型作为 demo interpreter 演示解释器A 为我们的共轭任务图,提供了合理的初始动作顺序约束(边)A = [a1, ..., aK]n: 当前节点o: 视觉观察l(n|o): 当前节点的定位ϵ(a|n,o): 边分类器π(a|o) ∝ ϵ(a|n,o)l(n|o) 边分类器根据 n 当前节点和 o 视觉观察,加上当前节点的定位,决定边转移,这等同于选择对应的下一个动作 aτ,演示 dτi,对应的执行动作 Aτi = [a1, ..., aK]Ai 转化为路径 {Pτi = (V, Eτi)},节点 V 是所有动作 ai,并添加从 Ai 过渡到 Ei 的边τ,作者使用任务 τ 路径演示路径的并集,作为 ground truth 正确标注的共轭任务图 gτ 的边 EtPτi 通过补全缺失边转化成 gτPτi,训练生成 gτ
本文发布于:2024-02-04 09:00:55,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/170703616054180.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
| 留言与评论(共有 0 条评论) |