bt365手机平台-下载首页

  • 机器人专家正在开发自动机器人可以通过观察人们学习新的任务,是专为。在家里,你可能有一天表明国内机器人怎么办日常杂务。

    机器人专家正在开发自动机器人可以通过观察人们学习新的任务,是专为。在家里,你可能有一天表明国内机器人怎么办日常杂务。

    图片:恭达尼洛夫,bt365手机app

    全屏

展示如何机器人做你的工作

机器人专家正在开发自动机器人可以通过观察人们学习新的任务,是专为。在家里,你可能有一天表明国内机器人怎么办日常杂务。

通过观察人类,机器人学会执行复杂的任务,如设置表。 看视频


记者联系

艾比abaz要么ius
电子邮件: abbya@mit.edu
电话:617-253-2709
bt365手机app新闻办公室

媒体资源

1张图片下载

媒体访问

媒体只能从本网站的桌面版本下载。

可以交互式培训机器人有一天会为大家一件容易的事,即使没有编程经验的那些。机器人专家正在开发自动机器人可以通过观察人们学习新的任务,是专为。在家里,你可能有一天表明国内机器人怎么办日常杂务。在职场中,你可以训练新员工像机器人一样,向他们展示如何执行多个任务。

使得在这一愿景,旨在bt365手机app的研究有进步该系统可以让这些类型的机器人学习复杂的任务,否则将处于困境有太多的混淆他们的规则。一个这样的任务是一定的条件下,设置一个餐桌。  

其核心,研究人员的‘带不确定规划规范’(双关语)的仿人机器人系统规划给予权衡同时许多模棱两可的能力 - 和潜在的矛盾 - 要求达到的最终目标。在这样做时,系统总是选择最有可能采取行动的基础上,“信仰”的一些可能的规格,它应该执行的任务。

在他们的工作中,研究人员汇编的数据集,如何用信息关于八个对象 - 一个杯子,玻璃,勺,叉,刀,餐盘,中小板和碗 - 可以在各种配置表进行放置。机器人臂的第一随机选择与所述对象设置表中的人观察到的演示。然后,研究人员手臂的任务自动在特定的配置表设置,在现实世界的实验和模拟,基于它看到了。

要取得成功,机器人不得不权衡许多可能的排序位置,甚至当项目被故意删除,堆叠,或隐藏。通常情况下,所有这一切会混淆机器人太多。但研究人员的机器人在没有失误的几个真实世界的实验,只有在几万模拟测试运行的错误屈指可数。  

“的愿景是把编程领域专家的手中,世卫组织可计划,通过直观的方式,而不是描述订单的工程师加入到他们的代码的机器人,”第一作者ANKIT沙阿,研究生在航空部门说航天(AeroAstro公司)和交互机器人组,WHO强调,他们的工作仅仅是一步在实现这一愿景。 “这样一来,机器人就不必再进行预编程任务。工厂工人可以教机器人做多复杂的组装任务。家用机器人可以学习如何叠箱,装载洗碗机,还是在家里从人设置表“。

沙阿在加入AeroAstro公司和纸是研究生群体互动机器人与机器人互动沉黎组长朱莉·沙阿,在计算机科学和AeroAstro公司和人工智能实验室的副教授。

机器人对冲赌注

机器人在工作有了明确的“规范”,它描述了任务,帮助机器人需要满足精细策划,考虑到其行动,环境和最终目标。学习通过观察演示设置表,则是充满不确定的规格。项目必须在特定的地点进行放置,根据不同的菜单,供客人落座,并在某些订单,根据项目的即时可用性或社会习俗。当前的措施规划不能够与这种不确定的规格处理的。

一种流行的方式来规划是“强化学习,”试错机器学习技术和惩罚他们的行动回报因为他们的工作来完成任务。随着不确定性但对于任务的规范,这是很难界定明确奖惩制度。总之,机器人从来没有完全明辨是非学习。

研究人员的系统,称为双关语(为计划带不确定规范),使机器人举行‘信仰’在一定范围内可能的规格。然后信仰本身可以用来抛出奖惩制度。 “本质上,机器人对冲在ITS中有什么任务预期方面的赌注,而采取的行动满足ITS的信念,而非美国。给它一个明确的规范,” ANKIT沙阿说。

该系统是建立在“线性时序逻辑”(LTL)的表达语言的机器人,使当前和未来的推理结果。研究人员在零担定义模板,基于时间的模型中的各种条件,比如什么现在必须发生,必须最终发生了,别的事情必须发生,直到发生。用于设定表中的30个人的演示机器人的观测得到超过25 LTL不同的公式的概率分布。各使一个略微不同的编码偏好 - 或规范 - 用于设定表。这概率分布成为其信仰。

“每个编码由不同的东西,但机器人当所有的各种组合考虑的模板,并尝试满足一切融合在一起,它结束了最后,做正确的事情,” ANKIT沙阿说。

以下标准

此外研究人员开发的标准的若干指导机器人满足整个相信对那些在候选公式。其中,例如,满足最有可能公式,丢弃一切从概率最高的模板别的分开。其他手托数量最多独特的配方,没有考虑到他们的总体概率,或它们满足代表几个公式最高的总概率。最大限度地减少只是另一种错误,所以系统忽略公式失败的可能性很高。

设计师们可以选择预设的培训和测试标准前四中的任何一个。每个人都有自己的灵活性和风险厌恶之间的权衡。标准的选择完全取决于任务。在安全紧急情况,例如,设计人员可以选择失败的限制可能性。但是,在失败的后果并不严重,设计人员可以选择放弃更大的灵活性机器人尝试不同的办法。

随着地方标准,研究人员开发了一种算法转换成机器人的信念 - 概率分布指向所需配方 - 成等价的强化学习问题。 ESTA将平机器人模型的奖励或惩罚它需要一个动作的基础上,它决定跟随规范。

在模拟中,要求机器人设置表中不同的配置,它只做20000次尝试六个错误的。在现实世界的演示,它显示出与人类将如何执行任务的行为。如果一个项目最初不是可见的,例如,机器人将完成设置表的其余部分没有的项目。然后,当叉被曝光后,也将有助于在适当的位置叉。 “这是哪里的灵活性是非常重要的,”沙阿ANKIT说。 “否则就被卡住时,它预计将叉子,而不是完成表格设置的休息。”

接下来,研究人员希望基于口头他们的指示,更正,或机器人的性能的用户的评估系统来修改,以帮助机器人改变行为。 “说一个人演示如何将一个机器人只在一个点集的表。五月的人说,“做所有其他点一样的东西,”或者,“叉前放置刀,而不是在这里,”“ANKIT沙阿说。 “我们要制定系统的方法来自然适应处理这些口头命令,而无需额外的示范。”  


主题: 研究, 计算机科学与技术, 算法, 人工智能, 机器学习, 机器人, 机器人, 辅助技术, 航空航天工程, 计算机科学和人工智能实验室(CSAIL), 工程学院

回到顶部