机器人技术的新曙光:基于触摸的物体旋转

ROBOT@qwh 2023-10-09 阅读:384 评论:0
在一项突破性的开发中,加州大学圣地亚哥分校 (UCSD) 的工程师团队设计了一款机械手,可以仅通过触摸来旋转物体,而无需视觉输入。这种创新方法的灵感来自于人类无需看到物体即可轻松处理物体的方式。对象操纵的触摸敏感方法该团队为四指机械手配备了...

Alex_Mc_robotic_hand.jpg

在一项突破性的开发中,加州大学圣地亚哥分校 (UCSD) 的工程师团队设计了一款机械手,可以仅通过触摸来旋转物体,而无需视觉输入。这种创新方法的灵感来自于人类无需看到物体即可轻松处理物体的方式。

对象操纵的触摸敏感方法

该团队为四指机械手配备了 16 个触摸传感器,分布在其手掌和手指上。每个传感器的成本约为 12 美元,执行一个简单的功能:检测物体是否正在接触它。这种方法是独一无二的,因为它依赖于大量低成本、低分辨率的触摸传感器,这些传感器使用简单的二进制信号(触摸或不触摸)来执行机器人手中的旋转。

相比之下,其他方法依赖于固定在机器人手的一小块区域(主要是指尖)上的一些高成本、高分辨率的触摸传感器。领导这项研究的加州大学圣地亚哥分校电气与计算机工程系教授王小龙解释说,这些方法有一些局限性。它们最大限度地减少了传感器与物体接触的机会,从而限制了系统的传感能力。提供纹理信息的高分辨率触摸传感器极其难以模拟,而且价格昂贵,使得在现实世界的实验中使用它们具有挑战性。

二进制信号的力量

“我们表明,我们不需要物体纹理的细节来完成这项任务。我们只需要简单的二进制信号来表明传感器是否接触到物体,这些信号更容易模拟并传输到现实世界。”

该团队使用虚拟机械手旋转一组不同物体(包括不规则形状的物体)的模拟来训练他们的系统。该系统会评估旋转过程中任何给定时间点上的物体正在接触手上的哪些传感器。它还评估手部关节的当前位置以及它们之前的动作。利用这些信息,系统指示机器人手在下一个时间点哪个关节需要移动到哪里。

机器人操作的未来

研究人员在现实生活中的机器人手上用系统尚未遇到的物体测试了他们的系统。机械手能够旋转各种物体,而不会停顿或失去控制。这些物体包括一个西红柿、一个辣椒、一罐花生酱和一只玩具橡皮鸭,由于其形状,这是最具挑战性的物体。形状越复杂的物体旋转所需的时间就越长。机械手还可以围绕不同的轴旋转物体。

该团队现在正致力于将他们的方法扩展到更复杂的操作任务。例如,他们目前正在开发技术,使机械手能够捕捉、投掷和杂耍等。“手动操作是我们人类所拥有的一项非常常见的技能,但对于机器人来说掌握起来非常复杂,”王说。“如果我们能够赋予机器人这种技能,那就将为它们执行各种任务打开大门。”

这一发展标志着机器人领域向前迈出了重要一步,可能为能够在黑暗或视觉挑战性环境中操纵物体的机器人铺平道路。


版权声明

本文仅代表作者观点,不代表本网站立场。
本文系作者授权本网站发表,未经许可,不得转载。

发表评论
热门文章
  • 康普顿未来智慧农场

    康普顿未来智慧农场
    康普顿未来农场,使用更少的水和1%的土地,即可实现与产统农业相同产量....
  • 拆解 OpenAI 的新董事会

    拆解 OpenAI 的新董事会
    在人工智能和技术领域掀起波澜的惊人事件中,人工智能领域的领先实体 OpenAI 最近的领导地位发生了重大转变。以萨姆·奥尔特曼 (Sam Altman) 戏剧性地重返首席执行官职位以及随之而来的董事会改组为标志,这些变化代表了该组织的关键时刻。OpenAI 以其在人工智能研究和开发方面的开创性工作而闻名,包括广泛认可的 ChatGPT 和 DALL-E 模型,站在人工智能进步的最前沿。因此,董事会的重组不仅仅是人员的变动,还标志着人工智能领域最具影响力的组织之一的方向、优先事...
  • 一种自动确定计算机游戏状态中可能动作的方法

    一种自动确定计算机游戏状态中可能动作的方法
    由于手动彻底测试视频游戏软件非常困难,因此需要拥有能够自动探索不同游戏功能的人工智能代理。此类代理的关键要求是玩家动作的模型,代理可以使用该模型来确定不同游戏状态下的可能动作集,以及对代理策略选择的游戏执行选定的动作。目前使用的典型游戏引擎不提供这样的动作模型,导致现有的工作要么需要人工手动定义动作模型,要么不精确地猜测可能的动作。在我们的工作中,我们通过为游戏中存在的用户输入处理逻辑开发最先进的分析方法来演示程序分析如何有效解决该问题,该分析可以使用离散动作空间自动建模游戏...
  • 使用众包反馈来帮助训练机器人

    使用众包反馈来帮助训练机器人
    为了教人工智能代理一项新任务,比如如何打开厨房柜子,研究人员经常使用强化学习——这是一种试错过程,在该过程中,代理会因采取更接近目标的行动而获得奖励。在许多情况下,人类专家必须仔细设计奖励函数,这是一种激励机制,赋予代理人探索的动力。当智能体探索并尝试不同的动作时,人类专家必须迭代地更新奖励函数。这可能非常耗时、效率低下,并且难以扩展,尤其是当任务复杂且涉及许多步骤时。来自麻省理工学院、哈佛大学和华盛顿大学的研究人员开发了一种新的强化学习方法,该方法不依赖于专门设计的奖励函数...
  • HierSpeech++:通过零样本语音合成新架构

    HierSpeech++:通过零样本语音合成新架构
    基于大语言模型(LLM)的语音合成已广泛应用于零样本语音合成中。然而,它们需要大规模数据,并且具有与以前的自回归语音模型相同的局限性,包括推理速度慢和缺乏鲁棒性。本文提出了 HierSpeech++,一种快速、强大的零样本语音合成器,用于文本到语音(TTS)和语音转换(VC)。我们验证了分层语音合成框架可以显着提高合成语音的鲁棒性和表现力。此外,即使在零样本语音合成场景中,我们也显着提高了合成语音的自然度和说话人相似度。对于文本到语音,我们采用文本到向量框架,该框架根据文本表...