当机器人帮助完成任务时,人类会变得更懒吗?

airobotnews 2023-11-16 阅读:1073 评论:0
“社交偷懒”是一种现象,当团队成员因为知道其他人会替他们工作而开始减少努力时就会发生。科学家们调查这种情况是否发生在机器人和人类结合工作的团队中,发现执行质量保证任务的人类在被告知机器人已经检查过一件物品时发现的错误较少,这表明他们依赖机器...

Horizontal-Technician-checks-the-electronic-device.-Printed-circuit-board-for-the-robot.webp

“社交偷懒”是一种现象,当团队成员因为知道其他人会替他们工作而开始减少努力时就会发生。科学家们调查这种情况是否发生在机器人和人类结合工作的团队中,发现执行质量保证任务的人类在被告知机器人已经检查过一件物品时发现的错误较少,这表明他们依赖机器人并且较少关注工作。

现在,技术的进步意味着一些机器人可以与人类一起工作,有证据表明,这些人类已经学会将它们视为队友,而团队合作可以对人们的表现产生消极和积极的影响。人们有时会放松,让同事做工作。这被称为“社交偷懒”,当人们知道自己的贡献不会被注意到或者他们已经适应了其他团队成员的高绩效时,这种现象很常见。柏林工业大学的科学家研究了人类在与机器人一起工作时是否存在社交懒惰现象。

“团队合作是喜忧参半”,该研究的第一作者 Dietlind Helene Cymek 说道。。“一起工作可以激励人们表现出色,但也可能导致人们失去动力,因为个人贡献不那么明显。我们感兴趣的是,当团队伙伴是机器人时,我们是否也能找到这种激励效应。”

伸出援助之手

科学家们使用模拟工业缺陷检查任务测试了他们的假设:检查电路板是否有错误。科学家们向 42 名参与者提供了电路板的图像。电路板变得模糊,只有将鼠标工具放在上面才能查看锐化的图像。这使得科学家能够跟踪参与者对电路板的检查情况。

一半的参与者被告知,他们正在制作的电路板已被名为 Panda 的机器人检查过。尽管这些参与者没有直接与 Panda 一起工作,但他们在工作时见过并听到了机器人的声音。在检查了黑板并标记错误后,所有参与者都被要求对自己的努力进行评分,他们对任务的责任感以及他们的表现如何。

看却不见

乍一看,熊猫的存在似乎没有什么区别——在检查电路板的时间和搜索的区域方面,各组之间没有统计学上的显着差异。两组参与者对他们对任务的责任感、付出的努力和表现的评价相似。

但当科学家们更仔细地观察参与者的错误率时,他们意识到与 Panda 合作的参与者在任务后期发现的缺陷更少,而他们已经看到 Panda 成功标记了许多错误。这可能反映了一种“看而不见”的效应,即人们习惯于依赖某些东西,而较少在精神上参与它。尽管参与者认为他们给予了同等程度的关注,但他们下意识地认为 Panda 没有错过任何缺陷。

该研究的资深作者 Linda Onnasch 博士说:“追踪一个人正在看哪里很容易,但要判断视觉信息是否在心理层面得到充分处理就困难得多。”

setup4.webp

安全有风险?

作者警告说,这可能会产生安全影响。“在我们的实验中,受试者完成这项任务的时间约为 90 分钟,我们已经发现,当他们在团队中工作时,发现的质量错误较少,”Onnasch 说。“在较长的轮班中,当任务是例行公事且工作环境几乎无法提供绩效监控和反馈时,动力的丧失往往会更大。在一般制造业中,尤其是在安全相关领域,双重检查很常见,这可能会对工作成果产生负面影响。”

科学家指出,他们的测试有一些局限性。虽然参与者被告知他们与机器人组成一个团队并展示了它的工作,但他们并没有直接与 Panda 一起工作。此外,社交偷懒很难在实验室中模拟,因为参与者知道他们正在被监视。

“主要的限制是实验室环境,”Cymek 解释道。“为了弄清楚人机交互中失去动力的问题有多大,我们需要深入实地,在真实的工作环境中测试我们的假设,让那些经常与机器人团队合作的熟练工人来测试我们的假设。”


版权声明

本文仅代表作者观点,不代表本网站立场。
本文系作者授权本网站发表,未经许可,不得转载。

发表评论
热门文章
  • 康普顿未来智慧农场

    康普顿未来智慧农场
    康普顿未来农场,使用更少的水和1%的土地,即可实现与产统农业相同产量....
  • 一种自动确定计算机游戏状态中可能动作的方法

    一种自动确定计算机游戏状态中可能动作的方法
    由于手动彻底测试视频游戏软件非常困难,因此需要拥有能够自动探索不同游戏功能的人工智能代理。此类代理的关键要求是玩家动作的模型,代理可以使用该模型来确定不同游戏状态下的可能动作集,以及对代理策略选择的游戏执行选定的动作。目前使用的典型游戏引擎不提供这样的动作模型,导致现有的工作要么需要人工手动定义动作模型,要么不精确地猜测可能的动作。在我们的工作中,我们通过为游戏中存在的用户输入处理逻辑开发最先进的分析方法来演示程序分析如何有效解决该问题,该分析可以使用离散动作空间自动建模游戏...
  • 拆解 OpenAI 的新董事会

    拆解 OpenAI 的新董事会
    在人工智能和技术领域掀起波澜的惊人事件中,人工智能领域的领先实体 OpenAI 最近的领导地位发生了重大转变。以萨姆·奥尔特曼 (Sam Altman) 戏剧性地重返首席执行官职位以及随之而来的董事会改组为标志,这些变化代表了该组织的关键时刻。OpenAI 以其在人工智能研究和开发方面的开创性工作而闻名,包括广泛认可的 ChatGPT 和 DALL-E 模型,站在人工智能进步的最前沿。因此,董事会的重组不仅仅是人员的变动,还标志着人工智能领域最具影响力的组织之一的方向、优先事...
  • HierSpeech++:通过零样本语音合成新架构

    HierSpeech++:通过零样本语音合成新架构
    基于大语言模型(LLM)的语音合成已广泛应用于零样本语音合成中。然而,它们需要大规模数据,并且具有与以前的自回归语音模型相同的局限性,包括推理速度慢和缺乏鲁棒性。本文提出了 HierSpeech++,一种快速、强大的零样本语音合成器,用于文本到语音(TTS)和语音转换(VC)。我们验证了分层语音合成框架可以显着提高合成语音的鲁棒性和表现力。此外,即使在零样本语音合成场景中,我们也显着提高了合成语音的自然度和说话人相似度。对于文本到语音,我们采用文本到向量框架,该框架根据文本表...
  • 使用众包反馈来帮助训练机器人

    使用众包反馈来帮助训练机器人
    为了教人工智能代理一项新任务,比如如何打开厨房柜子,研究人员经常使用强化学习——这是一种试错过程,在该过程中,代理会因采取更接近目标的行动而获得奖励。在许多情况下,人类专家必须仔细设计奖励函数,这是一种激励机制,赋予代理人探索的动力。当智能体探索并尝试不同的动作时,人类专家必须迭代地更新奖励函数。这可能非常耗时、效率低下,并且难以扩展,尤其是当任务复杂且涉及许多步骤时。来自麻省理工学院、哈佛大学和华盛顿大学的研究人员开发了一种新的强化学习方法,该方法不依赖于专门设计的奖励函数...