什么是小样本学习?

ROBOT@qwh 2023-11-07 阅读:81 评论:0
小样本学习是指使用极少量的训练数据来开发人工智能模型的各种算法和技术。少样本学习致力于让人工智能模型在接触相对较少的训练实例后识别和分类新数据。少样本训练与训练机器学习模型的传统方法形成鲜明对比,传统方法通常使用大量训练数据。小样本学习主要...

What is Few-Shot Learning.png


小样本学习是指使用极少量的训练数据来开发人工智能模型的各种算法和技术。少样本学习致力于让人工智能模型在接触相对较少的训练实例后识别和分类新数据。少样本训练与训练机器学习模型的传统方法形成鲜明对比,传统方法通常使用大量训练数据。小样本学习主要用于计算机视觉。

为了对小样本学习有更好的直觉,让我们更详细地研究这个概念。我们将研究少样本学习背后的动机和概念,探索一些不同类型的少样本学习,并涵盖高层少样本学习中使用的一些模型。最后,我们将研究一些小样本学习的应用程序。

什么是小样本学习?

“少样本学习”描述了用最少的数据训练机器学习模型的实践。通常,机器学习模型是根据大量数据进行训练的,数据越大越好。然而,由于几个不同的原因,小样本学习是一个重要的机器学习概念。

使用少样本学习的原因之一是它可以大大减少训练机器学习模型所需的数据量,从而减少标记大型数据集所需的时间。同样,在使用通用数据集创建不同样本时,少样本学习减少了为各种任务添加特定特征的需要。理想情况下,少量学习可以使模型更加稳健,并且能够基于较少的数据识别对象,从而创建更通用的模型,而不是标准的高度专业化模型。

小样本学习最常用于计算机视觉领域,因为计算机视觉问题的本质需要大量数据或灵活的模型。

子类别

“少样本”学习实际上只是一种使用很少训练样本的学习类型。由于您仅使用“一些”训练示例,因此少数样本学习的子类别也涉及使用最少量的数据进行训练。“一次性”学习是另一种类型的模型训练,涉及教导模型在仅看到该物体的一张图像后识别该物体。一次性学习和几次学习所使用的一般策略是相同的。请注意,术语“少样本”学习可以用作总括术语来描述使用很少数据训练模型的任何情况。

少样本学习的方法

大多数小样本学习方法可以分为三类之一:数据级方法、参数级方法和基于度量的方法。

数据级方法

少样本学习的数据级方法在概念上非常简单。为了在没有足够的训练数据时训练模型,您可以获取更多的训练数据。数据科学家可以使用多种技术来增加他们拥有的训练数据量。

类似的训练数据可以支持您正在训练分类器的确切目标数据。例如,如果您正在训练分类器识别特定种类的狗,但缺乏您尝试分类的特定物种的许多图像,则可以包含许多狗的图像,这将帮助分类器确定构成狗的一般特征。

数据增强可以为分类器创建更多训练数据。这通常涉及对现有训练数据应用转换,例如旋转现有图像,以便分类器从不同角度检查图像。GAN 还可以根据从您拥有的少数真实训练数据示例中学到的知识来生成新的训练示例。

参数级方法

元学习

少样本学习的一种参数级方法涉及使用一种称为“元学习”的技术。元学习涉及教导模型如何学习哪些特征在机器学习任务中很重要。这可以通过创建一种方法来调节如何探索模型的参数空间来实现。

元学习使用两种不同的模型:教师模型和学生模型。“教师”模型和“学生”模型。教师模型学习如何封装参数空间,而学生算法学习如何识别和分类数据集中的实际项目。换句话说,教师模型学习如何优化模型,而学生模型学习如何分类。教师模型的输出用于训练学生模型,向学生模型展示如何协商因训练数据太少而产生的大参数空间。因此,元学习中的“元”。

少样本学习模型的主要问题之一是它们很容易在训练数据上过度拟合,因为它们经常具有高维空间。限制模型的参数空间解决了这个问题,虽然可以通过应用正则化技术和选择适当的损失函数来实现,但使用教师算法可以显着提高少数样本模型的性能。

几次学习分类器模型(学生模型)将努力基于其提供的少量训练数据进行泛化,并且通过教师模型引导其通过高维参数空间,可以提高其准确性。这种通用架构被称为“基于梯度”的元学习器。

训练基于梯度的元学习器的完整过程如下:

  1. 创建基础学习者(教师)模型

  2. 在支持集上训练基础学习器模型

  3. 让基础学习器返回查询集的预测

  4. 根据分类误差产生的损失训练元学习者(学生)

元学习的变体

与模型无关的元学习是一种用于增强我们上面介绍的基于梯度的基本元学习技术的方法。

正如我们上面所讨论的,基于梯度的元学习器使用教师模型获得的先前经验来微调自身,并为少量训练数据提供更准确的预测。然而,从随机初始化的参数开始意味着模型仍然有可能过度拟合数据。为了避免这种情况,通过限制教师模型/基础模型的影响来创建“模型无关”元学习器。学生模型不是直接根据教师模型做出的预测的损失来训练学生模型,而是根据自己的预测损失进行训练。

对于训练与模型无关的元学习器的每一集:

  1. 创建当前元学习器模型的副本。

  2. 副本在基础模型/教师模型的帮助下进行训练。

  3. 该副本返回训练数据的预测。

  4. 计算损失用于更新元学习器。

度量学习

设计几次学习模型的度量学习方法通常涉及使用基本距离度量来在数据集中的样本之间进行比较。余弦距离等度量学习算法用于根据查询样本与支持样本的相似性对查询样本进行分类。对于图像分类器来说,这意味着仅根据表面特征的相似性对图像进行分类。选择图像支持集并将其转换为嵌入向量后,对查询集进行同样的操作,然后比较两个向量的值,分类器选择与向量化查询集值最接近的类。

更先进的基于度量的解决方案是“原型网络”。原型网络将聚类模型与上述基于度量的分类相结合,将数据点聚类在一起。与 K 均值聚类一样,聚类的质心是针对支持集中的类和查询集中的类计算的。然后应用欧几里德距离度量来确定查询集和支持集质心之间的差异,将查询集分配给更接近的支持集类。

大多数其他小样本学习方法只是上述核心技术的变体。

少样本学习的应用

小样本学习在数据科学的许多不同子领域都有应用,例如计算机视觉、自然语言处理、机器人、医疗保健和信号处理。

计算机视觉领域的少样本学习应用包括高效的字符识别、图像分类、对象识别、对象跟踪、运动预测和动作定位。用于少样本学习的自然语言处理应用包括翻译、句子完成、用户意图分类、情感分析和多标签文本分类。少样本学习可用于机器人领域,帮助机器人通过几次演示来学习任务,让机器人学习如何执行动作、移动和导航周围的世界。少样本药物发现是人工智能医疗保健的一个新兴领域。最后,少样本学习可用于声学信号处理,这是一种分析声音数据的过程,让人工智能系统仅基于几个用户样本或从一个用户到另一个用户的语音转换来克隆语音。


版权声明

本文仅代表作者观点,不代表本网站立场。
本文系作者授权本网站发表,未经许可,不得转载。

发表评论
热门文章
  • 与大型语言模型和机器人相关的资源、文章和观点列表

    与大型语言模型和机器人相关的资源、文章和观点列表
    我们收集了一些与大型语言模型(LLM)相关的文章,观点,视频和资源。其中一些链接还涵盖了其他生成模型。我们将定期更新此列表,以添加任何其他感兴趣的资源。本文是该系列的第三篇。(以前的版本在这里:v1 |v2.)什么是法学硕士以及它们是如何工作的什么是生成AI模型?,Kate Soule,来自IBM Technology的视频。大型语言模型简介,John Ewald,来自Google Cloud Tech的视频。什么是 GPT-4,它与 ChatGPT 有何不同?,A...
  • 在音频中将你的描述和内容分开模型AudioSep

    在音频中将你的描述和内容分开模型AudioSep
    语言查询音频源分离(LASS)是计算听觉场景分析(CASA)的新范例。LASS 旨在根据自然语言查询从音频混合物中分离出目标声音,这为数字音频应用程序提供了自然且可扩展的接口。最近的 LASS 工作尽管在特定源(例如乐器、有限类别的音频事件)上取得了有希望的分离性能,但无法在开放域中分离音频概念。在这项工作中,我们介绍了 AudioSep,这是一种使用自然语言查询进行开放域音频源分离的基础模型。我们在大规模多模态数据集上训练 AudioSep,并广泛评估其在音频事件分离、乐器...
  • 机器人烹饪方法YORI

    机器人烹饪方法YORI
    由加州大学洛杉矶分校的机器人与机械实验室一直在研究,既利用机器人友好的自动化,又利用人类技能,使事物味道正确,的烹饪机器人解决方案。   论文链接:https://spectrum.ieee.org/romela-cooking-robot...
  • 什么是边缘人工智能和边缘计算?

    什么是边缘人工智能和边缘计算?
    边缘人工智能是人工智能最引人注目的新领域之一,它的目标是让人们运行人工智能流程,而不必担心隐私或因数据传输而导致的速度减慢。边缘人工智能正在使人工智能得到更广泛、更广泛的使用,让智能设备无需访问云即可快速对输入做出反应。虽然这是 Edge AI 的快速定义,但让我们花点时间通过探索使其成为可能的技术并查看 Edge AI 的一些用例来更好地了解 Edge AI。什么是边缘计算?为了真正理解Edge AI,我们首先需要了解边缘计算,而理解边缘计算的最好方式就是将其与云计算进行对...
  • 新型的可重构机器人Tail STAR

    新型的可重构机器人Tail STAR
    Tail STAR是一种新型的可延展式机器人,具有双关节的尾巴,能够克服各种障碍。它可以用于搜索和救援应用。它可以穿过缝隙,爬过楼梯和人行道。它可以爬过比车轮半径大6倍的障碍物。视频: 论文:https://ieeexplore.ieee.org/document/10050748...