β

这 6 个领域,学 AI 和机器学习的人需要关注

人人都是产品经理 8 阅读

人工智能领域在过去十年中取得了巨大进步,从自动驾驶汽车到语音识别及合成,这一点令人惊讶。那文章给学习AI和机器学习的人介绍一下这六个领域。

近期热门的话题, 人们开始重新讨论这一基本定义—— 什么是人工智能(AI)?

有些人将 AI 重新命名为「认知计算」或「机器智能」,而其他人则错误地将 AI 与「机器学习」概念进行交换。在某种程度上,这是因为 AI 不是一种技术,它实际上是一个由许多学科组成的广泛领域,从机器人学到机器学习。

我们大多数人都认为:人工智能的终极目标是为了建造能够完成任务和认知功能的机器,否则这些机器只能在人类的智能范围内从事相关工作。为了实现这一目标,机器必须能够自主学习这些能力,而不是让每个功能都被端到端地明确编程。

人工智能领域在过去十年中取得了巨大进步,从自动驾驶汽车到语音识别及合成,这一点令人惊讶。在这种背景下,人工智能已经成为越来越多公司和家庭的话题,他们不再将人工智能视为一种需要 20 年时间开发的技术,而是影响他们今天生活的东西。

事实上,流行的新闻报道几乎每天都会报道 AI 和技术巨头,阐述他们重要的长期人工智能策略。虽然一些投资者和老牌企业都渴望了解如何在这个新世界中攫取价值,但大多数人仍在摸索着想出这一切意味着什么。与此同时,各国政府正在努力应对自动化在社会中的影响(见奥巴马的告别演说)。

鉴于 AI 将影响整个经济,而这些讨论中的参与者代表了社会上观点的整体分布、理解水平以及构建或使用 AI 系统的经验程度。因此,对人工智能的讨论至关重要—包括由此产生的问题、结论和建议—必须以数据和现实为基础,而不是猜想,这点至关重要。

毕竟各种民间大V从公布的研究、科技新闻公告、投机评论和思想实验中大肆推断其中的含义,这太容易了(有时令人兴奋!)。

尤其值得注意人工智能的六个领域,在影响数字产品和服务的未来方面产生的作用。我将会阐述它们分别是什么、为什么它们很重要、它们今天如何被使用,并列出了从事这些技术的公司和研究人员的清单(并非详尽无遗)。

1、强化学习(RL)

RL 是一种通过试错来学习的范例,这种反复试错受到人类学习新任务的方式启发。在典型的 RL 设置中,智能体的任务是在数字环境中观察其当前状态,并采取最大化其已设置的长期奖励的累积的动作。 该智能体接收来自环境的每个动作结果的反馈,以便它知道该动作是否促进或阻碍其进展。

因此,RL 的 智能体必须平衡对其环境的探索,以找到获得奖励的最佳策略,并利用其发现的最佳策略来实现预期目标。这种方法在 Google DeepMind 的 Atari 游戏和 Go 中(https://www.youtube.com/watch?v=Ih8EfvOzBOY)非常流行。

RL 在现实世界中工作的一个例子,是优化能源效率以冷却 Google 数据中心。在此项目中,RL 使得该系统的冷却成本降低了 40%。在可以模拟的环境(例如视频游戏)中使用 RL 智能体的一个重要的原生优势是,训练数据可以以非常低的成本生成。这与监督式的深度学习任务形成鲜明对比,后者通常需要昂贵且难以从现实世界中获取的训练数据。

2、生成模型

与用于分类或回归任务的判别模型不同,生成模型学习训练样本的概率分布。通过从这种高维分布中抽样,生成模型输出与训练数据类似的新例子。这意味着,例如:在面部的真实图像上训练的生成模型,可以输出相似面部的新合成图像。有关这些模型如何工作的更多详细信息,请参阅 Ian Goodfellow 的 NIPS 2016 指导手册(https://arxiv.org/abs/1701.00160)。

他引入的架构,生成对抗网络(GAN),现在在研究领域特别热门,因为它们为无监督学习提供了一条道路。

对于 GAN,有两个神经网络:

对抗训练可以被认为是一种游戏,其中生成器必须迭代地学习如何从噪声创建图像,使得鉴别器不再能够将生成的图像与真实的图像区分开。该框架正在扩展到许多数据模式和任务。

3、记忆网络

为了让 AI 系统像我们一样在不同的环境中都能得到适用,他们必须能够不断学习新任务并记住如何在未来完成所有任务。然而,传统的神经网络通常不能进行这种连续的任务学习,这个缺点被称为灾难性遗忘。

之所以出现这种情况,是因为当网络随后经过训练以解决任务 B 时,网络中对于任务 A 来说很重要的权重会发生变化。

然而,有几种强大的架构可以赋予神经网络不同程度的记忆性。这些包括能够处理和预测时间序列的长短期记忆网络(递归神经网络的一种变体),DeepMind 的可微分神经计算机,它结合了神经网络和记忆系统,以便自己学习和导航复杂的数据结构,弹性权重合并算法。根据它们对先前看到的任务的重要程度,减慢对某些权重的学习,以及学习特定任务的模型之间的横向连接的渐进式神经网络,以从先前学习的网络中为新任务提取有用的特征。

4、从较少数据学习并构建更小的模型

深度学习模型值得注意的是需要大量的训练数据,才能达到最先进的性能。例如:ImageNet 大规模视觉识别挑战赛中,每支队伍需要挑战他们的图像识别模型,包含 120 万个手工标记 1000 个对象类别的训练图像。

如果没有大规模的训练数据,深度学习模型将无法收敛于其最佳设置,并且在语音识别或机器翻译等复杂任务上表现不佳。只有当单个神经网络用于端到端解决问题时,此数据要求才会增长。也就是说,将语音的原始录音作为输入并输出语音的文本转录。

这与使用多个网络形成对比,每个网络各自提供中间表示(例如:原始语音音频输入→音位→单词→文本转录输出,或来自直接映射到转向命令的相机的原始图像)。如果我们希望 AI 系统能够解决训练数据特别具有挑战性、成本高、敏感或耗时的任务,那么开发能够从较少的样本(即一次或零次学习)学习最佳解决方案的模型非常重要。

在对小型数据集进行培训时,难点包括过度拟合,处理异常值的困难,训练和测试之间数据分布的差异。另一种方法是通过使用统称为迁移学习的过程来迁移从先前任务获得的机器学习模型的知识来改进新任务的学习。

一个相关的问题是使用类似数量或明显更少的参数,构建具有最先进性能的较小的深度学习架构。优点包括更高效的分布式培训,因为数据需要在服务器之间进行通信,将新模型从云端导出到外围设备的带宽更少,以及部署到内存有限的硬件的可行性得到提高。

原标题:6 areas of AI and machine learning to watch closely

作者:Nathan Benaich。

翻译:Lamaric

校对:老周

整理:凡江

来源:https://www.leiphone.com/news/201809/vGv3vhFjoLJs5Qba.html

本文来源于人人都是产品经理合作媒体@雷锋网,作者@雷锋字幕组

题图来自Unsplash,基于CC0协议

作者:人人都是产品经理
产品经理、产品爱好者学习交流平台
原文地址:这 6 个领域,学 AI 和机器学习的人需要关注, 感谢原作者分享。

发表评论