加载中 ...
首页 > 财经 > 焦点新闻 > 正文

2020年人工智能将如何发展?机器学习领域顶尖人物预测有这些趋势

2020-01-03 14:05:15 来源:前瞻网

2020年人工智能将如何发展?机器学习领域顶尖人物预测有这些趋势

人工智能不再准备着有朝1日改变世界,而是正在改变世界。在我们买入新的1年和10年之际,VentureBeat约请了人工智能领域最敏锐的1些人,重新审视了2019年获得的成绩,并展望了机器学习在2020年将如何成熟。

每一个人都有对未来1年的预测,但这些人——在人工智能领域具有权威的个人——正在塑造今天的未来,他们珍视科学寻求,他们的经历为其赢得了信誉。虽然1些人预测在诸如半监督学习和神经符号方法等子领域会有进步,但几近所有ML领域的杰出人士都表示,在2019年基于Transformer的自然语言模型方面获得了巨大进步,并预计在脸部辨认等技术方面会继续存在争议。他们还希望看到人工智能领域发展出比准确性更有价值的东西。

Soumith Chintala

PyTorch的负责人、首席工程师和创建者

不管你如何评价,PyTorch是现今世界上最受欢迎的机器学习框架。 PyTorch是2002年引入的Torch开源框架的衍生产品,于2015年可用,并且在扩大和库中稳步增长。

今年秋季,Facebook发布了带有量化和TPU支持的PyTorch 1.3,和深度学习可解释性工具Captum和PyTorch Mobile。还有诸如PyRobot和PyTorch Hub之类的东西,用于同享代码并鼓励ML从业者支持可重复性。

今年秋季在PyTorch开发大会上,Chintala在与VentureBeat的1次对话中表示,他在2019年的机器学习中几近没有突破性进展。

“实际上,我认为我们没有首创性的东西……基本上是从Transformer开始的。我们的ConvNets在2012年到达黄金时段,而Transformer在2017年左右。这是我的个人看法。”他说。

他继续称DeepMind的AlphaGo在强化学习方面的贡献是首创性的,但是他说,这些成果很难利用到现实世界的实际任务中。

Chintala还认为,机器学习框架(如PyTorch和谷歌的TensorFlow)的发展已改变了研究人员探索思想和展开工作的方式,这些机器学习框架在现今的ML从业者中广受欢迎。

他说:“从某种意义上说,这是1个突破,它使他们移动的速度比之前快了1两个数量级。”

今年,谷歌和Facebook的开源框架引入了量化,以提高模型训练的速度。在未来的几年中,Chintala希望PyTorch的JIT编译器和Glow等神经网络硬件加速器的重要性和采取率“爆炸式增长”。

“借助PyTorch和TensorFlow,你已看到了框架的融会。出现量化的缘由,和其他1系列较低级别的效力,是由于下1场战争是框架的编译器——XLA,TVM,PyTorch具有Glow,许多创新正在等待产生。”他说,“在接下来的几年中,你将看到……如何更智能地量化,如何更好地融会,如何更有效地使用GPU,和如何自动为新硬件进行编译。”

像大多数其他行业领导者那样,Chintala预测AI社区将在2020年之前将更多的价值放在AI模型性能上,而不单单是准确性,并开始将注意力转向其他重要因素,例如创建模型所需的权重,如何向人类解释输出,和AI如何更好地反应人们想要建立的社会类型。

“如果思考1下过去的5、6年,我们只是关注准确性,而原始数据如英伟达的模型是不是更准确? Facebook的模型更准确吗?"”他说, “我实际上认为2020年将是我们开始(以更复杂的方式)进行思考的1年,如果你的模型……没有良好的互操作性机制(或满足其他标准),你的模型是不是比现在精确3%其实不重要。”

塞莱斯特·基德(Celeste Kidd)

加州大学伯克利分校的发展心理学家

塞莱斯特·基德(Celeste Kidd)是加州大学伯克利分校基德实验室的主任,她和她的团队在这里探索孩子们的学习方式。他们的见解可以帮助神经网络的创建者,这些人正试图以1种与养育孩子差不多的方式来训练模型。

她说:“人类婴儿没有被标记的数据集,但它们管理得很好,对我们来讲重要的是要了解这类情况。”

让基德在2019年感到惊讶的1件事是,神经网络创建者的数量马马虎虎救贬低了自己或其他研究人员的工作,由于他们没法做婴儿可以做的事情。

她说,当你将婴儿的行动平均化时,您会看到有证据表明他们了解某些东西,但他们绝对不是完善的学习者,而这类谈话对婴儿的能力描绘得过于乐观。

她说:“人类婴儿很棒,但他们犯了很多毛病,而且我常常看到人们随意进行的许多比较,都是把婴儿行动在人口层面上理想化了。” “我认为,对目前了解的内容与你接下来想要了解的内容之间的联系,人们极可能会愈来愈有辨别力。”

在人工智能中,“黑匣子”这个词已存在多年了。它曾用来批评神经网络缺少可解释性,但基德认为2020年可能意味着神经网络不可解释的观念的终结。

她说:“黑匣子的论点是虚假的……大脑也是黑匣子,我们在理解大脑如何工作方面获得了很大进步。”

在揭开这类对神经网络的认识的神秘面纱时,基德研究了像麻省理工学院- IBM沃森人工智能实验室(MIT-IBM Watson AI Lab)履行主任奥德·奥利瓦(Aude Oliva)这样的人的工作。

“我们当时在谈论这个问题,我说了有关该系统是黑匣子的事情,她公道地谴责了我,说他们固然不是黑匣子。固然,你可以将它们分解并将它们拆开,看看它们如何工作并对其进行实验,就像我们为理解认知所做的1样。”基德说。

上个月,基德在神经信息处理系统(NeurIPS)会议上发表了开幕式主题演讲,这是世界上最大的年度AI研究会议。她的演讲重点关注人脑如何固守固执的信心,注意力系统和贝叶斯统计。

她说,信息传递的“舒适区”介于1个人之前的兴趣和理解与他们感到惊讶的东西之间。人们偏向于较少接触那些过于使人惊讶的内容。

然后她说,不存在中立的技术平台,因而她把注意力转向内容推荐系统的制造商如何操纵人们的信心。为了寻求最大程度的参与而构建的系统会对人们如何构成信心和观点产生重大影响。

基德在演讲中谈到了机器学习中男性的误解,即与女性同事独自1人会致使性骚扰指控并结束男性职业。她说,这类误解反而会侵害女性在该领域的职业。

由于在罗切斯特大学发表有关性行动不真个言论,基德与其他女性1起被评为2017年度“年度人物”,这些女性帮助实现了我们现在所说的“同等对待妇女运动”。当时,基德认为大声疾呼将结束她的职业生涯。

她希望在2020年看到人们愈来愈意想到技术工具和技术决策对现实生活的影响,并谢绝认为工具制造商对人们的使用行动不负责任的观点。

她说:“我听到很多人试图说"‘我不是真谛的审判人’来为自己辩解。” “我认为必须提高对这是不诚实立场的认识。”

“在1个社会,特别是作为使用这些工具的人们,我们真的需要直接意想到随之而来的责任。”

杰夫·迪恩(Jeff Dean)

谷歌AI总监

迪恩领导Google AI已有近两年时间,但他已在谷歌工作了210年,是谷歌初期搜索和散布式网络算法的架构师,也是Google Brain的初期成员。

迪恩上个月在NeurIPS上与VentureBeat进行了交谈,在那里他就ASIC半导体设计的机器学习和AI社区应对气候变化的方式进行了演讲,他说这是我们时期最重要的问题。在关于气候变化的讨论中,迪恩讨论了AI可以努力成为零碳行业和AI可以用来帮助改变人类行动的想法。

他预计到2020年,多模式学习领域将获得进展,这是1种依托多种媒体进行训练的AI,而多任务学习则触及旨在1次完成多个任务的网络。

毫无疑问,2019年最大的机器学习趋势之1是基于Transformer的自然语言模型的延续增长和分散,此前模型Chintala被称为最近几年来人工智能最大的突破之1。 谷歌于2018年开源了基于Transformer的模型BERT。根据GLUE排行榜,今年发布的许多性能最高的模型(例如Google的XLNet,微软的MT-DNN和Facebook的RoBERTa)都基于Transformer。公司发言人告知VentureBeat,XLNet 2将于本月晚些时候发布。

迪恩指出了已获得的进展,他说:“ ...我认为全部研究线程在实际产生机器学习模型方面非常富有成效,[现在让我们]做的机器学习模型比过去能够完成的复杂很多。但是他补充说,仍有增长空间。“我们依然希望能够创建更多情境的模型。像现在这样,BERT和其他模型可以很好地处理数百个单词,但不能作为处理上下文的10,000个单词。因此,这是[有趣的方向。”

迪恩说,他希望少强调1些最新技术,而偏向于创建更强大的模型。

Google AI还将努力推动新的举措,例如Everyday Robot,这是1个于2019年11月推出的内部项目,旨在制造能够在家庭和工作场所完成常见任务的机器人。

Anima Anandkumar

英伟达机器学习研究总监

Anandkumar在担负AWS首席科学家后加入了GPU制造商英伟达。在英伟达,人工智能研究在多个领域进行,从医疗保健的联合学习到自动驾驶,超级计算机和图形学。

英伟达和Anandkumar在2019年的重点领域之1是强化学习的仿真框架,这些框架愈来愈受欢迎且成熟。

在2019年,我们看到了英伟达的Drive autonomus驾驶平台和Isaac机器人摹拟器的兴起,和从摹拟和生成对抗网络或GAN生成综合数据的模型的兴起。

去年还迎来了AI的兴起,例如StyleGAN(1种可使人们分辨不出自己看到的是计算机生成的人脸还是真实的人的网络)和GauGAN(可以用画笔生成风景的网络)。 StyleGAN2上个月首次亮相。

GAN是可以模糊现实界限的技术,Anandkumar认为,它们可以帮助AI社区尝试解决的主要挑战,例如抓握机械臂和自动驾驶。

Anandkumar还希望未来1年通过迭代算法、自我监督和训练模型的自训练方法获得进展,这些模型可以通过对未标记数据进行自我训练来改进。

“我认为各种不同的迭代算法都是未来,由于如果你只做1个前馈网络,那末鲁棒性就成为问题。”她说:“如果你尝试进行屡次迭代,并根据所需的数据类型或精度要求对迭代进行调剂,那末实现这1目标的机会就更多了。”

Anandkumar看到了2020年AI社区面临的众多挑战,例如需要与各领域专家1道创建专门针对特定行业的模型。决策者、个人和AI社区也将需要解决代表性问题,和确保用于训练模型的数据集能够涵盖不同人群的挑战。

她说:“我认为[脸部辨认问题]很容易掌握,但是在很多[其他领域]……人们没成心识到使用数据存在隐私问题。”

Anandkumar说,脸部辨认得到了最大的关注,由于很容易理解脸部辨认如何侵犯个人隐私,但是AI社区在2020年还面临许多其他道德问题。

“我们将在数据搜集方式和使用方式方面进行愈来愈严格的审查。这类情况正在欧洲产生,但是在美国,我们肯定会看到更多这样的情况,而且出于正确的理由,我们会看到更多这样的情况,比如国家运输安全委员会和联邦运输管理局。”她说。

在Anandkumar看来,2019年的1大欣喜是文本生成模型的发展速度。

“ 2019年是语言模型之年,对吗?现在,我们第1次在段落长度上到达了更加联贯的文本生成,这在之前是不可能的,但现在已很好了。”Anandkumar说。

2019年8月,英伟达推出了Megatron自然语言模型。Megatron具有80亿个参数,是全球最大的基于Transformer的AI模型。 Anandkumar说,她对人们开始将模型表征为具有个性或字符的方式感到惊讶,并且她希望看到更多针对特定行业的文本模型。

“我们还没有到达产生对话的阶段,这类对话是互动的,可以跟踪并进行自然的对话。所以我认为,到2020年,在这个方向上将会有更多认真的尝试。”她说。

例如,开发用于控制文本生成的框架要比开发用于辨认人或对象的图象的框架更具挑战性。文本生成模型还可能面临例如为神经模型定义事实的挑战。

最后,Anandkumar说,她很高兴看到基德在NeurIPS上的演讲取得了起立鼓掌,并且被机器学习社区中愈来愈成熟和包容的迹象所鼓舞。

“我觉得现在是分水岭。” 她说, “1开始乃至很难做些小改动,然后大坝就破裂了。我希望是这样,由于在我看来,我希望保持这类势头,并进行更大的结构改革,并使所有小组,这里的每一个人都蓬勃发展。”

达里奥·吉尔(Dario Gil)

IBM研究总监

吉尔领导的1组研究人员积极其白宫和世界各地的企业提供咨询服务。他认为,2019年的重大奔腾包括围绕生成模型的进步,和生成可信语言的质量不断提高。

他预测,在下降精度的体系结构上,更有效的培训将继续获得进展。更高效的AI模型的开发是NeurIPS的重点,IBM Research在此引入了具有8位精度模型的深度学习技术。

他说:“我们用现有的硬件和GPU架构来训练深度神经网络,其效力依然很低。”因此,对这个问题进行根本性的反思是非常重要的。我们必须提高人工智能的计算效力,这样我们才能做得更多。”

吉尔援用研究表明,对机器学习训练的需求每3个半月翻1番,这比摩尔定律所预测的增长快很多。

吉尔也对AI如何帮助加速科学发现感到兴奋,但是IBM Research将主要专注于机器学习的神经符号方法。

吉尔希望AI从业者和研究人员将专注于准确性之外的指标,以斟酌生产中部署的模型的价值。将该领域转向构建受信任的系统,而不是把准确性放在首位,这将是继续采取AI的中心支柱。

“社区中有些人可能会继续说,‘不用担心,只要提供准确性。没关系,人们会习惯这个东西有点像黑匣子,”或他们会提出这样的论点,即人们有时不会对我们做出的某些决定产生解释。我认为,非常重要的1点是,我们要集中社区的知识气力,在此方面做得更好。人工智能系统不能成为关键任务利用程序的黑匣子。”

吉尔相信要摆脱这样的观念,即只有少数机器学习向导才能做到AI,以确保更多的具有数据科学和软件工程技能的人采取AI。

他说:“如果我们把它作为1个神秘领域,那就是AI的领域,只对从事这方面研究的博士开放,它其实不能真正增进人工智能的利用。”

在来年,吉尔对神经符号AI特别感兴趣。 IBM将寻求神经符号方法来增强诸如几率性编程之类的功能,其中AI将学习如何操作程序和可同享其决策背后缘由的模型。

他说:“通过采取这类混合的方法,1种新确当代方法,通过这些神经符号方法,把学习和推理结合在1起。在这类方法中,符号维度嵌入到学习程序中。我们已证明,你可用所需数据的1小部份来学习。”“由于你学了1个程序,你终究得到了1些可解释的东西,并且由于你有了1些可解释的东西,你得到了1些更可信的东西。”

他说,公平性,数据完全性和数据集选择等问题将继续引发人们的广泛关注,“与生物辨认技术有关的任何事情也将如此”。脸部辨认得到了很多关注,但这仅仅是开始。语音数据和其他情势的生物辨认技术将愈来愈具有敏感性。他继续援用了哥伦比亚大学教授Rafael Yuste的话,他从事神经技术研究,并正在探索提取视觉皮层上神经模式的方法。

吉尔说:“我以这个例子为例,所有与身份、人的生物特点和人工智能在分析方面获得的进步,将继续处于前沿和中心位置。”

除神经符号和常识推理(MIT-IBM沃森实验室的1项旗舰计划外),吉尔于2020年表示,IBM Research还将探索AI量子计算,和AI摹拟硬件,而不单单是下降精度的架构。

总结

机器学习正在继续塑造商业和社会,VentureBeat采访的研究人员和专家看到了1些行将出现的趋势:

随着Transformers推动了巨大的奔腾,自然语言模型的进步是2019年的主要故事。在2020年寻觅更多基于BERT和基于Transformer的模型的变体。

人工智能行业应当寻觅方法来评估模型输出的准确性。

诸如半监督学习,机器学习的神经符号方法之类的方法和诸如多任务和多模式学习之类的子领域可能会在明年出现。

与生物统计数据(如语音记录)相干的伦理挑战可能会继续引发争议。

量化之类的编译器和方法可能会在诸如PyTorch和TensorFlow之类的机器学习框架中作为优化模型性能的方式而流行。

“掌阅财经”的新闻页面文章、图片、音频、视频等稿件均为自媒体人、第三方机构发布或转载。如稿件涉及版权等问题,请与

我们联系删除或处理,客服邮箱99686143@qq.com,稿件内容仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同

其观点或证实其内容的真实性。

  • 声音提醒
  • 60秒后自动更新
  • 中国8月CPI年率2.3%,预期2.1%,前值2.1%。中国8月PPI年率4.1%,预期4.0%,前值4.6%。

    08:00
  • 【统计局解读8月CPI:主要受食品价格上涨较多影响】从环比看,CPI上涨0.7%,涨幅比上月扩大0.4个百分点,主要受食品价格上涨较多影响。食品价格上涨2.4%,涨幅比上月扩大2.3个百分点,影响CPI上涨约0.46个百分点。从同比看,CPI上涨2.3%,涨幅比上月扩大0.2个百分点。1-8月平均,CPI上涨2.0%,与1-7月平均涨幅相同,表现出稳定态势。

    08:00
  • 【 统计局:从调查的40个行业大类看,8月价格上涨的有30个 】统计局:从环比看,PPI上涨0.4%,涨幅比上月扩大0.3个百分点。生产资料价格上涨0.5%,涨幅比上月扩大0.4个百分点;生活资料价格上涨0.3%,扩大0.1个百分点。从调查的40个行业大类看,价格上涨的有30个,持平的有4个,下降的有6个。 在主要行业中,涨幅扩大的有黑色金属冶炼和压延加工业,上涨2.1%,比上月扩大1.6个百分点;石油、煤炭及其他燃料加工业,上涨1.7%,扩大0.8个百分点。化学原料和化学制品制造业价格由降转升,上涨0.6%。

    08:00
  • 【日本经济已重回增长轨道】日本政府公布的数据显示,第二季度经济扩张速度明显快于最初估值,因企业在劳动力严重短缺的情况下支出超预期。第二季度日本经济折合成年率增长3.0%,高于1.9%的初步估计。经济数据证实,该全球第三大经济体已重回增长轨道。(华尔街日报)

    08:00
  • 工信部:1-7月我国规模以上互联网和相关服务企业完成业务收入4965亿元,同比增长25.9%。

    08:00
  • 【华泰宏观:通胀短期快速上行风险因素主要在猪价】华泰宏观李超团队点评8月通胀数据称,今年二、三季度全国部分地区的异常天气(霜冻、降雨等)因素触发了粮食、鲜菜和鲜果价格的波动预期,但这些因素对整体通胀影响有限,未来重点关注的通胀风险因素仍然是猪价和油价,短期尤其需要关注生猪疫情的传播情况。中性预测下半年通胀高点可能在+2.5%附近,年底前有望从高点小幅回落。

    08:00
  • 【中国信通院:8月国内市场手机出货量同比环比均下降】中国信通院公布数据显示:2018年8月,国内手机市场出货量3259.5万部,同比下降20.9%,环比下降11.8%,其中智能手机出货量为3044.8万部,同比下降 17.4%; 2018年1-8月,国内手机市场出货量2.66亿部,同比下降17.7%。

    08:00
  • 土耳其第二季度经济同比增长5.2%。

    08:00
  • 乘联会:中国8月份广义乘用车零售销量176万辆,同比减少7.4%。

    08:00
  • 央行连续第十四个交易日不开展逆回购操作,今日无逆回购到期。

    08:00
  • 【黑田东彦:日本央行需要维持宽松政策一段时间】日本央行已经做出调整,以灵活地解决副作用和长期收益率的变化。央行在7月政策会议的决定中明确承诺将利率在更长时间内维持在低水平。(日本静冈新闻)

    08:00
  • 澳洲联储助理主席Bullock:广泛的家庭财务压力并非迫在眉睫,只有少数借贷者发现难以偿还本金和利息贷款。大部分家庭能够偿还债务。

    08:00
  • 【 美联储罗森格伦:9月很可能加息 】美联储罗森格伦:经济表现强劲,未来或需采取“温和紧缩”的政策。美联储若调高对中性利率的预估,从而调升对利率路径的预估,并不会感到意外。

    08:00
  • 美联储罗森格伦:经济表现强劲,未来或需采取“温和紧缩”的政策。美联储若调高对中性利率的预估,从而调升对利率路径的预估,并不会感到意外。

    08:00
  • 美联储罗森格伦:鉴于经济表现强劲,未来或需采取“温和紧缩的”政策。

    08:00