品牌  【直播】  50强   整机  ​【联盟】  机构  【视界】  展会  招聘  云服务          微博   公众号AIrobot518 
【​今日焦点
【行业动态】
NEWS / 新闻中心
机器究竟如何学习?详解人工智能的“左右互搏术”
来源:解放军报 | 作者:解放军报 | 发布时间: 931天前 | 5085 次浏览 | 分享到:
深度学习的概念,最早是由杰弗里·辛顿在2006年提出的。这是一门用于学习和利用“深度”人工神经网络的机器学习技术。作为人工智能领域中最热的研究方向,深度学习迅速受到学术界和工业界的关注。

从能量角度看,摩尔定律反映出了人类在单位能耗下,所能完成信息处理能力的大幅提升。而这正是实现人工智能的基础所在。

从某种意义上说,不仅是深度学习技术,今天的人工智能都是靠算力成就的。

人工智能的崛起,有3个技术要素:一是它解决了可计算问题,即在算法上的突破;二是它积累了大量数据,形成了可学习的原材料;三是摩尔定律所推测的,处理能力得到持续提高。

算力是推动深度学习的利器。计算能力越强,同样时间内积累的经验就越多、迭代速度也越快,深度学习的性能也就越高。

不断进化的深度学习之道

1997年,“深蓝”在国际象棋比赛中战胜加里·卡斯帕罗夫;2016年,AlphaGo在围棋比赛中战胜李世石。

虽然这两种人工智能系统都学会了下棋,但教授它们的方式以及它们如何比赛,则大相径庭。

“深蓝”的核心评估函数对给定盘面进行数字“排序”,而且函数是手工设计的。这种比赛风格,实际上是一种“蛮力”。“深蓝”将其评估函数应用到许多备选的未来状态,对每个棋手预先搜索七八步,以2亿次/秒的速度进行局面评估。

AlphaGo的学习方法则迥然不同。它通过一种双管齐下的深度学习方法“学习”,用“价值网络”评估局面,用“策略网络”选择走棋。

深度学习神经网络的训练,一部分通过使用人类高手对弈数据集的监督学习进行(总出棋数约为3000万步),另一部分通过对自我对弈非监督强化学习进行(模拟成千上万场随机比赛)。它不使用预测搜索,走棋是单个“围棋局面”整体评估的结果。

2017年5月,AlphaGo的升级版AlphaGo Zero,与世界排名第一的围棋冠军柯洁对战,结果以3∶0的总比分完胜。

令人震惊的是,AlphaGo Zero一开始并没接触过人类棋谱。它使用了新的强化学习方法,从单一神经网络开始,通过神经网络强大的搜索算法,进行自我对弈训练。随着自我对弈次数的增加,神经网络逐渐调整,提升预测下一步的能力,最终成为具备超强棋力的“选手”。更为厉害的是,随着训练的深入,AlphaGo Zero还独立发现了游戏规则,走出了新策略,为围棋这项古老游戏带来了新见解。

目前,深度学习在许多领域取得了技术性突破,并展示了极佳效果。然而,它仍存在一些局限:理论研究缺乏、无监督学习能力弱、缺少逻辑推理和记忆能力等。

深度学习对未来社会发展具有重要意义,需要不断深入研究,从多方向多角度更全面地开发深度学习的潜在价值。面对复杂的战场,以深度学习为代表的人工智能技术也已逐步渗透到军事领域,深刻影响着人类战争。

可以推断,未来作为“左右互搏术”的深度学习,必将继续升级演化,开启更高深的境界。


免责声明:本文来自解放军报,我们非常尊重原作者的著作权,如涉及版权问题,请及时联系本公众号小编,谢谢!


​​​​第六期“全国移动机器人行业巡回调研活动”合作商招募中

​报名热线:400-0756-518​​​​

活动时间:2023-09-01至11-30

  • 世界展会正当时 | 牧星智能携创新性产品亮相KOREA MAT 2024
  • 优必选|全球首个!人形机器人“天工”跑起来了,时速6km/h
  • 未来机器人2024第一期生态伙伴赋能交流会,助力伙伴共同成长
  • 宇锋智能与中国科大现代物流与供应链安徽省重点实验室(智库)签署技术合作协议
  • 启新程·塑未来 | 艾利特机器人高光亮相2024国际橡塑展!
  • 优艾智合与优傲机器人达成全球战略合作
  • 井松高举升叉车AGV助力模具库自动化管理
  • 易行机器人软硬本全生态战略升级