品牌  【直播】  50强   整机  ​【联盟】  机构  【视界】  展会  招聘  云服务          微博   公众号AIrobot518 
【​今日焦点
【行业动态】
NEWS / 新闻中心
机器究竟如何学习?详解人工智能的“左右互搏术”
来源:解放军报 | 作者:解放军报 | 发布时间: 1344天前 | 7247 次浏览 | 分享到:
深度学习的概念,最早是由杰弗里·辛顿在2006年提出的。这是一门用于学习和利用“深度”人工神经网络的机器学习技术。作为人工智能领域中最热的研究方向,深度学习迅速受到学术界和工业界的关注。

从能量角度看,摩尔定律反映出了人类在单位能耗下,所能完成信息处理能力的大幅提升。而这正是实现人工智能的基础所在。

从某种意义上说,不仅是深度学习技术,今天的人工智能都是靠算力成就的。

人工智能的崛起,有3个技术要素:一是它解决了可计算问题,即在算法上的突破;二是它积累了大量数据,形成了可学习的原材料;三是摩尔定律所推测的,处理能力得到持续提高。

算力是推动深度学习的利器。计算能力越强,同样时间内积累的经验就越多、迭代速度也越快,深度学习的性能也就越高。

不断进化的深度学习之道

1997年,“深蓝”在国际象棋比赛中战胜加里·卡斯帕罗夫;2016年,AlphaGo在围棋比赛中战胜李世石。

虽然这两种人工智能系统都学会了下棋,但教授它们的方式以及它们如何比赛,则大相径庭。

“深蓝”的核心评估函数对给定盘面进行数字“排序”,而且函数是手工设计的。这种比赛风格,实际上是一种“蛮力”。“深蓝”将其评估函数应用到许多备选的未来状态,对每个棋手预先搜索七八步,以2亿次/秒的速度进行局面评估。

AlphaGo的学习方法则迥然不同。它通过一种双管齐下的深度学习方法“学习”,用“价值网络”评估局面,用“策略网络”选择走棋。

深度学习神经网络的训练,一部分通过使用人类高手对弈数据集的监督学习进行(总出棋数约为3000万步),另一部分通过对自我对弈非监督强化学习进行(模拟成千上万场随机比赛)。它不使用预测搜索,走棋是单个“围棋局面”整体评估的结果。

2017年5月,AlphaGo的升级版AlphaGo Zero,与世界排名第一的围棋冠军柯洁对战,结果以3∶0的总比分完胜。

令人震惊的是,AlphaGo Zero一开始并没接触过人类棋谱。它使用了新的强化学习方法,从单一神经网络开始,通过神经网络强大的搜索算法,进行自我对弈训练。随着自我对弈次数的增加,神经网络逐渐调整,提升预测下一步的能力,最终成为具备超强棋力的“选手”。更为厉害的是,随着训练的深入,AlphaGo Zero还独立发现了游戏规则,走出了新策略,为围棋这项古老游戏带来了新见解。

目前,深度学习在许多领域取得了技术性突破,并展示了极佳效果。然而,它仍存在一些局限:理论研究缺乏、无监督学习能力弱、缺少逻辑推理和记忆能力等。

深度学习对未来社会发展具有重要意义,需要不断深入研究,从多方向多角度更全面地开发深度学习的潜在价值。面对复杂的战场,以深度学习为代表的人工智能技术也已逐步渗透到军事领域,深刻影响着人类战争。

可以推断,未来作为“左右互搏术”的深度学习,必将继续升级演化,开启更高深的境界。


免责声明:本文来自解放军报,我们非常尊重原作者的著作权,如涉及版权问题,请及时联系本公众号小编,谢谢!


​​​​第六期“全国移动机器人行业巡回调研活动”合作商招募中

​报名热线:400-0756-518​​​​

活动时间:2023-09-01至11-30

  • 中国铁建|大国基建挺进“无人区”
  • 河南省委书记刘宁莅临卫华调研
  • 海康威视在江苏,与“城市生命线守护者”们共探安全数智化新路径
  • 合肥搬易通MiMA出席行业标准《无人驾驶工业车辆》(初稿)讨论会
  • 荣耀见证 | 威迈尔VMR荣获「具身智能先锋奖」,技术创新再获行业认可
  • 联核科技与摩尔芯光签署战略合作协议
  • AI赋能 智造未来——迈睿机器人智能物流解决方案助力长沙制造业升级
  • 力生智能探厂实拍:新晋移动机器人,在500强大厂当“配送员”