您当前的位置: 首页 > 

从零开始实现 AlphaGo(一)

蔚1 发布时间:2019-02-20 23:30:05 ,浏览量:4

围棋作为人类的娱乐游戏中复杂度最高的一个,它横竖各有 19 条线,共有 361 个落子点,状态空间高达 10 的 171 次方 $(注:宇宙中的原子总数是 10 的 80 次方,即使穷尽整个宇宙的物质也不能存下围棋的所有可能性),但是谷歌的 AlphaGo 做到了!

作为 AlphoGo 的带头人,David Sliver 及其团队可以说盛名远扬,其以前沿的目光发表了人工智能的终极目标是:AI = DL(Deep Learning)+ RL(Reinforcement Learning)。

这篇 Chat 主要带领大家一起:

  1. 了解 AlphaGo 的最基础原理:强化学习的概念;
  2. 了解强化与机器学习之间的联系与区别;
  3. 学习强化学习的组成和模型。

未来的 Chat 中我们会由浅入深,最终编程实现 AlphaGo Zero!

阅读全文: http://gitbook.cn/gitchat/activity/5c60dffd0637e737e99e9d42

您还可以下载 CSDN 旗下精品原创内容社区 GitChat App ,阅读更多 GitChat 专享技术内容哦。

FtooAtPSkEJwnW-9xkCLqSTRpBKX

关注
打赏
1688896170
查看更多评论

蔚1

暂无认证

  • 4浏览

    0关注

    4645博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文
立即登录/注册

微信扫码登录

0.0875s