请联系Telegram电报飞机号:@hg4123

阿尔法狗算力是谷歌多少倍/&/阿尔法狗 算力

2024-09-01 19:12:32 赛事直播 闾丘雨琴

大家好,今天小编关注到一个比较有意思的话题,就是关于阿尔法狗算力是谷歌多少倍的问题,于是小编就整理了3个相关介绍阿尔法狗算力是谷歌多少倍的解答,让我们一起看看吧。

katago和阿尔法狗有什么区别?

katago是新出来的,在阿尔法狗的基础上,针对围棋对算法进一步优化的。阿尔法狗已经落后了。

抄作业的说学霸落后?
阿尔法狗出来之前,棋手们都得意围棋是机器难以战死的高级思维游戏,普遍性都说赶上人类需要一百年。
谷歌只不过借助阿尔法狗给它智能技术做广告,人家根本不把不赚钱围棋做久恋之地。战胜人类顶尖人物李世石后,有人不服又证明一次,就公开全部技术,宣布不再存在了。这才有雨后春笋一般出现的各国各种对弈AI。katago同样也属于阿尔法狗徒弟!
也许katago不亚于3年前阿尔法狗,但谷歌如果愿意,稍作个升级,又会碾压弟子。

下棋高手属于哪种技术在人工智能中的应用?

下棋高手就是普通的程序加强版而已,谷歌阿尔法狗打败了韩国李世石并不能说明计算机真的超越了人类,谷歌后面有超级计算机作为后盾,拷贝储存了比人类大脑多得多的数据,要知道即便是围棋高手他们一辈子积累的经验化数据也是无法和计算机相比拟的,所以电脑会下棋依然是大数据的应用而已,并不是机器真的能替代人类

阿尔法元自学成才,以100比0完爆阿尔法狗,你怎么看?

今天微信朋友群里被阿尔法元刷屏了,实在是一个令人震惊的消息。这两年谷歌就没消停过,2016年整出个阿尔法狗1.0版4比1击败李世石九段,让棋界为之震惊;2016年底和2017年初,又整出个Maste,对人类高手60连胜,后来得知这是阿尔法狗2.0版;2017年5月第二次“人机大战”,阿尔法狗2.0版3比0完胜柯洁九段。至此,“人机大战”已经没有任何意义,人类高手在阿尔法狗面前难求一胜。

但始料未及的是,谷歌又推出阿尔法元,而且,与阿尔法狗1.0版和2.0版不同的是,阿尔法元完全不靠人类棋手的棋谱学棋、成长,只需懂得围棋规则后即在短短时间里成长为超级高手,与Maste对战拥有压倒性的胜率,简言之,阿尔法元已经接近“围棋之神”了。

这只能说明:人工智能已经发展到了我们难以想象的地步,霍金担心的人工智能有一天会摧毁人类并非危言耸听,它已经可以不借助人类积累数千年的棋谱在短时间里成为第一高手。一如刘小光九段所言:人类思考千年不如它短短的一瞬。而且,它还是单机版,方便随身携带,人类如果利用它,那人类高手们根本没有争胜的必要。

其次,围棋的深度和难度通过阿尔法狗、阿尔法元证明,我们人类数千年掌握的不过是沧海一粟,应验了日本名誉棋圣藤泽秀行所说的:棋道一百,我只知七。如果阿尔法元能让阿尔法狗1.0版三个子的话,人类认识围棋连百分之七都不到。就像柯洁九段说的那样:自从有了阿尔法狗后,没有什么棋不能下。问题是,知道什么棋都可以下仅仅是第一步,距离“围棋之神”还远着呢,但阿尔法元却接近“围棋之神”了。

非常令人震惊的进展!2016年3月4:1战胜李世石之后,Deepmind就放出风声,要让AlphaGo从零知识开始学习下围棋,当时让人很有兴趣。这种完全靠自学习,不学习人类棋谱的AI,在学成以后会如何下围棋?会不会从天元开始下?能达到什么样的实力?肯定非常有趣。

阿尔法狗算力是谷歌多少倍/&/阿尔法狗 算力

所谓零知识自学习,就是一开始就随机扔子,就如上图这样黑白等于是瞎下。从这种随机策略开始,慢慢改进,而不是学习人类的棋谱先来个策略网络一开始就下得象模象样。

但是后来这个零知识自学习的事一直没下文。到2017年5月乌镇3:0战胜柯洁时,中间有研讨会,David Silver出来讲了不少,也完全没有提这个。我还写文章,说零知识自学习可能失败了,陷入局部陷阱棋力并不太高。特别是2017年8月AlphaGo打星际的论文出来,从0知识开始学习,但是能力非常差,连暴雪最弱的AI都打不过,也不会造兵,更是让人觉得零知识自学习可能不行,人类的先验知识应该还是挺重要的。

但是2017年10月18日Deepmind第二篇AlphaGo论文《Mastering the Game of Go without Human Knowledge》出来了!论文给出了出乎我的预料的结果:

1. 从0知识开始学习,是可以训练成功的!这个成功的程度是”目前所有Alphago版本中最厉害“。100:0战胜AlphaGo-Lee版本,90%胜率胜Master版本(也就是战胜柯洁的那个)。但是还没有”天下无敌“,还是有一定概率输给Master,等级分领先幅度还不算大。下图右是等级分数值。

2. 从0知识开始,训练速度非常快!3天就能战胜AlphaGo-Lee,21天能战胜Master。下图左是AlphaGo-Zero等级分随时间提升的曲线。训练没有在早期陷入局部陷阱。

3. 让人类还算欣慰的是,虽然AlphaGo Zero不需要人类棋谱,但是训练出来下得还是象人的。论文给出AlphaGo Zero的83局棋谱,没训练一会就下得有模有样了。也不是从中腹天元开始下,而是象人类一样先占边角。这说明人类的这些行棋方向还不算离谱。实际这也早有征兆,几个围棋AI都这样,如果一开始不下角部,下在中腹或者边上,给出的胜率就会下降。

4. 虽然Alphago Zero下得象人,但是很多招为什么这么下,连高手都应该是看不懂了。它到了什么境界,人类还需要领会。

从哲学意义上来说,这说明围棋这种人类看上去很复杂的游戏,在AI看来却是简单的。因为围棋的规则与目标是明确的,甚至是最简单的,围棋几乎是规则最简单的游戏,只需要两个行棋规则:气尽提子,禁止全同。胜负规则,也是行棋规则自然出来的,终局数子。

围棋的规则,让AI可以不需要人类,就判定棋局的结果,这样就完全不需要人类干预进行自学习了。学名叫“无监督”。也就是说围棋是个完全客观的游戏。而人类在这种客观游戏中,确实在几百上千年中加入了不少主观的东西,各种“定式”、“趣向”、“价值判断”,这都是非自然的,肯定有不少错误。人类的经验,对AI的自学习来说,到很高的水平上,应该反而是障碍了。

AlphaGo Zero说明,对于完全客观的东西,人类的主观经验很可能是有错的,要勇敢地怀疑与挑战。当然也有不少问题,是依赖人的主观判断的,那对AI又是不同的,需要“监督”,如识别文字 。

到此,以上就是小编对于阿尔法狗算力是谷歌多少倍的问题就介绍到这了,希望介绍关于阿尔法狗算力是谷歌多少倍的3点解答对大家有用。