第11章 开辟新战场
sp;所以,谁这么想了,而且第一个付诸实践了,就能捡到漏。当然了,这个漏也不是阿猫阿狗都能捡的,论证过程比较复杂。
通俗地说,你至少得是个世界名校的计算机和神经认知科学领域双博士,你才有资格在方向对的前提下,捡到这个漏。
连个盟校双博士都做不到的人,天大的机会白白送到他面前,他捡都捡不起来。
另外一方面,顾玩也深谙地球上人工智能发展的另一个重要契机——在深度学习和卷积神经网络发展起来之前,这条技术路线的认可度并不高,因为这条技术路线哪怕试水到04年,初步原理略微跑通了,学界也依然发现有问题:这个算法的缺点,是训练效率太低。
也就是说消耗的算力极大,而机器学习的进步速度其实很慢,还无法进行白盒逻辑解释,也就无法通过人工干预/
“教导”来让机器的学习速度加快。当时还有另外两三条技术路线,那些路线的优缺点正好与深度学习相反。
那些训练方法白盒化程度更高,也就是机器学习的决策过程的可解释性,人类更能理解,也就更容易干预,便于人类
“手把手教机器快速进步”。而这些算法的缺点,就是
“学习进化的上限比较低”(这里是笼统概括,实际科学原理比这个复杂得多。
但是写给外行人看,只能这样不太准确地类比一下了。)换句话说,要是人类继续被摩尔定律束缚、靠电脑cpu运算速度的技术提升,来满足训练算力的话,那么那些白盒度更高、更容易用少量算力就初步训练出成绩的人工智能学习路径,说不定就能在历史选择中胜出
“深度学习/卷积神经网络”这条技术路线了。但是,地球上偏偏在你2007~2009年,诞生了分布式架构算力设计。
这玩意儿,最初是出现在很多硅谷it公司,那些程序员嫌弃代码写好后、编译速度太慢,甚至觉得光靠专门的编译服务器都不够用,所以天马行空地创新出一个
“分布式编译架构”,让一家公司里所有同一局域网内的电脑,都可以加入这个架构,然后把编译任务拆分分配给所有电脑,让所有cpu共同分包编译。
分布式编译是从07年出现的,一两年之内,这玩意儿就成长成了
“云计算”。有了云计算之后,应用就很广泛,而云计算对人工智能训练的最大影响,就是某个智能在执行机器学习的时候,不用再受限于这个机器人本身那颗cpu的算力了——机器人自己的cpu不够快,可以接入云,用云上的几千几万台机器的cpu帮你一起算。
&
通俗地说,你至少得是个世界名校的计算机和神经认知科学领域双博士,你才有资格在方向对的前提下,捡到这个漏。
连个盟校双博士都做不到的人,天大的机会白白送到他面前,他捡都捡不起来。
另外一方面,顾玩也深谙地球上人工智能发展的另一个重要契机——在深度学习和卷积神经网络发展起来之前,这条技术路线的认可度并不高,因为这条技术路线哪怕试水到04年,初步原理略微跑通了,学界也依然发现有问题:这个算法的缺点,是训练效率太低。
也就是说消耗的算力极大,而机器学习的进步速度其实很慢,还无法进行白盒逻辑解释,也就无法通过人工干预/
“教导”来让机器的学习速度加快。当时还有另外两三条技术路线,那些路线的优缺点正好与深度学习相反。
那些训练方法白盒化程度更高,也就是机器学习的决策过程的可解释性,人类更能理解,也就更容易干预,便于人类
“手把手教机器快速进步”。而这些算法的缺点,就是
“学习进化的上限比较低”(这里是笼统概括,实际科学原理比这个复杂得多。
但是写给外行人看,只能这样不太准确地类比一下了。)换句话说,要是人类继续被摩尔定律束缚、靠电脑cpu运算速度的技术提升,来满足训练算力的话,那么那些白盒度更高、更容易用少量算力就初步训练出成绩的人工智能学习路径,说不定就能在历史选择中胜出
“深度学习/卷积神经网络”这条技术路线了。但是,地球上偏偏在你2007~2009年,诞生了分布式架构算力设计。
这玩意儿,最初是出现在很多硅谷it公司,那些程序员嫌弃代码写好后、编译速度太慢,甚至觉得光靠专门的编译服务器都不够用,所以天马行空地创新出一个
“分布式编译架构”,让一家公司里所有同一局域网内的电脑,都可以加入这个架构,然后把编译任务拆分分配给所有电脑,让所有cpu共同分包编译。
分布式编译是从07年出现的,一两年之内,这玩意儿就成长成了
“云计算”。有了云计算之后,应用就很广泛,而云计算对人工智能训练的最大影响,就是某个智能在执行机器学习的时候,不用再受限于这个机器人本身那颗cpu的算力了——机器人自己的cpu不够快,可以接入云,用云上的几千几万台机器的cpu帮你一起算。
&