人工智能网致力于为中国广大企业、企业家和商界、经济界人士,以及全球华人经济圈提供实时、严谨、专业的财经、产业新闻和信息资讯媒体。

当前位置:人工智能网 > 智能终端 > 暴力计算,是人工智能的捷径么?

暴力计算,是人工智能的捷径么?

来源:互联网作者:王林更新时间:2021-03-31 06:48:56阅读:

在几十年时间中,人工智能的发展经历了几次大起大落。总体上看,以前人工智能浪潮的核心在于构建精巧的算法。这一次人工智能浪潮,虽然也高度依赖深度学习算法,但有一个非常大的不同,那就是对计算量的依赖。

这有点暴力美学的味道。

人工智能的最前沿有两条战线,一条是各种各样的算法,深度学习、强化学习、迁移学习等等;另一条就是飙参数量。

以NLP领域为例,模型的训练参数在不断提升。ELMo是5 亿参数,之后 Turing NLG将参数提升到170 亿,GPT-3 进一步将参数量飙到1750亿个。

最近,谷歌将战线进一步推前了,首次将参数飙到万亿量级。

谷歌设计了一个名叫Switch Transformer的模型,将参数量扩展到1.6 万亿,是GPT-3 的近10倍。

从实际效果来看,飙参数的确是有用的,模型的各方面指标都得到了很大的提升。

以目前的形势来看,1.6 万亿这个纪录应该也保持不了多久。下一次,人们可能将参数量刷新到几万亿甚至10万亿量级。

我们不禁要问一个问题,参数量的扩大有什么意义呢?

是否存在量变到质变的可能?

如果存在那个质变的临界点,那临界值是多少?

人类是智力的巅峰,很多时候人工智能就是对人类的仿生工程。

据估计,人类大脑有860亿个神经元,100万亿个突触。

我们将AI模型的参数类比作人类大脑的突触(当然,这不是很严谨。)随着AI模型参数的增加,是否可以形成足以匹敌动物甚至人类的智力水平?

超过100万亿参数量的AI模型,是否可以形成足够匹敌人类的智力,也就是我们常说的通用智能。

这个AI模型,是不是也能实现意识觉醒?

相对于从原理上搞清楚人类智力的来源,刷模型参数就显得简单粗暴多了。

当然,简单的方法也有代价,那就是费钱。

参数量越大,需要的计算资源就越多,需要的数据量也越大,这些都是非常费钱的。

据悉,训练15 亿参数量的GPT-2需要4.3 万美元,训练1750亿参数的GPT-3需要1200万美元。

如果要训练一个100万亿参数量的AI模型,只是训练费用估计要几十亿美元。

除了对计算资源的需求,数据也是一个麻烦事。要想实现通用AI,必须要尽可能全的数据,需要建立各种各样的数据库。这些数据的收集、处理,以及数据隐私、安全保护,也是一个浩大的工程。

虽然耗资巨大,但这个工程绝对是值得的。人类历史上耗资上百亿的工程也不少,如果真的通过训练100万亿参数的AI模型实现了通用智能,那对人类的意义不亚于曼哈顿工程、阿波罗计划、人类基因组计划。

最后,我们来讨论下这类超级AI的商业前景。

无论是OpenAI的GPT-3 还是谷歌的Switch Transformer,最终的目的都是为了赚钱。目前来看,这类超级AI模型,大概率会通过云服务的方式对外开放,其他人通过调用API的方式,来使用其AI能力。

据悉,OpenAI将GPT-3 的Beta API分四档进行收费:

Explore 版:免费套餐,用户可免费使用 3 个月或 10 万 token,哪个先用完就以哪个为标准。

Create 版:100 美元/月、200 万 token/月,超过部分每1k tokens费用是6美分。

Build 版:400 美元/月、1000 万 token/月 ,超出部分每1k tokens费用是6美分。

Scal 版:该版本需要联系官方。

这里的token指字符序列,一个好的NLP模型需要大量的token。比如,要覆盖威廉·莎士比亚全集中的90万个单词,需要GPT-3Create版中提供的200万Token。

可以预见,像GPT-3、Switch Transformer这类超级AI模型一旦成熟,那对其他的人工智能厂商将形成降维打击,在指标上将呈现全面碾压之势。

借助这些超级AI模型,巨头们可以实现很大程度的垄断,其他小型AI厂商只能依附于这些巨头,在其提供的通用模型基础上针对行业应用场景进行模型微调和优化。

当然,手握超级AI模型的巨头们可以轻松收割垄断利润。

我一直觉得,人工智能领域的垄断,将会比互联网更加严重。

标题:暴力计算,是人工智能的捷径么?

地址:http://ai.rw2015.com/smartt/7371.html

免责声明:人工智能网为网民提供实时、严谨、专业的财经、产业新闻和信息资讯,更新的内容来自于网络,不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系站长,本网站将立即予以删除!。

返回顶部