一来对算力的需求自然也就小了。
目前来说,ai技术已经比较成熟,可以进行大规模应用,尤其是商用的只有智云一家,因此真正对gpu算力需求量大的,其实是智云自己,而不是其他什么企业。
可以说当下的gpu算力需求里,智云一家几乎独占了百分之九十五,相当夸张的……只不过智云自己也不用普通的显卡,而是使用自研的ai芯片。
最新的ai3000和消费级的opa1000,差距是全方位的,算力上大概是两倍的差距,但是显存上四倍差距,而最惊人的是通信带宽上的差距,足足十倍之多。
尤其是通信带宽的差别,这影响模型训练非常重要的一个数据。
毕竟采用大量显卡组成服务器阵列的时候,其数据交换是极其庞大的,而普通显卡的通信带宽太小,由此导致训练效率很低,速度缓慢……当然,这个训练速度慢只是对比说法。
实际上哪怕是消费显卡的训练速度,在谷狗的工程师们看来也是超级快了……只是如果他们看过了智云的ai芯片的训练速度,恐怕会怀疑人生!
智云集团的所谓ai芯片,其实就是针对普通的显卡在进行大规模计算的时候,所遇到的一系列诸多难题,然后针对性的解决改进。
通信带宽太小,那么我就研发全新的通讯技术,然后一口气把通讯带宽给加大了十倍以上。
显存太小,那就塞进去更多的显存。
算力不够,那么就往gpu核心里塞进去更多的晶体管提升算力。
当然,这里头还需要专门的软件支持,为此智云集团还专门开发了好几个的专门软件,这样才能够发挥出来ai显卡的强大性能。
最后硬件和硬件整合起来后,就搞出来了所谓的ai芯片……不干别的,就专门用来跑ai模型。
而ai芯片
本网站为网友提供小说上传储存空间平台,为网友提供在线阅读交流、txt下载,平台上的所有文学作品均来源于网友的上传
用户上传的文学作品均由网站程序自动分割展现,无人工干预,本站自身不编辑或修改网友上传的内容(请上传有合法版权的作品)
如发现本站有侵犯权利人版权内容的,请向本站投诉,一经核实,本站将立即删除相关作品并对上传人ID账号作封号处理