因为谷狗的工程师发现,智云的OPA显卡,对比英伟达的显卡更适合用来组建大规模的GPU服务器阵列,也不是说单纯性能更好,而是功耗更低,性价比也更好一些,综合算力成本更低。
再加上现在的OPA显卡也支持CUDA\b软件,后续开发也没什么问题。
如此情况下,自然是购买OPA显卡用来组建阵列更好。
对此,徐申学并没有拒绝,OPA显卡本来就是消费级显卡,谁来买都可以……再说了,谷狗买不到OPA的话,转身就会去找AMD采购ATI显卡,差一点又不是不能用。
ATI显卡虽然游戏性能差一些,但是算力也不算差,之前也有很多矿老板使用AMD的显卡进行挖矿的。
只不过去年年底开始,矿老板们的心头最爱就变成了OPA1000显卡了。
如果智云这边拒绝接受外国的高性能显卡订单的话,说不准还会刺激ATI还有英特尔,高通等芯片厂商研发更专业的算力卡,朝着AI芯片的路子迈进!
这几家也是有着GPU业务的,对GPU领域有着不低的底蕴,真让他们现在就搞起来,说不准过几年又会培养出一个新的厉害竞争对手,而到时候智云没办法收购他们。
因此还不如敞开了卖,只要你给钱,英伟达旗下现有的各类显卡,什么780,TITAN以及OPA1000直接敞开卖,随便采购……智云要用这三个旗舰产品,直接把当下并不算大的挖矿市场,AI模型训练市场尽可能的抢过来,顺带堵死其他厂商的道路。
只是……就算是受到了谷狗的GPU订单,也没能给GPU事业群部门带来太大的营收提升。
一万片显卡,营收几百万美元。
咋一看似乎不少,但实际上对于智云集团的GPU事业群而言,这点营收根本不算什么……当下的外部AI市场,带来的营收还没挖矿市场大呢。
主要是谷狗等企业的AI发展,依旧受到了AI算法限制,难以大规模应用化。
他们的AI项目,目前还处于研发阶段,主要是用来进行各种试验,测试,而不是大规模应用,如此一来对算力的需求自然也就小了。
目前来说,AI技术已经比较成熟,可以进行大规模应用,尤其是商用的只有智云一家,因此真正对GPU算力需求量大的,其实是智云自己,而不是其他什么企业。
可以说当下的GPU算力需求里,智云一家几乎独占了百分之九十五,相当夸张的……只不过智云自己也不用普通的显卡,而是使用自研的AI芯片。
最新的Ai3000和消费级的OPA1000,差距是全方位的,算力上大概是两倍的差距,但是显存上四倍差距,而最惊人的是通信带宽上的差距,足足十倍之多。
尤其是通信带宽的差别,这影响模型训练非常重要的一个数据。
毕竟采用大量显卡组成服务器阵列的时候,其数据交换是极其庞大的,而普通显卡的通信带宽太小,由此导致训练效率很低,速度缓慢……当然,这个训练速度慢只是对比说法。
实际上哪怕是消费显卡的训练速度,在谷狗的工程师们看来也是超级快了……只是如果他们看过了智云的AI芯片的训练速度,恐怕会怀疑人生!
智云集团的所谓AI芯片,其实就是针对普通的显卡在进行大规模计算的时候,所遇到的一系列诸多难题,然后针对性的解决改进。
通信带宽太小,那么我就研发全新的通讯技术,然后一口气把通讯带宽给加大了十倍以上。
显存太小,那就塞进去更多的显存。
算力不够,那么就往GPU核心里塞进去更多的晶体管提升算力。
当然,这里头还需要专门的软件支持,为此智云集团还专门开发了好几个的专门软件,这样才能够发挥出来AI显卡的强大性能。
最后硬件和硬件整合起来后,就搞出来了所谓的AI芯片……不干别的,就专门用来跑AI模型。
而AI芯片的这一系列改进或者说技术特点,智云可是从来没有对外公布过。
等其他AI厂商发现诸多缺陷,然后反馈到GPU厂商,再针对性改进,又得开发一大堆适配的软件,哪怕一切顺利,哪怕从今天开始搞,估计也得两三年时间才能初步搞利索。
他们想要追上智云的步伐……不考虑半导体设备或耗材制裁的话,那么几乎不存在这个可能性。
因为他们在追赶的时候,前头的智云也在前进啊,而且前进的更快。
智云的AI芯片都已经迭代了三代了,预计明年还将会基于22纳米3D工艺推出下一代的AI芯片,也就是AI4000。
他们追个毛线!
之前距离智云最近的是英伟达,但是英伟达已经被智云收购,并在收购后作为智云旗下的一个独立品牌,彻底转型消费级显卡领域。
本章未完,请点击下一页继续阅读