DeepSeek作为人工智能领域顶尖模型开发者,除了需要具备强大的人力资源,还要有强大的GPU芯片进行算力支撑。
前期在deepseek到底是拥有1万枚还是5万枚芯片时,引起了业界的广泛讨论。
最终deepseek使用多少芯片并不重要,肯定是比美国相关的AI研发机构的数量要少,成本要低,因为deepseek使用了更加先进的算法。
但英伟达的高性能GPU,当前对deepseek的模型训练必不可少。也是影响deepseek全面国产化的卡脖子因素之一。
Deepseek在一开始时,就没有将自己绑定在英伟达的GPU上。
使用英伟达的GPU芯片需要使用一定的高级语言与硬件进行对话。
英伟达开发的cuda语言,就是专门为他的GPU用户开发的一款计算机编程语言。让用户可以非常友好方便地调用GPU芯片硬件。
万物是有利有弊。
如果你用惯了cuda语言,你就不知道调用GPU硬件的底层逻辑是什么?
学计算机的人应该知汇编语言是最难的,但也是计算机的硬件最听得懂的语言。
为了方便编程,后来流行高级语言,与我们日常交流语言 , 语法更接近,向傻瓜型发展,从而就绕开了枯燥的汇编语言。但汇编语言仍然是控制硬件的最直接最有效的方式。
打个比方,就相当于翻译的功能。
我们遇到一个外国人,如果要和他对话,通常会请个英语翻译,因为英语在国际交流中使用比较普遍,我们可以把它理解为高级语言。
如果没有英语,双方交流之间就存在障碍或者理解错误。
但有一天,我发现原来对方是华人,懂得中文,这是他的母语。这个时候我们可以直接绕开英文,直接使用中文交流,这就是汇编语言。我们可以直接更加高效的对话,清晰地理解对方的意图,效率更高,成本更低。
Deepseek在使用英伟达GPU的时候,并没有使用它的高级语言Cuda,而是汇编式 PTX 编程,ptx编程也可以在其他的GPU上进行直接使用,硬件适配的范围会更广泛。
这样一来,除了英伟达GPU,包括中国以及其他国家只要是性能优越的GPU,deepseek都可以实现衔接与管理。
所以说,deepsee从开始就志存高远,放眼世界,他的研发思路就是开放式的,开源的,而并非单一的,线型的,闭塞的,已为全面国产化做好了准备。
