这个春节icon都被自媒体各种deepseek相关消息轰炸。好多文章都在说私有部署。但是很多都是误导。在这我给大家做个说明解释。deepseek R1的全量模型是671B一般机器是部署不了的。说能部署的都是deepseek发布的蒸馏icon模型,就是用deepseeek产生了80万条核心推理数据,然后用来微调阿里的qwen2.5的模型,从而产生了一系列各种尺寸的所谓deepseek R1蒸馏的模型。这里面32B的是效果还可以接受的,更小的模型纯属玩玩,意义不大。还有一些文章是用你的内存代替GPU显存实现全量模型的量化模型的部署。问题在于性能太差了,也就是玩玩的,也没有实际意义。还有混合部署的方案,我认为也是意义不大。有没有真正靠谱的方案呢?我觉得是有的。