现有AI大模型训练用的是英伟达A100、H100及特供中国的A800/H800。 A100有540亿晶体管,采用台积电7nm工艺,支持FP16、FP32和FP64浮点运算,而H100有800亿晶体管,采用台积电4nm工艺,在FP16、FP32和FP64计算上比A100快三倍。 A800/H800虽然算力和带宽被简配打折,但相比于同类产品,性能仍最高的,ChatGPT出圈后,百度、阿里、腾讯、字节还有车企都在抢购A800/H800芯片,价格水涨船高、交货周期大幅延长。 如果后续A800等也被禁售(可能是大概率事件),意味着国内企业大模型研究可能会停滞,也急需国产GPU来平替。
评论列表