玩酷网

现有AI大模型训练用的是英伟达A100、H100及特供中国的A800/H800。

现有AI大模型训练用的是英伟达A100、H100及特供中国的A800/H800。 A100有540亿晶体管,采用台积电7nm工艺,支持FP16、FP32和FP64浮点运算,而H100有800亿晶体管,采用台积电4nm工艺,在FP16、FP32和FP64计算上比A100快三倍。 A800/H800虽然算力和带宽被简配打折,但相比于同类产品,性能仍最高的,ChatGPT出圈后,百度、阿里、腾讯、字节还有车企都在抢购A800/H800芯片,价格水涨船高、交货周期大幅延长。 如果后续A800等也被禁售(可能是大概率事件),意味着国内企业大模型研究可能会停滞,也急需国产GPU来平替。

评论列表

梦公子
梦公子 3
2023-07-05 01:01
人工智能目前的应用前景有什么用?还不如人工。各种电话客服的智障应答就是最好的举证。

梦公子 回复 07-05 11:31
不在此行业,不懂你的说法。但是几年后H100这些硬件升级不要很多钱吗?比工资可能多得多哦。再说好多年前就在吹BIM应用,这么多年了也没见过好智能。如果真的这么智能,汽车的L5无人驾驶早实现了。所谓的智能只是类似于百度问答,积累答案。本生不能创造解决问题。

愚公移衫
愚公移衫 1
2023-07-06 12:27
科技树不要点歪就行
英雄有梦
英雄有梦 1
2023-07-06 21:07
相较于显卡,人工智能计算卡的难度要低。
mono
mono
2023-06-30 15:06
自研就可以了 中国又不缺ai芯片