Llama3.1超大杯惊艳亮相,性能超越GPT-4o,领跑AI大模型竞赛

智能真的很好说 2024-07-23 16:26:48

近日,备受瞩目的开源大模型Llama 3.1在其405B超大杯版本的评测中,展现出惊人的实力,不仅在多项由微软Azure-ML GitHub账户发布的评测中完胜GPT-4o,更在AI界掀起了轩然大波。

据悉,这一评测涵盖了多个维度,而Llama 3.1不仅在整体性能上超越GPT-4o,其70B版本也在与GPT-4o的较量中不落下风。值得注意的是,这仅仅是基于base模型的评测结果,经过进一步对齐训练的instruct模型,其性能还有望得到进一步提升。

在相关社区中,Llama 3.1的下载链接、模型卡(包含官方跑分结果)以及配置文件等信息被热议,尽管这些信息尚未得到官方证实,但已经引发了广泛的关注和讨论。如果这些数据准确无误,那么Llama 3.1无疑将成为当前最强的AI大模型。

此外,从ICML现场传来消息,Llama 3.1系列模型将在7月23日(北京时间7月24日)正式发布。PyTorch创始人Soumith Chintala在演讲中确认了这一消息,无疑为这场AI风暴再添一把火。

随着Llama 3.1的惊艳亮相,AI大模型的竞争格局迎来了新的变化。这款开源模型的强势表现,不仅证明了开源社区的力量,也为AI技术的未来发展注入了新的活力。

值得关注的是Llama 3.1的一些提前泄密的亮点也可圈可点:

首先,Llama 3.1的instruct模型在多语言对话方面进行了显著优化。该模型不仅支持多种语言,更能以多语言文本和代码作为输出,为用户提供了更为灵活和广泛的交互方式。

其次,Llama 3.1在上下文窗口方面取得了重大突破。相较于之前的版本,新模型的上下文窗口从8K大幅扩展至128K,增大了足足16倍。这意味着模型能够处理更加复杂、信息量更大的对话和文本,极大提升了其实用性和适应能力。

在训练方面,Llama 3.1也毫不逊色。该模型在H100-80GB显卡上进行了累计3900万GPU小时的训练。其中,8B版本训练了150万GPU小时,70B版本训练了700万GPU小时,而最大的405B版本则占用了高达3100万GPU小时的训练时间。如此庞大的训练量确保了模型的精确度和泛化能力。

此外,Llama 3.1还在约15万亿个来自公开数据的tokens上进行了训练,并利用公开可用的指令数据集以及超过2500万个合成数据示例进行了微调。这些数据的丰富性和多样性为模型提供了广泛的知识背景和强大的学习能力。

最后,让我们拭目以待,看Llama 3.1如何在AI领域继续领跑,书写新的传奇。

参考链接:[1]https://pastebin.com/clone/9jGkYbXY[2]https://x.com/Teknium1/status/1815443354735571232[3]https://x.com/swyx/status/1815553411808653513

0 阅读:0

智能真的很好说

简介:感谢大家的关注