Meta的Llama3.1对企业来说是福音,也是其他LLM供应商的厄运?

智能真的很好说 2024-07-26 18:10:33

  分析师和专家普遍认为,Meta最新推出的Llama 3.1大型语言模型(LLM)系列,不仅为企业带来了前所未有的机遇,同时也给封闭的专有LLM供应商带来了生存压力。

  Llama 3.1系列包括了一个拥有4,050亿个参数的模型,以及700亿和80亿参数的两个变体。与OpenAI的GPT-4、谷歌的Gemini 2等封闭式专有LLM相比,Llama 3.1的开放权重和出色的性能效率使其在企业界和开发人员中备受瞩目。

  “Llama 3.1的开放权重为企业提供了一个回避和减少使用封闭专有LLM的选择,”人工智能原型服务平台Rapyd.AI的管理合伙人Tobias Zwingmann表示,“但这也将扰乱那些构建和销售LLM的公司或供应商的市场格局。”

  对于企业而言,Llama 3.1的优势显而易见。首先,开放权重使企业能够为其特定用例构建自定义的人工智能解决方案,而无需支付高昂的许可费用。这不仅降低了成本,还增加了灵活性。其次,开发人员可以利用Llama 3.1的坚实基础来加速创新,推动人工智能技术的进一步发展。

  IDC研究副总裁Arnal Dayaratna指出,企业可以使用自己的专有数据对Llama 3.1进行微调,而无需担心数据和知识产权会与另一家供应商共享。这避免了供应商锁定的问题,使企业能够更加自主地掌控自己的数据和技术。

  更大的4,050亿参数模型的发布对企业来说尤为重要。现在,他们可以获得一个与GPT-4、Gemini和Claude等模型性能相匹配的免费LLM。这在以前是不可想象的,因为高性能的LLM通常都需要支付高昂的费用。

  Meta在博客文章中表示,Llama 3.1在多个基准测试中的表现都优于其他专有LLM。例如,在MMLU基准测试中,Llama 3.1 405B的得分为88.6,与GPT-4o的88.7相差无几。这进一步证明了Llama 3.1的性能实力。

  此外,较小的8B和70B Llama 3.1模型也进行了更新,支持更大的上下文窗口和多种语言,并在同一基准测试中表现出色。这使得Llama 3.1系列能够满足不同规模和需求的企业。

  然而,尽管Llama 3.1带来了诸多优势,但分析师也指出,对于中小型企业来说,部署该模型可能成本较高。特别是405B变体,需要两台Nvidia H100服务器(16个GPU)来运行,年租金约为30万美元。这对于许多小公司来说是一个不小的负担。

  不过,大型企业可能会更加青睐Llama 3.1 405B模型。无论是用于微调和培训其他模型,还是在聊天机器人等生产用例中,该模型都能提供出色的性能和实用性。对于这些企业来说,运行405B模型的成本可能并不会被视为昂贵。

  此外,云服务提供商也在努力降低运行更大模型的成本。通过提供API,企业可以在现收现付的基础上访问必要的计算资源,从而减少前期投资。Meta已经与多家云服务提供商和合作伙伴展开合作,使Llama 3.1系列模型更加易用和可用。

  Llama 3.1的发布无疑给竞争对手的LLM供应商带来了压力。专家和分析师认为,一个性能更好或与封闭的专有LLM一样好的开放LLM将对整个行业产生重大影响。像Cohere、Aleph Alpha等专有LLM提供商可能会面临严峻的挑战,需要在降低成本或提高绩效方面进行竞争以应对市场变化。

  总的来说,Llama 3.1的发布为企业带来了更多的选择和机遇。开放权重和出色的性能使其成为一个具有吸引力的选择,而云服务提供商的合作则进一步降低了部署成本。然而,对于专有LLM供应商来说,这可能是一个需要积极应对的挑战。未来,随着人工智能技术的不断发展,我们期待看到更多创新的产品和服务涌现出来。

0 阅读:0

智能真的很好说

简介:感谢大家的关注