
现在,各个国内外大厂纷纷推出各种大模型(LLM)。
那么,哪种模型最适合自己呢?我们是只要单独一种模型,还是应该混合搭配以完成不同的工作?答案并不总是那么显而易见,请你别担心——我们已经为你做好了一些功课。
在这篇文章中,我们将分解这些 AI 助手的模型,解释它们最擅长什么以及如何充分利用它们。
有助于比较大语言模型的指标首先,让我们先来定义有助于比较大模型的指标。
速度– 模型生成响应的速度有多快?如果一个模型比另一个模型慢,那也不一定是坏事。有些模型需要额外的时间,因为它们使用基于推理的方法,这可以得到更精确的答案。根据你想要达成的任务,这个指标可能比较重要。比如,如果你绝对需要快速响应。
在本文中,我们将以每秒令牌数(TPS)计算的内部速度之数据。
幻觉率——人工智能很强大,但仍然不完美有些大语言模型更容易产生错误或误导性的答案。幻觉率越低越好。在今天这篇文章中,我们采用GitHub 的幻觉率数据。
地址:https://github.com/vectara/hallucination-leaderboard
上下文窗口大小——这定义了模型一次可以处理多少代码。
上下文窗口越大,AI 一次可以“记住”的内容就越多,这对于处理复杂项目至关地重要。
编码性能– 此指标突出显示模型处理编码任务的能力。
几个可靠的基准有助于我们评估大语言模型:
HumanEval+https://openlm.ai/coder-evalplus/
它衡量 LLM 在一定尝试次数内解决 Python 编码问题的能力。最高分为 100,高分意味着模型可靠,可以一次性生成正确的代码。
ChatBot Arenahttps://openlm.ai/chatbot-arena/
根据真实用户反馈对 LLM 进行排名,使其成为当今最具活力和实用性的 AI 基准之一。如果您在这里看到更高的数字,则表示该模型在基于投票的正面比较中始终优于其他模型。
Aider 的多语言基准测试https://aider.chat/docs/leaderboards/#polyglot-leaderboard
通过检查其解决方案是否正确运行来评估 LLM 用多种编程语言编写和修复代码的能力。高分表明 LLM 在使用多种编程语言进行编码时具有高度准确性和可靠性,这意味着它是各种开发任务的不二之选。
哪种 LLM 适合用于你的编码任务现在,我们已经定义了指标,让我们看看 AI 助手(Assistant) 支持的 LLM 进行的比较吧。
大语言模型
编码性能
速度(TPS)
幻觉发生率
上下文窗口
OpenAI
GPT-4o
OpenAI 当前最先进、最可靠的 GPT 模型, GPT-4o 提供深度理解与闪电般的响应。
HumanEval+:87.2
ChatBot Arena:1,377
Aider:27.1%
53.20 ±15.57
1.5%
128K Tokens
GPT-4o mini
这是一个较小的模型,将 GPT-4o 的功能提炼到一个紧凑、低延迟的封装中。
HumanEval+:83.5
ChatBot Arena:1,283
Aider:55.6%
62.78 ±19.72
1.7%
128K Tokens
o1
o1系列模型经过强化学习训练,能够处理复杂的推理。它们先思考,再做出反应,形成详细的内部思路,从而提供更准确、更合乎逻辑、结构更合理的答案。
HumanEval+:89
ChatBot Arena:1,358
Aider:61.7%
134.96 ±35.58
2.4%
10 万个Tokens
o1-mini
这是一个更小、更经济的推理模型,其编码性能几乎与完整的 o1 模型相当。尽管其规模较小,但它处理编码挑战的能力几乎与 o1 模型相当,这一点从它们在 ChatBot Arena 上的得分可以看出。
HumanEval+:89
ChatBot Arena:1,353
Aider:32.9%
186.98 ±47.55
1.4%
10 万个Tokens
o3-mini
最新的小型推理模型 o3-mini 具有出色的 STEM 功能,尤其擅长编码。它保持了 o1‑mini 的低成本和速度,同时匹配大型 o1 模型的编码性能并提供更快的响应。这使其成为编码和逻辑问题解决任务的非常有效的选择。
HumanEval+:-
ChatBot Arena:1,353
Aider:60.4%
155.01 ±45.11
0.8%
10 万个Tokens
Gemini 2.0 Flash
这是一种针对效率和性能进行了优化的高速、低延迟模型。它是实现动态、代理驱动体验的理想选择。
HumanEval+:-
ChatBot Arena:1,356
Aider:22.2%
103.89 ±23.60
0.7%
100 万个Tokens
Gemini 1.5 Flash
这是 Google 的轻量级 AI 模型,针对速度和效率至关重要的任务进行了优化。Gemini 1.5 Flash 在大多数任务上都能提供高质量的性能,可与更大的模型相媲美,同时具有更高的成本效益和响应速度。
HumanEval+:75.6
ChatBot Arena:1,254
助手:-
112.57 ±24.03
0.7%
100 万个Tokens
Gemini 1.5 专业版
Gemini 1.5 Pro 是一款强大的 AI 模型,专为对大规模数据进行深度推理而构建,擅长分析、分类和总结大量内容。它可以处理超过 100,000 行代码,并具有高级理解能力,非常适合复杂的多模式任务。
HumanEval+:79.3
ChatBot Arena:1,291
助手:-
45.47 ±7.78
0.8%
1-200 万个Tokens
Anthropic
Claude 3.7 Sonnet
这是 Anthropic 最先进的编码模型。它在速度和质量之间取得了平衡,它擅长通过编码代理、深度问题解决和智能自动化进行全周期的软件开发。
HumanEval+:-
ChatBot Arena:1,364
Aider:64.9%
46.43 ±7.35
–
20 万个Tokens
Claude 3.5 Sonnet
迄今为止最智能的 Anthropic 模型 Claude 3.5 Sonnet 是一款多功能的 LLM,可用于编码、代码迁移、错误修复、重构和翻译。它支持代理工作流,提供深入的代码理解以及强大的解决问题的能力。
HumanEval+:-
ChatBot Arena:1,327
Aider:51.6%
43.07 ±7.03
4.6%
20 万个Tokens
Claude 3.5 Haiku
这项快速、经济高效的 LLM 课程擅长实时编码、聊天机器人开发、数据提取和内容审核等。
HumanEval+:-
ChatBot Arena:1,263
Aider:28.0%
42.90 ±6.83
4.9%
20 万个Tokens
LLM 领域广阔且发展迅速,没有一种模式在各个方面都表现出色。根据我们的基准,以下是各个关键类别的领先者:
幻觉发生率:Gemini 2.0 Flash速度:GPT-4o-mini、Gemini 1.5 Flash 和 Gemini 2.0 Flash通用智能(非推理模型):GPT-4o、Claude 3.5 Sonnet、Claude 3.5 Haiku 和 Gemini 1.5 Pro具有推理能力的一般智能:Claude 3.7 Sonnet、o1、o1-mini 和 o3-mini本地大模型如果你需要 AI Assistant 离线工作或希望避免与 LLM API 提供商共享代码,你也可以选择此选项!AI Assistant 支持本地模型,通过ollama和LM Studio提供。
结语目前最强大的模型是 Qwen-2.5-Coder 和 Deepseek R1,但你可以使用 ollama 系列中任何足够小以适合自己硬件的模型。