MistralLarge大模型发布,性能直逼GPT-4,可免费在线使用

智能也得细细瞧 2024-03-09 06:38:30

上期图文教程,我们分享。 它是一个纯解码器模型,模型设计了8个专家组。 在每一层,对于每个输入token,神经网络模型选择其中的两个“专家”来处理输入token,并相加组合它们的输出。

而Mistral Large大模型发布是Mistral AI社区发布的最大版本的大模型。这是Mistral AI社区最新、最先进的语言模型。 Mistral Large 大模型可直接通过 Le chat平台链接进行访问。Mistral Large 是Mistral AI社区最新的文本生成模型。它达到了顶级的推理能力。它可用于复杂的多语言推理任务,包括文本理解、转换和代码生成等任务上。

Mistral Large 在常用基准测试中取得了优异的成绩,其性能仅次于GPT-4大模型。

Mistral Large大模型主要有如下几个更新点:

训练数据包含英语、法语、西班牙语、德语和意大利语等,对语法和相关文化背景有细致入微的理解。其 32K 标记上下文窗口允许用户上传大型文档,方便与文档内容进行沟通。遵循相关的指令,使开发人员能够设计他们自己的审核策略——Mistral AI社区用它来设置 Le Chat 的系统级审核权限。模型本身就能够进行函数调用。这可以大大提高开发者的使用与开发工作。

Mistral AI社区在常用基准上将 Mistral Large 大模型的性能与顶尖的 LLM 大模型进行比较。其Mistral Large大模型展现出了强大的推理能力。

Mistral Large 具有本地多语言能力。它在法语、德语、西班牙语和意大利语的 HellaSwag、Arc Challenge 和 MMLU 基准测试中明显优于 LLaMA 2 70B。

Mistral Large 在代码和数学任务中表现出顶尖的性能。

除了 Mistral Large 之外,Mistral AI社区还发布了一个新的优化模型 Mistral Small,针对延迟和成本进行了优化。 Mistral Small 的性能优于 Mixtral 8x7B,并且延迟较低。当然Mistral AI社区会在不久的将来开源相关的模型,这包括 open-mistral-7B 和 open-mixtral-8x7b以及其他尺寸大小的模型mistral-small-2402 和 milstra-large-2402。

Mistral AI社区提供了Le Chat平台,我们只需要进入Le Chat平台的官网链接,就可以直接使用Mistral large大模型了。登陆界面十分简洁,只有一个Mistral AI社区的log与一个对话框。

在输入框中输入聊天内容,就可以跟大模型愉快的聊天了。模型默认是英文模型,当然支持中文输入,我们可以直接要求模型进行中文交流即可。

Le Chat平台提供了三个尺寸大小的模型供大家使用

Mistral large,最大的模型,精度最高Mistral prototype,更加简洁的原型Mistral small,最小的模型,延迟与成本进行了优化,虽然模型最小,但是性能优于 Mixtral 8x7B,并且延迟较低。https://chat.mistral.ai/chat

而且Mistral社区的Le Chat平台无需外网,直接可以登陆使用,且速度相当的快,若追求速度,可以使用small小模型。

0 阅读:1

智能也得细细瞧

简介:感谢大家的关注