史上最强开源模型Llama31媲美GPT4o和Claude35Sonnet

好用的小火箭节点推荐⭐Shadowrocket高速节点推荐

开源模型会越来越落后?百度,你再次被狠狠打脸了。

北美时间7月23日,Meta(原Facebook,脸书)公司正式官宣发布了开源模型 Llama 3.1 。不出意外的话,根据各项AI模型基准测试的结果来看, Llama 3.1 将会成为史上最强大的开源LLM模型。 Llama 3.1 模型具备128K的上下文长度,支持八种语言,并推出了首个开放源码前沿级AI模型 Llama 3.1 405B 。作为首个开源的前沿级AI模型, Llama 3.1 405B 在通用知识、可控性、数学、工具使用和多语言翻译等方面拥有最先进的能力,能与目前市场上最好的闭源模型相媲美,如 GPT-4o 和 Claude 3.5 Sonnet 。

Llama 3.1 通过扩展上下文长度、增强推理能力和改进工具使用,能够支持高级应用如长文本摘要、多语言对话代理和编程助手。此外,Meta还注重该模型的开放性和可扩展性,鼓励开发者创建自定义代理和新型智能行为,同时配备了如Llama Guard 3和Prompt Guard等安全工具,以支持负责任的开发。

Llama 3.1 的三种型号

和大多数AI模型一样, Llama 3.1 也包含三种型号:405B、70B和8B,表示模型的参数量依次降低。这三档模型均支持128K上下文长度,增强了长文本处理和对话能力。

405B 型号 :这是 Llama 3.1 系列的最强模型,具有最广泛的使用案例。它以4050亿参数成为目前参数量最大(参数量越大某种程度上意味着“智商”越高)的开源模型,适用于复杂的数学问题和多语言翻译等任务。

70B 型号 :高性能且性价比很高的中端模型,类似于 Claude 3 系列中的 Claude 3 Sonnet ,能适用于多种使用案例。它在性能和成本之间取得了良好的平衡,非常适合需要强大但不及最大模型资源需求的应用。

8B 型号 :轻量级且超高速,几乎可以在任何设备上运行。它特别适合资源受限的环境,仍能提供强大的语言处理能力。

Llama 3.1 基准测试结果

Llama 3.1 405B

Llama 3.1 405B 模型在多个测试中表现优秀,在某些领域甚至超过了目前AI领域最强模型 GPT-4o 和 Claude 3.5 Sonnet 。

强项:

数学能力:在GSM8K测试中得分96.8,为所有模型中最高。

推理能力:ARC Challenge得分96.9,同样是最高分。

长文本处理:ZeroSCROLLS/QuALITY测试得分95.2,与 GPT-4 持平,优于其他模型。

多语言能力:Multilingual MGSM测试得分91.6,与 Claude 3.5 Sonnet 并列最高。

相对弱项:

GPQA测试得分51.1,低于 GPT-4 Omni 和 Claude 3.5 Sonnet 。

Nexus测试得分58.7,虽然高于其他已测试模型,但分数相对较低。

通用能力:

MMLU和MMLU PRO测试中表现良好,分别得到88.6和73.3分。

IFEval测试得分88.6,与 Claude 3.5 Sonnet 相当,高于其他模型。

HumanEval和MBPP EvalPlus测试中也有不错表现,分别得分89.0和88.6。

工具使用:

BFCL测试得分88.5,表现不错但略低于 Claude 3.5 Sonnet 。

特殊测试:

NIH/Multi-needle测试得分98.1,虽然低于 GPT-4 系列的满分,但仍然非常高。

Llama 3.1 405B 模型在多个领域展现了强劲的性能,特别是在数学、推理和长文本处理方面。它在某些测试中甚至超过了其他知名闭源模型,展现出较为全面的能力。

Llama 3.1 8B

总体表现: 作为较小的模型, Llama 3.1 8B 在多个测试中表现出色,尤其考虑到其较小的参数规模。

强项:

数学能力:GSM8K 测试得分 84.5,表现优秀。

推理能力:ARC Challenge 得分 83.4,高于某些更大的模型。

长文本处理:ZeroSCROLLS/QuALITY 测试得分 81.0,显示出不错的长文本理解能力。

相对弱项:

GPQA 测试得分 32.8,相对较低。

Nexus 测试得分 38.5,虽然超过了一些竞争对手,但仍有提升空间。

通用能力:

MMLU 和 MMLU PRO 测试中表现尚可,分别得到 73.0 和 48.3 分。

IFEval 测试得分 80.4,显示出良好的通用理解能力。

特殊测试:

NIH/Multi-needle 测试得分高达 98.8,表现非常出色。

Llama 3.1 70B

总体表现: Llama 3.1 70B 作为更大的模型,在几乎所有测试中都表现优异,经常超越其他模型,包括 GPT 3.5 Turbo 。

强项:

数学能力:GSM8K 测试得分 95.1,大幅领先其他模型。

推理能力:ARC Challenge 得分 94.8,表现卓越。

长文本处理:ZeroSCROLLS/QuALITY 测试得分 90.5,展现出强大的长文本理解能力。

多语言能力:Multilingual MGSM 测试得分 86.9,远超其他模型。

相对弱项:

GPQA 测试得分 46.7,虽然领先于表格中的其他模型,但仍有提升空间。

Nexus 测试得分 56.7,虽然高于其他模型,但相对于自身其他测试结果略显逊色。

通用能力:

MMLU 和 MMLU PRO 测试中表现优秀,分别得到 86.0 和 66.4 分,领先其他模型。

IFEval 测试得分 87.5,展现出强大的通用理解能力。

HumanEval 和 MBPP EvalPlus 测试中表现出色,分别得分 80.5 和 86.0。

特殊测试:

NIH/Multi-needle 测试得分 97.5,虽略低于 8B 版本,但仍然非常出色。

Llama 3.1 70B 模型在几乎所有测试中都展现出卓越的性能,显著优于其 8B 版本,并在多个领域超越了包括 GPT 3.5 Turbo 在内的其他模型。它展示了强大的全面能力,特别是在数学、推理、长文本处理和多语言任务方面。

如何体验 Llama 3.1 405B ?

https://www.meta.ai/

https://llama.meta.com/

结语

Llama 3.1 模型其实早在几天前,就因为消息泄露而引起了很多关注。今天正式发布后,更是以其强大的性能技惊全场。感兴趣的朋友不妨一试。

精选推荐

好用的小火箭节点推荐⭐Shadowrocket高速节点推荐

THE END
分享
二维码
< <上一篇
下一篇>>