Qwen2.5-Coder-32B-Instruct

11个月前发布 32 00

Qwen2.5-Coder是一系列专为代码生成设计的Qwen大型语言模型,包含0.5、1.5、3、7、14、32亿参数的六种主流模型尺寸,以满足不同开发者的需求。该模型在代码生成、代码推理和代码修复方面有显著提升,基于强大的Qwen2.5,训练令牌扩展到5.5万亿,包括源代码、文本代码基础、合成数据等。Qwen2.5-Coder-32B是...

收录时间:
2025-05-29
Qwen2.5-Coder-32B-InstructQwen2.5-Coder-32B-Instruct

Qwen2.5-Coder是一系列专为代码生成设计的Qwen大型语言模型,包含0.5、1.5、3、7、14、32亿参数的六种主流模型尺寸,以满足不同开发者的需求。该模型在代码生成、代码推理代码修复方面有显著提升,基于强大的Qwen2.5,训练令牌扩展到5.5万亿,包括源代码、文本代码基础、合成数据等。Qwen2.5-Coder-32B是目前最先进的开源代码生成大型语言模型,其编码能力与GPT-4o相匹配。它不仅增强了编码能力,还保持了在数学和通用能力方面的优势,并支持长达128K令牌的长上下文。

数据统计

相关导航

Skywork-o1-Open-PRM-Qwen-2.5-1.5B

Skywork-o1-Open-PRM-Qwen-2.5-1.5B

Skywork-o1-Open-PRM-Qwen-2.5-1.5B是Skywork团队开发的一系列模型,这些模型结合了o1风格的慢思考和推理能力。该模型专门设计用于通过增量过程奖励增强推理能力,适合解决小规模的复杂问题。与简单的OpenAI o1模型复现不同,Skywork o1 Open系列模型不仅在输出中展现出固有的思考、规划和反思能力,而且在标准基准测试中的推理技能有显著提升。这一系列代表了AI能力的一次战略性进步,将原本较弱的基础模型推向了推理任务的最新技术(SOTA)。
Qwen2.5-Coder-14B

Qwen2.5-Coder-14B

Qwen2.5-Coder-14B是Qwen系列中专注于代码的大型语言模型,覆盖了0.5到32亿参数的不同模型尺寸,以满足不同开发者的需求。该模型在代码生成、代码推理和代码修复方面有显著提升,基于强大的Qwen2.5,训练令牌扩展到5.5万亿,包括源代码、文本代码接地、合成数据等。Qwen2.5-Coder-32B已成为当前最先进的开源代码LLM,其编码能力与GPT-4o相匹配。此外,它还为现实世界应用如代码代理提供了更全面的基础,不仅增强了编码能力,还保持了在数学和通用能力方面的优势。支持长达128K令牌的长上下文。
Qwen2.5-Coder-14B-Instruct-AWQ

Qwen2.5-Coder-14B-Instruct-AWQ

Qwen2.5-Coder是一系列特定于代码的大型语言模型,覆盖了从0.5亿到32亿参数的不同模型大小,以满足不同开发者的需求。该模型在代码生成、代码推理和代码修复方面有显著提升,基于强大的Qwen2.5,训练令牌扩展到5.5万亿,包括源代码、文本代码基础、合成数据等。Qwen2.5-Coder-32B是目前最先进的开源代码生成大型语言模型,其编码能力与GPT-4o相匹配。此外,该模型还支持长达128K令牌的长上下文,并采用AWQ 4-bit量化技术,以提高模型的效率和性能。
Scira

Scira

Scira 是一个基于 AI 技术的搜索引擎,旨在通过强大的语言模型和搜索能力,为用户提供更高效、更精准的信息检索体验。它支持多种语言模型,如 Grok 2.0 和 Claude 3.5 Sonnet,并集成了 Tavily 等搜索工具,能够提供网页搜索、编程代码运行、天气查询等多种功能。Scira 的主要优点在于其简洁的界面和强大的功能集成,适合对传统搜索引擎不满意、希望借助 AI 提升搜索效率的用户。该项目开源免费,用户可以根据自己的需求进行本地部署或使用其提供的在线服务。
Qwen2.5-Coder-1.5B-Instruct-GPTQ-Int4

Qwen2.5-Coder-1.5B-Instruct-GPTQ-Int4

Qwen2.5-Coder是Qwen大型语言模型的最新系列,专注于代码生成、代码推理和代码修复。基于强大的Qwen2.5,该模型在训练中包含了5.5万亿的源代码、文本代码关联、合成数据等,是目前开源代码语言模型中的佼佼者,其编码能力可与GPT-4相媲美。此外,Qwen2.5-Coder还具备更全面的现实世界应用基础,如代码代理等,不仅增强了编码能力,还保持了在数学和通用能力方面的优势。
Qwen2.5-Coder-3B-Instruct

Qwen2.5-Coder-3B-Instruct

Qwen2.5-Coder是Qwen大型语言模型的最新系列,专注于代码生成、代码推理和代码修复。基于强大的Qwen2.5,该系列模型通过增加训练令牌至5.5万亿,包括源代码、文本代码接地、合成数据等,显著提升了代码生成、推理和修复能力。Qwen2.5-Coder-3B是该系列中的一个模型,拥有3.09B参数,36层,16个注意力头(Q)和2个注意力头(KV),全32,768令牌上下文长度。该模型是目前开源代码LLM中的佼佼者,编码能力与GPT-4o相匹配,为开发者提供了一个强大的代码辅助工具。
Qwen2.5-Coder Technical Report

Qwen2.5-Coder Technical Report

Qwen2.5-Coder系列是基于Qwen2.5架构的代码特定模型,包括Qwen2.5-Coder-1.5B和Qwen2.5-Coder-7B两个模型。这些模型在超过5.5万亿个token的大规模语料库上继续预训练,并通过精细的数据清洗、可扩展的合成数据生成和平衡的数据混合,展现出令人印象深刻的代码生成能力,同时保持了通用性。Qwen2.5-Coder在包括代码生成、补全、推理和修复在内的多种代码相关任务上取得了超过10个基准测试的最新性能,并且一致性地超越了同等大小的更大模型。该系列的发布不仅推动了代码智能研究的边界,而且通过其许可授权,鼓励开发者在现实世界的应用中更广泛地采用。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...