EXAONE-3.5-7.8B-Instruct-AWQ

11个月前发布 39 00

EXAONE 3.5是LG AI Research开发的一系列指令调优的双语(英语和韩语)生成模型,参数范围从2.4B到32B。这些模型支持长达32K令牌的长上下文处理,并在真实世界用例和长上下文理解方面展现出最先进的性能,同时在与最近发布的类似大小模型相比的一般领域中保持竞争力。EXAONE 3.5模型包括:1) 2.4B模型,优化用于...

收录时间:
2025-05-30
EXAONE-3.5-7.8B-Instruct-AWQEXAONE-3.5-7.8B-Instruct-AWQ

EXAONE 3.5是LG AI Research开发的一系列指令调优的双语(英语和韩语)生成模型,参数范围从2.4B到32B。这些模型支持长达32K令牌的长上下文处理,并在真实世界用例和长上下文理解方面展现出最先进的性能,同时在与最近发布的类似大小模型相比的一般领域中保持竞争力。EXAONE 3.5模型包括:1) 2.4B模型,优化用于小型或资源受限设备的部署;2) 7.8B模型,与前代模型大小相匹配,但提供改进的性能;3) 32B模型,提供强大的性能。

数据统计

相关导航

EXAONE-3.5-7.8B-Instruct-GGUF

EXAONE-3.5-7.8B-Instruct-GGUF

EXAONE 3.5是LG AI Research开发的一系列双语(英语和韩语)指令调优的生成模型,参数从2.4B到32B不等。这些模型支持长达32K令牌的长上下文处理,在真实世界用例和长上下文理解方面展现出了最先进的性能,同时在与近期发布的类似大小模型相比,在通用领域保持竞争力。EXAONE 3.5模型包括:1) 2.4B模型,优化用于部署在小型或资源受限的设备上;2) 7.8B模型,与前代模型大小匹配但提供改进的性能;3) 32B模型,提供强大的性能。
DeepSeek-R1-Distill-Qwen-32B

DeepSeek-R1-Distill-Qwen-32B

DeepSeek-R1-Distill-Qwen-32B 是由 DeepSeek 团队开发的高性能语言模型,基于 Qwen-2.5 系列进行蒸馏优化。该模型在多项基准测试中表现出色,尤其是在数学、代码和推理任务上。其主要优点包括高效的推理能力、强大的多语言支持以及开源特性,便于研究人员和开发者进行二次开发和应用。该模型适用于需要高性能文本生成的场景,如智能客服、内容创作和代码辅助等,具有广泛的应用前景。
SmolLM2-1.7B

SmolLM2-1.7B

SmolLM2是一系列轻量级的语言模型,包含135M、360M和1.7B参数的版本。这些模型能够在保持轻量级的同时解决广泛的任务,特别适合在设备上运行。1.7B版本的模型在指令遵循、知识、推理和数学方面相较于前代SmolLM1-1.7B有显著进步。它使用包括FineWeb-Edu、DCLM、The Stack等多个数据集进行了训练,并且通过使用UltraFeedback进行了直接偏好优化(DPO)。该模型还支持文本重写、总结和功能调用等任务。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...