dolmino-mix-1124

11个月前发布 32 00

DOLMino dataset mix for OLMo2 stage 2 annealing training是一个混合了多种高质数据的数据集,用于在OLMo2模型训练的第二阶段。这个数据集包含了网页页面、STEM论文、百科全书等多种类型的数据,旨在提升模型在文本生成任务中的表现。它的重要性在于为开发更智能、更准确的自然语言处理模型提供...

收录时间:
2025-05-29
dolmino-mix-1124dolmino-mix-1124

DOLMino dataset mix for OLMo2 stage 2 annealing training是一个混合了多种高质数据的数据集,用于在OLMo2模型训练的第二阶段。这个数据集包含了网页页面、STEM论文、百科全书等多种类型的数据,旨在提升模型在文本生成任务中的表现。它的重要性在于为开发更智能、更准确的自然语言处理模型提供了丰富的训练资源。

数据统计

相关导航

Firecrawl LLMs.txt generator

Firecrawl LLMs.txt generator

LLMs.txt生成器是一个由Firecrawl提供支持的在线工具,旨在帮助用户从网站生成用于LLM训练和推理的整合文本文件。它通过整合网页内容,为训练大型语言模型提供高质量的文本数据,从而提高模型的性能和准确性。该工具的主要优点是操作简单、高效,能够快速生成所需的文本文件。它主要面向需要大量文本数据进行模型训练的开发者和研究人员,为他们提供了一种便捷的解决方案。
InternVL2_5-4B-MPO-AWQ

InternVL2_5-4B-MPO-AWQ

InternVL2_5-4B-MPO-AWQ是一个多模态大型语言模型(MLLM),专注于提升模型在图像和文本交互任务中的表现。该模型基于InternVL2.5系列,并通过混合偏好优化(MPO)进一步提升性能。它能够处理包括单图像和多图像、视频数据在内的多种输入,适用于需要图像和文本交互理解的复杂任务。InternVL2_5-4B-MPO-AWQ以其卓越的多模态能力,为图像-文本到文本的任务提供了一个强大的解决方案。
Llama-3.1-70B-Instruct-AWQ-INT4

Llama-3.1-70B-Instruct-AWQ-INT4

Llama-3.1-70B-Instruct-AWQ-INT4是一个由Hugging Face托管的大型语言模型,专注于文本生成任务。该模型拥有70B个参数,能够理解和生成自然语言文本,适用于多种文本相关的应用场景,如内容创作、自动回复等。它基于深度学习技术,通过大量的数据训练,能够捕捉语言的复杂性和多样性。模型的主要优点包括高参数量带来的强大表达能力,以及针对特定任务的优化,使其在文本生成领域具有较高的效率和准确性。
InternVL2_5-38B-MPO

InternVL2_5-38B-MPO

InternVL2.5-MPO是一个先进的多模态大型语言模型系列,基于InternVL2.5和混合偏好优化(MPO)构建。该系列模型在多模态任务中表现出色,能够处理图像、文本和视频数据,并生成高质量的文本响应。模型采用'ViT-MLP-LLM'范式,通过像素unshuffle操作和动态分辨率策略优化视觉处理能力。此外,模型还引入了多图像和视频数据的支持,进一步扩展了其应用场景。InternVL2.5-MPO在多模态能力评估中超越了多个基准模型,证明了其在多模态领域的领先地位。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...