Upstage AIUpstage AI利用强大的大型语言模型和文档处理引擎,为企业转变工作流程和提升效率。其主要优点包括高精度、高性能、适用于各行业的定制解决方案。定位于为领先企业赋能,提升工作效率。010生产力# 企业效率# 大型语言模型# 定制解决方案
PromptmetheusPROMPTMETHEUS是一个无代码提示工程工具包,允许用户为OpenAI平台组合、测试和评估一次性提示。它提供了FORGE游乐场,用于为应用程序制作和优化专用API,将ChatGPT和其他大型语言模型(LLM)的功能引入产品。010AI开发与编程# ChatGPT# OpenAI# PROMPTMETHEUS
Qwen2.5-Coder-1.5B-Instruct-GGUFQwen2.5-Coder是Qwen大型语言模型的最新系列,专为代码生成、代码推理和代码修复而设计。基于强大的Qwen2.5,通过增加训练令牌至5.5万亿,包括源代码、文本代码基础、合成数据等,Qwen2.5-Coder-32B已成为当前最先进的开源代码大型语言模型,其编码能力与GPT-4o相匹配。此模型是1.5B参数的指令调优版本,采用GGUF格式,具有因果语言模型、预训练和后训练阶段、transformers架构等特点。020代码辅助# 代码修复# 代码推理# 代码生成
InternLM3-8B-InstructInternLM3-8B-Instruct是InternLM团队开发的大型语言模型,具有卓越的推理能力和知识密集型任务处理能力。该模型在仅使用4万亿高质量词元进行训练的情况下,实现了比同级别模型低75%以上的训练成本,同时在多个基准测试中超越了Llama3.1-8B和Qwen2.5-7B等模型。它支持深度思考模式,能够通过长思维链解决复杂的推理任务,同时也具备流畅的用户交互能力。该模型基于Apache-2.0许可证开源,适用于需要高效推理和知识处理的各种应用场景。010学习教育# 大型语言模型# 开源# 推理
Tilores Identity RAGTilores Identity RAG 是一个为大型语言模型(LLMs)提供客户数据搜索、统一和检索服务的平台。它通过实时模糊搜索技术,处理拼写错误和不准确信息,提供准确、相关且统一的客户数据响应。该平台解决了大型语言模型在检索结构化客户数据时面临的挑战,如数据来源分散、搜索词不完全匹配时难以找到客户数据,以及统一客户记录的复杂性。它允许快速检索结构化客户数据,构建动态客户档案,并在查询时提供实时统一且准确的客户数据。010客户服务# API# 大型语言模型# 客户数据
InternVL2_5-2B-MPOInternVL2_5-2B-MPO是一个多模态大型语言模型系列,展示了卓越的整体性能。该系列基于InternVL2.5和混合偏好优化构建。它集成了新增量预训练的InternViT与各种预训练的大型语言模型,包括InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。该模型在多模态任务中表现出色,能够处理包括图像和文本在内的多种数据类型,适用于需要理解和生成多模态内容的场景。010图像生成# 图像处理# 多模态# 大型语言模型
InternVL2_5-1BInternVL 2.5是一系列先进的多模态大型语言模型(MLLM),它在InternVL 2.0的基础上,通过引入显著的训练和测试策略增强以及数据质量提升,保持了其核心模型架构。该模型集成了新增量预训练的InternViT与各种预训练的大型语言模型(LLMs),如InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。InternVL 2.5支持多图像和视频数据,通过动态高分辨率训练方法,增强了模型处理多模态数据的能力。010文案写作# 图像识别# 多模态# 大型语言模型
OneGenOneGen是一个为大型语言模型(LLMs)设计的高效单遍生成和检索框架,用于微调生成、检索或混合任务。它的核心思想是将生成和检索任务整合到同一上下文中,通过将检索任务分配给以自回归方式生成的检索令牌,使得LLM能够在单次前向传递中执行两种任务。这种方法不仅降低了部署成本,还显著减少了推理成本,因为它避免了对查询进行两次前向传递计算的需求。010生产力# 单遍处理# 大型语言模型# 检索任务
InternVL2_5-8B-MPOInternVL2.5-MPO是一个先进的多模态大型语言模型系列,它基于InternVL2.5和混合偏好优化构建。该模型整合了新增量预训练的InternViT与各种预训练的大型语言模型,包括InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。InternVL2.5-MPO在新版本中保留了与InternVL 2.5及其前身相同的模型架构,遵循“ViT-MLP-LLM”范式。该模型支持多图像和视频数据,通过混合偏好优化(MPO)进一步提升模型性能,使其在多模态任务中表现更优。010图像生成# 图像处理# 多模态# 大型语言模型
Translation AgentTranslation Agent 是一个使用反思工作流的机器翻译演示项目。它由 Andrew Ng 以及合作者开发,主要利用大型语言模型(LLM)进行文本翻译,并反思翻译结果以提出改进建议。该模型的可定制性高,可以调整翻译风格、处理习语和专有名词,以及针对特定地区或方言进行优化。尽管目前该软件还不够成熟,但已经显示出与传统机器翻译系统相比有时更具竞争力的潜力。010智能翻译# 大型语言模型# 机器翻译# 自定义翻译
Ministral-8B-Instruct-2410Ministral-8B-Instruct-2410是由Mistral AI团队开发的一款大型语言模型,专为本地智能、设备端计算和边缘使用场景设计。该模型在类似的大小模型中表现优异,支持128k上下文窗口和交错滑动窗口注意力机制,能够在多语言和代码数据上进行训练,支持函数调用,词汇量达到131k。Ministral-8B-Instruct-2410模型在各种基准测试中表现出色,包括知识与常识、代码与数学以及多语言支持等方面。该模型在聊天/竞技场(gpt-4o判断)中的性能尤为突出,能够处理复杂的对话和任务。010代码辅助# 代码理解# 多语言支持# 大型语言模型
DeepSeek-R1-Distill-Llama-70BDeepSeek-R1-Distill-Llama-70B 是由 DeepSeek 团队开发的一款大型语言模型,基于 Llama-70B 架构并通过强化学习进行优化。该模型在推理、对话和多语言任务中表现出色,支持多种应用场景,包括代码生成、数学推理和自然语言处理。其主要优点是高效的推理能力和对复杂问题的解决能力,同时支持开源和商业使用。该模型适用于需要高性能语言生成和推理能力的企业和研究机构。010智能聊天机器人# 代码生成# 大型语言模型# 对话
Coding-TutorCoding-Tutor是一个基于大型语言模型(LLM)的编程辅导工具,旨在通过对话式交互帮助学习者提升编程能力。它通过Trace-and-Verify(Traver)工作流,结合知识追踪和逐轮验证,解决编程辅导中的关键挑战。该工具不仅适用于编程教育,还可扩展到其他任务辅导场景,帮助根据学习者的知识水平调整教学内容。项目开源,支持社区贡献。010智能聊天机器人# 大型语言模型# 对话式交互# 开源
Sonus-1Sonus-1是Sonus AI推出的一系列大型语言模型(LLMs),旨在推动人工智能的边界。这些模型以其高性能和多应用场景的多功能性而设计,包括Sonus-1 Mini、Sonus-1 Air、Sonus-1 Pro和Sonus-1 Pro (w/ Reasoning)等不同版本,以满足不同需求。Sonus-1 Pro (w/ Reasoning)在多个基准测试中表现突出,特别是在推理和数学问题上,展现了其超越其他专有模型的能力。Sonus AI致力于开发高性能、可负担、可靠且注重隐私的大型语言模型。020代码辅助# 人工智能# 大型语言模型# 机器学习
InternVL2_5-38BInternVL 2.5是OpenGVLab推出的多模态大型语言模型系列,它在InternVL 2.0的基础上进行了显著的训练和测试策略增强,以及数据质量提升。该模型系列能够处理图像、文本和视频数据,具备多模态理解和生成的能力,是当前多模态人工智能领域的前沿产品。InternVL 2.5系列模型以其高性能和开源特性,为多模态任务提供了强大的支持。020图像生成# 图像识别# 多模态# 大型语言模型
SlowFast-LLaVASlowFast-LLaVA是一个无需训练的多模态大型语言模型,专为视频理解和推理设计。它无需在任何数据上进行微调,就能在多种视频问答任务和基准测试中达到与最先进视频大型语言模型相当甚至更好的性能。010智能聊天机器人# 免训练模型# 多模态学习# 大型语言模型
InternVL2_5-1B-MPOInternVL2_5-1B-MPO是一个多模态大型语言模型(MLLM),它基于InternVL2.5和混合偏好优化(MPO)构建,展示了优越的整体性能。该模型集成了新增量预训练的InternViT与各种预训练的大型语言模型(LLMs),包括InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。InternVL2.5-MPO在模型架构上保留了与InternVL 2.5及其前身相同的“ViT-MLP-LLM”范式,并引入了对多图像和视频数据的支持。该模型在多模态任务中表现出色,能够处理包括图像描述、视觉问答等多种视觉语言任务。010智能聊天机器人# 图像描述# 多模态# 大型语言模型
PetalsPetals是一个开源工具,用于协同运行大型语言模型,例如BLOOM-176B。Petals还提供了一个聊天机器人,通过Petals网络运行BLOOMZ-176B。Petals正在创建一个免费的分布式网络,用于运行文本生成AI,允许用户在不需要支付大量现金的情况下运行AI。010AI开发与编程# 协同运行# 大型语言模型# 文本生成AI
Ferret-UI-Llama8bFerret-UI是首个以用户界面为中心的多模态大型语言模型(MLLM),专为指代表达、定位和推理任务设计。它基于Gemma-2B和Llama-3-8B构建,能够执行复杂的用户界面任务。这个版本遵循了Apple的研究论文,是一个强大的工具,可以用于图像文本到文本的任务,并且在对话和文本生成方面具有优势。010文案写作# 图像文本到文本# 多模态# 大型语言模型
InternVL2_5-4B-MPO-AWQInternVL2_5-4B-MPO-AWQ是一个多模态大型语言模型(MLLM),专注于提升模型在图像和文本交互任务中的表现。该模型基于InternVL2.5系列,并通过混合偏好优化(MPO)进一步提升性能。它能够处理包括单图像和多图像、视频数据在内的多种输入,适用于需要图像和文本交互理解的复杂任务。InternVL2_5-4B-MPO-AWQ以其卓越的多模态能力,为图像-文本到文本的任务提供了一个强大的解决方案。010文案写作# 人工智能# 图像-文本处理# 多模态
Pixtral-Large-Instruct-2411Pixtral-Large-Instruct-2411是由Mistral AI研发的124B参数的大型多模态模型,基于Mistral Large 2构建,展现出前沿级别的图像理解能力。该模型不仅能够理解文档、图表和自然图像,同时保持了Mistral Large 2在文本理解方面的领先地位。它在MathVista、DocVQA、VQAv2等数据集上达到了最先进的性能,是科研和商业应用的强大工具。010图像生成# 图像理解# 多模态# 大型语言模型
CosyVoice 2CosyVoice 2是由阿里巴巴集团的SpeechLab@Tongyi团队开发的语音合成模型,它基于监督离散语音标记,并结合了两种流行的生成模型:语言模型(LMs)和流匹配,实现了高自然度、内容一致性和说话人相似性的语音合成。该模型在多模态大型语言模型(LLMs)中具有重要的应用,特别是在交互体验中,响应延迟和实时因素对语音合成至关重要。CosyVoice 2通过有限标量量化提高语音标记的码本利用率,简化了文本到语音的语言模型架构,并设计了块感知的因果流匹配模型以适应不同的合成场景。它在大规模多语言数据集上训练,实现了与人类相当的合成质量,并具有极低的响应延迟和实时性。030社交媒体# 低延迟# 多语言# 大型语言模型
Diabetica-7BDiabetica-7B是一个针对糖尿病护理领域优化的大型语言模型。它在糖尿病相关的多种任务上表现出色,包括诊断、治疗建议、药物管理、生活方式建议、患者教育等。该模型基于开源模型进行微调,使用特定疾病数据集和微调技术,提供了一个可复现的框架,可以加速AI辅助医疗的发展。此外,它还经过了全面的评估和临床试验,以验证其在临床应用中的有效性。010医疗健康# AI医疗# 临床试验# 大型语言模型
URL Parser OnlineURL Parser Online是一个在线工具,它能够将复杂的URL转换为适合大型语言模型(LLMs)使用的输入格式。这项技术的重要性在于它能够帮助开发者和研究人员更有效地处理和解析URL数据,尤其是在进行网页内容分析和数据抽取时。产品背景信息显示,随着互联网数据量的爆炸式增长,对URL的解析和处理需求日益增加。URL Parser Online以其简洁的用户界面和高效的解析能力,为用户提供了一个便捷的解决方案。该产品目前提供免费服务,定位于开发者和数据分析师。010开发者工具# URL解析# 在线工具# 大型语言模型
InternVL2_5-26B-MPO-AWQInternVL2_5-26B-MPO-AWQ 是由 OpenGVLab 开发的多模态大型语言模型,旨在通过混合偏好优化提升模型的推理能力。该模型在多模态任务中表现出色,能够处理图像和文本之间的复杂关系。它采用了先进的模型架构和优化技术,使其在多模态数据处理方面具有显著优势。该模型适用于需要高效处理和理解多模态数据的场景,如图像描述生成、多模态问答等。其主要优点包括强大的推理能力和高效的模型架构。010文案写作# 图像处理# 多模态# 大型语言模型
Supervised appSupervised AI是一个无代码AI开发平台,利用OpenAI的GPT引擎,构建由您自己的数据支持的监督式大型语言模型。您可以使用我们的自定义模型和数据源,在高准确率和快速开发的环境下构建强大且可扩展的AI。同时,您还可以使用Supervised API将您的AI模型集成到任何地方。020低代码/无代码# 人工智能# 大型语言模型# 快速开发
Dria-Agent-a-7BDria-Agent-a-7B是一个基于Qwen2.5-Coder系列训练的大型语言模型,专注于代理应用。它采用Pythonic函数调用方式,与传统JSON函数调用方法相比,具有单次并行多函数调用、自由形式推理和动作以及即时复杂解决方案生成等优势。该模型在多个基准测试中表现出色,包括Berkeley Function Calling Leaderboard (BFCL)、MMLU-Pro和Dria-Pythonic-Agent-Benchmark (DPAB)。模型大小为76.2亿参数,采用BF16张量类型,支持文本生成任务。其主要优点包括强大的编程辅助能力、高效的函数调用方式以及在特定领域的高准确率。该模型适用于需要复杂逻辑处理和多步骤任务执行的应用场景,如自动化编程、智能代理等。目前,该模型在Hugging Face平台上提供,供用户免费使用。010文案写作# 大型语言模型# 文本生成# 智能代理
OmniParser-v2.0OmniParser 是微软开发的一种先进的图像解析技术,旨在将不规则的屏幕截图转换为结构化的元素列表,包括可交互区域的位置和图标的功能描述。它通过深度学习模型,如 YOLOv8 和 Florence-2,实现了对 UI 界面的高效解析。该技术的主要优点在于其高效性、准确性和广泛的适用性。OmniParser 可以显著提高基于大型语言模型(LLM)的 UI 代理的性能,使其能够更好地理解和操作各种用户界面。它在多种应用场景中表现出色,如自动化测试、智能助手开发等。OmniParser 的开源特性和灵活的许可证使其成为开发者和研究人员的有力工具。010图像生成# 图像识别# 大型语言模型# 屏幕解析
LLM4DecompileLLM4Decompile是一个开源项目,旨在创建并发布第一个专门用于反编译的LLM(大型语言模型),并通过构建首个专注于可重编译性和可执行性的反编译基准测试来评估其能力。该项目通过编译大量C代码样本到汇编代码,然后使用这些数据对DeepSeek-Coder模型进行微调,构建了评估基准Decompile-Eval。020销售管理# 代码反编译# 大型语言模型# 开源项目
InternVL2_5-78BInternVL 2.5是一系列先进的多模态大型语言模型(MLLM),在InternVL 2.0的基础上,通过引入显著的训练和测试策略增强以及数据质量提升,进一步发展而来。该模型系列在视觉感知和多模态能力方面进行了优化,支持包括图像、文本到文本的转换在内的多种功能,适用于需要处理视觉和语言信息的复杂任务。010文案写作# 图像-文本转换# 多模态# 大型语言模型
VideoLLaMA 2VideoLLaMA 2 是一个针对视频理解任务优化的大规模语言模型,它通过先进的空间-时间建模和音频理解能力,提升了对视频内容的解析和理解。该模型在多选视频问答和视频字幕生成等任务上展现了卓越的性能。010音频处理# 大型语言模型# 空间-时间建模# 视频理解
ChatDev AIChatDev是一个虚拟软件公司,由扮演不同角色(如CEO、产品经理、技术总监、程序员、测试员等)的智能体组成。这些智能体通过参与设计、编码、测试等专门的功能研讨会来协作开发软件。ChatDev旨在提供一个易于使用、高度可定制和可扩展的框架,基于大型语言模型(LLM),是研究集体智能的理想场景。它支持定制化设置,如自定义软件开发流程、角色设置等。用户只需使用自然语言描述想法,ChatDev就能高效生成对应的软件。010低代码/无代码# 人工智能# 低代码开发# 大型语言模型
Open Source LLM ToolsOpen Source LLM Tools是一个专注于收集和展示开源大型语言模型(LLM)工具的平台。它提供了一个更新频繁的资源库,帮助开发者和研究者发现和利用最新的开源AI工具。该平台的主要优点在于其高更新频率和对活跃开源AI开发者的聚焦,使得用户能够及时获取到行业的最新动态和技术进展。020开发者工具# AI工具# 大型语言模型# 开发者资源
InternVL2_5-2BInternVL 2.5 是一个先进的多模态大型语言模型系列,它在InternVL 2.0的基础上,通过引入显著的训练和测试策略增强以及数据质量提升,维持了其核心模型架构。该模型整合了新增量预训练的InternViT与各种预训练的大型语言模型,例如InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。InternVL 2.5 支持多图像和视频数据,具备动态高分辨率训练方法,能够在处理多模态数据时提供更好的性能。010文案写作# 动态高分辨率# 图像-文本-文本# 多模态
LLaMA模型LLaMA模型的推理代码,我们正在释放大型语言模型的力量。我们最新版本的Llama现在可供各种规模的个人,创作者,研究人员和企业使用,以便他们可以负责任地进行实验,创新和扩展他们的想法。020AI模型框架AI赋能# LLaMA模型# LLaMA模型的推理代码# 个人使用
ExploreToMExploreToM是由Facebook Research开发的一个框架,旨在大规模生成多样化和具有挑战性的心理理论数据,用于强化大型语言模型(LLMs)的训练和评估。该框架利用A*搜索算法在自定义的领域特定语言上生成复杂的故事结构和新颖、多样化且合理的情景,以测试LLMs的极限。010数据分析# A*搜索# 大型语言模型# 心理理论
InternVL2_5-4BInternVL2_5-4B是一个先进的多模态大型语言模型(MLLM),在InternVL 2.0的基础上进行了核心模型架构的维护,并在训练和测试策略以及数据质量上进行了显著增强。该模型在处理图像、文本到文本的任务中表现出色,特别是在多模态推理、数学问题解决、OCR、图表和文档理解等方面。作为开源模型,它为研究人员和开发者提供了强大的工具,以探索和构建基于视觉和语言的智能应用。010文案写作# Safetensors# TensorBoard# Transformers
ultravox-v0_4_1-llama-3_1-8bfixie-ai/ultravox-v0_4_1-llama-3_1-8b是一个基于预训练的Llama3.1-8B-Instruct和whisper-large-v3-turbo的大型语言模型,能够处理语音和文本输入,生成文本输出。该模型通过特殊的<|audio|>伪标记将输入音频转换为嵌入,并生成输出文本。未来版本计划扩展标记词汇以支持生成语义和声学音频标记,进而可以用于声码器产生语音输出。该模型在翻译评估中表现出色,且没有偏好调整,适用于语音代理、语音到语音翻译、语音分析等场景。010智能翻译# 多模态模型# 大型语言模型# 语音翻译
Praison AIPraison AI 是一个低代码的集中式框架,旨在简化各种大型语言模型(LLM)应用的多代理系统的创建和编排。它强调易用性、可定制性和人机交互。Praison AI 利用 AutoGen 和 CrewAI 或其他代理框架,通过预定义的角色和任务来实现复杂的自动化任务。用户可以通过命令行界面或用户界面与代理进行交互,创建自定义工具,并通过多种方式扩展其功能。010低代码/无代码# 低代码# 可定制性# 多代理系统
Diabetica-1.5BDiabetica-1.5B是一个为糖尿病护理领域特别定制的大型语言模型,它在诊断、治疗建议、药物管理、生活方式建议、患者教育等多个与糖尿病相关的任务中表现出色。该模型基于开源模型开发,并利用特定疾病数据集进行微调,提供了一个可复现的框架,可以加速AI辅助医疗的发展。010医疗健康# AI医疗# 大型语言模型# 糖尿病护理
agentUniverseagentUniverse 是一个基于大型语言模型的多智能体应用开发框架,提供了构建单一智能体和多智能体协作机制的所有必需组件。通过模式工厂,允许开发者构建和自定义多智能体协作模式,轻松构建多智能体应用,并分享不同技术与业务领域的模式实践。020开发者工具# AI# 多智能体# 大型语言模型
InternVL2_5-26B-MPOInternVL2_5-26B-MPO是一个多模态大型语言模型(MLLM),它在InternVL2.5的基础上,通过混合偏好优化(Mixed Preference Optimization, MPO)进一步提升了模型性能。该模型能够处理包括图像、文本在内的多模态数据,广泛应用于图像描述、视觉问答等场景。它的重要性在于能够理解和生成与图像内容紧密相关的文本,推动了多模态人工智能的边界。产品背景信息包括其在多模态任务中的卓越性能,以及在OpenCompass Learderboard中的评估结果。该模型为研究者和开发者提供了强大的工具,以探索和实现多模态人工智能的潜力。010智能聊天机器人# 图像描述# 多模态# 大型语言模型
PPLLaVAPPLLaVA是一个高效的视频大型语言模型,它结合了细粒度视觉提示对齐、用户指令的卷积风格池化的视觉令牌压缩以及CLIP上下文扩展。该模型在VideoMME、MVBench、VideoChatGPT Bench和VideoQA Bench等数据集上建立了新的最先进结果,仅使用1024个视觉令牌,吞吐量提高了8倍。020视频创作# GPU实现# 多模态学习# 大型语言模型
InternVL2_5-8BInternVL2_5-8B是由OpenGVLab开发的一款多模态大型语言模型(MLLM),它在InternVL 2.0的基础上进行了显著的训练和测试策略增强,以及数据质量提升。该模型采用'ViT-MLP-LLM'架构,集成了新增量预训练的InternViT与多种预训练语言模型,如InternLM 2.5和Qwen 2.5,使用随机初始化的MLP projector。InternVL 2.5系列模型在多模态任务上展现出卓越的性能,包括图像和视频理解、多语言理解等。010文案写作# Safetensors# TensorBoard# Transformers
HuatuoGPT-o1-8BHuatuoGPT-o1-8B 是一个专为高级医疗推理设计的医疗领域大型语言模型(LLM)。它在提供最终响应之前会生成一个复杂的思考过程,反映并完善其推理过程。该模型基于LLaMA-3.1-8B构建,支持英文,并且采用'thinks-before-it-answers'的方法,输出格式包括推理过程和最终响应。此模型在医疗领域具有重要意义,因为它能够处理复杂的医疗问题并提供深思熟虑的答案,这对于提高医疗决策的质量和效率至关重要。010文案写作# 医疗# 大型语言模型# 开源
InternVL2_5-4B-MPOInternVL2.5-MPO是一个先进的多模态大型语言模型系列,基于InternVL2.5和混合偏好优化构建。该模型集成了新增量预训练的InternViT和各种预训练的大型语言模型,如InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。它支持多图像和视频数据,并且在多模态任务中表现出色,能够理解和生成与图像相关的文本内容。010图像生成# 图像处理# 多模态# 大型语言模型
Sandbox FusionSandbox Fusion是一个多功能代码沙箱,专为大型语言模型(LLMs)设计。它支持多达20种编程语言,能够全面测试包括编程、数学和硬件编程在内的多个领域。Sandbox Fusion集成了超过10个与编码相关的评估数据集,这些数据集具有标准化的数据格式,并且可以通过统一的HTTP API访问。此外,Sandbox Fusion针对云基础设施部署进行了优化,并在有特权容器时提供内置的安全隔离。产品背景信息显示,Sandbox Fusion由字节跳动有限公司开发,旨在为开发者提供一个安全、高效的代码测试环境。010代码辅助# 云基础设施# 代码沙箱# 多语言支持
AnyParser ProAnyParser Pro 是由 CambioML 开发的一款创新的文档解析工具,它利用大型语言模型(LLM)技术,能够快速准确地从 PDF、PPT 和图像文件中提取出完整的文本内容。该技术的主要优点在于其高效的处理速度和高精度的解析能力,能够显著提高文档处理的效率。AnyParser Pro 的背景信息显示,它是由 Y Combinator 孵化的初创公司 CambioML 推出的,旨在为用户提供一种简单易用且功能强大的文档解析解决方案。目前,该产品提供免费试用,用户可以通过获取 API 密钥来访问其功能。020图像生成# pdf# PPT# 图像识别
Dria-Agent-αDria-Agent-α是Hugging Face推出的大型语言模型(LLM)工具交互框架。它通过Python代码来调用工具,与传统的JSON模式相比,能更充分地发挥LLM的推理能力,使模型能够以更接近人类自然语言的方式进行复杂问题的解决。该框架利用Python的流行性和接近伪代码的语法,使LLM在代理场景中表现更佳。Dria-Agent-α的开发使用了合成数据生成工具Dria,通过多阶段管道生成逼真的场景,训练模型进行复杂问题解决。目前已有Dria-Agent-α-3B和Dria-Agent-α-7B两个模型在Hugging Face上发布。010数据分析# Python# 合成数据# 大型语言模型
Llama-3.3-70B-InstructLlama-3.3-70B-Instruct是由Meta开发的一个70亿参数的大型语言模型,专门针对多语言对话场景进行了优化。该模型使用优化的Transformer架构,并通过监督式微调(SFT)和基于人类反馈的强化学习(RLHF)来提高其有用性和安全性。它支持多种语言,并能够处理文本生成任务,是自然语言处理领域的一项重要技术。010文案写作# Transformer# 多语言# 大型语言模型
SWE-RLSWE-RL 是由 Facebook Research 提出的一种基于强化学习的大型语言模型推理技术,旨在利用开源软件演变数据提升模型在软件工程任务中的表现。该技术通过规则驱动的奖励机制,优化模型的推理能力,使其能够更好地理解和生成高质量的代码。SWE-RL 的主要优点在于其创新性的强化学习方法和对开源数据的有效利用,为软件工程领域带来了新的可能性。该技术目前处于研究阶段,尚未明确商业化定价,但其在提升开发效率和代码质量方面具有显著潜力。010代码辅助# 代码生成# 大型语言模型# 开源
nanoPerplexityAInanoPerplexityAI是一个开源的实现,它是一个大型语言模型(LLM)服务,引用Google的信息。没有复杂的GUI或LLM代理,只有100行Python代码。030搜索引擎优化# nanoperplexityai# Perplexity AI# 大型语言模型
Hermes 3 – Llama-3.1 70BHermes 3是Nous Research公司推出的Hermes系列最新版大型语言模型(LLM),相较于Hermes 2,它在代理能力、角色扮演、推理、多轮对话、长文本连贯性等方面都有显著提升。Hermes系列模型的核心理念是将LLM与用户对齐,赋予终端用户强大的引导能力和控制权。Hermes 3在Hermes 2的基础上,进一步增强了功能调用和结构化输出能力,提升了通用助手能力和代码生成技能。030文案写作# 代码生成# 功能调用# 多轮对话
InternVL2_5-38B-MPOInternVL2.5-MPO是一个先进的多模态大型语言模型系列,基于InternVL2.5和混合偏好优化(MPO)构建。该系列模型在多模态任务中表现出色,能够处理图像、文本和视频数据,并生成高质量的文本响应。模型采用'ViT-MLP-LLM'范式,通过像素unshuffle操作和动态分辨率策略优化视觉处理能力。此外,模型还引入了多图像和视频数据的支持,进一步扩展了其应用场景。InternVL2.5-MPO在多模态能力评估中超越了多个基准模型,证明了其在多模态领域的领先地位。030文案写作# 图像处理# 多模态# 大型语言模型
Make-An-Audio 2Make-An-Audio 2是一种基于扩散模型的文本到音频生成技术,由浙江大学、字节跳动和香港中文大学的研究人员共同开发。该技术通过使用预训练的大型语言模型(LLMs)解析文本,优化了语义对齐和时间一致性,提高了生成音频的质量。它还设计了基于前馈Transformer的扩散去噪器,以改善变长音频生成的性能,并增强时间信息的提取。此外,通过使用LLMs将大量音频标签数据转换为音频文本数据集,解决了时间数据稀缺的问题。020音频处理# 大型语言模型# 扩散模型# 文本到音频
ultravox-v0_4_1-llama-3_1-70bfixie-ai/ultravox-v0_4_1-llama-3_1-70b是一个基于预训练的Llama3.1-70B-Instruct和whisper-large-v3-turbo的大型语言模型,能够处理语音和文本输入,生成文本输出。该模型通过特殊伪标记<|audio|>将输入音频转换为嵌入,并与文本提示合并后生成输出文本。Ultravox的开发旨在扩展语音识别和文本生成的应用场景,如语音代理、语音到语音翻译和口语音频分析等。该模型遵循MIT许可,由Fixie.ai开发。020文案写作# 多模态# 大型语言模型# 文本生成