WeSTWeST是一个开源的语音识别转录模型,以300行代码的简洁形式,基于大型语言模型(LLM)实现语音到文本的转换。它由一个大型语言模型、一个语音编码器和一个投影器组成,其中仅投影器部分可训练。WeST的开发灵感来源于SLAM-ASR和LLaMA 3.1,旨在通过简化的代码实现高效的语音识别功能。
CosyVoice语音生成大模型2.0-0.5BCosyVoice语音生成大模型2.0-0.5B是一个高性能的语音合成模型,支持零样本、跨语言的语音合成,能够根据文本内容直接生成相应的语音输出。该模型由通义实验室提供,具有强大的语音合成能力和广泛的应用场景,包括但不限于智能助手、有声读物、虚拟主播等。模型的重要性在于其能够提供自然、流畅的语音输出,极大地丰富了人机交互的体验。
Encounter AI AdvisorEncounter AI - Advisor是一款利用SRI的隐马尔可夫模型(HMM)基础的语音识别技术,为多单位餐厅运营商提供实时的音频监控服务。它通过先进的技术,精准跟踪和分析餐厅层面的每一段对话,消除了常见的“他说/她说”的主观性问题,为零售领导者提供实时对话分析,帮助他们实现目标,增加收入。
pdf-to-podcastpdf-to-podcast是一个基于人工智能技术的生产力工具,能够将PDF文档转换成播客节目。它使用OpenAI的文本到语音模型和Google Gemini技术,将PDF内容处理成适合音频播客的自然对话,并输出为MP3文件。该工具的主要优点是能够将静态的文档内容转化为动态的音频内容,方便用户在移动设备上收听,同时也可以作为播客节目的内容来源。
SpeechGPT 2.0-previewSpeechGPT 2.0-preview 是一款由复旦大学自然语言处理实验室开发的先进语音交互模型。它通过海量语音数据训练,实现了低延迟、高自然度的语音交互能力。该模型能够模拟多种情感、风格和角色的语音表达,同时支持工具调用、在线搜索和外部知识库访问等功能。其主要优点包括强大的语音风格泛化能力、多角色模拟以及低延迟交互体验。目前该模型仅支持中文语音交互,未来计划扩展到更多语言。
LSLMListening-while-Speaking Language Model (LSLM)是一款旨在提升人机交互自然度的人工智能对话模型。它通过全双工建模(FDM)技术,实现了在说话时同时监听的能力,增强了实时交互性,尤其是在生成内容不满意时能够被打断和实时响应。LSLM采用了基于token的解码器仅TTS进行语音生成,以及流式自监督学习(SSL)编码器进行实时音频输入,通过三种融合策略(早期融合、中期融合和晚期融合)探索最佳交互平衡。
WhisperNERWhisperNER是一个结合了自动语音识别(ASR)和命名实体识别(NER)的统一模型,具备零样本能力。该模型旨在作为ASR带NER的下游任务的强大基础模型,并可以在特定数据集上进行微调以提高性能。WhisperNER的重要性在于其能够同时处理语音识别和实体识别任务,提高了处理效率和准确性,尤其在多语言和跨领域的场景中具有显著优势。
BetterWhisperXBetterWhisperX是一个基于WhisperX改进的自动语音识别模型,它能够提供快速的语音转文字服务,并具备词级时间戳和说话人识别功能。这个工具对于需要处理大量音频数据的研究人员和开发者来说非常重要,因为它可以大幅提高语音数据处理的效率和准确性。产品背景基于OpenAI的Whisper模型,但做了进一步的优化和改进。目前,该项目是免费且开源的,定位于为开发者社区提供更高效、更准确的语音识别工具。