LlasaLlasa是一个基于Llama框架的文本到语音(TTS)基础模型,专为大规模语音合成任务设计。该模型利用16万小时的标记化语音数据进行训练,具备高效的语言生成能力和多语言支持。其主要优点包括强大的语音合成能力、低推理成本和灵活的框架兼容性。该模型适用于教育、娱乐和商业场景,能够为用户提供高质量的语音合成解决方案。目前该模型在Hugging Face上免费提供,旨在推动语音合成技术的发展和应用。
whisper-diarizationwhisper-diarization是一个结合了Whisper自动语音识别(ASR)能力、声音活动检测(VAD)和说话人嵌入技术的开源项目。它通过提取音频中的声音部分来提高说话人嵌入的准确性,然后使用Whisper生成转录文本,并通过WhisperX校正时间戳和对齐,以减少由于时间偏移导致的分割错误。接着,使用MarbleNet进行VAD和分割以排除静音,TitaNet用于提取说话人嵌入以识别每个段落的说话人,最后将结果与WhisperX生成的时间戳关联,基于时间戳检测每个单词的说话人,并使用标点模型重新对齐以补偿小的时间偏移。
EMOVAEMOVA(EMotionally Omni-present Voice Assistant)是一个多模态语言模型,它能够进行端到端的语音处理,同时保持领先的视觉-语言性能。该模型通过语义-声学解耦的语音分词器,实现了情感丰富的多模态对话,并在视觉-语言和语音基准测试中达到了最先进的性能。
whisper-ner-v1Whisper-NER是一个创新的模型,它允许同时进行语音转录和实体识别。该模型支持开放类型的命名实体识别(NER),能够识别多样化和不断演变的实体。Whisper-NER旨在作为自动语音识别(ASR)和NER下游任务的强大基础模型,并且可以在特定数据集上进行微调以提高性能。
Supertone PlaySupertone Play是一个专注于语音克隆和AI语音内容创作的平台。它利用先进的AI技术,让用户能够通过简单的语音输入,创造出个性化的语音内容。这种技术可以广泛应用于娱乐、教育、商业等多个领域,为用户提供了一种全新的表达和创作方式。平台的语音克隆功能可以让用户在短时间内创建出独特的语音模型,而AI语音内容创作则可以根据用户的需求生成高质量的语音内容。这种技术的主要优点是高效、个性化和创新性,能够满足不同用户在语音创作方面的需求。
Encounter AI AdvisorEncounter AI - Advisor是一款利用SRI的隐马尔可夫模型(HMM)基础的语音识别技术,为多单位餐厅运营商提供实时的音频监控服务。它通过先进的技术,精准跟踪和分析餐厅层面的每一段对话,消除了常见的“他说/她说”的主观性问题,为零售领导者提供实时对话分析,帮助他们实现目标,增加收入。
LSLMListening-while-Speaking Language Model (LSLM)是一款旨在提升人机交互自然度的人工智能对话模型。它通过全双工建模(FDM)技术,实现了在说话时同时监听的能力,增强了实时交互性,尤其是在生成内容不满意时能够被打断和实时响应。LSLM采用了基于token的解码器仅TTS进行语音生成,以及流式自监督学习(SSL)编码器进行实时音频输入,通过三种融合策略(早期融合、中期融合和晚期融合)探索最佳交互平衡。