微信扫码
添加专属顾问
我要投稿
SpeechLLM 是一种多模态语言模型 (LLM),专门用于分析和预测对话中说话者的元数据。这种先进的模型集成了语音编码器,可将语音信号转换为有意义的语音表示。这些嵌入与文本指令相结合,然后由 LLM 处理以生成预测。
该模型输入16 KHz的语音音频文件,并预测以下内容:
SpeechActivity:音频信号是否包含语音(True/False)
文字记录:音频的 ASR 文字记录
发言者的性别(女/男)
演讲者的年龄(青年/中年/老年)
说话者的口音(非洲/美洲/凯尔特/欧洲/大洋洲/南亚/东南亚)
说话者的情绪(快乐/悲伤/愤怒/无所谓/沮丧)
Github:https://github.com/skit-ai/SpeechLLM
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-16
AI导演来了!UniVA:你的全能视频创作智能体
2025-12-15
万字拆解UI-TARS 2.0,看懂豆包手机背后的核心技术
2025-12-14
秒杀传统 TTS?!Gemini 原生中文 TTS 体验 + 提示词模板
2025-12-14
别被“多模态”骗了:用一本200页的教材,我测出了GPT-5.2和Gemini的物种代差
2025-12-11
Qwen3-Omni新升级:声形意合,令出智随!
2025-12-11
首发实测智谱 GLM-TTS:3秒克隆我的声音,连「哎等等这bug怎么回事」都学会了
2025-12-11
硅基流动上线智谱视觉模型 GLM-4.6V
2025-12-11
GLM-TTS技术报告:基于多奖励强化学习的可控发音语音合成
2025-09-19
2025-11-10
2025-12-06
2025-10-22
2025-10-31
2025-09-25
2025-12-07
2025-11-03
2025-11-19
2025-11-20
2025-08-04
2025-05-26
2025-05-13
2025-04-08
2025-04-05
2025-03-30
2025-03-26
2025-03-05