Moonshine 将 AI 转写带到本地——无需联网、无需付费、无需担心隐私。
moonshine-small 加持,安静环境下 WER 仅 7.84%,端到端延迟 <300ms。
不是云端转写的廉价替代品,而是重新定义本地会议记录体验的产品。
Electron + Python 子进程,数据流清晰,性能与体验兼得。
在隐私性、延迟、跨平台等维度全面对比主流方案。
| 特性 | 🌙 Moonshine | 讯飞听见 | Otter.ai | Whisper Desktop |
|---|---|---|---|---|
| 运行方式 | ● 完全本地 | ○ 云端 | ○ 云端 | ● 本地 |
| 实时字幕 | ● 支持 | ● 支持 | ● 支持 | ○ 批量处理 |
| 系统内录 | ● WASAPI / BlackHole | △ 部分支持 | ○ 不支持 | ○ 不支持 |
| 端到端延迟 | <300ms | 1-3s | 2-5s | N/A(批量) |
| 使用成本 | ● 完全免费 | ○ 付费订阅 | ○ 付费订阅 | ● 免费 |
| 隐私风险 | ● 零风险 | ○ 数据留厂商 | ○ 数据留厂商 | ● 零风险 |
| 跨平台桌面 | ● Win/Mac/Linux | ● Win/Mac | ● 全平台 | △ 需手动配置 |
| 开箱即用 | ● 安装包 | ● App | ● App | ○ 命令行 |
| 双路采集 | ● 原生支持 | ○ 不支持 | ○ 不支持 | ○ 不支持 |
| 开源 | ● MIT 开源 | ○ 闭源 |
技术规格
规格一览模型 moonshine-small streaming 参数量 123M WER(英文) 7.84% 模型大小 95MB 采样率 16kHz Chunk 大小 160ms 推理延迟 <80ms 端到端延迟 <300ms 🚀
安装只需 3 步无需配置环境,无需注册账号,克隆即可运行。 1
克隆项目
git clone https://github.com/xiaopengs/moonshine-meeting-assistant.git2
安装依赖
npm install && pip install -r requirements.txt3
启动应用
npm start — 首次运行自动下载模型(约 95MB)让每一次会议都被认真对待
开源免费,本地运行,隐私无忧
MIT License · 完全开源 · 商业可用
|