部署:
git clone https://github.com/raindrop213/anki-scene-memory.git
pip install -r requirements.txt
Anki:
- 在 Anki 安装 AnkiConnect
- 导入我准备的 Anki模版
语音TTS:
- 来自项目 vits-simple-api
- 为了方便,这里有我打包好的两个版本 整合包CPU(0.8G) / 整合包GPU(1.96G)(包含zomehwh发布的804个语音模型)
Mecab:
- 下载unidic词典(774MB)(词典的数据托管于 AWS 开放数据赞助计划。您可以在此处阅读公告)
- 解压到files文件夹中
设置:
- 按需修改config.yaml(注意看Mecab中unidic词典的路径对不对)
- 一般分为manga和novel两种模式,可自由更改牌组和牌模板,区别在于还有是否发送截图。
(其他可选) OCR:
- manga-ocr 截图并识别日文
preview-manga.mp4
preview-novel.mp4
- 可能您已经看出问题了,毕竟是ai,正确是案内人,vits读错了,在这里放个例子,重点还是要看词典的读音,请以weblio为准,有道moji发音都经常出错的。
- 漫画是我用 mokuro 提取的ocr文字,只是方便点(点击复制是我自己加的,给动手能力强的抛砖引玉),错误还是偶尔会有的,漫画还是请用 manga-ocr + snipaste 来识别吧,这完全够用了
- 语音我这打包了一个整合包:vits-simple-api_gpu_v0.5.3_anon.7z(1.73G)
- 这个anki-scene-memory整合包还在打包中,晚点发