-
Notifications
You must be signed in to change notification settings - Fork 175
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
【修复】关于Windows下faster-whisper使用GPU推理导致崩溃的处理方法 #31
Comments
非常感谢您的说明!!! |
感谢,这项目折腾了一天才跑起来,运用了你的commit修复 @Chenyme release V0.8.3是否应该撤回一下,因为这个commit下文件夹还是“models”但代码里路径已经改了,导致本地模型直接报错 |
你好!感谢反馈!
|
了解啦。由于我之前操作有误,导致所有的Tag标签中,每个标签对应的项目代码都是上一个版本的内容,一直未做调整。实在不好意思啊(┬┬﹏┬┬) 所以Git项目,请以main分支为准。 |
@Chenyme 另外请问下要如何本地加载原版的Whisper模型? Logs
模型是直接从hf上clone的 File list
|
启用本地模型只支持fast-whisper的模型哈 具体使用可参考AAVT文档中的本地模型加载使用说明 |
@Chenyme 主贴的这个fix能整合一下嘛?这个问题我这里100%会出现,每次新版本我都得改代码 |
好滴!最近期末考,可能晚点会合并😃 |
本 issue 严格意义上并非此项目的问题,根本原因出在了 faster-whisper 库中。以防有人遇到和我同样的问题,仅在此分享我的解决方式。
问题描述
在Windows的NVidia GPU环境下,选择使用本地的 faster-whisper 进行视频转文字的任务时,由于 faster-whisper 库自身存在的已知 issue,可能导致
faster_whisper_result
函数在被调用完毕即将返回结果时崩溃,表现为终端在输出类似以下内容后:紧接着就会直接崩溃,不会产生任何报错信息。pdb 等调试器同样不会返回报错。在 Windows 的 Event Viewer 中可以看到程序的错误退出日志。
临时解决办法
由于是 faster-whisper 自身的问题,参考该库 issue 中的临时解决方式,可以使用多进程来规避主进程的崩溃。这样 faster-whisper 所在的进程崩溃了也不会导致本项目主程序的崩溃。
具体代码改动可以参考这个 commit。核心修改为
project/utils/utils2.py
中添加一个runWhisperSeperateProc
函数,之中使用新的进程调用原本的faster_whisper_result
函数。本解法已知缺点
st.session_state
,所以理论上应该是安全的和本 issue 内容无直接关联的PS: 重构后的界面挺好的;在个人的测试中,本地 LLM 的翻译能力 aya:8B 较为出众
The text was updated successfully, but these errors were encountered: