Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)AI资讯-AI软件-网赚项目-副业赚钱-互联网创业-资源整合-电脑软件wangyi-AI乐园
Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)
此内容为免费资源,请登录后查看
R0
免费资源

 

软件介绍

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

Linly-Dubbing是一个智能视频多语言AI配音和翻译工具,该项目在YouDub-webui的基础上进行拓展和优化。Linly-Dubbing 在多语言配音的自然性和准确性方面达到了新的高度,适用于国际教育、全球娱乐内容本地化等多种场景,帮助团队将优质内容传播到全球各地。

软件截图

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

 

软件功能

今天分享一个视频多语言AI配音的项目——Linly-Dubbing。该项目作者提供一键处理视频的功能,你只需要填入视频链接,就可以得到该视频翻译后并添加字幕的视频。

该项目的部署过程中确实遇到了一些问题,踩了很多坑。除了提供整合包之外,我还为那些打算自行部署的朋友们准备了部署过程中出现的问题的解决方案。

 

视频详情

如何使用

使用很简单,首先来到一键自动化这里。

视频下载

输入你想要处理的视频URL。

该项目视频下载使用的是yt-dlp项目,支持数千个网站下载,具体支持哪些网站可以点击下方链接进行查看。

📢需注意的是下载国外的网站视频时需开启对应的网络环境。

https://github.com/yt-dlp/yt-dlp/blob/master/supportedsites.md

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

然后分辨率这里根据你原视频选择,如果原视频没4K的,你选4K也没有用。或者保持默认也可以。

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

人声分离

这里选择对应的人声分离模型,不同的模型处理的效率和质量也不一样。

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

语音识别ASR

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

这部分用来识别视频中的声音生成对应的文本。

ASR模型有两个选择:

WhisperX

WhisperX 是一个基于OpenAI开源项目Whisper的语音识别工具,具备单词级时间戳和说话者辨识功能,支持高效准确的语音转文本。

FunASR

FunASR 是由阿里巴巴集团的达摩院开发的一个端到端的语音识别工具包,旨在连接学术研究和工业应用。支持语音识别(ASR)、语音活动检测(VAD)、标点恢复、语言模型、说话人验证、说话人分离和多人对话语音识别等。

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

如果选择WhisperX的话需要选择模型大小。配置较低的话可以选择tiny

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

如果你视频中只有一个人说话,取消勾选分离多个说话人选项。如果是多个,则需要指定最小说话人数最大说话人数

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

字幕翻译

设置翻译的方式和最后翻译的语言。

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

翻译方式有5种。默认是LLM(本地大模型进行翻译)。

OpenAI

使用gpt模型进行翻译。

使用该选项时需要到项目根目录下的.env文件设置OPENAI_API_KEY

LLM

使用Qwen1.5-4B-Chat模型

Google Translate

谷歌翻译

Bing Translate

Bing翻译

ERNIE

ERNIE(Enhanced Representation through kNowledge IntEgration)是由百度提出的一系列预训练语言模型,旨在通过整合知识图谱等多源丰富知识来增强文本表示的效果。ERNIE模型在自然语言处理(NLP)领域取得了显著的成果,特别是在中文语料的处理上。

使用该选项时需要到项目根目录下的.env文件设置BAIDU_API_KEY

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

📢注意注意,坑来了!

如果你选择的是LLM选项,可能会遇到这个问题:总结失败

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

这是由于该项目使用4B的模型,有时候这个大模型能力不足导致的。

怎么解决?

  1. 重新再点击生成,多尝试几次就可以。(亲测,刚开始我以为是我环境配置的问题,结果同样的设置,重新点击生成后又成功了)
  2. 换个翻译方式,别死磕本地LLM,换个OpenAI的,很稳定。
  3. 如果你既没有openAI的网络环境,还想要稳定的话,直接选Google TranslateBing Translate。直接翻译完事。

目标语言选择你最后要翻译的结果语言。

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

语音合成

将翻译好的文本内容合成对应的语音。

语音生成方法有三种:

xtts

XTTS(eXtended Text-to-Speech)是一个先进的文本转语音(TTS)模型,它能够通过一个简短的6秒音频剪辑克隆不同语言的语音。

CosyVoice

CosyVoice 是阿里巴巴通义实验室开源的多语言、多情感声音克隆模型,专注于自然语音生成,支持多语言、音色和情感控制。

EdgeTTS

微软 Microsoft Edge 的在线文本转语音服务

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

目标语言跟上面保持一致。如果你选择的是EdgeTTS,可以在EdgeTTS声音选择选择对应的声音。

Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

视频合成

对最后输出的视频进行设置。根据自己的需要选择即可。Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

合成

最后点击Submit等待视频处理。Linly-Dubbing,一键视频多语言AI配音,视频翻译,字幕生成,人声分离,自动下载视频(WIN/MAC)

本地部署的问题

如果你只使用整合包可以直接忽略这部分,这部分是给想自己本地部署的小伙伴们一个参考。

问题一

Model has been downloaded but the SHA256 checksum does not not match. Please retry loading the model.

报错说模型SHA256 校验和不匹配。怀疑下载过程中文件损坏,重新下载了,还是报错。

解决方法 Windows

C:/Users/XXX/.cache/torch/whisperx-vad-segmentation.bin

MAC

/Users/xxxx/.cache/torch/whisperx-vad-segmentation.bin

whisperx和Torch的BUG,目录下的.bin文件删除。解决。

问题二

Library cublas64_12.dll is not found or cannot be loaded

安装的torch版本问题。我之前安装的版本是

pip install torch==2.3.1 torchvision==0.18.1 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu118

重新安装cuda12.1版本的torch就可以。

pip install torch==2.3.1 torchvision==0.18.1 torchaudio==2.3.1 --index-url https://download.pytorch.org/whl/cu121

问题三

cosyvoice.utils.common.ras_sampling

使用cosyvoice遇到的问题。

cosyvoice模型的问题,这个是由于cosyvoice模型部分添加了一个采样器,但 GitHub 上开源的代码中没有包含该采样器。

解决方法 打开项目目录下的models/TTS/CosyVoice-300M/cosyvoice.yaml文件

屏蔽这段代码,解决。

#    sampling: !name:cosyvoice.utils.common.ras_sampling
#        top_p: 0.8
#        top_k: 25
#        win_size: 10
#        tau_r: 0.1

问题四

unknown format: 3

使用cosyvoice遇到的问题。

修改tools/step040_tts.py文件中的adjust_audio_length函数。

def adjust_audio_length(method,wav_path, desired_length, sample_rate = 24000, min_speed_factor = 0.6, max_speed_factor = 1.1):
    if method == 'cosyvoice':
        try:
            data, sr = sf.read(wav_path)
            temp_wav_path = wav_path.rsplit('.', 1)[0] + '_temp.wav'
            sf.write(temp_wav_path, data, sr, subtype='PCM_16')
        except Exception as e:
            print(f"Error preprocessing audio: {e}")
            return None, None
    else:
        temp_wav_path=wav_path

    try:
        wav, sample_rate = librosa.load(temp_wav_path, sr=sample_rate)
    except Exception as e:
        if temp_wav_path.endswith('.wav'):
            temp_wav_path = temp_wav_path.replace('.wav', '.mp3')
        wav, sample_rate = librosa.load(temp_wav_path, sr=sample_rate)
    current_length = len(wav)/sample_rate
    speed_factor = max(
        min(desired_length / current_length, max_speed_factor), min_speed_factor)
    logger.info(f"Speed Factor {speed_factor}")
    desired_length = current_length * speed_factor
    if temp_wav_path.endswith('.wav'):
        target_path = temp_wav_path.replace('.wav', f'_adjusted.wav')
    elif temp_wav_path.endswith('.mp3'):
        target_path = temp_wav_path.replace('.mp3', f'_adjusted.wav')
    stretch_audio(temp_wav_path, target_path, ratio=speed_factor, sample_rate=sample_rate)
    wav, sample_rate = librosa.load(target_path, sr=sample_rate)
    return wav[:int(desired_length*sample_rate)], desired_length

修改tools/step040_tts.py116行

wav, length = adjust_audio_length(method,output_path, end-start)

问题五

生成的视频有水印问题。

修改tools/step050_synthesize_video.py文件

def synthesize_all_video_under_folder(folder, subtitles=True, speed_up=1.00, fps=30, background_music=None, bgm_volume=0.5, video_volume=1.0, resolution='1080p', watermark_path='docs/linly_watermark.png'):
    watermark_path = None if not os.path.exists(watermark_path) else watermark_path
    output_video = None
    for root, dirs, files in os.walk(folder):
        if 'download.mp4' in files:
            output_video = synthesize_video(root, subtitles=subtitles,
                            speed_up=speed_up, fps=fps, resolution=resolution,
                            background_music=background_music,
                            watermark_path=None, bgm_volume=bgm_volume, video_volume=video_volume)
        # if 'download.mp4' in files and 'video.mp4' not in files:
        #     output_video = synthesize_video(root, subtitles=subtitles,
        #                      speed_up=speed_up, fps=fps, resolution=resolution,
        #                      background_music=background_music,
        #                      watermark_path=watermark_path, bgm_volume=bgm_volume, video_volume=video_volume)
        # elif 'video.mp4' in files:
        #     output_video = os.path.join(root, 'video.mp4')
        #     logger.info(f'Video already synthesized in {folder}')
    return f'Synthesized all videos under {folder}', output_video

以上就是我部署过程中遇到的问题。希望可以帮到大家。

    本站内容均转载于互联网,并不代表本站立场!如若本站内容侵犯了原著者的合法权益,可联系我们进行处理! 拒绝任何人以任何形式在本站发表与中华人民共和国法律相抵触的言论!
    THE END
    喜欢就支持一下吧
    点赞13 分享
    评论 抢沙发
    头像
    欢迎您留下宝贵的见解!
    提交
    头像

    昵称

    取消
    昵称表情代码图片

      暂无评论内容