欢迎光临散文网 会员登陆 & 注册

草履虫都能看懂的AI阿夸使用指北

2023-02-12 21:49 作者:ChrisPreston  | 我要投稿

目录

  • 疑难解答

  • 如何使用AI阿夸进行二创

  • 如何使用voicemeeter进行声卡跳线

  • 结语



疑难解答

配置要求

推荐内存16g,推荐显卡1060 6g及以上,仅限支持CUDA的n卡。低于此推荐配置并非完全不能使用,但是要求具备一定的动手能力。

运行流程

我需要使用推理图形界面:双击推理图形界面.bat,待出现一个网页链接时ctrl+鼠标左键进入,不要关掉窗口!请使用wav格式音频作为输入。

我需要使用变声器:双击变声器自动变调(beta).bat,按y同意协议,不要关掉窗口,打开你的DAW,新建项目,采样率44.1khz,在轨道上挂载对应VST插件,打开实时录制和监听。

.bat文件运行闪退/无法运行

首先检查你的bat文件内容是否与视频内一致,包括空格、换行,有没有错误删除部分内容。

确保无误后重新安装anaconda,如果你电脑没有安装过python相关环境全部保持默认一路点下来就行,如果你电脑安装过python请移除,并在安装anaconda时勾选add python to path,如何移除python请合理运用搜索引擎。

运行报错No module named xxx

在bat最前面加上一行set PYTHONPATH=.并回车

我有多个GPU,如何指定在特定GPU上运行?/为什么程序在我的集显上跑?

在bat最前面加上一行set CUDA_VISIBLE_DEVICES=n,n的值为你任务管理器内英伟达显卡对应的编号,比如我任务管理器内显示的是GPU0


所以我就填set CUDA_VISIBLE_DEVICES=0

变声器有输入无输出

首先如果没有正常提取到人声是不会输出的!这样可以避免各种底噪被当成怪叫输出,所以测试请用正常人声,要不然没有声音

然后如果还是没声音看看这篇

https://www.bilibili.com/read/cv21741150?spm_id_from=333.999.list.card_article.click

确保没有以上问题,但还是无法运行

请检查有没有坏包,即进行SHA256校验

依赖包SHA256: ef5f2c239cf5ff7c0dee223ca22a17abe429f5690a16204292d3c0c00fc41fb9

程序SHA256: 7b1bc93465cf2a33f4b567c19c6011bfc9de783416fa7b526816ab3bb94a5f03

还是无法解决问题

可以向up主私信,请完整的描述问题

绝大多数的问题应该都是环境问题,实际上,直接询问搜索引擎或者chatGPT要比询问up主有效许多。

二创指北

GUI参数详解


GPU加速:装饰功能,默认开着就好

自动变调:会自动调整音高防止破音,但是对过于低的音效果不佳,需要手动矫正

加速倍率:常用数值:1(仅再输入非常干净追求极限效果时用,推理速度很慢)、10(推荐,推理较慢,但是几乎是无损音质)、20(默认,推理速度适中,如果不追求极致效果的推荐使用)、50(不推荐,全损音质,仅用作实时变声器和预览音频,推理速度最快)

变调:字面意思,升高/降低多少个半音

输出有电音、噪声、断气怎么办

模型经过测试,在绝对干净的推理音频输入下(测试音频来自diffsinger、synthesizer v)生成的mel谱,与数据集mel谱及hololive提供的参考用声卡直出音频mel谱无明显差异,可以认为是与湊あくあ完全一致的声线。模型经过调整能够保证中文不口糊不大舌头。
音域测试覆盖女声常见音域,在极限音高附近音色可能会有泄露。
f0(基频)提取算法使用crepe,无降噪
综上,你应该保证输入音频的纯净度
    推荐输入音频:

歌声合成引擎直出(如ACE Studio、DiffSinger、X Studio、Synthesizer V、OpenUTAU)

录制的自己的声音(推荐设备iPhone7以上,不要使用蓝牙设备,减少环境噪声、环境混响、齿音、口水音、喷麦等情况出现,与录音设备保持合适的距离)
    不推荐的输入音频:
❌消除bgm的原唱人声(原因:大部分歌曲很难获取干净的人声,并且直接拿原唱人声转换会有一种原唱套变声器的感觉,没有创作空间)
❌明显的有损音频
❌过于高/低的音高

歌声合成引擎相关常用工具汇总

vsqx分享平台:https://www.vsqx.top/   (获取常见引擎有参/无参的工程文件)

bowlroll:https://bowlroll.net/    (全能型配布网站)

niconico:https://www.nicovideo.jp/      (部分作者可能会在自己网站配布,请留意)

openvpi转换工具:https://openvpi.github.io/        (可以转换不同引擎的工程文件)

在线版转换工具:https://sdercolin.github.io/utaformatix3/   (可以转换不同引擎的工程文件)

*使用前请仔细阅读创作者给出的协议,并标明出处。

没有我想做的歌怎么办?

自己唱,或者将分离bgm的原唱放进Melodyne,可以轻松的获取音高,方便扒谱。

使用AI创作出好作品的秘诀

将创作的主导权掌握在自己手里,能少用AI就少用AI,AI是非常好用的工具,正因如此我们要学会合理的利用工具,不要被工具所利用。从头到尾全部由AI制作的作品会被鉴定为电子垃圾,请不要让这种情况出现。

用voicemeeter进行声卡跳线

这里使用voicemeeter基础版作为示范

voicemeeter界面

按照图中这样子设置,将VIRTUAL INPUT设为独奏,HARDWARE OUT设备选为你想要监听输出的设备(必须为MME开头的),音量尽量保持不动,因为数据集已经匹配EBU R128响度,擅自更改音量可能会导致炸麦(我的麦真的很差吗.jpg),输入音量随意。

DAW以AU为例,依次点开编辑-首选项-音频硬件,按照上图设置,输入为你的麦克风名(不要使用虚拟麦克风),输出为VoiceMeeter Input,类型MME,其他保持默认。

然后在系统设置中将你的默认输入设备选为VoiceMeeter Output,测试一下,然后你就可以愉快的使用阿夸声线打游戏或者玩弄hxd了。

结语

阿夸是虚拟直播,正因为是虚拟的,所以二创会很大程度的影响到这个角色的形象,所以创作者们应该认真对待每一个二创作品。因为人无完人,所以阿夸的扮演者(中之人)并不能完美的唱好每一首歌,这时候就可以使用AI弥补这个遗憾,让这个虚拟形象更鲜活一些。当然,如果你觉得阿夸这个角色你可以扮演的更好,你可以随意使用AI阿夸,我没有意见,前提是你真的可以扮演的更好。


草履虫都能看懂的AI阿夸使用指北的评论 (共 条)

分享到微博请遵守国家法律