欢迎光临散文网 会员登陆 & 注册

ONNX模型导出与模型打包

2023-08-18 06:11 作者:日出日落大太阳都无所  | 我要投稿

这是是之前的训练colab里导出ONNX模型


#创建虚拟环境

!conda create -n ONNX python=3.8 -y

前面数据集制作有condacolab安转方法

#激活虚拟环境(!空格activate ONNX )

! activate ONNX

#安装pytorch==1.13.1只适用colab没更新的情况

!conda install pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch-cuda=11.7 -c pytorch

#安装依赖

%cd /content/drive/MyDrive/DiffSinger

!pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

#diffsingerdatsaet歌手

#diffsingerdatsaet_acoustic训练模型目录名

#diffsingerdatsaet_acoustic_ONNX生成目录.默认在DiffSinger目录产生

#--expose_gender --expose_velocity根据自己模型添加,如果和我之前config_acoustic.yaml一样就可以这样导出支持Gen参数支持VEL参数

#导出声音模型

%cd /content/drive/MyDrive/DiffSinger

!python scripts/export.py acoustic --exp diffsingerdatsaet --expose_gender --expose_velocity --out diffsingerdatsaet_acoustic_ONNX

#自动音高导出

导出后可以构建OpenUTAU音源包

官方有详细介绍

我的打包仅供参考

diffsingerdatsaet            #文件夹可任意命名

acoustic.onnx     #diffsingerdatsaet_acoustic.ONNX

phonemes.txt      #diffsingerdatsaet_acoustic.phonemes音素列表

dsconfig.yaml     #Diffsinger音源信息文件自己创建

phonemes: phonemes.txt    #音素列表

acoustic:diffsingerdatsaet_acoustic.ONNX   #你的onnx声学模型

vocoder: nsf_hifigan      #所使用的声码器包名

augmentation_args:

  random_pitch_shifting:

    range: [-5., 5.]

    scale: 1.0

  random_time_stretching:

    domain: log

    range: [0.5, 2.0]

    scale: 1.0

use_key_shift_embed: true

use_speed_embed: true

#我的预处理和导出设置这样的

character.yaml    #OpenUTAU音源信息

text_file_encoding: utf-8

portrait_opacity: 0.67

default_phonemizer: OpenUtau.Core.DiffSinger.DiffSingerPhonemizer

singer_type: diffsinger

character.txt     #音源基本信息文件

name=diffsingerdatsaet_acoustic

image=           #图

voice=            #作者

web=              #网址

这样就声音就可以了,如果没有音高模型就可以直接使用导入OpenUTAU

如果加入音高分别新建两个文件夹dsdur、dspitch按照官方的导入

https://openvpi-docs.feishu.cn/wiki/NmPdwuMxei03i1kQHHhcJWBJnce

ONNX模型导出与模型打包的评论 (共 条)

分享到微博请遵守国家法律