ONNX模型导出与模型打包
这是是之前的训练colab里导出ONNX模型

#创建虚拟环境
!conda create -n ONNX python=3.8 -y

前面数据集制作有condacolab安转方法

#激活虚拟环境(!空格activate ONNX )
! activate ONNX

#安装pytorch==1.13.1只适用colab没更新的情况
!conda install pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch-cuda=11.7 -c pytorch

#安装依赖
%cd /content/drive/MyDrive/DiffSinger
!pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

#diffsingerdatsaet歌手
#diffsingerdatsaet_acoustic训练模型目录名
#diffsingerdatsaet_acoustic_ONNX生成目录.默认在DiffSinger目录产生
#--expose_gender --expose_velocity根据自己模型添加,如果和我之前config_acoustic.yaml一样就可以这样导出支持Gen参数,支持VEL参数
#导出声音模型
%cd /content/drive/MyDrive/DiffSinger
!python scripts/export.py acoustic --exp diffsingerdatsaet --expose_gender --expose_velocity --out diffsingerdatsaet_acoustic_ONNX
#自动音高导出

导出后可以构建OpenUTAU音源包
官方有详细介绍

我的打包仅供参考
diffsingerdatsaet #文件夹可任意命名

acoustic.onnx #diffsingerdatsaet_acoustic.ONNX

phonemes.txt #diffsingerdatsaet_acoustic.phonemes音素列表

dsconfig.yaml #Diffsinger音源信息文件自己创建

phonemes: phonemes.txt #音素列表
acoustic:diffsingerdatsaet_acoustic.ONNX #你的onnx声学模型
vocoder: nsf_hifigan #所使用的声码器包名
augmentation_args:
random_pitch_shifting:
range: [-5., 5.]
scale: 1.0
random_time_stretching:
domain: log
range: [0.5, 2.0]
scale: 1.0
use_key_shift_embed: true
use_speed_embed: true
#我的预处理和导出设置这样的

character.yaml #OpenUTAU音源信息

text_file_encoding: utf-8
portrait_opacity: 0.67
default_phonemizer: OpenUtau.Core.DiffSinger.DiffSingerPhonemizer
singer_type: diffsinger

character.txt #音源基本信息文件

name=diffsingerdatsaet_acoustic
image= #图
voice= #作者
web= #网址

这样就声音就可以了,如果没有音高模型就可以直接使用导入OpenUTAU
如果加入音高分别新建两个文件夹dsdur、dspitch按照官方的导入
https://openvpi-docs.feishu.cn/wiki/NmPdwuMxei03i1kQHHhcJWBJnce