欢迎光临散文网 会员登陆 & 注册

chatgpt api+azure Speech Studio+ue5 metahuman相关资料

2023-03-02 22:02 作者:草皮子  | 我要投稿

有很多人要分享代码,其实代码很少的,我也是四处找的被人分享的代码,组合起来用的,现在我把这些都贴下面,感兴趣的拿去玩吧.


首先,整个流程

1,按回车后录入几秒声音,发送到azure获得文本

2,将文本发送到chatgpt获得AI反馈的文本

3,将catagpt发送到azure获得声音

4,使用c#的很简单的程序获得当前系统的声音大小,用udp发送到ue5

5,ue5使用udp接受数据拿到声音强度系数,在动画蓝图中应用到jawOpen曲线上驱动嘴.

6,输入quit退出

1-3为python,4为c#,5为UE5

python:

这段代码的部分参考了该网页的内容,感谢

https://cloud.tencent.com/developer/article/2179399?areaSource=&traceId=

os.environ.get('SPEECH_KEY')    写到系统变量里的key

os.environ.get('SPEECH_REGION')    直接把文本写代码里也可以的,不过安全系数不够高,也不方便多个代码文件的使用.

c#部分只是获取系统主音量的大小让嘴巴动而已,非常low,现在很多人在做audio2face,这个效果会好很多,只是我不是做这一块的,手头上没有现成的,反倒是有个以前做的一个获取系统音量的简单程序,拿来就用了.

UE5部分,因为我是在以前有一点点功能的基础上改了一下用的,所以有点不相关的代码.其实呢,这里建议你们找一下UE5有个udp插件,直接提供udp的蓝图使用方式,会更简单,没必要去折腾这个代码,就是监听一个udp端口拿到数据.

AIVision.h

AIVision.cpp

动画蓝图中获取音量值

modify curve节点使用音量值修改jawOpen的值,这是张嘴幅度,效果low到爆,哈哈哈哈

总结:说实话,效果好主要是使用了UE5的metahuman资产和都市人群的表情动作,让人物很生动,其他的就是调接口转来转去,没啥含金量,放出来给大家参考吧.

python部分是可以单独运行的,语音对话功能,c#和UE5只是利用系统的声音做了个假假的表演而已,非常非常临时敷衍的拼凑

chatgpt api+azure Speech Studio+ue5 metahuman相关资料的评论 (共 条)

分享到微博请遵守国家法律