AIGC应用实践 GPT 生成 PPT(一) : 简介与技术选型
AIGC应用简介
> "AIGC"通常指的是由人工智能(AI)系统自动生成内容,如文本、图像、音频等。这是使用深度学习和自然语言处理等技术的一种应用。(~~这段也是ai生成的哦!~~ )笔者在今年的AIGC应用开发也耕耘了一段时间了,对于大多数人而言也只能算先跑半步
我的项目
点击前往 [GitHub](https://github.com/limaoyi1/Auto-PPT) 支持我就给我点个星星吧
试用网址 [点击试用](http://www.limaoyi.top:4399/#)
技术选型
*磨刀不误砍柴工,让我们准备好了再出发往往比直接做更有效率*
LLM 使用方式
> 一般来说我们有两种方式来使用LLM来生成内容
> - 调用官方大模型的接口
> - 本地化部署模型生成文本内容
> 考虑到学习成本和服务器成本,我们一版会选取调用官方大模型的接口. 因为
> - 第一: LLM大模型运行的机器成本高,并发能力差
> - 第二: 学习成本高,你需要学习机器学习,深度学习,TensorFlow,PyTorch...对一个想要做AIGC应用的程序员来说,学习成本和机器成本是难以接受的(~~这条路虽然难以走下去,但是一定是需要人走下去的~~ )
LLM 的选取
一般来说,我们会选取OPENAI的GPT-3.5接口来作为我们aigc的基石. 如果需要考虑到数据安全,我建议使用百度的千帆大模型作为应用的基础(百度的千帆大模型是布局最早,开发接口较为丰富的国产厂商).
查看OPENAI的[接口文档](https://platform.openai.com/docs/introduction)和多次实践:
**gpt-3.5-turbo**在价格上有很大的优势和优秀的性能
**gpt-3.5-turbo-16k** 在长文和记忆方面有强大的性能,但是相比于gpt-3.5-turbo蠢一点(~~长期实践~~ )
**gpt-4** 有极为优势的性能和更快的响应,唯一的缺点是相对20倍的价格.
因为我需要对上下文进行缓存,并且输出文档,考虑到成本我选取的是**gpt-3.5-turbo-16k**
服务器选择
有两种方案
因为我需要访问OPENAI的接口,所以我需要能够直接访问openai官网的服务器.
1. 使用国内服务器+科学上网的方式进行访问,缺点是不稳定
2. 使用国外服务器进行部署.(**注意国内的云服务厂商是的国外服务器是不能直接访问OPENAI的接口的**)
开发者电脑使用科学上网即可
语言选择
只推荐python. 至少AIGC的核心模块使用Python. AIGC的各个语言生态圈中.只有PYTHON 最丰富,最齐全. 毕竟大部分的科学家的工作语言都是PYTHON,自然而然,大部分ai相关包也是用PYTHON写的.并且难以替代.
常用框架
**Langchain** 使用Langchain 作为aigc流程的载体,极大的简化了开发人员和各个组件的交互.Langchain封装了海量的平台和组件,能够轻而易举的打通各个环节.我个人认为是今年最牛X的开源项目之一
**Flask** 常用的后端轻量化服务框架,开箱即用型的服务框架.非常简单易用. PYTHON后端对于一个JAVA工程师来说过于没有吸引力,所以我这里使用最简单的服务框架Flask.
Feature
>1. 我会持续将之前的项目经验和心得整理成文档.做成一个专栏
>2. 对我自己的开源项目进行持续的更新,再次总结为文档