这就是AIGC
Google发布了一个生成式AI学习路径,包括8门课和2个测试,从技术原理、实现方式到应用场景和开发部署都包括,完全免费。 小庞备注:不知道学什么可以看介绍,手痒可以直接去#4 #5 #8 做文字生成图片、文字生成文字、图片生成文字三种实践项目。 这8门课程介绍和链接如下: 1. 什么是生成式AI,有什么应用,和传统机器学习有什么不同。 https://cloudskillsboost.google/course_templates/536… 【学完后完成扫盲目标】 2. 什么是大语言模型 (LLM),大语言模型的应用场景,以及提示词 (prompt) 和微调 (fine-tuning) 如何提升模型性能。 https://cloudskillsboost.google/course_templates/539… 【学完后超过90%中文推友】 3. 什么是负责任的AI (Responsible AI),为什么AI模型安全可靠且道德很重要,以及如何打造一个使用负责任AI的产品。 https://cloudskillsboost.google/course_templates/554… 【没特别多实用价值,学完可以酒桌吹牛逼但是会被嫌弃。】 4. Diffusion Models图像生成模型理论、模型训练方法以及如何部署模型到云端(开始带货了!)。 https://cloudskillsboost.google/course_templates/541… 【学完了可以发现那些图像生成创业公司是怎么套皮的】 5. 机器翻译、语音识别等任务广泛应用的encoder-decoder 模型架构原理以及如何在TensorFlow中构建一个此架构的诗歌生成AI https://cloudskillsboost.google/course_templates/543… 【其实大多数文字生成创业公司都不用这个套皮... 对他们太难了... 但是你可以提前一下自己搭积木如何套皮创业】 6. 神经网络中的注意力机制(Attention Mechanism)如何在计算能力有限的情况下将计算资源分配给更重要的任务,提高翻译、总结、问答等性能 https://cloudskillsboost.google/course_templates/537… 【大多数非技术出身的VC和创业者都到不了这一层,这时候吹牛逼不会被轻易挑破了】 7. 自然语言处理中的预训练技术BERT(Bidirectional Encoder Representations from Transformers)的基础原理,以及其如何可以让AI在许多不同任务中的显著提升在上下文中理解无标记文本的能力。 https://cloudskillsboost.google/course_templates/538… 【偏学术... 的确很牛逼... 但是感觉像google在为自己的技术吹牛逼...】 8. 学习图像理解和标注,学习如何构建出一个看图说话理解图片的人工智能模型。 https://cloudskillsboost.google/course_templates/542… 【有难度且有趣!目前还没有看到很多应用是在这个领域】