LangServe 发布!LangChain 宇宙初现?
LangChain Universe = LangChain + LangServe + LangSmith + ???

上周,LLM 应用开发框架 LangChain 发布了一个新的子开源项目 —— LangServe,并将它定位为“部署 LangChain 的最佳方式”。加上早先发布的 LangSmith,“LangChain 宇宙”似乎逐步浮出水面,这套系统由 LangChain、LangServe 和 LangSmith 这几个关键组成部分构成,可为开发者提供从原型设计到产品化再到运行监测的全流程支持,极大地简化了利用大型语言模型构建应用的过程。
LangChain 这个框架是整个生态系统的核心。它提供了一套建立在 Python 和 JS/TS 之上的工具集,让开发者可以方便地调用各类 LLM 服务,并将它们与检索、向量存储等其他模块组合起来,构建一个端到端的 LLM 应用链。LangChain 在最近的迭代中,发布了一种叫LangChain Expression Language(LCEL)的特殊语法来定义和构建这些应用链。LCEL 非常简单直接,开发者只需要编写少量代码就可以构建出功能强大的 LLM 应用原型。它支持流式传输、异步执行、中间结果访问等高级功能,可以使得 LLM 应用性能和开发效率大幅提升。
而最新发布的 LangServe 则提供了将 LCEL 原型部署成产品服务的完整解决方案。它可以将 LCEL 应用链接入到一系列成熟到 Python 的 Web 框架(例如 FastAPI、Pydantic、uvloop、asyncio)中并生成一套 RESTful API,开发者无需自己编写这部分逻辑就可以直接得到生产可用的 API,并得以保证 API 在高并发场景下的稳定性与性能。它同时也提供了输入输出数据结构校验、并发请求处理、流式响应等服务化所需的各种功能。有了 LangServe,开发者可以“从零到一”无缝地实现 LLM 应用从原型到产品的过渡。

最后,LangSmith 为 LangChain 生态增加了运行监测与分析的能力。它可以收集 LLM 应用的各类运行指标,并进行分析展示,帮助开发者更深入地理解应用的运行状况。LangSmith 可以非常容易地集成到基于 LangServe 部署的服务中,为持续优化提供数据支持。
综上看来,LangChain 团队为 LLM 应用开发布局了一套一站式的全流程支持:开发者可以使用简单直观的 LCEL 语法快速构建原型,再用LangServe无缝转换为生产级服务,最后借助 LangSmith 实现运营监测与迭代优化。LangChain 生态极大地降低了 LLM 应用开发的门槛,使更多开发者无需复杂的分布式系统开发经验就可以参与到 LLM 应用革命中来。
所以,如果你是一个有编程基础并对 LLM 应用开发感兴趣的程序员或创业者,我强烈建议你关注并学习 LangChain 的系列开源项目,它们非常可能会对你的工作产生深远的正面影响,至少让你的 LLM 应用开发之旅有一个更轻松的起步。💪


