Skip to content

模型接口

模型是 LangChain 应用的核心依赖。常见模型类型包括:

类型用途
Chat Model对话、问答、工具调用、Agent
Embedding Model文本向量化,用于 RAG 检索
Rerank Model对召回结果重新排序

Chat Model 示例

python
from langchain_openai import ChatOpenAI

llm = ChatOpenAI(model="gpt-4.1-mini", temperature=0)

resp = llm.invoke("用一句话解释 LangChain 是什么")
print(resp.content)

temperature 怎么理解

  • temperature=0:结果更稳定,适合客服、知识库、结构化任务。
  • temperature=0.7:更有创造性,适合营销文案、头脑风暴。
  • temperature>1:随机性更强,生产中谨慎使用。

生产环境建议

  1. 模型配置不要写死,放到配置中心或环境变量。
  2. 记录每次调用的输入、输出、耗时、token 消耗和异常。
  3. 对外部模型 API 做超时、重试、限流和降级。
  4. 对不同任务选择不同模型,不要所有任务都用最贵模型。

非官方声明

本站为个人维护的非官方中文学习文档,不代表 LangChain 官方。页面内容是基于公开文档、源码实践和中文开发者视角重新整理的学习资料。涉及 API 细节时,请以官方文档和实际安装版本为准。

参考来源

  • LangChain / LangGraph 官方文档:https://docs.langchain.com/
  • LangChain API Reference:https://reference.langchain.com/
  • 本站内容为中文学习整理,不做官方身份声明。

本站为非官方中文学习站点,不代表 LangChain 官方。部分内容参考官方文档并重新整理为中文学习笔记。