模型接口
模型是 LangChain 应用的核心依赖。常见模型类型包括:
| 类型 | 用途 |
|---|---|
| Chat Model | 对话、问答、工具调用、Agent |
| Embedding Model | 文本向量化,用于 RAG 检索 |
| Rerank Model | 对召回结果重新排序 |
Chat Model 示例
python
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(model="gpt-4.1-mini", temperature=0)
resp = llm.invoke("用一句话解释 LangChain 是什么")
print(resp.content)temperature 怎么理解
temperature=0:结果更稳定,适合客服、知识库、结构化任务。temperature=0.7:更有创造性,适合营销文案、头脑风暴。temperature>1:随机性更强,生产中谨慎使用。
生产环境建议
- 模型配置不要写死,放到配置中心或环境变量。
- 记录每次调用的输入、输出、耗时、token 消耗和异常。
- 对外部模型 API 做超时、重试、限流和降级。
- 对不同任务选择不同模型,不要所有任务都用最贵模型。
非官方声明
本站为个人维护的非官方中文学习文档,不代表 LangChain 官方。页面内容是基于公开文档、源码实践和中文开发者视角重新整理的学习资料。涉及 API 细节时,请以官方文档和实际安装版本为准。
参考来源
- LangChain / LangGraph 官方文档:
https://docs.langchain.com/ - LangChain API Reference:
https://reference.langchain.com/ - 本站内容为中文学习整理,不做官方身份声明。