Embeddings 向量化
Embedding 模型把文本转换成向量。语义相近的文本,向量距离也更近。RAG 检索就是基于这个原理查找相关片段。
用途
- 文档检索。
- 相似问匹配。
- 推荐召回。
- 去重与聚类。
示例
python
from langchain_openai import OpenAIEmbeddings
emb = OpenAIEmbeddings(model="text-embedding-3-small")
vector = emb.embed_query("LangGraph 是什么?")
print(len(vector))选型关注点
| 指标 | 说明 |
|---|---|
| 中文效果 | 是否适合中文语义 |
| 维度 | 影响存储成本和检索性能 |
| 成本 | 文档量大时成本明显 |
| 延迟 | 在线查询时影响响应时间 |
| 私有化 | 企业数据是否允许出网 |
生产建议
文档入库和在线查询要使用同一个 Embedding 模型,否则向量空间不一致,召回效果会明显下降。
非官方声明
本站为个人维护的非官方中文学习文档,不代表 LangChain 官方。页面内容是基于公开文档、源码实践和中文开发者视角重新整理的学习资料。涉及 API 细节时,请以官方文档和实际安装版本为准。
参考来源
- LangChain / LangGraph 官方文档:
https://docs.langchain.com/ - LangChain API Reference:
https://reference.langchain.com/ - 本站内容为中文学习整理,不做官方身份声明。