Prediction Guard
本页介绍如何在 LangChain 中使用 Prediction Guard 生态系统。它分为两个部分:安装和设置,然后是特定 Prediction Guard 包装器的参考。
此集成在 langchain-predictionguard 包中维护。
安装和设置
- 安装 PredictionGuard Langchain 合作伙伴包
pip install langchain-predictionguard
- 获取 Prediction Guard API 密钥(如 此处 所述)并将其设置为环境变量 (
PREDICTIONGUARD_API_KEY
)
Prediction Guard Langchain 集成
API | 描述 | Endpoint 文档 | 导入 | 使用示例 |
---|---|---|---|---|
聊天 | 构建聊天机器人 | 聊天 | from langchain_predictionguard import ChatPredictionGuard | ChatPredictionGuard.ipynb |
补全 | 生成文本 | 补全 | from langchain_predictionguard import PredictionGuard | PredictionGuard.ipynb |
文本嵌入 | 将字符串嵌入到向量 | Embeddings | from langchain_predictionguard import PredictionGuardEmbeddings | PredictionGuardEmbeddings.ipynb |
入门指南
聊天模型
Prediction Guard 聊天
查看 使用示例
from langchain_predictionguard import ChatPredictionGuard
使用方法
# If predictionguard_api_key is not passed, default behavior is to use the `PREDICTIONGUARD_API_KEY` environment variable.
chat = ChatPredictionGuard(model="Hermes-3-Llama-3.1-8B")
chat.invoke("Tell me a joke")
嵌入模型
Prediction Guard 嵌入
查看 使用示例
from langchain_predictionguard import PredictionGuardEmbeddings
使用方法
# If predictionguard_api_key is not passed, default behavior is to use the `PREDICTIONGUARD_API_KEY` environment variable.
embeddings = PredictionGuardEmbeddings(model="bridgetower-large-itm-mlm-itc")
text = "This is an embedding example."
output = embeddings.embed_query(text)
LLMs
Prediction Guard LLM
查看 使用示例
from langchain_predictionguard import PredictionGuard
使用方法
# If predictionguard_api_key is not passed, default behavior is to use the `PREDICTIONGUARD_API_KEY` environment variable.
llm = PredictionGuard(model="Hermes-2-Pro-Llama-3-8B")
llm.invoke("Tell me a joke about bears")