跳至主要内容

DeepSparse

此页面介绍如何在 LangChain 中使用 DeepSparse 推理运行时。它分为两个部分:安装和设置,然后是 DeepSparse 用法的示例。

安装和设置

存在一个 DeepSparse LLM 包装器,它为所有模型提供统一的接口

from langchain_community.llms import DeepSparse

llm = DeepSparse(
model="zoo:nlg/text_generation/codegen_mono-350m/pytorch/huggingface/bigpython_bigquery_thepile/base-none"
)

print(llm.invoke("def fib():"))
API 参考:DeepSparse

可以使用 config 参数传递其他参数

config = {"max_generated_tokens": 256}

llm = DeepSparse(
model="zoo:nlg/text_generation/codegen_mono-350m/pytorch/huggingface/bigpython_bigquery_thepile/base-none",
config=config,
)

此页面是否有帮助?


您也可以留下详细的反馈 在 GitHub 上.