跳到主要内容
Open on GitHub

DeepSparse

本页介绍如何在 LangChain 中使用 DeepSparse 推理运行时。它分为两个部分:安装和设置,以及 DeepSparse 用法示例。

安装和设置

  • 使用 pip install deepsparse 安装 Python 包
  • 选择一个 SparseZoo 模型 或使用 Optimum 将支持的模型导出到 ONNX

LLMs

存在 DeepSparse LLM 包装器,您可以使用以下方式访问它

from langchain_community.llms import DeepSparse
API 参考:DeepSparse

它为所有模型提供统一的接口

llm = DeepSparse(model='zoo:nlg/text_generation/codegen_mono-350m/pytorch/huggingface/bigpython_bigquery_thepile/base-none')

print(llm.invoke('def fib():'))

可以使用 config 参数传递其他参数

config = {'max_generated_tokens': 256}

llm = DeepSparse(model='zoo:nlg/text_generation/codegen_mono-350m/pytorch/huggingface/bigpython_bigquery_thepile/base-none', config=config)

此页面是否对您有帮助?