跳至主要内容

C 变压器

C Transformers 库提供了 GGML 模型的 Python 绑定。

本示例介绍如何使用 LangChain 与 C Transformers 模型 交互。

安装

%pip install --upgrade --quiet  ctransformers

加载模型

from langchain_community.llms import CTransformers

llm = CTransformers(model="marella/gpt-2-ggml")
API 参考:CTransformers

生成文本

print(llm.invoke("AI is going to"))

流式传输

from langchain_core.callbacks import StreamingStdOutCallbackHandler

llm = CTransformers(
model="marella/gpt-2-ggml", callbacks=[StreamingStdOutCallbackHandler()]
)

response = llm.invoke("AI is going to")

LLMChain

from langchain.chains import LLMChain
from langchain_core.prompts import PromptTemplate

template = """Question: {question}

Answer:"""

prompt = PromptTemplate.from_template(template)

llm_chain = LLMChain(prompt=prompt, llm=llm)

response = llm_chain.run("What is AI?")
API 参考:LLMChain | PromptTemplate

此页面对您有帮助吗?


您也可以在 Github 上留下详细的反馈 关于.