跳到主要内容

模态

Modal 云平台 为您提供方便、按需访问来自本地计算机上 Python 脚本的无服务器云计算。使用 modal 来运行您自己的自定义 LLM 模型,而不是依赖 LLM API。

此示例介绍了如何使用 LangChain 与 modal HTTPS 网络端点 交互。

使用 LangChain 进行问答 另一个示例是关于如何将 LangChain 与 Modal 一起使用。在此示例中,Modal 端到端运行 LangChain 应用程序并使用 OpenAI 作为其 LLM API。

%pip install --upgrade --quiet  modal
# Register an account with Modal and get a new token.

!modal token new
Launching login page in your browser window...
If this is not showing up, please copy this URL into your web browser manually:
https://modal.com/token-flow/tf-Dzm3Y01234mqmm1234Vcu3

langchain.llms.modal.Modal 集成类要求您部署具有符合以下 JSON 接口的网络端点的 Modal 应用程序

  1. LLM 提示作为 "prompt" 键下的 str 值接受
  2. LLM 响应作为 "prompt" 键下的 str 值返回

示例请求 JSON

{
"prompt": "Identify yourself, bot!",
"extra": "args are allowed",
}

示例响应 JSON

{
"prompt": "This is the LLM speaking",
}

满足此接口的示例“虚拟” Modal 网络端点函数如下所示

...
...

class Request(BaseModel):
prompt: str

@stub.function()
@modal.web_endpoint(method="POST")
def web(request: Request):
_ = request # ignore input
return {"prompt": "hello world"}

部署 Modal 网络端点后,您可以将其 URL 传递给 langchain.llms.modal.Modal LLM 类。然后,此类可以作为您链中的构建块。

from langchain.chains import LLMChain
from langchain_community.llms import Modal
from langchain_core.prompts import PromptTemplate
API 参考:LLMChain | Modal | PromptTemplate
template = """Question: {question}

Answer: Let's think step by step."""

prompt = PromptTemplate.from_template(template)
endpoint_url = "https://ecorp--custom-llm-endpoint.modal.run"  # REPLACE ME with your deployed Modal web endpoint's URL
llm = Modal(endpoint_url=endpoint_url)
llm_chain = LLMChain(prompt=prompt, llm=llm)
question = "What NFL team won the Super Bowl in the year Justin Beiber was born?"

llm_chain.run(question)

此页面对您有帮助吗?


您也可以在 GitHub 上留下详细的反馈 GitHub.