跳至主要内容

Beam

调用 Beam API 包装器以部署并随后调用云部署中 gpt2 LLM 的实例。需要安装 Beam 库并注册 Beam 客户端 ID 和客户端密钥。通过调用包装器,将创建并运行模型实例,返回的文本与提示相关。然后可以通过直接调用 Beam API 来进行其他调用。

如果您还没有,请创建一个帐户。从仪表板获取您的 API 密钥。

安装 Beam CLI

!curl https://raw.githubusercontent.com/slai-labs/get-beam/main/get-beam.sh -sSfL | sh

注册 API 密钥并设置您的 beam 客户端 ID 和密钥环境变量

import os

beam_client_id = "<Your beam client id>"
beam_client_secret = "<Your beam client secret>"

# Set the environment variables
os.environ["BEAM_CLIENT_ID"] = beam_client_id
os.environ["BEAM_CLIENT_SECRET"] = beam_client_secret

# Run the beam configure command
!beam configure --clientId={beam_client_id} --clientSecret={beam_client_secret}

安装 Beam SDK

%pip install --upgrade --quiet  beam-sdk

从 langchain 直接部署和调用 Beam!

请注意,冷启动可能需要几分钟才能返回响应,但后续调用将更快!

from langchain_community.llms.beam import Beam

llm = Beam(
model_name="gpt2",
name="langchain-gpt2-test",
cpu=8,
memory="32Gi",
gpu="A10G",
python_version="python3.8",
python_packages=[
"diffusers[torch]>=0.10",
"transformers",
"torch",
"pillow",
"accelerate",
"safetensors",
"xformers",
],
max_length="50",
verbose=False,
)

llm._deploy()

response = llm._call("Running machine learning on a remote GPU")

print(response)
API 参考:Beam

此页面是否有帮助?


您也可以留下详细的反馈 在 GitHub 上.