Kinetica 语言到 SQL 聊天模型
此笔记本演示了如何使用 Kinetica 将自然语言转换为 SQL,从而简化数据检索过程。此演示旨在展示创建和使用链的机制,而不是展示 LLM 的功能。
概述
使用 Kinetica LLM 工作流程,您可以在数据库中创建一个 LLM 上下文,该上下文提供用于推理的信息,包括表格、注释、规则和示例。调用ChatKinetica.load_messages_from_context()
将从数据库中检索上下文信息,以便用于创建聊天提示。
聊天提示包含一个SystemMessage
和包含示例(问题/SQL 对)的HumanMessage
/AIMessage
对。您可以向此列表中追加示例对,但它并非旨在促进典型的自然语言对话。
当您从聊天提示创建链并执行它时,Kinetica LLM 将根据输入生成 SQL。可以选择使用KineticaSqlOutputParser
执行 SQL 并将结果作为数据框返回。
当前,支持 2 个用于 SQL 生成的 LLM
- Kinetica SQL-GPT:此 LLM 基于 OpenAI ChatGPT API。
- Kinetica SqlAssist:此 LLM 专为与 Kinetica 数据库集成而构建,可以在安全的用户本地环境中运行。
在此演示中,我们将使用SqlAssist。有关更多信息,请参阅Kinetica 文档网站。
先决条件
要开始使用,您需要一个 Kinetica DB 实例。如果您没有,可以获取一个免费的开发实例。
您需要安装以下软件包...
# Install Langchain community and core packages
%pip install --upgrade --quiet langchain-core langchain-community
# Install Kineitca DB connection package
%pip install --upgrade --quiet 'gpudb>=7.2.0.8' typeguard pandas tqdm
# Install packages needed for this tutorial
%pip install --upgrade --quiet faker ipykernel
数据库连接
您必须在以下环境变量中设置数据库连接。如果您使用的是虚拟环境,则可以在项目的.env
文件中设置它们
KINETICA_URL
:数据库连接 URLKINETICA_USER
:数据库用户KINETICA_PASSWD
:安全密码。
如果您能够创建KineticaChatLLM
的实例,则表示您已成功连接。
from langchain_community.chat_models.kinetica import ChatKinetica
kinetica_llm = ChatKinetica()
# Test table we will create
table_name = "demo.user_profiles"
# LLM Context we will create
kinetica_ctx = "demo.test_llm_ctx"
创建测试数据
在我们能够生成 SQL 之前,我们需要创建一个 Kinetica 表和一个可以推断该表的 LLM 上下文。
创建一些虚假用户配置文件
我们将使用faker
包创建包含 100 个虚假配置文件的数据框。
from typing import Generator
import pandas as pd
from faker import Faker
Faker.seed(5467)
faker = Faker(locale="en-US")
def profile_gen(count: int) -> Generator:
for id in range(0, count):
rec = dict(id=id, **faker.simple_profile())
rec["birthdate"] = pd.Timestamp(rec["birthdate"])
yield rec
load_df = pd.DataFrame.from_records(data=profile_gen(100), index="id")
print(load_df.head())
username name sex \
id
0 eduardo69 Haley Beck F
1 lbarrera Joshua Stephens M
2 bburton Paula Kaiser F
3 melissa49 Wendy Reese F
4 melissacarter Manuel Rios M
address mail \
id
0 59836 Carla Causeway Suite 939\nPort Eugene, I... [email protected]
1 3108 Christina Forges\nPort Timothychester, KY... [email protected]
2 Unit 7405 Box 3052\nDPO AE 09858 [email protected]
3 6408 Christopher Hill Apt. 459\nNew Benjamin, ... [email protected]
4 2241 Bell Gardens Suite 723\nScottside, CA 38463 [email protected]
birthdate
id
0 1997-12-08
1 1924-08-03
2 1933-12-05
3 1988-10-26
4 1931-03-19
从数据框创建 Kinetica 表
from gpudb import GPUdbTable
gpudb_table = GPUdbTable.from_df(
load_df,
db=kinetica_llm.kdbc,
table_name=table_name,
clear_table=True,
load_data=True,
)
# See the Kinetica column types
print(gpudb_table.type_as_df())
name type properties
0 username string [char32]
1 name string [char32]
2 sex string [char2]
3 address string [char64]
4 mail string [char32]
5 birthdate long [timestamp]
创建 LLM 上下文
您可以使用 Kinetica Workbench UI 创建 LLM 上下文,也可以使用CREATE OR REPLACE CONTEXT
语法手动创建。
这里,我们从引用我们创建的表的 SQL 语法创建上下文。
from gpudb import GPUdbSamplesClause, GPUdbSqlContext, GPUdbTableClause
table_ctx = GPUdbTableClause(table=table_name, comment="Contains user profiles.")
samples_ctx = GPUdbSamplesClause(
samples=[
(
"How many male users are there?",
f"""
select count(1) as num_users
from {table_name}
where sex = 'M';
""",
)
]
)
context_sql = GPUdbSqlContext(
name=kinetica_ctx, tables=[table_ctx], samples=samples_ctx
).build_sql()
print(context_sql)
count_affected = kinetica_llm.kdbc.execute(context_sql)
count_affected
CREATE OR REPLACE CONTEXT "demo"."test_llm_ctx" (
TABLE = "demo"."user_profiles",
COMMENT = 'Contains user profiles.'
),
(
SAMPLES = (
'How many male users are there?' = 'select count(1) as num_users
from demo.user_profiles
where sex = ''M'';' )
)
1
使用 Langchain 进行推理
在下面的示例中,我们将从先前创建的表和 LLM 上下文创建链。此链将生成 SQL 并将结果数据作为数据框返回。
从 Kinetica DB 加载聊天提示
load_messages_from_context()
函数将从 DB 检索上下文并将其转换为用于创建ChatPromptTemplate
的聊天消息列表。
from langchain_core.prompts import ChatPromptTemplate
# load the context from the database
ctx_messages = kinetica_llm.load_messages_from_context(kinetica_ctx)
# Add the input prompt. This is where input question will be substituted.
ctx_messages.append(("human", "{input}"))
# Create the prompt template.
prompt_template = ChatPromptTemplate.from_messages(ctx_messages)
prompt_template.pretty_print()
================================[1m System Message [0m================================
CREATE TABLE demo.user_profiles AS
(
username VARCHAR (32) NOT NULL,
name VARCHAR (32) NOT NULL,
sex VARCHAR (2) NOT NULL,
address VARCHAR (64) NOT NULL,
mail VARCHAR (32) NOT NULL,
birthdate TIMESTAMP NOT NULL
);
COMMENT ON TABLE demo.user_profiles IS 'Contains user profiles.';
================================[1m Human Message [0m=================================
How many male users are there?
==================================[1m Ai Message [0m==================================
select count(1) as num_users
from demo.user_profiles
where sex = 'M';
================================[1m Human Message [0m=================================
[33;1m[1;3m{input}[0m
创建链
此链的最后一个元素是KineticaSqlOutputParser
,它将执行 SQL 并返回数据框。这是可选的,如果我们省略它,则只会返回 SQL。
from langchain_community.chat_models.kinetica import (
KineticaSqlOutputParser,
KineticaSqlResponse,
)
chain = prompt_template | kinetica_llm | KineticaSqlOutputParser(kdbc=kinetica_llm.kdbc)
生成 SQL
我们创建的链将以问题作为输入,并返回一个包含生成的 SQL 和数据的KineticaSqlResponse
。该问题必须与我们用来创建提示的 LLM 上下文相关。
# Here you must ask a question relevant to the LLM context provided in the prompt template.
response: KineticaSqlResponse = chain.invoke(
{"input": "What are the female users ordered by username?"}
)
print(f"SQL: {response.sql}")
print(response.dataframe.head())
SQL: SELECT username, name
FROM demo.user_profiles
WHERE sex = 'F'
ORDER BY username;
username name
0 alexander40 Tina Ramirez
1 bburton Paula Kaiser
2 brian12 Stefanie Williams
3 brownanna Jennifer Rowe
4 carl19 Amanda Potts