跳到主要内容

Kinetica 语言到 SQL 聊天模型

此笔记本演示了如何使用 Kinetica 将自然语言转换为 SQL,从而简化数据检索过程。此演示旨在展示创建和使用链的机制,而不是展示 LLM 的功能。

概述

使用 Kinetica LLM 工作流程,您可以在数据库中创建一个 LLM 上下文,该上下文提供用于推理的信息,包括表格、注释、规则和示例。调用ChatKinetica.load_messages_from_context() 将从数据库中检索上下文信息,以便用于创建聊天提示。

聊天提示包含一个SystemMessage 和包含示例(问题/SQL 对)的HumanMessage/AIMessage 对。您可以向此列表中追加示例对,但它并非旨在促进典型的自然语言对话。

当您从聊天提示创建链并执行它时,Kinetica LLM 将根据输入生成 SQL。可以选择使用KineticaSqlOutputParser 执行 SQL 并将结果作为数据框返回。

当前,支持 2 个用于 SQL 生成的 LLM

  1. Kinetica SQL-GPT:此 LLM 基于 OpenAI ChatGPT API。
  2. Kinetica SqlAssist:此 LLM 专为与 Kinetica 数据库集成而构建,可以在安全的用户本地环境中运行。

在此演示中,我们将使用SqlAssist。有关更多信息,请参阅Kinetica 文档网站

先决条件

要开始使用,您需要一个 Kinetica DB 实例。如果您没有,可以获取一个免费的开发实例

您需要安装以下软件包...

# Install Langchain community and core packages
%pip install --upgrade --quiet langchain-core langchain-community

# Install Kineitca DB connection package
%pip install --upgrade --quiet 'gpudb>=7.2.0.8' typeguard pandas tqdm

# Install packages needed for this tutorial
%pip install --upgrade --quiet faker ipykernel

数据库连接

您必须在以下环境变量中设置数据库连接。如果您使用的是虚拟环境,则可以在项目的.env 文件中设置它们

  • KINETICA_URL:数据库连接 URL
  • KINETICA_USER:数据库用户
  • KINETICA_PASSWD:安全密码。

如果您能够创建KineticaChatLLM 的实例,则表示您已成功连接。

from langchain_community.chat_models.kinetica import ChatKinetica

kinetica_llm = ChatKinetica()

# Test table we will create
table_name = "demo.user_profiles"

# LLM Context we will create
kinetica_ctx = "demo.test_llm_ctx"
API 参考:ChatKinetica

创建测试数据

在我们能够生成 SQL 之前,我们需要创建一个 Kinetica 表和一个可以推断该表的 LLM 上下文。

创建一些虚假用户配置文件

我们将使用faker 包创建包含 100 个虚假配置文件的数据框。

from typing import Generator

import pandas as pd
from faker import Faker

Faker.seed(5467)
faker = Faker(locale="en-US")


def profile_gen(count: int) -> Generator:
for id in range(0, count):
rec = dict(id=id, **faker.simple_profile())
rec["birthdate"] = pd.Timestamp(rec["birthdate"])
yield rec


load_df = pd.DataFrame.from_records(data=profile_gen(100), index="id")
print(load_df.head())
         username             name sex  \
id
0 eduardo69 Haley Beck F
1 lbarrera Joshua Stephens M
2 bburton Paula Kaiser F
3 melissa49 Wendy Reese F
4 melissacarter Manuel Rios M

address mail \
id
0 59836 Carla Causeway Suite 939\nPort Eugene, I... [email protected]
1 3108 Christina Forges\nPort Timothychester, KY... [email protected]
2 Unit 7405 Box 3052\nDPO AE 09858 [email protected]
3 6408 Christopher Hill Apt. 459\nNew Benjamin, ... [email protected]
4 2241 Bell Gardens Suite 723\nScottside, CA 38463 [email protected]

birthdate
id
0 1997-12-08
1 1924-08-03
2 1933-12-05
3 1988-10-26
4 1931-03-19

从数据框创建 Kinetica 表

from gpudb import GPUdbTable

gpudb_table = GPUdbTable.from_df(
load_df,
db=kinetica_llm.kdbc,
table_name=table_name,
clear_table=True,
load_data=True,
)

# See the Kinetica column types
print(gpudb_table.type_as_df())
        name    type   properties
0 username string [char32]
1 name string [char32]
2 sex string [char2]
3 address string [char64]
4 mail string [char32]
5 birthdate long [timestamp]

创建 LLM 上下文

您可以使用 Kinetica Workbench UI 创建 LLM 上下文,也可以使用CREATE OR REPLACE CONTEXT 语法手动创建。

这里,我们从引用我们创建的表的 SQL 语法创建上下文。

from gpudb import GPUdbSamplesClause, GPUdbSqlContext, GPUdbTableClause

table_ctx = GPUdbTableClause(table=table_name, comment="Contains user profiles.")

samples_ctx = GPUdbSamplesClause(
samples=[
(
"How many male users are there?",
f"""
select count(1) as num_users
from {table_name}
where sex = 'M';
""",
)
]
)

context_sql = GPUdbSqlContext(
name=kinetica_ctx, tables=[table_ctx], samples=samples_ctx
).build_sql()

print(context_sql)
count_affected = kinetica_llm.kdbc.execute(context_sql)
count_affected
CREATE OR REPLACE CONTEXT "demo"."test_llm_ctx" (
TABLE = "demo"."user_profiles",
COMMENT = 'Contains user profiles.'
),
(
SAMPLES = (
'How many male users are there?' = 'select count(1) as num_users
from demo.user_profiles
where sex = ''M'';' )
)
1

使用 Langchain 进行推理

在下面的示例中,我们将从先前创建的表和 LLM 上下文创建链。此链将生成 SQL 并将结果数据作为数据框返回。

从 Kinetica DB 加载聊天提示

load_messages_from_context() 函数将从 DB 检索上下文并将其转换为用于创建ChatPromptTemplate 的聊天消息列表。

from langchain_core.prompts import ChatPromptTemplate

# load the context from the database
ctx_messages = kinetica_llm.load_messages_from_context(kinetica_ctx)

# Add the input prompt. This is where input question will be substituted.
ctx_messages.append(("human", "{input}"))

# Create the prompt template.
prompt_template = ChatPromptTemplate.from_messages(ctx_messages)
prompt_template.pretty_print()
API 参考:ChatPromptTemplate
================================ System Message ================================

CREATE TABLE demo.user_profiles AS
(
username VARCHAR (32) NOT NULL,
name VARCHAR (32) NOT NULL,
sex VARCHAR (2) NOT NULL,
address VARCHAR (64) NOT NULL,
mail VARCHAR (32) NOT NULL,
birthdate TIMESTAMP NOT NULL
);
COMMENT ON TABLE demo.user_profiles IS 'Contains user profiles.';

================================ Human Message =================================

How many male users are there?

================================== Ai Message ==================================

select count(1) as num_users
from demo.user_profiles
where sex = 'M';

================================ Human Message =================================

{input}

创建链

此链的最后一个元素是KineticaSqlOutputParser,它将执行 SQL 并返回数据框。这是可选的,如果我们省略它,则只会返回 SQL。

from langchain_community.chat_models.kinetica import (
KineticaSqlOutputParser,
KineticaSqlResponse,
)

chain = prompt_template | kinetica_llm | KineticaSqlOutputParser(kdbc=kinetica_llm.kdbc)

生成 SQL

我们创建的链将以问题作为输入,并返回一个包含生成的 SQL 和数据的KineticaSqlResponse。该问题必须与我们用来创建提示的 LLM 上下文相关。

# Here you must ask a question relevant to the LLM context provided in the prompt template.
response: KineticaSqlResponse = chain.invoke(
{"input": "What are the female users ordered by username?"}
)

print(f"SQL: {response.sql}")
print(response.dataframe.head())
SQL: SELECT username, name
FROM demo.user_profiles
WHERE sex = 'F'
ORDER BY username;
username name
0 alexander40 Tina Ramirez
1 bburton Paula Kaiser
2 brian12 Stefanie Williams
3 brownanna Jennifer Rowe
4 carl19 Amanda Potts

此页面是否有帮助?


您也可以留下详细的反馈 在 GitHub 上.