跳至主要内容

Google BigQuery 向量搜索

Google Cloud BigQuery 向量搜索 允许您使用 GoogleSQL 进行语义搜索,使用向量索引进行快速近似结果,或使用蛮力方法进行精确结果。

本教程说明了如何在 LangChain 中使用端到端数据和嵌入管理系统,并提供了使用BigQueryVectorStore 类在 BigQuery 中进行可扩展的语义搜索。此类是能够在 Google Cloud 中提供统一数据存储和灵活向量搜索的两类中的一类。

  • BigQuery 向量搜索:使用BigQueryVectorStore 类,非常适合无需基础设施设置的快速原型设计和批量检索。
  • 特征存储在线存储:使用VertexFSVectorStore 类,能够以低延迟进行检索,并支持手动或计划数据同步。非常适合面向用户的生产就绪型 GenAI 应用程序。

Diagram BQ-VertexFS

入门

安装库

%pip install --upgrade --quiet  langchain langchain-google-vertexai "langchain-google-community[featurestore]"

要在当前 Jupyter 运行时中使用新安装的软件包,您必须重新启动运行时。您可以通过运行下面的单元格来执行此操作,该单元格将重新启动当前内核。

import IPython

app = IPython.Application.instance()
app.kernel.do_shutdown(True)

开始之前

设置您的项目 ID

如果您不知道您的项目 ID,请尝试以下操作

  • 运行gcloud config list
  • 运行gcloud projects list
  • 请参阅支持页面:查找项目 ID
PROJECT_ID = ""  # @param {type:"string"}

# Set the project id
! gcloud config set project {PROJECT_ID}

设置区域

您还可以更改 BigQuery 使用的REGION 变量。详细了解BigQuery 区域

REGION = "us-central1"  # @param {type: "string"}

设置数据集和表名称

它们将成为您的 BigQuery 向量存储。

DATASET = "my_langchain_dataset"  # @param {type: "string"}
TABLE = "doc_and_vectors" # @param {type: "string"}

验证您的笔记本环境

  • 如果您正在使用Colab运行此笔记本,请取消注释下面的单元格并继续。
  • 如果您正在使用Vertex AI Workbench,请查看此处的设置说明。
# from google.colab import auth as google_auth

# google_auth.authenticate_user()

演示:BigQueryVectorStore

创建嵌入类实例

您可能需要通过运行gcloud services enable aiplatform.googleapis.com --project {PROJECT_ID}(将{PROJECT_ID}替换为您的项目名称)在您的项目中启用 Vertex AI API。

您可以使用任何LangChain 嵌入模型

from langchain_google_vertexai import VertexAIEmbeddings

embedding = VertexAIEmbeddings(
model_name="textembedding-gecko@latest", project=PROJECT_ID
)

初始化 BigQueryVectorStore

如果 BigQuery 数据集和表不存在,则会自动创建它们。有关所有可选参数,请参阅此处的类定义。

from langchain_google_community import BigQueryVectorStore

store = BigQueryVectorStore(
project_id=PROJECT_ID,
dataset_name=DATASET,
table_name=TABLE,
location=REGION,
embedding=embedding,
)

添加文本

all_texts = ["Apples and oranges", "Cars and airplanes", "Pineapple", "Train", "Banana"]
metadatas = [{"len": len(t)} for t in all_texts]

store.add_texts(all_texts, metadatas=metadatas)

搜索文档

query = "I'd like a fruit."
docs = store.similarity_search(query)
print(docs)

按向量搜索文档

query_vector = embedding.embed_query(query)
docs = store.similarity_search_by_vector(query_vector, k=2)
print(docs)

使用元数据筛选器搜索文档

向量存储支持两种在执行文档搜索时将筛选器应用于元数据字段的方法

  • 基于字典的筛选器
    • 您可以传递一个字典 (dict),其中键表示元数据字段,值指定筛选器条件。此方法在键与其对应值之间应用相等筛选器。当提供多个键值对时,它们将使用逻辑 AND 操作组合。
  • 基于 SQL 的筛选器
    • 或者,您可以提供一个表示 SQL WHERE 子句的字符串来定义更复杂的筛选器条件。这提供了更大的灵活性,支持 SQL 表达式,例如比较运算符和逻辑运算符。
# Dictionary-based Filters
# This should only return "Banana" document.
docs = store.similarity_search_by_vector(query_vector, filter={"len": 6})
print(docs)
# SQL-based Filters
# This should return "Banana", "Apples and oranges" and "Cars and airplanes" documents.
docs = store.similarity_search_by_vector(query_vector, filter={"len = 6 AND len > 17"})
print(docs)

BigQueryVectorStore 提供了一种用于可扩展向量相似性搜索的batch_search 方法。

results = store.batch_search(
embeddings=None, # can pass embeddings or
queries=["search_query", "search_query"], # can pass queries
)

添加带有嵌入的文本

您还可以使用add_texts_with_embeddings 方法自带嵌入。这对于可能需要在嵌入生成之前进行自定义预处理的多模态数据特别有用。

items = ["some text"]
embs = embedding.embed(items)

ids = store.add_texts_with_embeddings(
texts=["some text"], embs=embs, metadatas=[{"len": 1}]
)

使用特征存储进行低延迟服务

您可以简单地使用.to_vertex_fs_vector_store() 方法获取 VertexFSVectorStore 对象,该对象为在线用例提供低延迟。所有必需参数将自动从现有的 BigQueryVectorStore 类传输。有关您可以使用的所有其他参数,请参阅类定义

使用.to_bq_vector_store() 方法返回到 BigQueryVectorStore 同样简单。

store.to_vertex_fs_vector_store()  # pass optional VertexFSVectorStore parameters as arguments

此页面是否有帮助?


您也可以留下详细的反馈 在 GitHub 上.