跳到主要内容

Pinecone

面向生产级 AI 应用的托管向量数据库。全托管、自动扩缩容,支持混合搜索(稠密 + 稀疏)、元数据过滤和命名空间。低延迟(p95 <100ms)。适用于生产级 RAG、推荐系统或大规模语义搜索。最适合无服务器、托管基础设施。

技能元数据

来源可选 — 使用 hermes skills install official/mlops/pinecone 安装
路径optional-skills/mlops/pinecone
版本1.0.0
作者Orchestra Research
许可证MIT
依赖pinecone-client
标签RAGPinecone向量数据库托管服务无服务器混合搜索生产级自动扩缩容低延迟推荐系统

参考:完整 SKILL.md

信息

以下是该技能被触发时 Hermes 加载的完整技能定义。当技能激活时,Agent 会将其视为指令。

Pinecone - 托管向量数据库

面向生产级 AI 应用的向量数据库。

何时使用 Pinecone

适用场景:

  • 需要托管、无服务器的向量数据库
  • 生产级 RAG 应用
  • 需要自动扩缩容
  • 低延迟至关重要(<100ms)
  • 不想管理基础设施
  • 需要混合搜索(稠密 + 稀疏向量)

指标:

  • 全托管 SaaS
  • 自动扩缩容至数十亿向量
  • p95 延迟 <100ms
  • 99.9% 正常运行时间 SLA

替代方案:

  • Chroma:自托管、开源
  • FAISS:离线、纯相似度搜索
  • Weaviate:自托管、功能更丰富

快速开始

安装

pip install pinecone-client

基本用法

from pinecone import Pinecone, ServerlessSpec

# 初始化
pc = Pinecone(api_key="your-api-key")

# 创建索引
pc.create_index(
name="my-index",
dimension=1536, # 必须与嵌入维度匹配
metric="cosine", # 或 "euclidean"、"dotproduct"
spec=ServerlessSpec(cloud="aws", region="us-east-1")
)

# 连接到索引
index = pc.Index("my-index")

# 写入向量
index.upsert(vectors=[
{"id": "vec1", "values": [0.1, 0.2, ...], "metadata": {"category": "A"}},
{"id": "vec2", "values": [0.3, 0.4, ...], "metadata": {"category": "B"}}
])

# 查询
results = index.query(
vector=[0.1, 0.2, ...],
top_k=5,
include_metadata=True
)

print(results["matches"])

核心操作

创建索引

# 无服务器模式(推荐)
pc.create_index(
name="my-index",
dimension=1536,
metric="cosine",
spec=ServerlessSpec(
cloud="aws", # 或 "gcp"、"azure"
region="us-east-1"
)
)

# Pod 模式(性能稳定)
from pinecone import PodSpec

pc.create_index(
name="my-index",
dimension=1536,
metric="cosine",
spec=PodSpec(
environment="us-east1-gcp",
pod_type="p1.x1"
)
)

插入向量

# 单次插入
index.upsert(vectors=[
{
"id": "doc1",
"values": [0.1, 0.2, ...], # 1536 维
"metadata": {
"text": "Document content",
"category": "tutorial",
"timestamp": "2025-01-01"
}
}
])

# 批量插入(推荐)
vectors = [
{"id": f"vec{i}", "values": embedding, "metadata": metadata}
for i, (embedding, metadata) in enumerate(zip(embeddings, metadatas))
]

index.upsert(vectors=vectors, batch_size=100)

查询向量

# 基本查询
results = index.query(
vector=[0.1, 0.2, ...],
top_k=10,
include_metadata=True,
include_values=False
)

# 带元数据过滤
results = index.query(
vector=[0.1, 0.2, ...],
top_k=5,
filter={"category": {"$eq": "tutorial"}}
)

# 命名空间查询
results = index.query(
vector=[0.1, 0.2, ...],
top_k=5,
namespace="production"
)

# 访问结果
for match in results["matches"]:
print(f"ID: {match['id']}")
print(f"Score: {match['score']}")
print(f"Metadata: {match['metadata']}")

元数据过滤

# 精确匹配
filter = {"category": "tutorial"}

# 比较
filter = {"price": {"$gte": 100}} # $gt, $gte, $lt, $lte, $ne

# 逻辑运算符
filter = {
"$and": [
{"category": "tutorial"},
{"difficulty": {"$lte": 3}}
]
} # 也支持:$or

# In 运算符
filter = {"tags": {"$in": ["python", "ml"]}}

命名空间

# 按命名空间分区数据
index.upsert(
vectors=[{"id": "vec1", "values": [...]}],
namespace="user-123"
)

# 查询特定命名空间
results = index.query(
vector=[...],
namespace="user-123",
top_k=5
)

# 列出命名空间
stats = index.describe_index_stats()
print(stats['namespaces'])

混合搜索(稠密 + 稀疏)

# 使用稀疏向量插入
index.upsert(vectors=[
{
"id": "doc1",
"values": [0.1, 0.2, ...], # 稠密向量
"sparse_values": {
"indices": [10, 45, 123], # 词元 ID
"values": [0.5, 0.3, 0.8] # TF-IDF 分数
},
"metadata": {"text": "..."}
}
])

# 混合查询
results = index.query(
vector=[0.1, 0.2, ...],
sparse_vector={
"indices": [10, 45],
"values": [0.5, 0.3]
},
top_k=5,
alpha=0.5 # 0=稀疏, 1=稠密, 0.5=混合
)

LangChain 集成

from langchain_pinecone import PineconeVectorStore
from langchain_openai import OpenAIEmbeddings

# 创建向量存储
vectorstore = PineconeVectorStore.from_documents(
documents=docs,
embedding=OpenAIEmbeddings(),
index_name="my-index"
)

# 查询
results = vectorstore.similarity_search("query", k=5)

# 带元数据过滤
results = vectorstore.similarity_search(
"query",
k=5,
filter={"category": "tutorial"}
)

# 作为检索器
retriever = vectorstore.as_retriever(search_kwargs={"k": 10})

LlamaIndex 集成

from llama_index.vector_stores.pinecone import PineconeVectorStore

# 连接到 Pinecone
pc = Pinecone(api_key="your-key")
pinecone_index = pc.Index("my-index")

# 创建向量存储
vector_store = PineconeVectorStore(pinecone_index=pinecone_index)

# 在 LlamaIndex 中使用
from llama_index.core import StorageContext, VectorStoreIndex

storage_context = StorageContext.from_defaults(vector_store=vector_store)
index = VectorStoreIndex.from_documents(documents, storage_context=storage_context)

索引管理

# 列出索引
indexes = pc.list_indexes()

# 描述索引
index_info = pc.describe_index("my-index")
print(index_info)

# 获取索引统计信息
stats = index.describe_index_stats()
print(f"总向量数: {stats['total_vector_count']}")
print(f"命名空间: {stats['namespaces']}")

# 删除索引
pc.delete_index("my-index")

删除向量

# 按 ID 删除
index.delete(ids=["vec1", "vec2"])

# 按过滤器删除
index.delete(filter={"category": "old"})

# 删除命名空间中的所有内容
index.delete(delete_all=True, namespace="test")

# 删除整个索引
index.delete(delete_all=True)

最佳实践

  1. 使用无服务器模式 - 自动扩缩容,成本效益高
  2. 批量写入 - 更高效(每批 100-200 条)
  3. 添加元数据 - 支持过滤
  4. 使用命名空间 - 按用户/租户隔离数据
  5. 监控用量 - 查看 Pinecone 控制台
  6. 优化过滤器 - 为频繁过滤的字段建立索引
  7. 用免费套餐测试 - 1 个索引,10 万向量免费
  8. 使用混合搜索 - 质量更好
  9. 设置合适的维度 - 与嵌入模型匹配
  10. 定期备份 - 导出重要数据

性能

操作延迟说明
写入~50-100ms每批
查询(p50)~50ms取决于索引大小
查询(p95)~100msSLA 目标
元数据过滤~+10-20ms额外开销

定价(截至 2025 年)

无服务器模式

  • 每百万读取单位 $0.096
  • 每百万写入单位 $0.06
  • 每 GB 存储/月 $0.06

免费套餐

  • 1 个无服务器索引
  • 10 万向量(1536 维)
  • 非常适合原型开发

资源