跳到主要内容

Chroma

面向 AI 应用的开源嵌入数据库。存储嵌入向量和元数据,执行向量搜索和全文搜索,按元数据过滤。提供简单的 4 函数 API。可从笔记本扩展到生产集群。适用于语义搜索、RAG 应用或文档检索。最适合本地开发和开源项目。

技能元数据

来源可选 — 通过 hermes skills install official/mlops/chroma 安装
路径optional-skills/mlops/chroma
版本1.0.0
作者Orchestra Research
许可证MIT
依赖项chromadb, sentence-transformers
标签RAG, Chroma, Vector Database, Embeddings, Semantic Search, Open Source, Self-Hosted, Document Retrieval, Metadata Filtering

参考:完整 SKILL.md

信息

以下是该技能被触发时 Hermes 加载的完整技能定义。这是 Agent 在技能激活时看到的指令。

Chroma - 开源嵌入数据库

用于构建带记忆的 LLM 应用的 AI 原生数据库。

何时使用 Chroma

在以下情况下使用 Chroma:

  • 构建 RAG(检索增强生成)应用
  • 需要本地/自托管向量数据库
  • 想要开源解决方案(Apache 2.0)
  • 在笔记本中做原型开发
  • 对文档进行语义搜索
  • 存储带元数据的嵌入向量

指标

  • 24,300+ GitHub 星标
  • 1,900+ 分支
  • v1.3.3(稳定版,每周发布)
  • Apache 2.0 许可证

改用其他替代方案

  • Pinecone:托管云服务,自动扩缩
  • FAISS:纯相似度搜索,无元数据
  • Weaviate:生产级 ML 原生数据库
  • Qdrant:高性能,基于 Rust

快速开始

安装

# Python
pip install chromadb

# JavaScript/TypeScript
npm install chromadb @chroma-core/default-embed

基本用法(Python)

import chromadb

# 创建客户端
client = chromadb.Client()

# 创建集合
collection = client.create_collection(name="my_collection")

# 添加文档
collection.add(
documents=["这是文档 1", "这是文档 2"],
metadatas=[{"source": "doc1"}, {"source": "doc2"}],
ids=["id1", "id2"]
)

# 查询
results = collection.query(
query_texts=["关于某个主题的文档"],
n_results=2
)

print(results)

核心操作

1. 创建集合

# 简单集合
collection = client.create_collection("my_docs")

# 使用自定义嵌入函数
from chromadb.utils import embedding_functions

openai_ef = embedding_functions.OpenAIEmbeddingFunction(
api_key="your-key",
model_name="text-embedding-3-small"
)

collection = client.create_collection(
name="my_docs",
embedding_function=openai_ef
)

# 获取已有集合
collection = client.get_collection("my_docs")

# 删除集合
client.delete_collection("my_docs")

2. 添加文档

# Add with auto-generated IDs
collection.add(
documents=["Doc 1", "Doc 2", "Doc 3"],
metadatas=[
{"source": "web", "category": "tutorial"},
{"source": "pdf", "page": 5},
{"source": "api", "timestamp": "2025-01-01"}
],
ids=["id1", "id2", "id3"]
)

# Add with custom embeddings
collection.add(
embeddings=[[0.1, 0.2, ...], [0.3, 0.4, ...]],
documents=["Doc 1", "Doc 2"],
ids=["id1", "id2"]
)
# Basic query
results = collection.query(
query_texts=["machine learning tutorial"],
n_results=5
)

# Query with filters
results = collection.query(
query_texts=["Python programming"],
n_results=3,
where={"source": "web"}
)

# Query with metadata filters
results = collection.query(
query_texts=["advanced topics"],
where={
"$and": [
{"category": "tutorial"},
{"difficulty": {"$gte": 3}}
]
}
)

# Access results
print(results["documents"]) # List of matching documents
print(results["metadatas"]) # Metadata for each doc
print(results["distances"]) # Similarity scores
print(results["ids"]) # Document IDs

4. 获取文档

# Get by IDs
docs = collection.get(
ids=["id1", "id2"]
)

# Get with filters
docs = collection.get(
where={"category": "tutorial"},
limit=10
)

# Get all documents
docs = collection.get()

5. 更新文档

# Update document content
collection.update(
ids=["id1"],
documents=["Updated content"],
metadatas=[{"source": "updated"}]
)

6. 删除文档

# Delete by IDs
collection.delete(ids=["id1", "id2"])

# Delete with filter
collection.delete(
where={"source": "outdated"}
)

持久化存储

# Persist to disk
client = chromadb.PersistentClient(path="./chroma_db")

collection = client.create_collection("my_docs")
collection.add(documents=["Doc 1"], ids=["id1"])

# Data persisted automatically
# Reload later with same path
client = chromadb.PersistentClient(path="./chroma_db")
collection = client.get_collection("my_docs")

嵌入函数

默认(Sentence Transformers)

# Uses sentence-transformers by default
collection = client.create_collection("my_docs")
# Default model: all-MiniLM-L6-v2

OpenAI

from chromadb.utils import embedding_functions

openai_ef = embedding_functions.OpenAIEmbeddingFunction(
api_key="your-key",
model_name="text-embedding-3-small"
)

collection = client.create_collection(
name="openai_docs",
embedding_function=openai_ef
)

HuggingFace

huggingface_ef = embedding_functions.HuggingFaceEmbeddingFunction(
api_key="your-key",
model_name="sentence-transformers/all-mpnet-base-v2"
)

collection = client.create_collection(
name="hf_docs",
embedding_function=huggingface_ef
)

自定义嵌入函数

from chromadb import Documents, EmbeddingFunction, Embeddings

class MyEmbeddingFunction(EmbeddingFunction):
def __call__(self, input: Documents) -> Embeddings:
# Your embedding logic
return embeddings

my_ef = MyEmbeddingFunction()
collection = client.create_collection(
name="custom_docs",
embedding_function=my_ef
)

元数据过滤

# 精确匹配
results = collection.query(
query_texts=["query"],
where={"category": "tutorial"}
)

# 比较运算符
results = collection.query(
query_texts=["query"],
where={"page": {"$gt": 10}} # $gt, $gte, $lt, $lte, $ne
)

# 逻辑运算符
results = collection.query(
query_texts=["query"],
where={
"$and": [
{"category": "tutorial"},
{"difficulty": {"$lte": 3}}
]
} # 也支持:$or
)

# 包含关系
results = collection.query(
query_texts=["query"],
where={"tags": {"$in": ["python", "ml"]}}
)

LangChain 集成

from langchain_chroma import Chroma
from langchain_openai import OpenAIEmbeddings
from langchain.text_splitter import RecursiveCharacterTextSplitter

# 拆分文档
text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000)
docs = text_splitter.split_documents(documents)

# 创建 Chroma 向量存储
vectorstore = Chroma.from_documents(
documents=docs,
embedding=OpenAIEmbeddings(),
persist_directory="./chroma_db"
)

# 查询
results = vectorstore.similarity_search("machine learning", k=3)

# 作为检索器使用
retriever = vectorstore.as_retriever(search_kwargs={"k": 5})

LlamaIndex 集成

from llama_index.vector_stores.chroma import ChromaVectorStore
from llama_index.core import VectorStoreIndex, StorageContext
import chromadb

# 初始化 Chroma
db = chromadb.PersistentClient(path="./chroma_db")
collection = db.get_or_create_collection("my_collection")

# 创建向量存储
vector_store = ChromaVectorStore(chroma_collection=collection)
storage_context = StorageContext.from_defaults(vector_store=vector_store)

# 创建索引
index = VectorStoreIndex.from_documents(
documents,
storage_context=storage_context
)

# 查询
query_engine = index.as_query_engine()
response = query_engine.query("What is machine learning?")

服务端模式

# 运行 Chroma 服务端
# 终端:chroma run --path ./chroma_db --port 8000

# 连接到服务端
import chromadb
from chromadb.config import Settings

client = chromadb.HttpClient(
host="localhost",
port=8000,
settings=Settings(anonymized_telemetry=False)
)

# 正常使用
collection = client.get_or_create_collection("my_docs")

最佳实践

  1. 使用持久化客户端 - 重启后数据不丢失
  2. 添加元数据 - 支持过滤和追踪
  3. 批量操作 - 一次性添加多个文档
  4. 选择合适的嵌入模型 - 平衡速度与质量
  5. 使用过滤器 - 缩小搜索范围
  6. 使用唯一 ID - 避免冲突
  7. 定期备份 - 复制 chroma_db 目录
  8. 监控集合大小 - 必要时扩容
  9. 测试嵌入函数 - 确保质量
  10. 生产环境使用服务端模式 - 更适合多用户场景

性能

操作延迟说明
添加 100 个文档~1-3 秒包含嵌入计算
查询(前 10 条)~50-200 毫秒取决于集合大小
元数据过滤~10-50 毫秒正确索引后速度很快

资源