为什么选择txtai?
新的向量数据库、LLM框架以及介于两者之间的各种工具每天都在涌现。为什么要选择txtai来构建?
- 通过pip或Docker在几分钟内即可启动并运行
# 只需几行代码即可开始 import txtai embeddings = txtai.Embeddings() embeddings.index(["正确", "并非我们所期望"]) embeddings.search("积极", 1) #[(0, 0.29862046241760254)]
- 内置API使得使用你选择的编程语言开发应用程序变得容易
# app.yml embeddings: path: sentence-transformers/all-MiniLM-L6-v2
CONFIG=app.yml uvicorn "txtai.api:app" curl -X GET "http://localhost:8000/search?query=positive"
- 本地运行 - 无需将数据发送到分散的远程服务
- 从小型微模型到大型语言模型(LLMs)均可使用
- 低占用空间 - 安装额外的依赖项并在需要时进行扩展
- 通过示例学习 - 笔记本涵盖了所有可用功能