Skip to content

更新日志#

[2024-05-28]#

llama-index-core [0.10.40]#

  • 添加了 PropertyGraphIndex 和其他支持抽象。更多细节请参阅完整指南 (#13747)
  • 更新了 AutoPrevNextNodePostprocessor,允许传入响应模式和 LLM (#13771)
  • 修复了返回直接的类型处理问题 (#13776)
  • 在检索评估器中将方法名更正为 _aget_retrieved_ids_and_texts (#13765)
  • 修复:QueryTransformComponent 错误调用了 self._query_transform (#13756)
  • SimpleVectorStoreIndex 实现了更多过滤器 (#13365)

llama-index-embeddings-bedrock [0.2.0]#

  • 增加了对 Bedrock Titan Embeddings v2 的支持 (#13580)

llama-index-embeddings-oci-genai [0.1.0]#

  • 添加了对 Oracle Cloud Infrastructure (OCI) Generative AI 的支持 (#13631)

llama-index-embeddings-huggingface [0.2.1]#

  • 从 AutoModel 中暴露了 "safe_serialization" 参数 (#11939)

llama-index-graph-stores-neo4j [0.2.0]#

  • 添加了对属性图的 Neo4jPGStore 支持 (#13747)

llama-index-indices-managed-dashscope [0.1.1]#

  • 增加了 dashscope 托管索引 (#13378)

llama-index-llms-oci-genai [0.1.0]#

  • 添加了对 Oracle Cloud Infrastructure (OCI) Generative AI 的支持 (#13631)

llama-index-readers-feishu-wiki [0.1.1]#

  • 修复了未定义变量问题 (#13768)

llama-index-packs-secgpt [0.1.0]#

  • SecGPT - LlamaIndex 集成 #13127

llama-index-vector-stores-hologres [0.1.0]#

  • 添加了 Hologres 向量数据库 (#13619)

llama-index-vector-stores-milvus [0.1.16]#

  • 移除了 Milvus 的依赖 FlagEmbedding (#13767)
  • 无论 enable_sparse 的值如何,统一了集合构建 (#13773)

llama-index-vector-stores-opensearch [0.1.9]#

  • 重构以将辅助方法放在类定义内部 (#13749)

[2024-05-24]#

llama-index-core [0.10.39]#

  • 添加了 VectorMemory 和 SimpleComposableMemory (#13352)
  • 改进了 MarkdownReader 以忽略代码块中的标题 (#13694)
  • 适当的异步元素节点解析器 (#13698)
  • 在函数调用工作器中只返回消息内容 (#13677)
  • 修正了多模态查询引擎使用元数据的问题 (#13712)
  • 添加了用于解决工具描述和 QueryPlanTool 冗长的笔记本 (#13701)

llama-index-embeddings-ipex-llm [0.1.2]#

  • 改进了设备选择 (#13644)

llama-index-indices-managed-postgresml [0.1.3]#

  • 添加了 PostgresML 托管索引 (#13623)

llama-index-indices-managed-vectara [0.1.4]#

  • 增加了聊天引擎、流式处理、事实一致性评分等功能 (#13639)

llama-index-llms-deepinfra [0.0.1]#

  • 添加了对 DeepInfra LLM 模型的集成 (#13652)

llama-index-llm-ipex-llm [0.1.3]#

  • 为 llama-index-llm-ipex-llm 添加了 GPU 支持 (#13691)

llama-index-llms-lmstudio [0.1.0]#

  • lmstudio 集成 (#13557)

llama-index-llms-ollama [0.1.5]#

  • 使用 aiter_lines 函数迭代 ollama 集成中的行 (#13699)

llama-index-llms-vertex [0.1.6]#

  • 为 gemini 添加了 safety_settings 参数 (#13568)

llama-index-postprocessor-voyageai-rerank [0.1.3]#

  • VoyageAI 重新排序 bug 修复 (#13622)

llama-index-retrievers-mongodb-atlas-bm25-retriever [0.1.4]#

  • 添加了缺失的返回 (#13720)

llama-index-readers-web [0.1.17]#

  • 添加了 Scrapfly Web Loader (#13654)

llama-index-vector-stores-postgres [0.1.9]#

  • 修复了删除和特殊字符的 bug (#13651)

llama-index-vector-stores-supabase [0.1.5]#

  • 为 ._client 属性不存在的情况添加了 try-catch (#13681)

[2024-05-21]#

llama-index-core [0.10.38]#

  • 在 BaseSQLTableQueryEngine 中启用了流式处理 (#13599)
  • 修复了关系节点解析器中的非类型错误 (#13615)
  • 新增了所有 llms 的跟踪 (#13565)
  • 适当限制了生成问题的数量 (#13596)
  • 在元素节点解析器中传递了 'exclude_llm_metadata_keys' 和 'exclude_embed_metadata_keys' (#13567)
  • 为 QueryPipeline 添加了批处理模式 (#13203)
  • 改进了 SentenceEmbeddingOptimizer 以尊重 Settings.embed_model (#13514)
  • ReAct 输出解析器的鲁棒性更改 (#13459)
  • 修复了使用单个参数调用 pydantic 工具时的意外错误 (#13522)
  • 避免在流式聊天不产生时出现意外错误 (#13422)

llama-index-embeddings-nomic [0.2.0]#

  • 使用 inference_mode 参数实现了本地 Nomic Embed (#13607)

llama-index-embeddings-nvidia [0.1.3]#

  • 废弃了 mode(),改用 __init__(base_url=...) (#13572)
  • 添加了 snowflake/arctic-embed-l 支持 (#13555)

llama-index-embeddings-openai [0.1.10]#

  • 更新了 openai 的重试触发方式 (#13608)

llama-index-embeddings-upstage [0.1.0]#

  • 集成:upstage LLM 和 Embeddings (#13193)

llama-index-llms-gemini [0.1.8]#

  • 添加了 gemini 新模型到多模态 LLM 和常规 LLM (#13539)

llama-index-llms-groq [0.1.4]#

  • 修复了启用工具使用的问题 (#13566)

llama-index-llms-lmstudio [0.1.0]#

  • 添加了对 lmstudio 集成的支持 (#13557)

llama-index-llms-nvidia [0.1.3]#

  • 弃用 mode(),改用 __init__(base_url=...) (#13572)

llama-index-llms-openai [0.1.20]#

  • 更新 OpenAI 重试触发方式 (#13608)

llama-index-llms-unify [0.1.0]#

  • 添加 Unify LLM 支持 (#12921)

llama-index-llms-upstage [0.1.0]#

  • 集成:upstage LLM 和 Embeddings (#13193)

llama-index-llms-vertex [0.1.6]#

  • 添加对 MedLM 模型的支持 (#11911)

llama_index.postprocessor.dashscope_rerank [0.1.0]#

  • 为后处理器添加 dashscope 重新排序功能 (#13353)

llama-index-postprocessor-nvidia-rerank [0.1.2]#

  • 弃用 mode(),改用 __init__(base_url=...) (#13572)

llama-index-readers-mongodb [0.1.5]#

  • SimpleMongoReader 应允许元数据中的可选字段 (#13575)

llama-index-readers-papers [0.1.5]#

  • 修复:(ArxivReader) 从隐藏目录读取数据时将 exclude_hidden 设置为 False (#13578)

llama-index-readers-sec-filings [0.1.5]#

  • 修复:在向 sec.gov 发送请求时修正 sec_filings 标头 #13548

llama-index-readers-web [0.1.16]#

  • 添加 firecrawl 搜索模式 (#13560)
  • 更新 Browserbase web reader (#13535)

llama-index-tools-cassandra [0.1.0]#

  • 为代理添加 Cassandra 数据库工具规范 (#13423)

llama-index-vector-stores-azureaisearch [0.1.7]#

  • 允许在没有非空元数据字段的情况下查询 AzureAISearch (#13531)

llama-index-vector-stores-elasticsearch [0.2.0]#

  • 集成来自 Elasticsearch 客户端的 VectorStore (#13291)

llama-index-vector-stores-milvus [0.1.14]#

  • 修复 Milvus vector store 的过滤表达式构建问题 (#13591)

llama-index-vector-stores-supabase [0.1.4]#

  • 删除时断开连接 (#13611)

llama-index-vector-stores-wordlift [0.1.0]#

  • 添加 WordLift Vector Store (#13028)

[2024-05-14]#

llama-index-core [0.10.37]#

  • MultiModalLLMCompletionProgram 的调用时添加 image_documents 参数 (#13467)
  • 通过从线程切换到 asyncio 来修复 RuntimeError (#13486)
  • 添加对 prompt 参数的支持 (#13405)
  • VectorStore -> BasePydanticVectorStore (#13439)
  • 修复 user_message 不存在的 bug (#13432)
  • 导入缺失的响应类型 (#13382)
  • MultiModalLLM 添加 CallbackManager (#13400)

llama-index-llms-bedrock [0.1.8]#

  • 从 Bedrock Cohere 调用模型请求中移除 "Truncate" 参数 (#13442)

llama-index-readers-web [0.1.14]#

  • 为 trafilatura web reader 添加 Trafilatura 参数和进度条 (#13454)

llama-index-vector-stores-postgres [0.1.8]#

  • 修复 #9522 - 使用混合搜索时出现的 SQLAlchemy 警告 (#13476)

llama-index-vector-stores-lantern [0.1.4]#

  • 修复 #9522 - 使用混合搜索时出现的 SQLAlchemy 警告 (#13476)

llama-index-callbacks-uptrain [0.2.0]#

  • 更新 UpTrain 回调处理程序以支持新的 Upgratin eval 模式 (#13479)

llama-index-vector-stores-zep [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-vearch [0.1.1]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-upstash [0.1.4]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-typesense [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-timescalerevector [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-tencentvectordb [0.1.4]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-tair [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-singlestoredb [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-rocksetdb [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-neptune [0.1.1]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-neo4jvector [0.1.5]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-myscale [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-metal [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-jaguar [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-epsilla [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-dynamodb [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-dashvector [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-chatgpt-plugin [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-baiduvectordb [0.1.1]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-bagel [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-awsdocdb [0.1.5]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-awadb [0.1.3]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-vector-stores-alibabacloud-opensearch [0.1.1]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-readers-wordlift [0.1.4]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-readers-guru [0.1.4]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-readers-pebblo [0.1.1]#

  • VectorStore -> BasePydanticVectorStore (#13439)

llama-index-postprocessor-voyageai-rerank [0.1.2]#

  • 提升重新排名版本 (#13465)

llama-index-postprocessor-sbert-rerank [0.1.4]#

  • 提升重新排名版本 (#13465)

llama-index-postprocessor-rankllm-rerank [0.1.3]#

  • 提升重新排名版本 (#13465)

llama-index-postprocessor-rankgpt-rerank [0.1.4]#

  • 提升重新排名版本 (#13465)

llama-index-postprocessor-openvino-rerank [0.1.3]#

  • 提升重新排名版本 (#13465)

llama-index-postprocessor-nvidia-rerank [0.1.1]#

  • 提升重新排名版本 (#13465)

llama-index-postprocessor-jinaai-rerank [0.1.3]#

  • 提升重新排名版本 (#13465)

llama-index-postprocessor-flag-embedding-rerank [0.1.3]#

  • 提升重新排名版本 (#13465)

llama-index-postprocessor-colbert-rerank [0.1.2]#

  • 提升重新排名版本 (#13465)

llama-index-postprocessor-cohere-rerank [0.1.6]#

  • 提升重新排名版本 (#13465)

llama-index-multi-modal-llms-openai [0.1.6]#

  • 添加 gpt-4o 支持 (#13463)

llama-index-llms-openai [0.1.19]#

  • 添加 gpt-4o 支持 (#13463)

llama-index-packs-rag-fusion-query-pipeline [0.1.4]#

  • 修复 RAG 融合流程 (#13413)

llama-index-agent-openai [0.2.5]#

  • 修复:更新 OpenAIAssistantAgent 以使用附件 (#13341)

llama-index-embeddings-deepinfra [0.1.0]#

  • 新的嵌入集成 (#13323)

llama-index-llms-mlx [0.1.0]#

  • 新的 llm 集成 (#13231)

llama-index-vector-stores-milvus [0.1.12]#

  • 修复:在 connections.connect() 中更正连接参数 (#13448)

llama-index-vector-stores-azureaisearch [0.1.6]#

  • 修复 AzureAiSearchVectorStore 元数据 f-string (#13435)

llama-index-vector-stores-mongodb [0.1.5]#

  • 为 MongoDBAtlasVectorSearch 添加单元测试和集成测试 (#12854)

llama-index-llms-huggingface [0.2.0]#

  • 更新 llama-index-llms-huggingface 依赖 (#13420)

llama-index-vector-store-relyt [0.1.0]#

  • 新的向量存储集成

llama-index-storage-kvstore-redis [0.1.5]#

  • 在 RedisKVStore 中实现异步方法 (#12943)

llama-index-packs-cohere-citation-chat [0.1.5]#

  • 固定 llama-index-llms-cohere 依赖 (#13417)

llama-index-llms-cohere [0.2.0]#

  • 固定 cohere 依赖 (#13417)

llama-index-tools-azure-code-interpreter [0.1.1]#

  • 修复索引问题和运行时错误消息 (#13414)

llama-index-postprocessor-cohere-rerank [0.1.5]#

  • 修复 Cohere 重新排名 bug (#13410)

llama-index-indices-managed-llama-cloud [0.1.7]#

  • 修复检索器集成 (#13409)

llama-index-tools-azure-code-interpreter [0.1.0]#

  • 新工具

llama-index-readers-google [0.2.5]#

  • 修复 GoogleDriveReader 上缺少 authorized_user_info 检查的问题 (#13394)

llama-index-storage-kvstore-firestore [0.2.1]#

  • 等待 Firestore 的 AsyncDocumentReference (#13386)

llama-index-llms-nvidia [0.1.2]#

  • 添加动态模型列表支持 (#13398)

[2024-05-09]#

llama-index-core [0.10.36]#

  • 使用 MarkdownElementParser 中的 start_char_idx 和 end_char_idx (#13377)
  • 使用全局默认处理程序 (#13368)

llama-index-readers-pebblo [0.1.0]#

  • 初始版本发布 (#13128)

llama-index-llms-cohere [0.1.7]#

  • 使用文档参数调用 Cohere RAG 推理 (#13196)

llama-index-vector-scores-kdbai [0.1.6]#

  • 更新添加方法以解码 utf-8 (#13194)

llama-index-vector-stores-alibabacloud-opensearch [0.1.0]#

  • 初始版本发布 (#13286)

llama-index-tools-multion [0.2.0]#

  • 更新工具以使用更新的 API/SDK (#13373)

llama-index-vector-sores-weaviate [1.0.0]#

  • 更新至 weaviate 客户端 v4 (#13229)

llama-index-readers-file [0.1.22]#

  • 修复 PDFReader 忽略 extra_info 的 bug (#13369)

llama-index-llms-azure-openai [0.1.8]#

  • 添加同步 httpx 客户端支持 (#13370)

llama-index-llms-openai [0.1.18]#

  • 添加同步 httpx 客户端支持 (#13370)
  • 添加缺失的 openai 模型令牌上下文 (#13337)

llama-index-readers-github [0.1.9]#

  • 添加 fail_on_http_error (#13366)

llama-index-vector-stores-pinecone [0.1.7]#

  • 为 pinecone 添加归属标签 (#13329)

llama-index-llms-nvidia [0.1.1]#

  • 将默认 max_tokens 设置为 1024 (#13371)

llama-index-readers-papers [0.1.5]#

  • 为 arxiv reader 修复隐藏的临时目录问题 (#13351)

llama-index-embeddings-nvidia [0.1.1]#

  • 修复传递 aget_query_embedding 和 get_text_embedding 的截断问题 (#13367)

llama-index-llms-anyscare [0.1.4]#

  • 添加 llama-3 模型 (#13336)

[2024-05-07]#

llama-index-agent-introspective [0.1.0]#

  • 添加了 CRITIC 和反思代理集成 (#13108)

llama-index-core [0.10.35]#

  • 修复了 from_defaults() 擦除摘要内存缓冲历史的问题 (#13325)
  • 在核心中使用现有的异步事件循环,而不是 asyncio.run() (#13309)
  • 修复了在压缩问题聊天引擎中从查询引擎异步流式传输的问题 (#13306)
  • 在元素节点解析器中处理了 extract_table_summaries 中的 ValueError (#13318)
  • 正确处理了 QASummaryQueryEngineBuilder 和 RouterQueryEngine 的 llm (#13281)
  • 扩展了仪表板负载 (#13302)
  • 修复了 SQL 连接语句中缺少模式的错误 (#13277)

llama-index-embeddings-jinaai [0.1.5]#

  • 在 JinaEmbedding 类中添加了 encoding_type 参数 (#13172)
  • 修复了 JinaEmbeddings 中的编码类型访问问题 (#13315)

llama-index-embeddings-nvidia [0.1.0]#

  • 添加了对 nvidia nim embeddings 的支持 (#13177)

llama-index-llms-mistralai [0.1.12]#

  • 修复了与 Mistral AI 流式传输时的异步问题 (#13292)

llama-index-llms-nvidia [0.1.0]#

  • 添加了对 nvidia nim llm 的支持 (#13176)

llama-index-postprocessor-nvidia-rerank [0.1.0]#

  • 添加了对 nvidia nim 重新排名的支持 (#13178)

llama-index-readers-file [0.1.21]#

  • 更新了 MarkdownReader 以在第一个标题之前解析文本 (#13327)

llama-index-readers-web [0.1.13]#

  • 新功能:Spider Web Loader (#13200)

llama-index-vector-stores-vespa [0.1.0]#

  • 为 Vespa 添加了 VectorStore 集成 (#13213)

llama-index-vector-stores-vertexaivectorsearch [0.1.0]#

  • 添加了对 Vertex AI Vector Search 的支持作为 Vector Store (#13186)

[2024-05-02]#

llama-index-core [0.10.34]#

  • 移除了聊天引擎流式传输期间的错误忽略 (#13160)
  • 添加了结构化规划代理 (#13149)
  • 更新了规划代理的基类 (#13228)
  • 修复了使用 SimpleFileNodeParser 解析文件时出现的错误,文件扩展名不在 FILE_NODE_PARSERS 中 (#13156)
  • 添加了匹配 source_node.node_id 验证到节点解析器 (#13109)
  • 检索指标:更新了检索的 HitRate 和 MRR,以评估@K检索的文档。还添加了 RR 作为单独的指标 (#12997)
  • 添加了聊天摘要内存缓冲 (#13155)

llama-index-indices-managed-zilliz [0.1.3]#

  • ZillizCloudPipelineIndex 接受灵活的参数来创建流水线 (#10134, #10112)

llama-index-llms-huggingface [0.1.7]#

  • 添加了与 Hugging Face 的文本生成推理集成的工具使用支持 (#12471)

llama-index-llms-maritalk [0.2.0]#

  • 为 maritalk 添加了流式传输 (#13207)

llama-index-llms-mistral-rs [0.1.0]#

  • 集成了 mistral.rs LLM (#13105)

llama-index-llms-mymagic [0.1.7]#

  • 更新了 mymagicai api (#13148)

llama-index-llms-nvidia-triton [0.1.5]#

  • 对 Nvidia 的 Triton 集成添加了流式支持 (#13135)

llama-index-llms-ollama [0.1.3]#

  • 为 ollama llms 添加了异步支持 (#13150)

llama-index-readers-microsoft-sharepoint [0.2.2]#

  • 从 LLMs 和 embeddings 中排除了访问控制元数据键 - SharePoint Reader (#13184)

llama-index-readers-web [0.1.11]#

  • 新功能:Browserbase Web Reader (#12877)

llama-index-readers-youtube-metadata [0.1.0]#

  • 添加了 YouTube Metadata Reader (#12975)

llama-index-storage-kvstore-redis [0.1.4]#

  • 修复了以字节形式存在的 redis kvstore 键 (#13201)

llama-index-vector-stores-azureaisearch [0.1.5]#

  • 对 Azure AI Search 尊重过滤条件 (#13215)

llama-index-vector-stores-chroma [0.1.7]#

  • 为新的 chroma 客户端版本进行了小幅更新 (#13158)

llama-index-vector-stores-firestore [0.1.0]#

  • 添加了 Firestore Vector Store (#12048)

llama-index-vector-stores-kdbai [0.1.5]#

  • 修复了 add() 后返回的 ID 的小问题 (#12515)

llama-index-vector-stores-milvus [0.1.11]#

  • 为 MilvusVectorStore 添加了混合检索模式 (#13122)

llama-index-vector-stores-postgres [0.1.7]#

  • 使 pgvector store 中的查询参数化 (#13199)

[2024-04-27]#

llama-index-core [0.10.33]#

  • 添加了 agent_worker.as_agent() (#13061)

llama-index-embeddings-bedrock [0.1.5]#

  • 使用 Bedrock 一致的字符限制 (#13126)

llama-index-tools-google [0.1.5]#

  • 将参与者的默认值更改为空列表 (#13134)

llama-index-graph-stores-falkordb [0.1.4]#

  • 当索引已经存在时跳过索引创建错误 (#13085)

llama-index-tools-google [0.1.4]#

  • 修复了谷歌日历 create_event api 的日期时间问题 (#13132)

llama-index-llms-anthropic [0.1.11]#

  • 将多个提示合并为一个 (#13131)

llama-index-indices-managed-llama-cloud [0.1.6]#

  • 在 LlamaCloud Retriever 中使用 MetadataFilters (#13117)

llama-index-graph-stores-kuzu [0.1.3]#

  • 修复了 kuzu 集成中的 .execute() 调用 (#13100)

llama-index-vector-stores-lantern [0.1.3]#

  • 维护更新以保持与 lantern 构建的最新状态 (#13116)

[2024-04-25]#

llama-index-core [0.10.32]#

  • 修正了 OutputKeys.from_keys() 的错误输出类型 (#13086)
  • 添加了对 aws 基础嵌入的 run_jobs (#13096)
  • 允许用户自定义关键词提取器提示模板 (#13083)
  • (CondenseQuestionChatEngine) 如果没有对话历史记录,则不要压缩问题 (#13069)
  • QueryPlanTool: 在查询计划中的后续(依赖)节点中执行工具调用 (#13047)
  • 修复融合检索器有时在相似性搜索之前返回 Nonetype 查询的问题 (#13112)

llama-index-embeddings-ipex-llm [0.1.1]#

  • 支持 Intel GPU 的 llama-index-embeddings-ipex-llm (#13097)

llama-index-packs-raft-dataset [0.1.4]#

  • 修复 raft 数据集生成器中的 bug - 多个系统提示 (#12751)

llama-index-readers-microsoft-sharepoint [0.2.1]#

  • 向 SharePoint 读取器添加与访问控制相关的元数据 (#13067)

llama-index-vector-stores-pinecone [0.1.6]#

  • 支持嵌套元数据过滤器 (#13113)

llama-index-vector-stores-qdrant [0.2.8]#

  • 支持嵌套元数据过滤器 (#13113)

[2024-04-23]#

llama-index-core [0.10.31]#

  • 修复查询引擎的异步流式响应 (#12953)
  • 强制在元素节点解析器中使用 uuid (#12951)
  • 添加调用 LLM 程序的函数 (#12980)
  • 使 PydanticSingleSelector 与异步 API 兼容 (#12964)
  • 修复查询管道的 arun_with_intermediates (#13002)

llama-index-agent-coa [0.1.0]#

  • 添加 COA Agent 集成 (#13043)

llama-index-agent-lats [0.1.0]#

  • 官方 LATs agent 集成 (#13031)

llama-index-agent-llm-compiler [0.1.0]#

  • 添加 LLMCompiler Agent 集成 (#13044)

llama-index-llms-anthropic [0.1.10]#

  • 添加将自定义标头传递给 Anthropic LLM 请求的功能 (#12819)

llama-index-llms-bedrock [0.1.7]#

  • 将 claude 3 opus 添加到 BedRock 集成 (#13033)

llama-index-llms-fireworks [0.1.5]#

  • 将新的 Llama 3 和 Mixtral 8x22b 模型添加到 Fireworks 的 Llama Index 中 (#12970)

llama-index-llms-openai [0.1.16]#

  • 修复 AsyncOpenAI 在快速创建和销毁 AsyncOpenAI 实例时出现的 "RuntimeError: Event loop is closed bug" 问题 (#12946)
  • 不要在所有 OpenAI APIStatusError 异常上重试 - 只在 InternalServerError 上重试 (#12947)

llama-index-llms-watsonx [0.1.7]#

  • 更新 IBM watsonx 基础模型 (#12973)

llama-index-packs-code-hierarchy [0.1.6]#

  • 如果查询节点不存在,则返回父节点 (#12983)
  • 修复当函数定义两次时的 bug (#12941)

llama-index-program-openai [0.1.6]#

  • 在 OpenAIPydanticProgram 中添加对部分实例的流式支持 (#13021)

llama-index-readers-openapi [0.1.0]#

  • 添加用于 openapi 文件的读取器 (#12998)

llama-index-readers-slack [0.1.4]#

  • 避免未处理的异常引发无限循环 (#12963)

llama-index-readers-web [0.1.10]#

  • 改进整个站点读取器以删除重复链接 (#12977)

llama-index-retrievers-bedrock [0.1.1]#

  • 修复 Bedrock KB 检索器以使用查询捆绑 (#12910)

llama-index-vector-stores-awsdocdb [0.1.0]#

  • 将 AWS DocumentDB 集成为矢量存储方法 (#12217)

llama-index-vector-stores-databricks [0.1.2]#

  • 修复 databricks 矢量搜索元数据 (#12999)

llama-index-vector-stores-neo4j [0.1.4]#

  • 支持 Neo4j 元数据过滤 (#12923)

llama-index-vector-stores-pinecone [0.1.5]#

  • 修复使用稀疏查询模式查询 PineconeVectorStore 时出现的错误 (#12967)

llama-index-vector-stores-qdrant [0.2.5]#

  • 修复异步和检查集合是否存在的许多问题 (#12916)

llama-index-vector-stores-weaviate [0.1.5]#

  • 将索引删除功能添加到 WeviateVectoreStore (#12993)

[2024-04-17]#

llama-index-core [0.10.30]#

  • 向 QueryPipeline 添加中间输出 (#12683)
  • 修复显示进度导致结果无序的问题 (#12897)
  • 向简单矢量存储添加 OR 过滤条件支持 (#12823)
  • 改进自定义 agent 初始化 (#12824)
  • 修复没有文档存储时的管道加载问题 (#12808)
  • _arun_step_stream 中使用异步 _aprocess_actions (#12846)
  • 将异常提供给 StreamChatErrorEvent (#12879)
  • 修复加载和搜索工具规范中的 bug (#12902)

llama-index-embeddings-azure-opena [0.1.7]#

  • 公开 azure_ad_token_provider 参数以支持令牌过期 (#12818)

llama-index-embeddings-cohere [0.1.8]#

  • 添加 httpx_async_client 选项 (#12896)

llama-index-embeddings-ipex-llm [0.1.0]#

  • 添加 ipex-llm 嵌入集成 (#12740)

llama-index-embeddings-octoai [0.1.0]#

  • 添加 octoai 嵌入 (#12857)

llama-index-llms-azure-openai [0.1.6]#

  • 公开 azure_ad_token_provider 参数以支持令牌过期 (#12818)

llama-index-llms-ipex-llm [0.1.2]#

  • 添加对加载 "low-bit format" 模型的 IpexLLM 集成支持 (#12785)

llama-index-llms-mistralai [0.1.11]#

  • 支持 open-mixtral-8x22b (#12894)

llama-index-packs-agents-lats [0.1.0]#

  • 添加 LATS agent pack (#12735)

llama-index-readers-smart-pdf-loader [0.1.4]#

  • 使用传入的元数据来处理文档 (#12844)

llama-index-readers-web [0.1.9]#

  • 添加了 Firecrawl Web Loader (#12825)

llama-index-vector-stores-milvus [0.1.10]#

  • 使用批量插入到 Milvus 向量存储 (#12837)

llama-index-vector-stores-vearch [0.1.0]#

  • 将 vearch 添加到向量存储中 (#10972)

[2024-04-13]#

llama-index-core [0.10.29]#

  • 重大变更PandasQueryEnginePandasInstruction 解析器移至 llama-index-experimental (#12419)
  • 新安装方式:pip install -U llama-index-experimental
  • 新导入方式:from llama_index.experimental.query_engine import PandasQueryEngine
  • 修复了一些核心依赖项,使得 python3.12 能够良好运行 (#12762)
  • 更新异步工具 run_jobs(),包括 tqdm 描述 (#12812)
  • 重构 kvdocstore 删除方法 (#12681)

llama-index-llms-bedrock [0.1.6]#

  • 支持来自 Bedrock 的 Mistral Large (#12804)

llama-index-llms-openvino [0.1.0]#

  • 添加了 OpenVino LLMs (#12639)

llama-index-llms-predibase [0.1.4]#

  • 更新 LlamaIndex-Predibase 集成到最新 API (#12736)
  • 在 LlamaIndex-Predibase 集成中启用选择 Predibase 托管或 HuggingFace 托管的微调适配器的选项 (#12789)

llama-index-output-parsers-guardrails [0.1.3]#

  • 现代化 GuardrailsOutputParser (#12676)

llama-index-packs-agents-coa [0.1.0]#

  • 抽象链 Agent Pack (#12757)

llama-index-packs-code-hierarchy [0.1.3]#

  • 修复了多字节字符分块的问题 (#12715)

llama-index-packs-raft-dataset [0.1.4]#

  • 修复了 raft 数据集生成器中的错误 - 多个系统提示 (#12751)

llama-index-postprocessor-openvino-rerank [0.1.2]#

  • 添加 openvino 重新排序支持 (#12688)

llama-index-readers-file [0.1.18]#

  • 在 docx 读取器中将输入路径 str 转换为 Path (#12807)
  • 使得 pip 检查能够使用可选的 pdf 包 (#12758)

llama-index-readers-s3 [0.1.7]#

  • 在使用默认 s3 端点时,修复 S3Reader 中的错误文档 id (#12803)

llama-index-retrievers-bedrock [0.1.0]#

  • 添加了 Amazon Bedrock 知识库集成作为检索器 (#12737)

llama-index-retrievers-mongodb-atlas-bm25-retriever [0.1.3]#

  • 添加了 mongodb atlas bm25 检索器 (#12519)

llama-index-storage-chat-store-redis [0.1.3]#

  • 修复了 redis 聊天存储中的消息序列化问题 (#12802)

llama-index-vector-stores-astra-db [0.1.6]#

  • 放宽依赖版本以接受 astrapy 1.* (#12792)

llama-index-vector-stores-couchbase [0.1.0]#

  • 添加了对 Couchbase 的支持作为向量存储 (#12680)

llama-index-vector-stores-elasticsearch [0.1.7]#

  • 修复了 elasticsearch 混合 rrf 窗口大小 (#12695)

llama-index-vector-stores-milvus [0.1.8]#

  • 添加了从 milvus 检索元数据字段的支持 (#12626)

llama-index-vector-stores-redis [0.2.0]#

  • 现代化 redis 向量存储,使用 redisvl (#12386)

llama-index-vector-stores-qdrant [0.2.0]#

  • 重构:切换默认的 Qdrant 稀疏编码器 (#12512)

[2024-04-09]#

llama-index-core [0.10.28]#

  • 支持 markdown 节点解析器中的缩进代码块围栏 (#12393)
  • 将输出解析器传递给指南评估器 (#12646)
  • 添加了查询管道 + 内存的示例 (#12654)
  • 在 CondensePlusContextChatEngine 异步模式中添加了缺失的节点后处理器 (#12663)
  • 在工具 /tool metadata 中添加了 return_direct 选项 (#12587)
  • 为批量评估运行器添加重试 (#12647)
  • 线程安全的仪表化 (#12638)
  • 协程安全的仪表化 Spans #12589
  • 在 PDFReader 中为非默认文件系统添加内存加载 (#12659)
  • 在句子分割器中移除多余的标记器调用 (#12655)
  • 在快捷导入中添加 SynthesizeComponent 导入 (#12655)
  • 在 SimpleSummarize 中改进截断 (#12655)
  • 为 eval_utils default_parser 添加错误处理以确保正确性 (#12624)
  • 在 RankGPT 后处理器节点中添加 async_postprocess_nodes (#12620)
  • 修复 MarkdownNodeParser ref_doc_id (#12615)

llama-index-embeddings-openvino [0.1.5]#

  • 添加了对 openvino embeddings 的初始支持 (#12643)

llama-index-llms-anthropic [0.1.9]#

  • 添加了 anthropic 工具调用 (#12591)

llama-index-llms-ipex-llm [0.1.1]#

  • 添加了 ipex-llm 集成 (#12322)
  • 为 ipex-llm llm 集成添加了更多数据类型支持 (#12635)

llama-index-llms-openllm [0.1.4]#

  • 在 OpenLLM 中正确使用 PrivateAttr (#12655)

llama-index-multi-modal-llms-anthropic [0.1.4]#

  • 升级了 anthropic 依赖版本 (#12655)

llama-index-multi-modal-llms-gemini [0.1.5]#

  • 升级了 generativeai 依赖 (#12645)

llama-index-packs-dense-x-retrieval [0.1.4]#

  • 为 DenseXRetrievalPack 添加了流式支持 (#12607)

llama-index-readers-mongodb [0.1.4]#

  • 提高了 MongoDB 读取器的效率 (#12664)

llama-index-readers-wikipedia [0.1.4]#

  • 为 Wikipedia 读取器添加了多语言支持 (#12616)

llama-index-storage-index-store-elasticsearch [0.1.3]#

  • 从默认集合名称中删除无效字符 (#12672)

llama-index-vector-stores-milvus [0.1.8]#

  • 添加了从 milvus 检索元数据字段的支持 (#12626)
  • 修复错误 - MilvusVectorStore 的相似度度量始终为 IP (#12611)

[2024-04-04]#

llama-index-agent-openai [0.2.2]#

  • 更新消息线程类型的导入 (#12437)

llama-index-core [0.10.27]#

  • 修复了 pydantic 查询引擎输出为空的问题 (#12469)
  • 为事件(仪表)添加了 span_id 属性 (#12417)
  • 修复了从 docs 属性中检索 RedisDocstore 节点的问题 (#12324)
  • 为 retriever_tool 添加了 node-postprocessors (#12415)
  • FLAREInstructQueryEngine:如果查询引擎支持,委托检索器 API (#12503)
  • 使聊天消息转换为字典更安全 (#12526)
  • 修复了多关键字参数的批量评估运行程序中的检查问题 (#12563)
  • 修复了 agent_react_multimodal_step.py 中的部分参数错误 (#12566)

llama-index-embeddings-clip [0.1.5]#

  • 添加了从本地文件路径加载 clip 模型的支持 (#12577)

llama-index-embeddings-cloudflar-workersai [0.1.0]#

  • 文本嵌入集成:Cloudflare Workers AI (#12446)

llama-index-embeddings-voyageai [0.1.4]#

  • 修复了类定义中的 pydantic 问题 (#12469)

llama-index-finetuning [0.1.5]#

  • 修正了 QA 生成提示中的小错别字 (#12470)

llama-index-graph-stores-falkordb [0.1.3]#

  • 用 FalkorDB 驱动程序替换了 redis 驱动程序 (#12434)

llama-index-llms-anthropic [0.1.8]#

  • 添加了向 Anthropic 客户端传递自定义 HTTP 标头的功能 (#12558)

llama-index-llms-cohere [0.1.6]#

  • 添加了对 Cohere Command R+ 模型的支持 (#12581)

llama-index-llms-databricks [0.1.0]#

  • 与 DataBricks LLM API 的集成 (#12432)

llama-index-llms-watsonx [0.1.6]#

  • 更新了 Watsonx 基础模型 (#12493)
  • 在 watsonx 集成中更新了基础模型名称 #12491

lama-index-postprocessor-rankllm-rerank [0.1.2]#

  • 在 RankLLM 中添加了对 RankGPT 的支持 (#12475)

llama-index-readers-microsoft-sharepoint [0.1.7]#

  • 默认使用递归策略来读取 SharePoint (#12557)

llama-index-readers-web [0.1.8]#

  • 修复了 playwright 异步 API 的可读性网页阅读器问题 (#12520)

llama-index-vector-stores-kdbai [0.1.5]#

  • 修复了小的 to_list 问题 (#12515)

llama-index-vector-stores-neptune [0.1.0]#

  • 添加了对 Neptune Analytics 的向量存储支持 (#12423)

llama-index-vector-stores-postgres [0.1.5]#

  • 修复了(postgres)数字元数据过滤器问题 (#12583)

[2024-03-31]#

llama-index-core [0.10.26]#

  • 在 KnowledgeGraphQueryEngine 中为 NodeWithScore 添加了分数 (#12326)
  • 修复了 Batch eval runner 的问题 (#12302)

llama-index-embeddings-cohere [0.1.5]#

  • 增加了对二进制/量化嵌入的支持 (#12321)

llama-index-llms-mistralai [0.1.10]#

  • 增加了对 MistralAI 的自定义端点的支持 (#12328)

llama-index-storage-kvstore-redis [0.1.3]#

  • 修复了从文档属性中检索 RedisDocstore 节点的问题 (#12324)

[2024-03-26]#

llama-index-core [0.10.24]#

  • LlamaDebugHandler 中进行了漂亮的打印 (#12216)
  • 对 pandas 查询引擎进行了更严格的解释器约束 (#12278)
  • PandasQueryEngine 现在可以执行 'pd.*' 函数了 (#12240)
  • 在文档存储删除函数中删除了正确的元数据 (#12276)
  • 改进了 openai 代理解析函数挂钩 (#12062)
  • 为 SimpleDirectoryReader 添加了 raise_on_error 标志 (#12263)
  • 在核心模块中移除了未捕获的 openai 导入 (#12262)
  • 修复了 download_llama_dataset 和 download_llama_pack (#12273)
  • 实现了 EvalQueryEngineTool (#11679)
  • 扩展了 AgentRunner 的仪表化 Span 覆盖范围 (#12249)
  • 添加了对代理/llm(目前支持 mistral)的函数调用概念 (#12222)

llama-index-embeddings-huggingface [0.2.0]#

  • 使用 sentence-transformers 作为后端 (#12277)

llama-index-postprocessor-voyageai-rerank [0.1.0]#

  • 添加了 voyageai 作为重新排序器 (#12111)

llama-index-readers-gcs [0.1.0]#

  • 添加了 Google Cloud 存储读取器 (#12259)

llama-index-readers-google [0.2.1]#

  • 支持不同的驱动器 (#12146)
  • 从 Google Drive 读取器中删除不必要的 PyDrive 依赖项 (#12257)

llama-index-readers-readme [0.1.0]#

  • 添加了 readme.com 读取器 (#12246)

llama-index-packs-raft [0.1.3]#

  • 为 RAFT 添加了包 (#12275)

[2024-03-23]#

llama-index-core [0.10.23]#

  • 向基础 LLM 类添加了 (a)predict_and_call() 函数 + openai + mistralai (#12188)
  • 修复了异步代理流中的 wait() 错误 (#12187)

llama-index-embeddings-alephalpha [0.1.0]#

  • 添加了 alephalpha 嵌入 (#12149)

llama-index-llms-alephalpha [0.1.0]#

  • 添加了 alephalpha LLM (#12149)

llama-index-llms-openai [0.1.7]#

  • 修复了异步代理流中的 wait() 错误 (#12187)

llama-index-readers-docugami [0.1.4]#

  • 修复了 docugami 读取器中的导入错误 (#12154)

llama-index-readers-file [0.1.12]#

  • 修复了远程文件系统的 PDFReader (#12186)

[2024-03-21]#

llama-index-core [0.10.22]#

  • 从 sphinx 更新了文档后端到 mkdocs,添加了全部 API 参考,进行了一些轻微的重组,改进了搜索功能 (#11301)
  • BaseReader 类添加了异步加载(尽管目前是假的异步) (#12156)
  • 修复了 SimpleDirectoryReader 中非本地文件系统的路径实现 (#12141)
  • 在仪表化中为检索事件的 spans、payloads 添加了 args/kwargs (#12147)
  • [react 代理] 在异常发生时,说明情况,以便代理可以自行纠正 (#12137)

llama-index-embeddings-together [0.1.3]#

  • 添加了速率限制处理 (#12127)

llama-index-graph-stores-neptune [0.1.3]#

  • 添加了对 Amazon Neptune 的支持作为图存储 (#12097)

llama-index-llms-vllm [0.1.7]#

  • 修复了 VllmServer 以无需 CUDA 的 vllm 核心工作 (#12003)

llama-index-readers-s3 [0.1.4]#

  • 在 S3Reader 中使用 S3FS (#12061)

llama-index-storage-docstore-postgres [0.1.3]#

  • 添加了正确的 kvstore 依赖项 (#12157)

llama-index-storage-index-store-postgres [0.1.3]#

  • 添加了正确的 kvstore 依赖项 (#12157)

llama-index-vector-stores-elasticsearch [0.1.6]#

  • 修复了 es add 函数中未关闭的会话 #12135

llama-index-vector-stores-kdbai [0.1.3]#

  • 添加了对 KDBAIVectorStore 的支持 (#11967)

[2024-03-20]#

llama-index-core [0.10.21]#

  • 对异步元素 StreamingAgentChatResponse 进行了延迟初始化 (#12116)
  • 通过 SynthesisEndEvent 修复了流生成器的获取错误 (#12092)
  • CLIP 嵌入更多模型 (#12063)

llama-index-packs-raptor [0.1.3]#

  • 为摘要模块添加了 num_workers (#)

llama-index-readers-telegram [0.1.5]#

  • 修复了日期时间字段 (#12112)
  • 添加了选择帖子/消息时间段的功能 (#12078)

llama-index-embeddings-openai [0.1.7]#

  • 为 open ai 嵌入添加了 api 版本/base api 作为可选项 (#12091)

llama-index-networks [0.2.1]#

  • 向网络检索器添加了节点后处理 (#12027)
  • 添加了隐私安全网络演示 (#12027)

llama-index-callbacks-langfuse [0.1.3]#

  • 升级了 langfuse 依赖项的最低版本 (#12077)

llama-index-embeddings-google [0.1.4]#

  • 升级了 google-generativeai 依赖项 (#12085)

llama-index-embeddings-gemini [0.1.5]#

  • 升级了 google-generativeai 依赖项 (#12085)

llama-index-llms-gemini [0.1.6]#

  • 升级了 google-generativeai 依赖项 (#12085)

llama-index-llms-palm [0.1.4]#

  • 升级了 google-generativeai 依赖项 (#12085)

llama-index-multi-modal-llms-google [0.1.4]#

  • 升级了 google-generativeai 依赖项 (#12085)

llama-index-vector-stores-google [0.1.5]#

  • 升级了 google-generativeai 依赖项 (#12085)

llama-index-storage-kvstore-elasticsearch [0.1.0]#

  • 新的集成 (#12068)

llama-index-readers-google [0.1.7]#

  • 修复 - Google Drive 文件加载相同名称文件的问题 (#12022)

llama-index-vector-stores-upstash [0.1.3]#

  • 为 UpstashVectorStore 添加元数据过滤支持 (#12054)

llama-index-packs-raptor [0.1.2]#

  • 修复:防止 RaptorPack 无限递归 (#12008)

llama-index-embeddings-huggingface-optimum [0.1.4]#

  • 修复(OptimumEmbedding):移除 token_type_ids 导致 ONNX 验证问题

llama-index-llms-anthropic [0.1.7]#

  • 修复:Anthropic LLM 合并具有相同角色的连续消息 (#12013)

llama-index-packs-diff-private-simple-dataset [0.1.0]#

  • DiffPrivacy ICL Pack - OpenAI 完成 LLMs (#11881)

llama-index-cli [0.1.11]#

  • 从 download_llama_dataset 命令的 llama_hub_url 关键字中移除 (#12038)

[2024-03-14]#

llama-index-core [0.10.20]#

  • 用于可观察性的新 instrumentation 模块 (#11831)
  • 允许传入 LLM 用于 CitationQueryEngine (#11914)
  • 更新 keyval docstore 以允许更改后缀和命名空间 (#11873)
  • 为 query_engine 添加部分异步流支持 #11949

llama-index-embeddings-dashscope [0.1.3]#

  • 修复查询文本的嵌入类型 (#11901)

llama-index-embeddings-premai [0.1.3]#

  • 支持 premai 嵌入 (#11954)

llama-index-networks [0.2.0]#

  • 添加对网络检索器的支持 (#11800)

llama-index-llms-anthropic [0.1.6]#

  • 添加对 haiku 的支持 (#11916)

llama-index-llms-mistralai [0.1.6]#

  • 修复 ChatMessage 的导入错误 (#11902)

llama-index-llms-openai [0.1.11]#

  • 为 AZURE_TURBO_MODELS 添加 gpt-35-turbo-0125 (#11956)
  • 修复 logprobs 中的非类型错误 (#11967)

llama-index-llms-premai [0.1.4]#

  • 支持 premai llm (#11954)

llama-index-llms-solar [0.1.3]#

  • 支持 solar 作为 LLM 类 (#11710)

llama-index-llms-vertex [0.1.5]#

  • 在 vertex 中添加对 medlm 的支持 (#11911)

llama-index-readers-goolge [0.1.6]#

  • 添加 Google Drive 读取器的 README 文件和查询字符串 (#11724)

llama-index-readers-file [0.1.11]#

  • 更新 ImageReader 以添加 plain_text 选项以触发 pytesseract (#11913)

llama-index-readers-pathway [0.1.3]#

  • 使用纯请求以减少依赖项,简化代码 (#11924)

llama-index-retrievers-pathway [0.1.3]#

  • 使用纯请求以减少依赖项,简化代码 (#11924)

llama-index-storage-docstore-mongodb [0.1.3]#

  • 允许更改 mongodb docstore 的后缀 (#11873)

llama-index-vector-stores-databricks [0.1.1]#

  • 支持将 databricks 向量搜索作为向量存储 (#10754)

llama-index-vector-stores-opensearch [0.1.8]#

  • 重新实现适当的删除 (#11959)

llama-index-vector-stores-postgres [0.1.4]#

  • 修复 IN 过滤器和 OR 文本搜索的问题 (#11872, #11927)

[2024-03-12]#

llama-index-cli [0.1.9]#

  • 移除作为捆绑依赖项的 chroma 以减少 llama-index 的依赖关系

llama-index-core [0.10.19]#

  • OpenAI llm 类引入重试机制以处理速率限制 (#11867)
  • SQLDatabase 的 SQL 表模式中添加表注释 (#11774)
  • ChatResponse 对象添加 LogProb 类型 (#11795)
  • 引入 LabelledSimpleDataset (#11805)
  • 修复插入具有不可序列化对象的 IndexNode 对象的问题 (#11836)
  • 在将响应写入 CondenseQuestionChatEngine 中改进流式聊天类型错误的后处理 (#11856)
  • 改进 json 查询引擎的后处理 (#11862)

llama-index-embeddings-cohere [0.1.4]#

  • 修复异步关键字参数错误 (#11822)

llama-index-embeddings-dashscope [0.1.2]#

  • 修复 pydantic 导入问题 (#11765)

llama-index-graph-stores-neo4j [0.1.3]#

  • 在验证连接后正确关闭连接 (#11821)

llama-index-llms-cohere [0.1.3]#

  • 添加对新的 command-r 模型的支持 (#11852)

llama-index-llms-huggingface [0.1.4]#

  • 修复带有特殊标记的流式解码问题 (#11807)

llama-index-llms-mistralai [0.1.5]#

  • 添加对最新和开放模型的支持 (#11792)

llama-index-tools-finance [0.1.1]#

  • 修复传递股票新闻 API 的小错误 (#11772)

llama-index-vector-stores-chroma [0.1.6]#

  • 精简 chroma 依赖项 (#11775)

llama-index-vector-stores-lancedb [0.1.3]#

  • 修复删除问题 (#11825)

llama-index-vector-stores-postgres [0.1.3]#

  • 支持嵌套元数据过滤器 (#11778)

[2024-03-07]#

llama-index-callbacks-deepeval [0.1.3]#

  • 更新回调处理程序的导入路径 (#11754)

llama-index-core [0.10.18]#

  • 确保 LoadAndSearchToolSpec 加载文档对象 (#11733)
  • 修复 QueryFusionRetriever 中没有节点的 bug (#11759)
  • 允许在 BatchEvalRunner 中为不同的评估器使用不同的运行时关键字参数 (#11727)
  • 修复 fsspec + SimpleDirectoryReader 的问题 (#11665)
  • 从指南评估器中删除 asyncio.run() 要求 (#11719)

llama-index-embeddings-voyageai [0.1.3]#

  • 更新 voyage embeddings 以使用正确的客户端 (#11721)

llama-index-indices-managed-vectara [0.1.3]#

  • 修复了 Vectara 查询引擎在非摘要模式下的问题 (#11668)

llama-index-llms-mymagic [0.1.5]#

  • 添加了 return_output 选项,用于以 JSON 格式输出查询和响应 (#11761)

llama-index-packs-code-hierarchy [0.1.0]#

  • 增加了对 CodeHiearchyAgentPack 的支持,允许对代码库进行代理遍历 (#10671)

llama-index-packs-cohere-citation-chat [0.1.3]#

  • 添加了一个新的 llama-pack,用于引用 + 与 cohere 的聊天 (#11697)

llama-index-vector-stores-milvus [0.1.6]#

  • 防止在添加文档时强制执行 flush() (#11734)

llama-index-vector-stores-opensearch [0.1.7]#

  • 元数据列名称中的小错字 (#11751)

llama-index-vector-stores-tidbvector [0.1.0]#

  • TiDB 向量存储的初始支持 (#11635)

llama-index-vector-stores-weaviate [0.1.4]#

  • 修复了元数据过滤器中 int 字段的小问题 (#11742)

[2024-03-06]#

全新格式!将尝试按包报告变更。

llama-index-cli [0.1.8]#

  • 更新了 upgrade 命令的映射 (#11699)

llama-index-core [0.10.17]#

  • QueryFusionRetriever 添加了 relative_scoredist_based_score (#11667)
  • 在异步代理队列中检查 none (#11669)
  • 允许为 BaseSQLTableQueryEngine 添加精炼模板 (#11378)
  • 更新了 llama-packs 的映射 (#11699)
  • 修复了在 KG 索引中提取关系文本时的索引错误 (#11695)
  • 当没有节点时,从合成器返回正确的响应类型 (#11701)
  • 在 DocumentSummaryIndex 中继承元数据到摘要 (#11671)
  • 在 SQL 查询引擎中继承回调管理器 (#11662)
  • 修复了代理流未写入聊天历史的小错误 (#11675)
  • 修复了使用代理进行函数调用时 none 增量的小 bug (#11713)

llama-index-multi-modal-llms-anthropic [0.1.2]#

  • 增加了对新的多模态模型 haikusonnet 的支持 (#11656)

llama-index-packs-finchat [0.1.0]#

  • 添加了一个新的 llama-pack,用于分层代理 + 金融聊天 (#11387)

llama-index-readers-file [0.1.8]#

  • 添加了对 NLTK 文件是否已下载的支持 (#11676)

llama-index-readers-json [0.1.4]#

  • 创建文档时使用传递的元数据 (#11626)

llama-index-vector-stores-astra-db [0.1.4]#

  • 更新了警告消息中的措辞 (#11702)

llama-index-vector-stores-opensearch [0.1.7]#

  • 避免在代码中调用 nest_asyncio.apply(),以避免给用户造成困惑的错误 (#11707)

llama-index-vector-stores-qdrant [0.1.4]#

  • 捕获 RPC 错误 (#11657)

[0.10.16] - 2024-03-05#

新功能#

  • 对新模型的 Anthropic 支持 (#11623, #11612)
  • 更容易创建聊天提示 (#11583)
  • 添加了一个 raptor 检索器 llama-pack (#11527)
  • 通过 bedrock 改进了批处理 cohere 嵌入 (#11572)
  • 添加了对 vertex AI 嵌入的支持 (#11561)

Bug 修复 / 改进#

  • 确保异步嵌入生成的顺序 (#11562)
  • 修复了 csv 读取器中的空元数据 (#11563)
  • 可序列化修复可组合检索器 (#11617)
  • 修复了 milvus 元数据过滤器的支持 (#11566)
  • 修复了 clickhouse 向量存储中的 pydantic 导入 (#11631)
  • 修复了 gemini/vertext-gemini 的系统提示 (#11511)

[0.10.15] - 2024-03-01#

新功能#

  • 添加了 FeishuWikiReader (#11491)
  • 添加了 videodb 检索器集成 (#11463)
  • 对 opensearch 向量存储添加了异步支持 (#11513)
  • 新的 LangFuse 一键回调处理程序 (#11324)

Bug 修复 / 改进#

  • 修复了异步聊天流的死锁问题 (#11548)
  • 在 SimpleDirectoryReader 中改进了隐藏文件检查 (#11496)
  • 修复了使用 SimpleDirectoryReader 时文档元数据中的空值问题 (#11501)
  • 修复了 jsonalyze 查询引擎中的 sqlite 工具 (#11519)
  • 为 ollama 多模态 LLM 添加了基本 URL 和超时 (#11526)
  • 更新了查询融合检索器中的重复处理 (#11542)

[0.10.14] - 2024-02-28#

新功能#

  • 发布了 llama-index-networks (#11413)
  • Jina 重新排序器 (#11291)
  • 添加了 DuckDuckGo 代理搜索工具 (#11386)
  • chatml 的辅助函数 (#10272)
  • 为代理添加了 brave 搜索工具 (#11468)
  • 添加了 Friendli LLM 集成 (#11384)
  • chromadb 的仅元数据查询 (#11328)

Bug 修复 / 改进#

  • 修复了在合成器中继承 llm 回调 (#11404)
  • 捕获 milvus 中的删除错误 (#11315)
  • 修复了 pinecone kwargs 问题 (#11422)
  • Supabase 元数据过滤修复 (#11428)
  • gemini 嵌入中的 api 基础修复 (#11393)
  • 修复了 elasticsearch 向量存储的 await (#11438)
  • vllm 服务器 cuda 修复 (#11442)
  • 为上下文聊天引擎传递 LLM 的输入类型 (#11444)
  • 为 cohere 嵌入设置输入类型 (#11288)
  • azure ad token 的默认值 (#10377)
  • 为 react 代理添加回调混合 (#10610)
  • 修复了 gemini 的系统角色 (#11481)
  • 修复了 mean agg pooling 返回 numpy 浮点值的问题 (#11458)
  • 改进了 JSONQueryEngine 中的 JSON 路径解析 (#9097)

[0.10.13] - 2024-02-26#

新功能#

  • 添加了一个用于 KodaRetriever 的 llama-pack,用于即时 alpha 调整 (#11311)
  • 增加了对 mistral-large 的支持 (#11398)
  • 对于像 SFR-Embedding-Mistral 这样的 huggingface 嵌入模型,添加了最后一个标记池模式 (#11373)
  • 为 SimpleDirectoryReader 添加了对 fsspec 的支持 (#11303)

Bug 修复 / 细微调整#

  • 修复了上下文窗口 + 提示助手的问题 (#11379)
  • 将 OpenSearch 向量存储移动到 BasePydanticVectorStore (#11400)
  • 修复了 fireworks LLM 中的函数调用 (#11363)
  • 使 cohere 嵌入类型更加自动化 (#11288)
  • 改进了 react agent 中的函数调用 (#11280)
  • 修复了 MockLLM 的导入问题 (#11376)

[0.10.12] - 2024-02-22#

新功能#

  • 添加了 llama-index-postprocessor-colbert-rerank 包 (#11057)
  • MyMagicAI LLM (#11263)
  • MariaTalk LLM (#10925)
  • 为 github reader 添加了重试机制 (#10980)
  • 添加了 FireworksAI 嵌入和 LLM 模块 (#10959)

Bug 修复 / 细微调整#

  • 修复了 weaviate 中的字符串格式问题 (#11294)
  • 修复了语义分割器中的 off-by-one 错误 (#11295)
  • 修复了 download_llama_pack 对于多个文件的问题 (#11272)
  • 从包中移除了 BUILD 文件 (#11267)
  • 放宽了所有包对于 Python 版本的要求 (#11267)
  • 修复了 chromadb 中的参数问题 (#11104)

[0.10.11] - 2024-02-21#

Bug 修复 / 细微调整#

  • 修复了异步 acomplete 的多模态 LLM 问题 (#11064)
  • 修复了 llamaindex-cli 导入的问题 (#11068)

[0.10.10] - 2024-02-20#

对于我们的发布流程仍然有些混乱,抱歉。这只是一个版本升级,以确保原本应该在 0.10.9 中发生的更改实际上已经发布了。 (AF)

[0.10.9] - 2024-02-20#

  • 添加了 llama-index-cli 依赖

[0.10.7] - 2024-02-19#

新功能#

  • 添加了 Self-Discover llamapack (#10951)

Bug 修复 / 细微调整#

  • 修复了 CICD 中的 linting 问题 (#10945)
  • 修复了使用远程图存储的问题 (#10971)
  • 在 NoText 响应合成器中添加了缺失的 LLM kwarg (#10971)
  • 修复了 rankgpt 中的 openai 导入问题 (#10971)
  • 修复了在 openai 嵌入中将模型名称解析为字符串的问题 (#10971)
  • 在句子窗口节点解析器中修复了 off by one 错误 (#10971)

[0.10.6] - 2024-02-17#

首先,抱歉在过去几个版本中错过了更新日志。正在努力找出处理 400+ 个包的最佳流程。

在某个时候,每个包都将有一个专门的更新日志。

新功能#

  • 添加了 NomicHFEmbedding (#10762)
  • 添加了 MinioReader (#10744)

Bug 修复 / 细微调整#

  • 对 clickhouse 向量存储进行了各种修复 (#10799)
  • 修复了 neo4j 向量存储中的索引名称 (#10749)
  • 对 sagemaker 嵌入进行了修复 (#10778)
  • 在拆分节点时修复了性能问题 (#10766)
  • 修复了 reranker + b25 中的非浮点值问题 (#10930)
  • openai-agent 应该是 openai 程序的依赖项 (#10930)
  • 为查询管道组件添加了缺失的快捷导入 (#10930)
  • 修复了 NLTK 和 tiktoken 没有正确捆绑到核心中的问题 (#10930)
  • 添加回 llama_index.core.__version__ (#10930)

[0.10.3] - 2024-02-13#

Bug 修复 / 细微调整#

  • 修复了将 LLM 传递给 as_chat_engine 的问题 (#10605)
  • 修复了 anthropic 中的系统提示格式问题 (#10603)
  • 修复了 elasticsearch 向量存储中的 __version__ 错误 (#10656)
  • 修复了 openai pydantic 程序中的导入问题 (#10657)
  • 将客户端重新添加到 opensearch 向量存储导出中 (#10660)
  • 修复了 SimpleDirectoryReader 中未正确使用文件加载器的 bug (#10655)
  • 在 RankGPT 中添加了延迟的 LLM 初始化 (#10648)
  • 修复了 bedrock 嵌入中 from_credentials 传递模型名称的问题 (#10640)
  • 将 TelegramReader 中最近的更改重新添加回来 (#10625)

[0.10.0, 0.10.1] - 2024-02-12#

重大更改#

[0.9.48] - 2024-02-12#

Bug 修复 / 细微调整#

  • 为 BedrockEmbdding 添加回了已弃用的 API (#10581)

[0.9.47] - 2024-02-11#

在 v0.10 之前的最后一个补丁!

新功能#

  • 为查询管道添加了条件链接 (#10520)
  • 重构了条件链接 + 添加到 cookbook (#10544)
  • 清理了 agent + 查询管道 (#10563)

Bug 修复 / 细微调整#

  • 添加了睡眠以修复聊天流中的延迟 (#10339)
  • OllamaMultiModal kwargs (#10541)
  • 更新摄入管道以处理空文档 (#10543)
  • 修复了拼写错误 (#10516)
  • 修复了 elasticsearch 异步检查 (#10549)
  • 文档更新 slack demo colab (#10534)
  • 添加了在 PGVectorStore 中使用 IN 运算符的可能性 (#10547)
  • 修复了 agent 重置 (#10562)
  • 修复了 MD 中来自多个文档的重复节点 id (#10564)

[0.9.46] - 2024-02-08#

新功能#

  • 更新了嵌入模型的池策略 (#10536)
  • 添加了多模态视频 RAG 示例 (#10530)
  • 添加了 SECURITY.md (#10531)
  • 将 agent 模块指南上移一级 (#10519)

Bug 修复 / 细微调整#

  • Deeplake 修复 (#10529)
  • 为 llamaindex 添加了 cohere 部分 (#10523)
  • 修复了 md 元素 (#10510)

[0.9.45.post1] - 2024-02-07#

新功能#

  • 将 deeplake 向量数据库升级为使用 BasePydanticVectorStore (#10504)

Bug 修复 / 细微调整#

  • 修复了不一致表格的 MD 解析器问题 (#10488)
  • 修复 MetadataExtractionSEC.ipynb 中 pypdf 的 ImportError 问题 (#10491)

[0.9.45] - 2024-02-07#

新功能#

  • 重构:添加 AgentRunner.from_llm 方法 (#10452)
  • 支持非聊天 LLMS 的自定义提示格式 (#10466)
  • 将 cryptography 从 41.0.7 升级到 42.0.0 (#10467)
  • 为 Colbert Index 添加 persist 和 load 方法 (#10477)
  • 允许自定义 agent 接收用户输入 (#10450)

Bug 修复 / 优化#

  • 从 arize-phoenix 全局回调处理程序中移除 exporter (#10465)
  • 修复 Dashscope qwen llm bug (#10471)
  • 修复调用 AWS Bedrock 模型的问题 (#10443)
  • 更新 Azure AI Search(原名 Azure Cognitive Search)向最新的客户端 SDK 11.4.0 stable + 更新 jupyter notebook 示例的向量存储集成 (#10416)
  • 修复一些导入问题 (#10485)

[0.9.44] - 2024-02-05#

新功能#

  • ollama vision cookbook (#10438)
  • 支持 Gemini "transport" 配置 (#10457)
  • 添加 Upstash Vector (#10451)

[0.9.43] - 2024-02-03#

新功能#

  • 添加多模态 ollama (#10434)

Bug 修复 / 优化#

  • 更新 astradb 的基类 (#10435)

[0.9.42.post1] - 2024-02-02#

新功能#

  • 为 Base nodes parser 添加异步支持 (#10418)

[0.9.42] - 2024-02-02#

新功能#

  • 添加对 gpt-3.5-turbo-0125 的支持 (#10412)
  • 在 rag cli 中添加 create-llama 支持 (#10405)

Bug 修复 / 优化#

  • 修复 lance-db 向量存储中的一些小 bug (#10404)
  • 修复 ollama 中的流式 bug (#10407)

[0.9.41] - 2024-02-01#

新功能#

  • Nomic Embedding (#10388)
  • Dashvector 支持稀疏向量 (#10386)
  • 使用 MarkDownParser 和 Benchmarking 进行表格 QA (#10382)
  • 简单的网页阅读器 (#10395)

Bug 修复 / 优化#

  • 修复 KeywordExtractor 中完整节点内容的问题 (#10398)

[0.9.40] - 2024-01-30#

新功能#

  • 改进和修复 MarkdownElementNodeParser 的 bug (#10340)
  • 修复并改进新模型的 Perplexity 支持 (#10319)
  • 确保 system_prompt 传递给 Perplexity LLM (#10326)
  • 扩展 BaseRetrievalEvaluator 以包括可选的后处理器 (#10321)

[0.9.39] - 2024-01-26#

新功能#

  • 支持新的 GPT Turbo 模型 (#10291)
  • 支持 Sentence Transformer Fine tuning 的多个文档 (#10297)

Bug 修复 / 优化#

  • 修复 Marvin 导入问题 (#9864)

[0.9.38] - 2024-01-25#

新功能#

  • 支持新的 OpenAI v3 嵌入模型 (#10279)

Bug 修复 / 优化#

  • 对 qdrant 的稀疏嵌入进行额外检查 (#10275)

[0.9.37] - 2024-01-24#

新功能#

  • 添加 RAG CLI 实用程序 (#10193)
  • 添加 textai 向量存储 (#10240)
  • 添加基于 Postgresql 的文档存储和索引存储 (#10233)
  • 在工具规范中指定工具规范 (#10263)

Bug 修复 / 优化#

  • 修复 ollama 聊天中的序列化错误 (#10230)
  • SentenceTransformerRerank 中添加缺失字段 (#10225)
  • 修复标题提取问题 (#10209, #10226)
  • 修复库/文档中可链式输出解析器更多暴露的问题 (#10262)
  • :bug: 摘要索引未携带排除的元数据键 (#10259)

[0.9.36] - 2024-01-23#

新功能#

  • 添加对 SageMakerEmbedding 的支持 (#10207)

Bug 修复 / 优化#

  • 修复在 openai assistant 上重复的 file_id (#10223)
  • 修复程序的循环依赖问题 (#10222)
  • 对来自同一父文档的节点组运行 TitleExtractor (#10209)
  • 改进 vectara 的自动检索 (#10195)

[0.9.35] - 2024-01-22#

新功能#

  • beautifulsoup4 依赖项添加到新的可选额外 html (#10156)
  • BaseNode.hash 设为 @property (#10163)
  • Neutrino (#10150)
  • feat: JSONalyze 查询引擎 (#10067)
  • [wip] 添加自定义混合检索器笔记本 (#10164)
  • 在 ChromaVectorStore 类中添加 from_collection 方法 (#10167)
  • CLI 实验 v0: ask (#10168)
  • 使 react agent 提示更可编辑 (#10154)
  • 添加 agent 查询管道 (#10180)

Bug 修复 / 优化#

  • 更新 supabase vecs 元数据过滤函数以支持多个字段 (#10133)
  • LanceDB 集成的 bug 修复/代码改进 (#10144)
  • beautifulsoup4 可选依赖项 (#10156)
  • 修复 qdrant aquery 混合搜索 (#10159)
  • 将 hash 设为 @property (#10163)
  • 修复 llama-index[postgres] 的 poetry 安装问题 (#10171)
  • [doc] 更新 jaguar 向量存储文档 (#10179)
  • 移除未启动的 finish_message 的使用 (#10188)
  • 更新 Lantern 向量存储文档 (#10192)
  • 修复 multi_document_agents.ipynb 中的拼写错误 (#10196)

[0.9.34] - 2024-01-19#

新功能#

  • 添加 SageMakerEndpointLLM (#10140)
  • 添加对 Qdrant 过滤器的支持 (#10136)

Bug 修复 / 优化#

  • 更新 bedrock utils 以适配 Claude 2:1 (#10139)
  • BugFix: 使用多进程时出现死锁问题 (#10125)

[0.9.33] - 2024-01-17#

新功能#

  • 将 RankGPT 添加为后处理器 (#10054)
  • 确保向后兼容新的 Pinecone 客户端版本分叉 (#9995)
  • 递归检索所有内容 (#10019)

Bug 修复 / 优化#

  • BugFix: 在包含逗号的表格上使用 markdown element parser 时出现问题 (#9926)
  • 扩展自动检索笔记本 (#10065)
  • 更新 llm_generators 中的属性名称 (#10070)

jaguar vector store add text_tag to add_kwargs in add() (#10057)#

[0.9.32] - 2024-01-16#

新功能#

  • 添加了查询时的行检索 + 修复了对结构化数据查询管道的小问题 (#10061)
  • ReActive Agents w/ Context + 更新了陈旧链接 (#10058)

[0.9.31] - 2024-01-15#

新功能#

  • 在查询管道中添加了选择器和路由器 (#9979)
  • 在 qdrant 向量存储中添加了仅稀疏搜索 (#10041)
  • 添加了 Tonic 评估器 (#10000)
  • 为 firestore docstore 添加了异步支持 (#9983)
  • 实现了 mongodb docstore 的 put_all 方法 (#10014)

Bug 修复 / 小问题#

  • 根据 max_string_length 正确截断 sql 结果 (#10015)
  • 修复了 node.resolve_image() 对 base64 字符串的问题 (#10026)
  • 修复了 cohere 系统提示角色 (#10020)
  • 在 SentenceSplitter 中移除了冗余的标记计数操作 (#10053)

[0.9.30] - 2024-01-11#

新功能#

  • 使用嵌入实现了语义分割的节点解析器 (#9988)
  • 添加了 Anyscale 嵌入模型支持 (#9470)

Bug 修复 / 小问题#

  • 修复了 pandas 的提示问题 (#10001)
  • 修复了标记计数 bug (#9912)
  • 从 3.1.2 升级到 3.1.3 的 jinja2 (#9997)
  • 修复了 qdrant 混合搜索的边缘情况 (#9993)
  • Bug 修复:sphinx 生成错误 (#9944)
  • 修复了 CodeSplitterlanguage 在赋值前使用的问题 (#9987)
  • 修复了在 "Use a Text Splitter…" 部分中不一致的名称 "text_parser" (#9980)
  • :bug: 修复了批处理大小 (#9982)
  • 为查询管道添加了自动异步执行 (#9967)
  • :bug: 修复了初始化问题 (#9977)
  • 使用 SimpleDirectoryReader 进行并行加载 (#9965)
  • 不强制删除 milvus 中的索引 (#9974)

[0.9.29] - 2024-01-10#

新功能#

  • 添加了对 together.ai 模型的支持 (#9962)
  • 添加了对批量 redis/firestore kvstores 和异步 firestore kvstore 的支持 (#9827)
  • 并行化 IngestionPipeline.run() (#9920)
  • 添加了新的查询管道组件:function, argpack, kwargpack (#9952)

Bug 修复 / 小问题#

  • 更新了可选的 langchain 导入,以避免警告 (#9964)
  • 如果空节点被嵌入,则引发错误 (#9953)

[0.9.28] - 2024-01-09#

新功能#

  • 添加了对 Nvidia TenorRT LLM 的支持 (#9842)
  • 允许在构建代理时设置 tool_choice (#9924)
  • QueryPipeline 添加了流式支持 (#9919)

Bug 修复 / 小问题#

  • 为 llama-index 读取器设置一致的文档 ID (#9923, #9916)
  • 移除了 HuggingFaceEmbedding 的不必要模型输入 (#9922)
  • tool_choice 标志传播到下游 API (#9901)
  • chat_store_key 添加到 chat memory 的 from_defaults() 中 (#9928)

[0.9.27] - 2024-01-08#

新功能#

  • 添加查询管道 (#9908)
  • 功能:Azure 多模态 (修复:#9471) (#9843)
  • 添加 postgres docker (#9906)
  • Vectara 自动检索器 (#9865)
  • Redis Chat 存储支持 (#9880)
  • 将更多类移动到核心 (#9871)

Bug 修复 / 小问题 / 更小的功能#

  • tool_choice 标志传播到下游 API (#9901)
  • 从 faiss 查询中过滤出负索引 (#9907)
  • 为 qdrant 负载添加了 NE 过滤器 (#9897)
  • 修复了 MyScale 查询结果中的错误 ID 分配问题 (#9900)
  • Qdrant 文本匹配过滤器 (#9895)
  • 为异步调用避免阻塞,将 sync_to_async 用于单个节点传递给 compute_scores 返回为浮点数 (#9869)
  • 移除额外的 linting 步骤 (#9878)
  • 添加了 vectara 链接 (#9886)

[0.9.26] - 2024-01-05#

新功能#

  • 为专用聊天存储添加了 BaseChatStoreSimpleChatStore 抽象 (#9863)
  • 启用自定义 tree_sitter 解析器传递给 CodeSplitter (#9845)
  • 创建了 BaseAutoRetriever 基类,以允许其他检索器扩展到自动模式 (#9846)
  • 添加了对 Nvidia Triton LLM 的支持 (#9488)
  • 添加了 DeepEval 一键可观察性 (#9801)

Bug 修复 / 小问题#

  • 更新了与最新版本兼容的指导集成 (#9830)
  • 使文本存储对 doctores/ingestion pipeline 可选 (#9847)
  • 为文档添加了缺失的 sphinx-automodapi 依赖 (#9852)
  • 在 weaviate 查询结果中返回实际节点 ID (#9854)
  • 为 LangChainLLM 添加了提示格式化 (#9844)

[0.9.25] - 2024-01-03#

新功能#

  • 为数据集生成添加了并发限制 (#9779)
  • 新的 deepeval 一键可观察性处理程序 (#9801)
  • 添加了 jaguar 向量存储 (#9754)
  • 添加了 beta 多模态 ReAct 代理 (#9807)

Bug 修复 / 小问题#

  • 将 OpenAI 嵌入的默认批处理大小更改为 100 (#9805)
  • 为 qdrant upserts 正确使用批处理大小 (#9814)
  • _verify_source_safety 使用 AST,而不是正则表达式,进行正确的安全检查 (#9789)
  • 在元素节点解析器中使用提供的 LLM (#9776)
  • 更新了 legacy vectordb 加载函数,使其更健壮 (#9773)
  • 在 AzureOpenAI 中使用提供的 http 客户端 (#9772)

[0.9.24] - 2023-12-30#

新功能#

  • 为 BEIR 评估添加了 reranker (#9743)
  • 添加了 Pathway 集成 (#9719)
  • 自定义代理实现 + 笔记本 (#9746)

Bug 修复 / 小问题#

  • 修复了 vllm 的 beam search:添加了缺失的参数 (#9741)

[0.9.23] - 2023-12-28#

Bug Fixes / Nits#

  • 文档:修正了 qdrant_hybrid.ipynb 中的拼写错误 (#9729)
  • 使 llm 完成程序更加通用化 (#9731)
  • 重构 MM 向量存储和空集合的索引 (#9717)
  • 添加 IF 语句以检查使用 "Select" 的模式 (#9712)
  • 允许在 download_moduledownload_llama_pack 中跳过模块加载 (#9734)

[0.9.22] - 2023-12-26#

新功能#

  • SimpleDirectoryReader 中添加了 .iter_data() 方法 (#9658)
  • Ollama LLM 添加了异步支持 (#9689)
  • 扩展了 pinecone 过滤器对 innot in 的支持 (#9683)

Bug Fixes / Nits#

  • 改进了 BM25Retriever 的性能 (#9675)
  • 改进了 qdrant 混合搜索的错误处理 (#9707)
  • 修复了 ChromaVectorStore 中的 None 处理 (#9697)
  • 修复了如果不存在则创建 postgres 模式 (#9712)

[0.9.21] - 2023-12-23#

新功能#

  • 将 zilliz cloud 添加为托管索引 (#9605)

Bug Fixes / Nits#

  • 修复了 Bedrock 客户端和 LLM 的问题 (#9671, #9646)

[0.9.20] - 2023-12-21#

新功能#

  • 添加了 insert_batch_size 以限制在创建索引时内存中保存的嵌入数量,默认为 2048 (#9630)
  • 改进了自动检索 (#9647)
  • 可配置的节点 ID 生成函数 (#9574)
  • 引入了动作输入解析器 (#9575)
  • qdrant 稀疏向量支持 (#9644)
  • 引入了插入和删除 (#9643)
  • 将 Zilliz Cloud Pipeline 添加为托管索引 (#9605)
  • 通过 VertexAI 添加了对 Google Gemini 模型的支持 (#9624)
  • 支持在自动检索中允许额外的元数据过滤器 (#9662)

Bug Fixes / Nits#

  • 修复了 LM 格式规范笔记中的 pip 安装命令 (#9648)
  • 修复了一些链接和文档问题 (#9633)
  • 一些 Bedrock 的问题和修复 (#9646)

[0.9.19] - 2023-12-20#

新功能#

  • 新的 llama 数据集 LabelledEvaluatorDatasetLabelledPairwiseEvaluatorDataset (#9531)

[0.9.18] - 2023-12-20#

新功能#

  • 多文档自动检索指南 (#9631)

Bug Fixes / Nits#

  • 修复了 Vllm 的 'complete' 方法行为与其他 LLM 类相同 (#9634)
  • 修复了文档链接和其他文档问题 (#9632)

[0.9.17] - 2023-12-19#

新功能#

  • [示例] 添加用户反馈 (#9601)
  • 功能:用于检索评估的 Cohere ReRank 相关度指标 (#9495)

Bug Fixes / Nits#

  • 修复了 Gemini 聊天模式 (#9599)
  • 修复了 types-protobuf 作为主要依赖项 (#9595)
  • 为 TextEmbeddingInference 类添加了可选的身份验证令牌 (#9606)
  • 修复了超出索引的获取最新工具调用 (#9608)
  • 修复了 azure_openai.py 中的子类覆盖缺失返回 (#9598)
  • 修复了 ollama API 中无效的 formatted 选项 (#9555)
  • 在最佳推送中添加了设备 #9541 (#9554)
  • Gemini 嵌入的标题与内容差异 (#9547)
  • 将 pydantic 字段修复为浮点数 (#9542)

[0.9.16] - 2023-12-18#

新功能#

  • 代理重构:逐步执行 (#9584)
  • 添加 OpenRouter,带有 Mixtral 演示 (#9464)
  • 将混合搜索添加到 neo4j 向量存储 (#9530)
  • 为 Google Semantic Retriever 添加了服务帐户支持 (#9545)

Bug Fixes / Nits#

  • 修复了 LLM.system_prompt 的缺失 default=None (#9504)
  • 修复了混合搜索的问题,用于 OpenSearch (#9430)

[0.9.13] - 2023-12-06#

新功能#

  • LabelledRagDataset 添加了批量预测支持 (#9332)

Bug 修复 / 改进#

  • 修复了 faiss 向量存储的保存和加载问题 (#9330)

[0.9.12] - 2023-12-05#

新功能#

  • 为 openai/azure 添加了 reuse_client 选项,以帮助处理异步超时。设置为 False 可以看到改进 (#9301)
  • 增加了对 vLLM llm 的支持 (#9257)
  • 增加了对 python 3.12 的支持 (#9304)
  • 支持 claude-2.1 模型名称 (#9275)

Bug 修复 / 改进#

  • 修复了 bedrock cohere embeddings 的嵌入格式问题 (#9265)
  • 在 weaviate 向量存储中使用 delete_kwargs 进行过滤 (#9300)
  • 修复了自动构建 qdrant 客户端的问题 (#9267)

[0.9.11] - 2023-12-03#

新功能#

  • 使 LabelledRagDataset 中的 reference_contexts 可选 (#9266)
  • 重新组织了 download 模块 (#9253)
  • 在摄入管道中添加了文档管理 (#9135)
  • LabelledRagDataset 添加了文档 (#9228)
  • LabelledRagDataset 添加了提交模板笔记本和其他文档更新 (#9273)

Bug 修复 / 改进#

  • 将 numpy 转换为列表,以适配 InstructorEmbedding (#9255)

[0.9.10] - 2023-11-30#

新功能#

  • 向量存储的高级元数据过滤器 (#9216)
  • Amazon Bedrock Embeddings 新模型 (#9222)
  • 添加了 PromptLayer 回调集成 (#9190)
  • 重用文件 ID 以支持 OpenAIAssistant (#9125)

重大变更 / 废弃#

  • 废弃了 ExactMatchFilter (#9216)

[0.9.9] - 2023-11-29#

新功能#

  • LlamaDataset 添加了新的抽象 (#9165)
  • AstraDBVectorStore 添加了元数据过滤和 MMR 模式支持 (#9193)
  • 允许使用最新的 scikit-learn 版本 (#9213)

重大变更 / 废弃#

  • 添加了 LocalAI 演示,并开始了废弃周期 (#9151)
  • 废弃了 evaluation 模块的 QueryResponseDatasetDatasetGenerator (#9165)

Bug 修复 / 改进#

  • 修复了 download_utils.py 中指向错误存储库的 bug (#9215)
  • AzureOpenAILLM 中使用 azure_deployment 关键字参数 (#9174)
  • 修复了 AstraDBVectorStore 集成的相似度分数返回问题 (#9193)

[0.9.8] - 2023-11-26#

新功能#

  • ObjectIndex 添加了 persistpersist_from_dir 方法,以支持它 (#9064)
  • 添加了异步元数据提取和管道支持 (#9121)
  • 重新添加了对节点中开始/结束字符索引的支持 (#9143)

Bug 修复 / 改进#

  • 修复了全局服务上一些关键字参数未正确设置的问题 (#9137)
  • 修复了当系统/前缀消息较大时 memory.get() 的问题 (#9149)
  • 全局服务上的一些小修复 (#9137)

[0.9.7] - 2023-11-24#

新功能#

  • 添加了对 PGVectoRsStore 的支持 (#9087)
  • 强制使用 requests>=2.31 进行安全性设置,同时取消对 urllib3 的固定版本 (#9108)

Bug 修复 / 改进#

  • 增加了上下文聊天引擎的默认内存令牌限制 (#9123)
  • CondensePlusContextChatEngine 中添加了系统提示,该提示将被预置到 context_prompt 前面 (#9123)
  • 修复了 CondensePlusContextChatEngine 中未正确使用聊天历史的 bug (#9129)

[0.9.6] - 2023-11-22#

新功能#

  • 为 openai LLMs 添加了 default_headers 参数 (#9090)
  • 添加了对 download_llama_pack() 和 LlamaPack 集成的支持
  • 添加了对 llamaindex-cli 命令行工具的支持

Bug 修复 / 改进#

  • 将 huggingface 嵌入的规范化存储为布尔值 (#9089)

[0.9.5] - 2023-11-21#

Bug 修复 / 改进#

  • 修复了 AzureOpenAI 逻辑推断流块是否为工具调用的 bug (#9018)

新功能#

  • FastEmbed 嵌入提供程序 (#9043)
  • 更精确地测试 OpenAILike (#9026)
  • 为每个检索器添加了回调管理器 (#8871)
  • 通过 OpenAILike 跳过 max_tokens 推断的能力 (#9032)

Bug 修复 / 改进#

  • 修复了在估算块大小时格式化聊天提示模板的 bug (#9025)
  • 沙箱化 Pandas 执行,修复 CVE-2023-39662 (#8890)
  • 恢复了 Python 3.8 的 mypy (#9031)
  • 放宽了 dataclasses-json 的版本范围,并从 pandas 中删除不必要的 jinja2 额外内容 (#9042)

[0.9.4] - 2023-11-19#

新功能#

  • 添加了 CondensePlusContextChatEngine (#8949)

较小的功能 / Bug 修复 / 改进#

  • 修复了 OpenAIAgent 将错误插入到聊天历史中的 bug (#9000)
  • 修复了 LiteLLM 和新的 OpenAI 客户端的各种 bug (#9003)
  • 为 perplexity llm 添加了上下文窗口属性 (#9012)
  • node_parser 属性添加回服务上下文 (#9013)
  • 重构了 MM 检索器类 (#8998)
  • 修复了 SupabaseVectorIndexDemo 上的 TextNode 实例化问题 (#8994)

[0.9.3] - 2023-11-17#

新功能#

  • 添加了 perplexity LLM 集成 (#8734)

Bug 修复 / 改进#

  • 修复了新的 openai 客户端的令牌计数问题 (#8981)
  • 修复了 postgres 向量数据库中的小 pydantic bug (#8962)
  • 修复了 HierarchicalNodeParser 中的 chunk_overlapdoc_id bug (#8983)

[0.9.2] - 2023-11-16#

  • 为多模态 Rag 评估添加了新的笔记本指南 (#8945)
  • 添加了 MultiModalRelevancyEvaluatorMultiModalFaithfulnessEvaluator (#8945)

[0.9.1] - 2023-11-15#

新功能#

  • 添加了 Cohere Reranker 微调功能 (#8859)
  • AzureOpenAI LLM 中支持自定义的 httpx 客户端 (#8920)

Bug 修复 / 调整#

  • 修复了 set_global_service_context 未传播设置的问题 (#8940)
  • 修复了使用 Google Palm 嵌入构建索引的问题 (#8936)
  • 修复了解析没有文本的 ImageDocuments/Nodes 的小问题 (#8938)
  • 优化了代理的 QueryEngineTool (#8933)

[0.9.0] - 2023-11-15#

新功能 / 变更 / 弃用#

  • 新的 IngestionPipeline 概念用于数据摄取和转换
  • 数据摄取和转换现在会自动缓存
  • 更新了节点解析/文本拆分/元数据提取模块的接口
  • 更改了默认的分词器,以及自定义分词器
  • PyPi 的打包/安装变化(减少冗余,新增安装选项)
  • 更可预测和一致的导入路径
  • 此外,测试版中还有用于处理文本和图像的多模态 RAG 模块!
  • 在此处查看更多详细信息:https://medium.com/@llama_index/719f03282945

[0.8.69.post1] - 2023-11-13#

Bug 修复 / 调整#

  • 将最大 weaivate 删除大小增加到最大值 10,000 (#8887)
  • 最终修复 pickling 遗留问题 (#8902)

[0.8.69] - 2023-11-13#

Bug 修复 / 调整#

  • 修复了加载 pickled 对象时的 bug (#8880)
  • 修复了 download_loadercustom_pathcustom_dir 的问题 (#8865)

[0.8.68] - 2023-11-11#

新功能#

  • openai assistant agent + 高级检索手册 (#8863)
  • 添加检索 API 基准测试 (#8850)
  • 添加 JinaEmbedding 类 (#8704)

Bug 修复 / 调整#

  • 改进了 OpenAI 的默认超时/重试 (#8819)
  • 为 OpenAI 添加了密钥验证 (#8819)
  • 禁用自动下载 LLM/嵌入模型,提供信息性错误 (#8819)
  • 修复 openai assistant 工具创建 + 检索笔记本 (#8862)
  • 快速修复复制多模态示例 (#8861)
  • 修复:将路径视为隐藏 (#8860)
  • 修复复制多模态 LLM + 笔记本 (#8854)
  • 功能/引用元数据 (#8722)
  • 修复了 SimpleMultiModalQueryEngine 中 ImageNode 类型从 NodeWithScore 的问题 (#8844)

[0.8.67] - 2023-11-10#

新功能#

  • 高级多模态检索示例和文档 (#8822, #8823)

Bug 修复 / 调整#

  • 修复了 CitationQueryEngine 的检索节点后处理器问题 (#8818)
  • 修复了大多数情况下的 cannot pickle 'builtins.CoreBPE' object 问题 (#8835)

[0.8.66] - 2023-11-09#

新功能#

  • 使用新的 OpenAI 客户端在 OpenAIPydanticProgram 中支持并行函数调用 (#8793)

Bug 修复 / 调整#

  • 修复了带有新 OpenAI 客户端的 pydantic 程序中的 bug (#8793)
  • 修复了无法列出的 fsspec 对象的 bug (#8795)

[0.8.65] - 2023-11-08#

新功能#

  • OpenAIAgent 并行函数调用 (#8738)

新功能#

  • 正确支持 Hugging Face 推荐模型 (#8784)

Bug 修复 / 调整#

  • 修复了 embeddings.__all__ 的缺失导入 (#8779)

变更 / 弃用#

  • OpenAI(LLM) 中使用 tool_choice 替代 function_call,使用 tool 替代 functions (#8738)
  • 弃用 to_openai_function,改用 to_openai_tool (#8738)

[0.8.64] - 2023-11-06#

新功能#

  • OpenAIAgent 并行函数调用 (#8738)
  • 添加 AI 助理代理 (#8735)
  • OpenAI GPT4v 抽象 (#8719)
  • 添加对 Lantern VectorStore 的支持 (#8714)

Bug 修复 / 调整#

  • 修复了在弹性搜索向量存储中返回零节点的 bug (#8746)
  • SimpleDirectoryReader 循环中添加 try/except 以避免在单个文档上崩溃 (#8744)
  • 修复了异步嵌入中的 deployment_name 问题 (#8748)

[0.8.63] - 2023-11-05#

新功能#

  • 为最新的 openai 客户端包添加了原生同步和异步客户端支持 (#8712)
  • 添加了对 AzureOpenAIEmbedding 的支持 (#8712)

Bug 修复 / 调整#

  • 修复了使用 download_loader 时关于 "未提供主机" 的错误 (#8723)

变更#

  • OpenAIEmbedding 不再支持 azure,已移入 AzureOpenAIEmbedding 类 (#8712)

[0.8.62.post1] - 2023-11-05#

变更#

  • 添加新的 devday 模型 (#8713)
  • max_docs 参数从构造函数移至 lazy_load_data() 以用于 SimpleMongoReader (#8686)

[0.8.61] - 2023-11-05#

新功能#

  • [实验性] 超参数调整器 (#8687)

Bug 修复 / 调整#

  • 修复了 CohereAIModelName 类中的拼写错误:cohere light models 缺少 v3 (#8684)
  • 更新 deeplake.py (#8683)

[0.8.60] - 2023-11-04#

新功能#

  • 优化提示指南 (#8659)
  • VoyageEmbedding (#8634)
  • YoutubeTranscriptReader 的多语言支持 (#8673)
  • 情感提示指南 (#8674)

Bug 修复 / 调整#

  • 将 mistral 7b instruct v0.1 添加到可用的 anyscale 模型中 (#8652)
  • 使 pgvector 的设置(扩展、模式和表创建)可选 (#8656)
  • 允许初始化 Pinecone 向量存储的 stores_text 变量 (#8633)
  • 修复 Azure AD 支持 (#8667)
  • 修复多线程环境下的 NLTK bug (#8668)
  • 修复 cohereai 笔记本中的 Google Colab 链接 (#8677)
  • 将 max_tokens 传递给 Cohere llm (#8672)

[0.8.59] - 2023-11-02#

  • 支持 Deepmemory (#8625)
  • 添加 CohereAI 嵌入 (#8650)
  • 添加 Azure AD (Microsoft Entra ID) 支持 (#8667)

[0.8.58] - 2023-11-02#

新功能#

  • 为结构化输出添加 lm-format-enforcer 集成 (#8601)
  • 支持 Google Vertex (#8626)

[0.8.57] - 2023-10-31#

新功能#

  • 添加 VoyageAIEmbedding 集成 (#8634)
  • 添加微调评估笔记本 (#8596)
  • 添加 SingleStoreDB 集成 (#7991)
  • 添加 ChromaDB PersistentClient 支持 (#8582)
  • 添加 DataStax Astra DB 支持 (#8609)

Bug 修复 / 问题修正#

  • 更新 Weaviate 中的 dataType (#8608)
  • 在具有混合 retriever_mode 的知识图索引中,
  • 当“未找到关系”时返回关键字搜索找到的节点
  • 修复聊天引擎中的上下文长度超出错误 (#8530)
  • 从 KG 检索所有三元组的实际内容 (#8579)
  • KnowledgeGraphIndex 中,当嵌入在混合 retriever_mode 中找不到关系时,返回关键字找到的节点 (#8575)
  • 优化检索工具的内容并进行轻微错误修复 (#8588)

[0.8.56] - 2023-10-30#

新功能#

  • 添加 Amazon BedrockEmbedding (#8550)
  • HuggingFaceEmbedding 移至 Pooling 枚举的中心进行池化 (#8467)
  • 添加 IBM WatsonX LLM 支持 (#8587)

Bug 修复 / 问题修正#

  • [Bug] 修复 Clarifai 类 (#8529)
  • 修复 bedrock llm 的重试 (#8528)
  • 修复:VectorStore 的 QueryResult 总是将保存的 Node 返回为 TextNode (#8521)
  • 为 SimpleDirectoryReader 添加默认 file_metadata 以获取许多后处理器使用的基本元数据 (#8486)
  • 处理 ChromaDB 中具有 None 值的元数据 (#8584)

[0.8.55] - 2023-10-29#

新功能#

  • 允许提示接受带有 function_mappings 的函数 (#8548)
  • 添加高级提示 + “RAG 的提示工程” 笔记本 (#8555)
  • 利用 Replicate API 为提供 LLaVa 模态 (#8539)

Bug 修复 / 问题修正#

  • 使用 Google Colab 支持更新拉取请求模板 (#8525)

[0.8.54] - 2023-10-28#

新功能#

  • 显示如何在结构化输出上微调 llama2 的笔记本 (#8540)
  • 添加 GradientAIFineTuningHandler
  • 在 ServiceContext 中添加 pydantic_program_mode
  • 使用 LlamaIndex 初始化 MultiModal 检索

Bug 修复 / 问题修正#

  • ChatEngine 使用模式 .md 文档中添加缺失的导入 (#8518)
  • :bug: 修复异步添加 (#8531)
  • 修复:在使用模式中添加所需的 CondenseQuestionChatEngine 导入 (#8518)
  • 在 LongLLMLingua.ipynb 中添加 LongLLMLinguaPostprocessor 导入 (#8519)

[0.8.53] - 2023-10-27#

新功能#

  • 文档重构 (#8500) 文档组织的全面改变。主要变化
  • 添加了一个全新的“理解”部分
  • 添加了一个全新的“优化”部分
  • 对入门内容进行了全面改进
  • 对模块指南进行分类并移动到单独的部分

[0.8.52] - 2023-10-26#

新功能#

  • 添加 longllmlingua (#8485)
  • 为笔记本添加 Google Colab 支持 (#7560)

Bug 修复 / 问题修正#

  • 通过 cassio.init 适配 Cassandra VectorStore 构造函数的 DB 连接 (#8255)
  • 允许在托管索引中配置服务上下文和存储上下文 (#8487)

[0.8.51.post1] - 2023-10-25#

新功能#

  • 为 Tesla 10k RAG 添加 Llava MultiModal QA 示例 (#8271)
  • 修复 React 聊天代理上的流式问题未按预期工作 (#8459)

Bug 修复 / 问题修正#

  • 补丁:为路由器查询引擎的响应元数据添加选定结果,修复 bug (#8483)
  • 添加 Jina AI 嵌入笔记本 + huggingface 嵌入修复 (#8478)
  • 为复制添加 is_chat_model (#8469)
  • toml-sort 重新引入 pre-commit (#8267)
  • 为本地 test_s3_kvstore 添加 LocationConstraint (#8263)

[0.8.50] - 2023-10-24#

新功能#

  • 在不同模块中暴露提示 (查询引擎、合成器等) (#8275)

[0.8.49] - 2023-10-23#

新功能#

  • 新的 LLM 集成
  • 支持 Hugging Face 推理 API 的 conversationaltext_generationfeature_extraction 端点,通过 huggingface_hub[inference] (#8098)
  • 添加 Amazon Bedrock LLMs (#8223)
  • 添加 AI21 Labs LLMs (#8233)
  • 为兼容 OpenAI 的 api 服务器添加 OpenAILike LLM 类 (#7973)
  • 新/更新的向量存储集成
  • 添加 DashVector (#7772)
  • 添加 Tencent VectorDB (#8173)
  • 在 PGVectorStore 上添加自定义 Postgres 模式选项,而不仅允许公共模式 (#8080)
  • 添加 Gradient 微调引擎 (#8208)
  • 文档(FAQ):常见问题解答 (#8249)

Bug 修复 / 问题修正#

  • 修复 ReActAgent.stream_chat 中的不一致性 (#8147)
  • 废弃一些 GuardrailsOutputParser 的函数 (#8016)
  • 简化依赖关系 (#8236)
  • LiteLLM 的 bug 修复 (#7885)
  • 更新 Predibase LLM (#8211)

[0.8.48] - 2023-10-20#

新功能#

  • 为 MyScale 向量存储添加 DELETE 功能 (#8159)
  • 添加 SQL 检索器 (#8197)
  • 添加语义核心文档格式 (#8226)
  • 改进 MyScale 混合搜索,并为 MyScale 向量存储添加 DELETE 功能 (#8159)

Bug 修复 / 优化#

  • 修复 ReActAgent.from_tools() 中的额外 kwargs (#8206)
  • 修复提示模板中缺少的空格 (#8190)
  • 在异常情况下移除 llama2-13B 的自动下载 (#8225)

[0.8.47] - 2023-10-19#

新功能#

  • 为文本到 SQL 添加响应合成 (#8196)
  • 添加对 LLMRailsEmbedding 的支持 (#8169)
  • 使用 PyTorch 推断 MPS 设备 (#8195)
  • 合并查询/文本前置 (#8189)

[0.8.46] - 2023-10-18#

新功能#

  • 添加微调路由支持 + 嵌入选择器 (#8174)
  • 添加更多文档转换器 (#8156)

Bug 修复 / 优化#

  • 为 huggingface 嵌入添加归一化 (#8145)
  • 改进 MyScale 混合搜索 (#8159)
  • 修复在提示中重复的 FORMAT_STR (#8171)
  • 为 PandasQueryEngine 添加支持 output_kwargs={'max_colwidth': xx} (#8110)
  • 修复 cohere llm 中参数描述的小错误 (#8163)
  • 修复 Firestore 客户端信息 (#8166)

[0.8.45] - 2023-10-13#

新功能#

  • 添加对微调交叉编码器的支持 (#7705)
  • 添加 QueryFusionRetriever 用于合并多个检索器 + 查询增强 (#8100)
  • pre-commit 中添加 nb-clean 以减少 PR 差异 (#8108)
  • 支持 TextEmbeddingInference 嵌入 (#8122)

Bug 修复 / 优化#

  • 改进 BM25Retriever 接口以接受 BaseNode 对象 (#8096)
  • 修复 BM25Retriever 分词器未按预期工作的 bug (#8096)
  • 使 mypy 在 Python 3.8 中通过 (#8107)
  • ReActAgent 添加缺失的 super().__init__ 调用 (#8125)

[0.8.44] - 2023-10-12#

新功能#

  • 添加 pgvector SQL 查询引擎 (#8087)
  • 添加 HoneyHive 一键可观察性 (#7944)
  • 添加对 SQLAlchemy V1 和 V2 的支持 (#8060)

[0.8.43.post1] - 2023-10-11#

新功能#

  • codespell 移至 pre-commit (#8040)
  • .py 外添加 prettier 用于自动格式化扩展名 (#8072)

Bug 修复 / 优化#

  • 修复 HuggingFaceLLM 中遗漏的 f-str (#8075)
  • 放宽 numpy/panadas 要求

[0.8.43] - 2023-10-10#

新功能#

  • 添加对 GradientEmbedding 嵌入模型的支持 (#8050)

Bug 修复 / 优化#

  • HuggingFaceLLM 添加 messages_to_prompt kwarg (#8054)
  • 改进开源模型的选择和 SQL 解析 (#8054)
  • 修复当代理为工具产生过多 kwargs 时的 bug (#8054)
  • 改进选择+问题生成的提示和调试 (#8056)

[0.8.42] - 2023-10-10#

新功能#

  • LocalAI 更直观的模块级变量名 (#8028)
  • 为 markdown 文档启用 codespell (#7972)
  • 添加非结构化表元素节点解析器 (#8036)
  • 添加:Qdrant 向量存储的异步 upserting (#7968)
  • 添加 cohere llm (#8023)

Bug 修复 / 优化#

  • 解析 react agent 答案中的多行输出 (#8029)
  • 为关键字 as_retriever 调用添加适当命名的 kwargs (#8011)
  • 更新对 RAGAS LlamaIndex 集成的引用 (#8035)
  • Vectara bug 修复 (#8032)
  • 修复 Mbox 读取器中的 get_content 方法 (#8012)
  • 在 WeaviateVectorStore 中应用 kwargs 过滤器 (#8017)
  • 避免 ZeroDivisionError (#8027)
  • LocalAI 更直观的模块级变量名 (#8028)
  • zep/fix: 导入 & 类型 (#8030)
  • 重构:使用 str.join (#8020)
  • 为节点解析使用正确的元数据 str (#7987)

[0.8.41] - 2023-10-07#

新功能#

  • You.com 检索器 (#8024)
  • 使用 metadata_names 参数从 mongodb 中提取字段到元数据 (#8001)
  • 简化 LocalAI.__init__ 以保持相同行为 (#7982)

Bug 修复 / 优化#

  • 使用最长的元数据字符串进行元数据感知文本拆分 (#7987)
  • 处理 mongodb 读取器中的字符串列表 (#8002)
  • 移除 OpenAI.class_type 因为它是死代码 (#7983)
  • 修复 HuggingFaceLLM.device_map 类型提示 (#7989)

[0.8.40] - 2023-10-05#

新功能#

  • 添加对 Clarifai LLM 的支持 (#7967)
  • 添加对函数微调的支持 (#7971)

兼容性变更#

  • 更新文档摘要索引 (#7815)
  • 将默认检索模式更改为嵌入
  • 在索引时默认将摘要嵌入到向量存储中(而不是在运行时计算嵌入)
  • 支持在 llm 检索器中配置 top k

[0.8.39] - 2023-10-03#

新功能#

  • 添加对带有查询引擎的 pydantic 对象输出的支持 (#7893)
  • 添加用于嵌入支持的 ClarifaiEmbedding 类 (#7940)
  • Markdown 节点解析器、平面文件读取器和简单文件节点解析器 (#7863)
  • 添加对 mongdb atlas $vectorSearch 的支持 (#7866)

Bug 修复 / 优化#

  • 添加对在 discord 读取器中使用消息元数据的支持 (#7906)
  • 修复 LocalAI 在没有 max_tokens 的情况下的聊天功能 (#7942)
  • 添加自动检查的 codespell (#7941)
  • ruff 现代化和自动修复 (#7889)
  • 实现自己的 SQLDatabase 类 (#7929)
  • 更新 LlamaCPP context_params 属性 (#7945)
  • 修复重复嵌入 (#7949)
  • 添加 codespell 工具以强制执行良好的拼写 (#7941)
  • 支持 mypyvenv 的本地使用 (#7952)
  • Vectara - 小更新 (#7954)
  • 避免在 CI 中重新安装 pydantic (#7956)
  • 将 tree_sitter_languages 移入 data_requirements.txt (#7955)
  • PGVectorStore 添加 cache_okay 参数以帮助抑制 TSVector 警告 (#7950)

[0.8.38] - 2023-10-02#

新功能#

  • 更新 KeywordNodePostprocessor 以使用 spacy 以支持更多语言 (#7894)
  • LocalAI 支持全局或每个查询的 /chat/completions vs /completions (#7921)
  • 添加关于使用 REBEL + Wikipedia 过滤知识图的笔记本 (#7919)
  • 添加对 ElasticsearchEmbedding 的支持 (#7914)

[0.8.37] - 2023-09-30#

新功能#

  • 支持 LocalAI LLMs (#7913)
  • 验证以防止配置不当的块大小 (#7917)

Bug 修复 / 改进#

  • 简化 NL SQL 响应以进行 SQL 解析,并扩展 NL SQL 提示 (#7868)
  • 改进 vectordb 集成的向量存储检索速度 (#7876)
  • 添加替换 {{ 和 }}, 修复 JSON 解析递归 (#7888)
  • 优化 JSON 解码错误 (#7891)
  • 优化来自 LLM 未提供 SQL 的 SQL 错误 (#7900)
  • 优化 HuggingFaceLLMImportError (#7904)
  • 评估修复:修复数据集响应生成,向评估器添加分数 (#7915)

[0.8.36] - 2023-09-27#

新功能#

  • 添加 "从头开始构建 RAG 笔记本" - OSS/local (#7864)

Bug 修复 / 改进#

  • 修复 elasticsearch 混合评分 (#7852)
  • 用内部实现替换 get_color_mappingprint_text Langchain 依赖 (#7845)
  • 修复 azure 的异步流式处理 (#7856)
  • 避免在子问题生成器中出现 NotImplementedError() (#7855)
  • 修补 predibase 初始化 (#7859)
  • 提升 langchain 最小版本并从 langchain 更改提示导入 (#7862)

[0.8.35] - 2023-09-27#

Bug 修复 / 改进#

  • 修复在递归检索中丢弃 textnodes (#7840)
  • 在 callback_manager 为 None 时在 agent 和其 llm 之间共享 callback_manager (#7844)
  • 修复 pandas 查询引擎 (#7847)

[0.8.34] - 2023-09-26#

新功能#

  • 添加对 Konko LLM 的支持 (#7775)
  • 添加 before/after 上下文句子 (#7821)
  • EverlyAI 通过 OpenAI 库与 LlamaIndex 的集成 (#7820)
  • 向全局处理程序添加 Arize Phoenix tracer (#7835)

Bug 修复 / 改进#

  • 规范化从 ElasticSearch 向量存储返回的分数 (#7792)
  • 修复 refresh_ref_docs() 中的操作顺序 bug (#7664)
  • 延迟 postgresql 连接以至 PGVectorStore 真正需要时 (#7793)
  • 修复 SimpleVectorStore 的删除方法中与元数据过滤器相关的 KeyError (#7829)
  • 修复 SimpleVectorStore 的删除方法中与元数据过滤器相关的 KeyError (#7831)
  • 处理 PyYAML 导入错误 (#7784)
  • ElasticsearchStore: 更新 User-Agent + 添加示例 docker compose (#7832)
  • StorageContext.persist 支持 Path (#7783)
  • 更新 ollama.py (#7839)
  • 修复 self._session_pool 的 bug (#7834)

[0.8.33] - 2023-09-25#

新功能#

  • 添加成对评估器 + 基准自动合并检索器 (#7810)

Bug 修复 / 改进#

  • 在嵌入类中进行轻微清理 (#7813)
  • OpenAIEmbedding 进行杂项更新 (#7811)

[0.8.32] - 2023-09-24#

新功能#

  • 添加对 HuggingFaceEmbedding, InstructorEmbeddingOptimumEmbedding 的本机支持 (#7795)
  • 向 MyScale 向量存储添加元数据过滤和混合搜索 (#7780)
  • 允许 Milvus 自定义文本字段名称 (#7790)
  • VectorIndexAutoRetriever 添加对 vector_store_query_mode 的支持 (#7797)

Bug 修复 / 改进#

  • 更新 LanceDBVectorStore 以处理分数和距离 (#7754)
  • CondenseQuestionChatEngine 中将 LLM 传递给 memory_cls (#7785)

[0.8.31] - 2023-09-22#

新功能#

  • 添加 pydantic 元数据提取器 (#7778)
  • 允许用户在 azure cognitive 向量存储中设置嵌入维度 (#7734)
  • 添加语义相似度评估器 (#7770)

Bug 修复 / 改进#

  • 📝文档:更新 Chatbot 教程和笔记本 (#7767)
  • 修复带有空节点的响应合成器 (#7773)
  • 修复自动向量检索器中的 NotImplementedError (#7764)
  • "KnowledgeGraphQueryEngine" 中的多个 kwargs 值 bug 修复 (#7763)
  • 允许设置 azure cognitive 搜索的维度 (#7734)
  • 将服务上下文传递给数据集生成器的索引 (#7748)
  • 修复选择器模板的输出解析器 (#7774)
  • 更新 Chatbot_SEC.ipynb (#7711)
  • 对 cassandra 测试进行 linter/typechecker-friendly 改进 (#7771)
  • 公开 PgVectorStore 的调试选项 (#7776)
  • llms/openai: 修复 Azure OpenAI,考虑 prompt_filter_results 字段 (#7755)

[0.8.30] - 2023-09-21#

新功能#

  • 添加对 gpt-3.5-turbo-instruct 的支持 (#7729)
  • 添加对 TimescaleVectorStore 的支持 (#7727)
  • 添加 LongContextReorder 以解决中间丢失问题 (#7719)
  • 添加检索评估 (#7738)

Bug 修复 / 改进#

  • 添加了节点后处理器到异步上下文聊天引擎 (#7731)
  • 为 PostgreSQL 的 tsv 列添加了唯一索引名称 (#7741)

[0.8.29.post1] - 2023-09-18#

Bug 修复 / 优化#

  • 修复了嵌入式语言链导入错误 (#7714)

[0.8.29] - 2023-09-18#

新功能#

  • 为基本简单向量存储添加了元数据过滤 (#7564)
  • 添加低级路由器指南 (#7708)
  • 添加了 CustomQueryEngine 类 (#7703)

Bug 修复 / 优化#

  • 修复了 lite-llm 中上下文窗口元数据的问题 (#7696)

[0.8.28] - 2023-09-16#

新功能#

  • 添加了 CorrectnessEvaluator (#7661)
  • 添加了对 Ollama LLM 的支持 (#7635)
  • 添加了 HWPReader (#7672)
  • 简化了 portkey LLM 接口 (#7669)
  • ElasticsearchStore 向量存储添加了异步操作支持 (#7613)
  • 添加了对 LiteLLM 的支持 (#7600)
  • 添加了批量评估运行器 (#7692)

Bug 修复 / 优化#

  • 避免了异步语言链嵌入的 NotImplementedError (#7668)
  • 提高了 LLM 选择器的可靠性 (#7678)
  • 修复了输出解析器和完成模型中的 query_wrapper_promptsystem_prompt 的索引错误 (#7678)
  • 修复了引文查询引擎中节点属性的继承问题 (#7675)

兼容性变更#

  • 重构并更新了 BaseEvaluator 接口以更加一致 (#7661)
  • 使用 evaluate 函数进行通用输入
  • 使用带有来自 llama 索引查询引擎的 Response 对象的 evaluate_response 函数
  • 使用更明确的命名更新现有的评估器
  • ResponseEvaluator -> FaithfulnessEvaluator
  • QueryResponseEvaluator -> RelevancyEvaluator
  • 旧名称作为类别别名以保持向后兼容性

[0.8.27] - 2023-09-14#

新功能#

  • 添加了低级教程部分 (#7673)

Bug 修复 / 优化#

  • 默认 delta 应该是一个字典 (#7665)
  • 在 LLMPredictor 上改进了更好的查询包装逻辑 (#7667)

[0.8.26] - 2023-09-12#

新功能#

  • 添加了非线性嵌入适配器 (#7658)
  • 在知识微调笔记本中添加了 "finetune + RAG" 评估 (#7643)

Bug 修复 / 优化#

  • 修复了句子分割器的分块重叠问题 (#7590)

[0.8.25] - 2023-09-12#

新功能#

  • 添加了 AGENT_STEP 回调事件类型 (#7652)

Bug 修复 / 优化#

  • 允许 simple 模式与 as_chat_engine() 一起使用 (#7637)
  • 修复了 Azure 流式处理中的索引错误 (#7646)
  • 从 llama-cpp 中移除了 pdb (#7651)

[0.8.24] - 2023-09-11#

新功能#

  • 指南:精细调整以记忆知识 (#7626)
  • 添加了自定义提示模板用于评估模块 (#7626)

Bug 修复#

  • 正确检测 llama-cpp-python 版本以加载默认的 GGML 或 GGUF llama2-chat-13b 模型 (#7616)
  • 使用 RetrieverQueryEngine.from_args() 正确传递 summary_template (#7621)
  • 修复了 wandb 回调中的 span 类型问题 (#7631)

[0.8.23] - 2023-09-09#

Bug 修复#

  • 确保在 llama2 的首次聊天中包含上下文和系统提示 (#7597)
  • 避免在精炼过程中出现负块大小错误 (#7607)
  • 修复了分层节点解析器中小型文档的关系问题 (#7611)
  • 通过完整流式和异步支持更新 Anyscale Endpoints 集成 (#7602)
  • 更好地支持将凭据作为 LLM 构造函数参数传递给 OpenAIAzureOpenAIAnyscale (#7602)

兼容性变更#

  • 更新 milvus 向量存储以支持过滤器和动态模式 (#7286)
  • 参见 更新的笔记本 以获取用法
  • 添加 NLTK 到核心依赖项以支持默认句子分割器 (#7606)

[0.8.22] - 2023-09-07#

新功能#

  • 添加了对 ElasticSearch 向量存储的支持 (#7543)

Bug 修复 / 优化#

  • 修复了 ElasticSearchReader 中的小 _index 错误 (#7570)
  • 修复了全局服务上下文中提示助手设置的错误 (#7576)
  • 再次从 openai 嵌入中删除换行符 (#7588)
  • 在服务上下文中设置 query_wrapper_prompt 时修复了小错误 (#7585)

兼容性变更 / 弃用 API 更改#

  • 清理向量存储接口,使用 BaseNode 而不是 NodeWithEmbedding
  • 对于大多数用户,这是一个无操作的更改
  • 对于直接操作 VectorStore 抽象并手动构建 NodeWithEmbedding 对象的用户,这是一个轻微的兼容性变更。直接使用设置了 embeddingTextNode,而不是 NodeWithEmbedding

[0.8.21] - 2023-09-06#

新功能#

  • 添加了嵌入适配器精细调整引擎和指南 (#7565)
  • 添加了对 Azure Cognitive Search 向量存储的支持 (#7469)
  • 支持在 supabase 中删除 (#6951)
  • 添加了对 Espilla 向量存储的支持 (#7539)
  • 添加了对 AnyScale LLM 的支持 (#7497)

Bug 修复 / 优化#

  • VectorIndexAutoRetriever 中默认使用可配置的 top-k (#7556)
  • 捕获结构化响应的验证错误 (#7523)
  • 修复了流式精炼模板 (#7561)

[0.8.20] - 2023-09-04#

新功能#

  • 添加了 Portkey LLM 集成 (#7508)
  • 支持 postgres/pgvector 混合搜索 (#7501)

升级递归检索节点参考笔记本 (#7537)#

[0.8.19] - 2023-09-03#

新功能#

  • 用摘要索引替换列表索引 (#7478)
  • 将列表索引重命名为摘要索引第二部分 (#7531)

[0.8.18] - 2023-09-03#

新功能#

  • 添加代理微调指南 (#7526)

[0.8.17] - 2023-09-02#

新功能#

  • 使(一些)加载器可序列化 (#7498)
  • 将节点引用添加到递归检索中 (#7522)

故障修复 / 问题#

  • 在拆分过程中元数据过大时提出信息性错误 (#7513)
  • 允许在简单节点解析器中使用 langchain 分割器 (#7517)

[0.8.16] - 2023-09-01#

故障修复 / 问题#

  • 修复文档中对 Marvin 笔记本的链接 (#7504)
  • 确保在 SimpleWebPageReader 中元数据不为 None (#7499)
  • 修复了 KGIndex 可视化问题 (#7493)
  • 改进了 KG Index 中的空响应 (#7493)

[0.8.15] - 2023-08-31#

新功能#

  • 添加对 MarvinEntityExtractor 元数据提取器的支持 (#7438)
  • SimpleWebPageReader 中添加了 url_metadata 回调 (#7445)
  • 扩展了回调日志事件 (#7472)

故障修复 / 问题#

  • 仅对 OpenAI 中的文本 001 嵌入模型将换行符转换为空格 (#7484)
  • 修复了非星云索引的 KnowledgeGraphRagRetriever (#7488)
  • 支持在 PGVectorStore 中定义的嵌入维度 (#7491)
  • 大大提高了基础向量存储的相似度计算速度 (#7494)

[0.8.14] - 2023-08-30#

新功能#

  • 功能:在 Graph RAG 中支持非星云异构图 (#7459)
  • rag 指南 (#7480)

故障修复 / 问题#

  • 改进了 openai 微调模型解析 (#7474)
  • 进行了一些代码去重 (#7468)
  • 支持 HF LLMs 中的 query_wrapper_prompt 使用 str 和模板 (#7473)

[0.8.13] - 2023-08-29#

新功能#

  • 添加嵌入微调 (#7452)
  • 添加对 RunGPT LLM 的支持 (#7401)
  • 与 DeepEval 集成指南和笔记本 (#7425)
  • VectorIndexVectaraRetriever 添加为受管索引 (#7440)
  • 添加对 to_tool_list 检测和使用异步函数的支持 (#7282)

[0.8.12] - 2023-08-28#

新功能#

  • 添加 openai 微调类 (#7442)
  • 服务上下文到/从字典 (#7395)
  • 添加微调指南 (#7429)

较小功能 / 问题修复 / 问题#

  • 添加如何运行 FalkorDB docker 的示例 (#7441)
  • 更新 root.md 以使用 get_response_synthesizer 期望的类型。 (#7437)
  • Bugfix MonsterAPI Pydantic 版本 v2/v1 支持。文档更新 (#7432)

[0.8.11.post3] - 2023-08-27#

新功能#

  • AutoMergingRetriever (#7420)

[0.8.10.post1] - 2023-08-25#

新功能#

  • 使用 MonsterAPI 添加对 MonsterLLM 的支持 (#7343)
  • 支持星云图存储中的注释字段和 int 类型 VID (#7402)
  • 为 DynamoDB 添加可配置的端点 (#6777)
  • 为 Refine 响应合成器添加结构化答案过滤 (#7317)

故障修复 / 问题#

  • 使用 utf-8 读取 json 文件 (#7390)
  • 修复实体提取器初始化问题 (#7407)

[0.8.9] - 2023-08-24#

新功能#

  • 添加对 FalkorDB/RedisGraph 图存储的支持 (#7346)
  • 添加有向子图 RAG 的支持 (#7378)
  • 添加对 BM25Retriever 的支持 (#7342)

故障修复 / 问题#

  • Xinference LLM 中添加 max_tokens (#7372)
  • 支持在多线程应用程序中创建缓存目录 (#7365)
  • 确保 openai 的温度是浮点数 (#7382)
  • 删除知识图检索器中的重复主题 (#7378)
  • 添加对 pydantic v1 和 v2 的支持,以允许其他应用程序向前移动 (#7394)

破坏性 / 弃用的 API 更改#

  • 重构提示模板 (#7319)
  • 使用 BasePromptTemplate 进行通用类型定义
  • 使用 PromptTemplateChatPromptTemplateSelectorPromptTemplate 作为核心实现
  • 使用 LangchainPromptTemplate 以兼容 Langchain 提示模板
  • 完全用通用的 BasePromptTemplate 替换特定的提示类(例如 SummaryPrompt)以进行代码库中的类型定义。
  • 保持 Prompt 作为 PromptTemplate 的别名,以保持向后兼容性。
  • 破坏性更改:不再支持 Prompt.from_langchain_prompt,请改用 template=LangchainPromptTemplate(lc_template)

[0.8.8] - 2023-08-23#

新功能#

  • OpenAIFineTuningHandler 用于收集 OpenAI 微调的 LLM 输入/输出 (#7367)

故障修复 / 问题#

  • 添加对 claude-instant-1.2 的支持 (#7369)

[0.8.7] - 2023-08-22#

新功能#

  • 支持微调的 OpenAI 模型 (#7364)
  • 添加对 Cassandra 向量存储的支持 (#6784)
  • 在工具函数中支持 pydantic 字段 (#7348)

故障修复 / 问题#

  • 修复了在 OpenAIAgent 中强制函数调用中的无限循环问题 (#7363)

[0.8.6] - 2023-08-22#

新功能#

  • 自动 vs. 递归检索笔记本 (#7353)
  • BagelDB 的 Reader 和 Vector Store,附带示例笔记本 (#7311)

故障修复 / 问题#

  • 在重试源查询引擎中使用服务上下文进行中间索引的临时修复 (#7341)
  • 临时修复提示助手 + 聊天模型 (#7350)
  • 在软件包未安装时正确跳过单元测试 (#7351)

[0.8.5.post2] - 2023-08-20#

  • 增加了 FireStore 文档存储/索引存储支持 (#7305)
  • 增加了递归代理笔记本 (#7330)

Bug 修复 / 问题修正#

  • 修复了 Azure pydantic 错误 (#7329)
  • 修复回调追踪 ID(将它们作为上下文变量) (#7331)

[0.8.5.post1] - 2023-08-18#

新功能#

  • Awadb 向量存储 (#7291)

Bug 修复 / 问题修正#

  • 修复了 OpenAI llm 温度类型的 bug

[0.8.5] - 2023-08-18#

新功能#

  • 在服务上下文中为开源 LLM 提供系统提示/查询包装器 (#6647)
  • 将默认的 MyScale 索引格式更改为 MSTG (#7288)
  • 为聊天引擎/代理添加了跟踪 (#7304)
  • 将 LLM 和嵌入移至 pydantic (#7289)

Bug 修复 / 问题修正#

  • 修复了句子分割器 bug (#7303)
  • 修复了句子分割器的无限循环 (#7295)

[0.8.4] - 2023-08-17#

Bug 修复 / 问题修正#

  • 改进了 SQL 查询解析 (#7283)
  • 修复了从全局服务上下文加载 embed_model 的 bug (#7284)
  • 限制 langchain 版本,直到迁移到 pydantic v2 (#7297)

[0.8.3] - 2023-08-16#

新功能#

  • 增加了知识图谱 RAG 检索器 (#7204)

Bug 修复 / 问题修正#

  • 在 OpenAI LLM 类构造函数中接受 api_key kwarg (#7263)
  • 修复为 StreamingAgentChatResponse 的不同实例创建单独的队列实例的 bug (#7264)

[0.8.2.post1] - 2023-08-14#

新功能#

  • 增加了 Rockset 作为向量存储的支持 (#7111)

Bug 修复#

  • 修复了可能禁用 LLM 的服务上下文定义中的 bug (#7261)

[0.8.2] - 2023-08-14#

新功能#

  • 通过在服务上下文中将 LLM 或嵌入模型设置为 None 来禁用它 (#7255)
  • 使用 embed_model="local:<model_name>" 语法解析几乎任何 huggingface 嵌入模型 (#7255)
  • 异步工具调用支持 (#7239)

Bug 修复 / 问题修正#

  • 更新了用于添加和查询的 supabase kwargs (#7103)
  • 对默认提示进行了小调整,以允许更通用的查询 (#7254)
  • 使回调管理器对于 CustomLLM 是可选的 + 更新文档 (#7257)

[0.8.1] - 2023-08-13#

新功能#

  • 增加了 node_postprocessors 到 ContextChatEngine (#7232)
  • 增加了集成查询引擎教程 (#7247)

较小的功能#

  • 允许 Fastchat/local OpenAI API 端点的 EMPTY 键 (#7224)

[0.8.0] - 2023-08-11#

新功能#

  • 增加了 "LLAMA_INDEX_CACHE_DIR" 以控制缓存文件 (#7233)
  • 在可能的情况下默认使用 pydantic selectors (#7154, #7223)
  • 在服务上下文中不再需要 langchain 包装器来处理 embed_model (#7157)
  • 元数据提取器现在除了 LLMPredictor 外还接受一个 LLM 对象 (#7202)
  • 添加了本地模式 + 回退到 llama.cpp + llama2 (#7200)
  • 对于 BAAI/bge-small-en,添加了嵌入的本地回退 (#7200)
  • 添加了 SentenceWindowNodeParser + MetadataReplacementPostProcessor (#7211)

兼容性变更#

  • 将默认的 LLM 更改为从 text-davinci-003 到 gpt-3.5-turbo (#7223)
  • 更改 compact/refine/tree_summarize 的提示,以更好地适应 gpt-3.5-turbo (#7150, #7179, #7223)
  • 将默认的 LLM 温度增加到 0.1 (#7180)

[0.7.24.post1] - 2023-08-11#

其他变更#

  • 恢复了对默认值的 #7223 更改 (#7235)

[0.7.24] - 2023-08-10#

新功能#

  • 在可能的情况下默认使用 pydantic selectors (#7154, #7223)
  • 在服务上下文中不再需要 langchain 包装器来处理 embed_model (#7157)
  • 元数据提取器现在除了 LLMPredictor 外还接受一个 LLM 对象 (#7202)
  • 添加了本地模式 + 回退到 llama.cpp + llama2 (#7200)
  • 对于 BAAI/bge-small-en,添加了嵌入的本地回退 (#7200)
  • 添加了 SentenceWindowNodeParser + MetadataReplacementPostProcessor (#7211)

兼容性变更#

  • 将默认的 LLM 更改为从 text-davinci-003 到 gpt-3.5-turbo (#7223)
  • 更改 compact/refine/tree_summarize 的提示,以更好地适应 gpt-3.5-turbo (#7150, #7179, #7223)
  • 将默认的 LLM 温度增加到 0.1 (#7180)

其他变更#

  • 文档:改进了 Mendable Search (#7220)
  • 重构了 openai agent (#7077)

Bug 修复 / 问题修正#

  • 对于 pgvector/postgres 向量数据库,使用 1 - cosine_distance (#7217)
  • 修复了元数据格式化和提取 (#7216)
  • 修复(读取器):修复了非 ASCII JSON 读取器的 bug (#7086)
  • 改变了 PgVectorStore 变量名,从 sim 改为 distance 以增加清晰度 (#7226)

[0.7.23] - 2023-08-10#

Bug 修复 / 问题修正#

  • 修复了自定义模板和继承的元数据格式化的 bug (#7216)

[0.7.23] - 2023-08-10#

新功能#

  • 在文档中添加了 "一键观测性" 页面 (#7183)
  • 为本地部署添加了 Xorbits 推理 (#7151)
  • 添加了 Zep 向量存储集成 (#7203)
  • feat/zep vectorstore (#7203)

Bug 修复 / 问题修正#

  • 更新了默认的 EntityExtractor 模型 (#7209)
  • 使 ChatMemoryBuffer 可以被 pickle (#7205)
  • 重构了 BaseOpenAIAgent (#7077)

[0.7.22] - 2023-08-08#

新功能#

  • 添加了集成检索笔记本 (#7190)
  • 文档:添加了本地 llama2 笔记本 (#7146)

Bug 修复 / 问题修正#

[0.7.21] - 2023-08-07#

新功能#

  • 添加了用于元数据提取的 EntityExtractor (#7163)

[0.7.20] - 2023-08-06#

新功能#

  • 添加了路由模块文档 (#7171)
  • 添加了检索路由器 (#7166)

新功能#

  • 添加了用于将查询路由到特定检索器的 RouterRetriever (#7166)

Bug 修复 / 改进#

  • 修复了从 OpenAIAgent 并发流式响应中出现令牌交错的问题 (#7164)
  • 修复了 llms 回调问题 (args[0] 错误) (#7165)

[0.7.19] - 2023-08-04#

新功能#

  • 在 weaviate 中添加了元数据过滤 (#7130)
  • 在代理和流式处理中添加了令牌计数 (以及所有回调) (#7122)

[0.7.18] - 2023-08-03#

新功能#

  • 为内存对象添加了 to/from_stringto/from_dict 方法 (#7128)
  • 在 SQL 查询的表信息中包括了列注释 (#7124)
  • 添加了 Neo4j 支持 (#7122)

Bug 修复 / 改进#

  • AzureOpenAI 类添加了 Azure AD 验证支持 (#7127)
  • 在打印代理/聊天引擎响应流时添加了 flush=True (#7129)
  • AzureOpenAI 类添加了 Azure AD 支持 (#7127)
  • 更新了 LLM 问题生成器提示,提到了 JSON markdown (#7105)
  • 修复了聊天引擎中的 astream_chat (#7139)

[0.7.17] - 2023-08-02#

新功能#

  • 更新了 ReActAgent 以支持内存模块 (这是一个较小的破坏性更改,因为构造函数采用 memory 而不是 chat_history,但主要的 from_tools 方法仍然向后兼容。) (#7116)
  • 更新了 ReActAgent 以支持流式处理 (#7119)
  • 添加了 Neo4j 图存储和查询引擎集成 (#7122)
  • 添加了对象流式处理 (#7117)

[0.7.16] - 2023-07-30#

新功能#

  • 聊天源节点 (#7078)

[0.7.15] - 2023-07-29#

Bug 修复 / 改进#

  • 人工智能 API 密钥定制化 (#7082)
  • 修复了贡献者文档中 API 参考的损坏链接 (#7080)
  • 更新了向量存储文档 (#7076)
  • 更新了注释 (#7073)

[0.7.14] - 2023-07-28#

新功能#

  • 添加了 HotpotQADistractor 基准评估器 (#7034)
  • 为 LanceDB 添加了元数据过滤和删除支持 (#7048)
  • 在 opensearch 中使用元数据过滤 (#7005)
  • 添加了对 KuzuGraphStore 的支持 (#6970)
  • 添加了 kg_triplet_extract_fn 来自定义知识图的构建方式 (#7068)

Bug 修复 / 改进#

  • 修复了上下文聊天引擎中的字符串格式化问题 (#7050)
  • 修复了异步事件的跟踪问题 (#7052)
  • 对于知识图的三元组提取放宽了限制 (#7059)
  • 添加了可配置的知识图数据检索限制 (#7059)
  • Nebula 连接改进 (#7059)
  • 修复了构建代理响应的源节点的 bug (#7067)

[0.7.13] - 2023-07-26#

新功能#

  • 为 AzureOpenAI 添加了支持函数调用的 API (#7041)

Bug 修复 / 改进#

  • 调整提示以消除 SubQ 引擎中的 KeyError (#7039)
  • 修复了 Azure OpenAI 密钥的验证问题 (#7042)

[0.7.12] - 2023-07-25#

新功能#

  • ComposableGraph 添加了 kwargs,用于底层查询引擎 (#6990)
  • 在初始化时验证 openai 密钥 (#6940)
  • 添加了异步嵌入和异步 RetrieverQueryEngine (#6587)
  • 为聊天引擎和代理响应添加了 .source_nodes 属性 (#7029)
  • 添加了 OpenInferenceCallback,用于以 OpenInference 格式存储生成数据 (#6998)

Bug 修复 / 改进#

  • 修复了数据代理的 achat 内存初始化问题 (#7000)
  • 为代理/聊天引擎响应类添加了 print_response_stream() (#7018)

[v0.7.11.post1] - 2023-07-20#

新功能#

  • 在可能的情况下,默认使用 pydantic 问题生成进行子问题查询引擎 (#6979)

Bug 修复 / 改进#

  • 修复了大型聊天内存中消息的返回顺序问题 (#6979)

[v0.7.11] - 2023-07-19#

新功能#

  • 添加了用于快速本地重新排序的 SentenceTransformerRerank 节点后处理器 (#6934)
  • 为 pandas 查询引擎中的查询添加了 numpy 支持 (#6935)
  • 为 Postgres Vector Storage 集成添加了元数据过滤支持 (#6968)
  • 为代理和查询引擎添加了正确的 llama2 支持 (#6969)

Bug 修复 / 改进#

  • 为 LLMMetadata 添加了 model_name (#6911)
  • 在查询引擎中回退到检索服务上下文 (#6911)
  • 修复了带有额外 kwargs 的 as_chat_engine() 中的 ValueError (#6971)

[v0.7.10.post1] - 2023-07-18#

新功能#

  • 添加了对 Replicate LLM (vicuna & llama 2!) 的支持

Bug 修复 / 改进#

  • 修复了 condense 聊天引擎的流式处理问题 (#6958)

[v0.7.10] - 2023-07-17#

新功能#

  • 添加了对 chroma v0.4.0 的支持 (#6937)
  • 将嵌入向量记录到回调管理器中 (#6962)

Bug 修复 / 改进#

  • 添加了更健壮的嵌入超时处理 (#6779)
  • 改进了 postgres 向量存储的连接会话管理 (#6843)

[v0.7.9] - 2023-07-15#

新功能#

  • 指定 embed_model="local" 以在服务上下文中使用默认的本地嵌入 (#6806)
  • BasePydanticProgram 添加异步 acall 端点(默认为同步版本)。为 OpenAIPydanticProgram 实现该功能

Bug 修复 / 改进#

  • 修复搜索现有向量数据库的空元数据 (#6912)
  • SimpleDirectoryReader 添加模块指南文档 (#6916)
  • 确保 CondenseQuestionChatEngine 的流式聊天端点能够正常工作,即使在底层查询引擎中没有明确设置 streaming=True

[v0.7.8] - 2023-07-13#

新功能#

  • 添加嵌入速度基准测试 (#6876)
  • 添加 BEIR 检索基准测试 (#6825)

Bug 修复 / 改进#

  • deprecated_terms 中删除 toctrees (#6895)
  • 放宽类型依赖关系 (#6879)
  • 文档:修改评估笔记本 (#6840)
  • 如果模型不支持函数,则引发错误 (#6896)
  • 修复(bench embeddings):未考虑字符串长度的错误 (#6899)x

[v0.7.7] - 2023-07-13#

新功能#

  • 改进了 milvus 一致性支持和输出字段支持 (#6452)
  • 添加了对 cypyer+nebula 知识图查询的支持 (#6642)
  • 添加了 Document.example() 以用于快速原型设计的文档创建 (#6739)
  • 替换 react 聊天引擎以使用本机响应式代理 (#6870)

Bug 修复 / 改进#

  • 杂务:为 makefile 添加了帮助消息 (#6861)

Bug 修复 / 改进#

  • 修复了使用 SQLTableSchema 上下文_str 属性的支持 (#6891)

[v0.7.6] - 2023-07-12#

新功能#

  • 为代理/聊天引擎响应添加了来源 (#6854)
  • 为代理/聊天引擎添加了基本的聊天缓冲内存 (#6857)
  • 添加加载和搜索工具 (#6871)
  • 添加简单代理基准测试 (#6869)
  • 添加代理文档 (#6866)
  • 添加 react 代理 (#6865)

破坏性/已弃用的 API 更改#

  • 用本机 react 代理替换 react 聊天引擎 (#6870)
  • 将默认聊天模式设置为 "best":尽可能使用 openai 代理,否则使用 react 代理 (#6870)

Bug 修复 / 改进#

  • 修复了对遗留向量存储元数据的支持 (#6867)
  • 修复了文档中的 chroma 笔记本 (#6872)
  • 更新了 LC 嵌入文档 (#6868)

[v0.7.5] - 2023-07-11#

新功能#

  • 添加了 Anthropic LLM 实现 (#6855)

Bug 修复 / 改进#

  • 修复了 SentenceEmbeddingOptimizer 中的索引错误 (#6850)
  • 修复了自定义嵌入模型的文档 (#6851)
  • 修复(静默错误):为 SimpleDirectoryReader 添加验证 (#6819)
  • 修复了文档中的链接 (#6833)
  • 修复了 Azure gpt-35-turbo 模型未被识别的问题 (#6828)
  • 更新了 Chatbot_SEC.ipynb (#6808)
  • 将剩余的原始名称重命名为 LlamaIndex (#6792)
  • 修补了相同类型的嵌套跟踪 (#6791)

[v0.7.4] - 2023-07-08#

新功能#

  • MetadataExtractor - 通过基于 LLM 的特征提取器对文档元数据进行增强 (#6764)

Bug 修复 / 改进#

  • 修复了将查询捆绑包传递给节点后处理器的错误 (#6780)
  • 修复了回调管理器中的嵌套跟踪错误 (#6791)

[v0.7.3] - 2023-07-07#

新功能#

  • 子问题查询引擎返回子问题的源节点在回调管理器中 (#6745)
  • trulens 集成 (#6741)
  • 为子问题引擎添加来源 (#6745)

Bug 修复 / 改进#

  • 为简单和压缩聊天引擎添加了流式支持 (#6717)
  • 修复了 response_mode="no_text" 的响应合成器 (#6755)
  • 修复了在服务上下文中设置 num_outputcontext_window 的错误 (#6766)
  • 修复了教程中缺少的 as_query_engine() (#6747)
  • 修复了笔记本中的变量 sql_query_engine (#6778)
  • 修复了必需的函数字段 (#6761)
  • 移除了在 Prompt、SQL gen 中使用停止标记的用法 (#6782)

[v0.7.2] - 2023-07-06#

新功能#

  • 支持 Azure OpenAI (#6718)
  • 在聊天引擎和 OpenAI 代理中支持前缀消息(例如系统提示) (#6723)
  • 添加了 CBEventType.SUB_QUESTIONS 事件类型以跟踪子问题查询/响应 (#6716)

Bug 修复 / 改进#

  • 修复了 HF LLM 输出错误 (#6737)
  • 为 langchain 消息模板添加系统消息支持 (#6743)
  • 修复了应用节点后处理器的问题 (#6749)
  • llama_index.llms 下添加丢失的 CustomLLM 导入 (#6752)
  • 修复(拼写错误):get_transformer_tokenizer_fn (#6729)
  • 格式化特性:black[jupyter] (#6732)
  • 修复(测试):test_optimizer_chinese (#6730)

[v0.7.1] - 2023-07-05#

新功能#

  • 对 OpenAI 代理进行流式支持 (#6694)
  • 添加递归检索 + 笔记本示例 (#6682)

[v0.7.0] - 2023-07-04#

新功能#

  • 索引创建进度条 (#6583)

Bug 修复 / 改进#

  • 改进了聊天细化模板 (#6645)

破坏性/已弃用的 API 更改#

  • BaseOpenAIAgent 更改为使用 llama_index.llms.OpenAI。调整 chat_history 以使用 List[ChatMessage]] 作为类型。
  • 移除(先前已弃用的)llama_index.langchain_helpers.chain_wrapper 模块。
  • 移除(先前弃用的)llama_index.token_counter.token_counter 模块。更多有关基于新回调的标记计数的详细信息,请参阅迁移指南
  • 移除 ChatGPTLLMPredictorHuggingFaceLLMPredictor。有关替代方案的更多详细信息,请参阅迁移指南
  • 移除通过 LLMPredictor 构造函数设置 cache 的支持。
  • 更新 BaseChatEngine 接口:
  • 调整 chat_historyList[ChatMessage] 类型
  • chat_history 状态公开为属性
  • 支持在 chatachat 端点中重写 chat_history
  • 移除 PromptHelper 的弃用参数:max_input_sizeembedding_limitmax_chunk_overlap
  • 更新所有笔记本以使用原生 openai 集成(#6696)

[v0.6.38] - 2023-07-02#

新功能#

  • 添加索引创建过程中的可选 tqdm 进度条(#6583)
  • 为“compact”和“refine”响应模式添加异步支持(#6590)
  • [功能]为优化器添加了转换器标记功能(中文)(#6659)
  • 为向量存储添加简单基准测试(#6670)
  • 引入 llama_index.llms 模块,具有新的 LLM 接口,以及 OpenAIHuggingFaceLLMLangChainLLM 实现(#6615)
  • 消除 pydantic 程序(#6666)

Bug 修复 / 改进#

  • 改进 RedisVectorStore 的元数据/节点存储和检索(#6678)
  • 修复向量存储中节点与文档的过滤(#6677)
  • 在文档中添加上下文检索代理的链接(#6660)
  • 允许 ImageNode 类中 'image' 属性的空值(#6661)
  • 修复文档中的破损链接(#6669)
  • 更新 milvus 以存储节点内容(#6667)

[v0.6.37] - 2023-06-30#

新功能#

  • 添加上下文增强的 openai 代理(#6655)

[v0.6.36] - 2023-06-29#

新功能#

  • Redis 支持索引存储和文档存储(#6575)
  • DuckDB + SQL 查询引擎笔记本(#6628)
  • 添加展示数据加载器的笔记本(#6638)

Bug 修复 / 改进#

  • 从 LLM 对于 SelectionOutputParser 的 JSON 解析更加健壮(#6610)
  • 使我们的加载器与 llama-hub 保持一致(#6630)
  • 移除笔记本中对 SQLStructStoreIndex 的使用(#6585)
  • MD 读取器:移除 HTML 标签,保留换行符(#6618)
  • 将最小 langchain 版本升级到最新版本(#6632)
  • 修复 postgres 向量存储中的元数据列名(#6622)
  • 修复贡献.md 中数据加载器的破损链接(#6636)
  • 修复:在创建 custom_llm huggingface 示例中的文档中的拼写错误(#6639)
  • 更新 SelectionOutputParser 以处理 JSON 对象和数组(#6610)
  • 修复文档字符串参数拼写错误(#6652)

[v0.6.35] - 2023-06-28#

  • 重构结构化输出 + pydantic 程序(#6604)

Bug 修复 / 改进#

  • 修复 OpenSearch 向量存储的序列化(#6612)
  • 修补文档中的关系(#6606)
  • 修复在解析 git 仓库时忽略目录的 bug(#4196)
  • 更新 Chroma 笔记本(#6572)
  • 回溯旧的节点名称(#6614)
  • 添加更改 Chroma 实现的能力(#6601)

[v0.6.34] - 2023-06-26#

补丁更新(v0.6.34.post1)#

  • 为了向后兼容性,修补了 Document 对象的导入(#6597)

新功能#

  • 基于 pydantic 的新 TextNode/Document 对象类(#6586)
  • TextNode/Document 对象支持元数据定制化(元数据模板,从 LLM 或嵌入中排除元数据)(#6586)
  • 节点不再需要扁平的元数据字典,除非您使用的向量存储需要它(#6586)

Bug 修复 / 改进#

  • 使用 NLTK_DATA 环境变量来控制 NLTK 下载位置(#6579)
  • [discord] 在 group_conversations.py 中将作者保存为元数据(#6592)
  • 在 requirements 中将 bs4 改为 beautifulsoup4(#6582)
  • 取反欧几里得距离(#6564)
  • 在文档中添加 df 输出解析器的链接(#6581)

破坏性/弃用的 API 更改#

  • Node 已重命名为 TextNode,并从 llama_index.schema 中导入(#6586)
  • 必须使用 kwargs 实例化 TextNodeDocumentDocument(text=text)(#6586)
  • TextNode(原名 Node)具有 id_node_id 属性,而不是 doc_id(#6586)
  • TextNodeDocument 有一个元数据属性,它取代了 extra_info 属性(#6586)
  • TextNode 不再具有 node_info 属性(开始/结束索引可以直接通过 start/end_char_idx 属性访问)(#6586)

[v0.6.33] - 2023-06-25#

新功能#

  • 添加 typesense 向量存储(#6561)
  • 添加 df 输出解析器(#6576)

Bug 修复 / 改进#

  • 通过 bridge 模块跟踪 langchain 依赖项(#6573)

[v0.6.32] - 2023-06-23#

新功能#

  • 添加对象索引(#6548)
  • 添加 SQL Schema Node Mapping + SQLTableRetrieverQueryEngine + obj index 修复(#6569)
  • SQL 重构(NLSQLTableQueryEngine)(#6529)

Bug 修复 / 改进#

  • 更新 vector_stores.md(#6562)
  • BaseResponseBuilder 接口进行了轻微清理(#6557)
  • 重构 TreeSummarize(#6550)

[v0.6.31] - 2023-06-22#

Bug 修复 / 改进#

[v0.6.30] - 2023-06-21#

新功能#

  • 路由查询引擎中的多选择器支持 (#6518)
  • 使用 OpenAI 函数调用 API 在路由查询引擎中支持 pydantic 选择器 (#6518)
  • CondenseQuestionChatEngineSimpleChatEngine 中的流式响应支持 (#6524)
  • QdrantVectorStore 中的元数据过滤支持 (#6476)
  • 添加 PGVectorStore 以支持使用 pgvector 的 postgres (#6190)

Bug 修复 / 问题修正#

  • 在 mbox 读取器中改进错误处理 (#6248)
  • 修复使用 weaviate 时空白相似度分数的问题 (#6512)
  • 修复 PrevNextNodePostprocessor 中排序节点的问题 (#6048)

破坏性 / 弃用的 API 更改#

  • 重构 PandasQueryEngine 以直接接受 df,弃用 PandasIndex (#6527)

[v0.6.29] - 2023-06-20#

新功能#

  • 使用 OpenAI 函数 API 的查询规划工具 (#6520)
  • 文档:kg+vector 索引的示例 (#6497)
  • 为 Cohere 和 AI21(J2 模型) 设置上下文窗口大小 (#6485)

Bug 修复 / 问题修正#

  • 为 Cohere 和 AI21 添加默认输入大小 (#6485)
  • 在字典对象中用冒号替换逗号的文档 (#6439)
  • 修正提示和错误消息中的额外空格 (#6443)
  • [Issue 6417] 修复 prompt_templates 文档页面 (#6499)
  • 移除 monkey patch 并更新模型到上下文窗口映射 (#6490)

[v0.6.28] - 2023-06-19#

新功能#

  • 新的 OpenAI Agent + 查询引擎手册 (#6496)
  • 允许递归数据提取 (pydantic 程序) (#6503)

Bug 修复 / 问题修正#

  • 更新 mongo 接口 (#6501)
  • 修复我们忘记包含的 openai pydantic 程序的问题 (#6503) (#6504)
  • 修复 Airbyte notebook 中的 github 图片问题 (#6493)

[v0.6.27] - 2023-06-16#

新功能#

  • 在 weaviate 中添加节点 doc_id 过滤 (#6467)
  • 新的 TokenCountingCallback 用于自定义和跟踪嵌入、提示和完成标记的使用 (#6440)
  • OpenAI 检索函数代理 (#6491)

破坏性 / 弃用的 API 更改#

  • 弃用当前标记跟踪 (llm 预测器和嵌入模型将不再在未来跟踪标记,请使用 TokenCountingCallback (#6440)
  • 在 Simple Vector Store 中添加最大边际相关性,可作为查询模式启用 (#6446)

Bug 修复 / 问题修正#

  • as_chat_engine 正确继承当前服务上下文 (#6470)
  • 从 pinecone 删除时使用命名空间 (#6475)
  • 在 windows 上使用 fsspec 时修复路径问题 (#3778)
  • 修复在 SimpleDirectoryReader 中使用自定义文件读取器的问题 (#6477)
  • 编辑 MMR Notebook (#6486)
  • FLARE 修复 (#6484)

[v0.6.26] - 2023-06-14#

新功能#

  • 添加 "构建您自己的代理" 的 OpenAIAgent 和教程 notebook (#6461)
  • 添加 OpenAIPydanticProgram (#6462)

Bug 修复 / 问题修正#

  • 修复引用引擎导入问题 (#6456)

[v0.6.25] - 2023-06-13#

新功能#

  • 添加了 FLARE 查询引擎 (#6419)。

[v0.6.24] - 2023-06-12#

新功能#

  • 为 Pinecone 和 Weaviate 提供更好的向量存储支持 (例如允许配置文本键),支持批量更新 (#6393)
  • 添加了初始的 guidance 集成。添加了 GuidancePydanticProgram 用于通用结构化输出生成,以及 GuidanceQuestionGenerator 用于在 SubQuestionQueryEngine 中生成子问题 (#6246)。

[v0.6.23] - 2023-06-11#

Bug 修复 / 问题修正#

  • 移除硬编码的引文查询引擎的块大小 (#6408)
  • 改进了 Mongo 演示 (#6406)
  • 修复 notebook (#6418)
  • 清理 RetryQuery notebook (#6381)

[v0.6.22] - 2023-06-10#

新功能#

  • 添加了 SQLJoinQueryEngine (对 SQLAutoVectorQueryEngine 的泛化) (#6265)
  • 在底层添加了对图存储的支持,并初步支持 Nebula KG。更多文档即将推出! (#2581)
  • 添加了指南评估器,允许 llm 根据用户指南提供反馈 (#4664)
  • 添加了对 MongoDB Vector 存储的支持,以启用 Atlas knnbeta 搜索 (#6379)
  • 添加了用于响应文本中源的内联引文的新 CitationQueryEngine (#6239)

Bug 修复#

  • 修复了 delete_ref_doc 未从文档存储中删除所有元数据的问题 (#6192)
  • 修复了加载现有 QDrantVectorStore 的 bug (#6230)

其他#

  • 正式在 github 仓库中添加了更改日志 (#6191)

[v0.6.21] - 2023-06-06#

新功能#

  • SimpleDirectoryReader 现在具有新的 filename_as_id 标志,可自动设置 doc_id (对于 refresh_ref_docs() 很有用)
  • DocArray 向量存储集成
  • Tair 向量存储集成
  • 用于跟踪和版本化索引的 Weights and Biases 回调处理程序
  • 可以直接从向量存储初始化索引:index = VectorStoreIndex.from_vector_store(vector_store=vector_store)

Bug 修复#

  • 修复了 multimodal notebook
  • 更新/修复了文档中的 SQL 教程

其他#

  • 小的文档更新
  • 添加了 github 拉取请求模板
  • 添加了 github 问题表单

[v0.6.20] - 2023-06-04#

新功能#

  • 新增了使用 JSON 模式提供更准确的 JSON 查询答案的 JSONQueryEngine
  • 为 Redis 向量存储添加了元数据支持
  • 添加了 Supabase 向量存储集成

Bug 修复#

  • 修复了文本转 SQL 提示中的拼写错误

兼容性变更/已弃用的 API 更改#

  • 从索引中移除了 GPT 前缀(虽然仍支持旧的导入/名称)

其他#

  • 对文档进行了重大更新,将重要模块提升到顶层

[v0.6.19] - 2023-06-02#

新功能#

  • 为 llama-hub 数据加载器添加了代理工具抽象

其他#

  • 对文档进行了轻微更新

[v0.6.18] - 2023-06-02#

其他#

  • 在教程文档部分添加了“发现 LlamaIndex”视频系列
  • 对文档进行了轻微更新