更新日志#
[2024-05-28]#
llama-index-core
[0.10.40]#
- 添加了
PropertyGraphIndex
和其他支持抽象。更多细节请参阅完整指南 (#13747) - 更新了
AutoPrevNextNodePostprocessor
,允许传入响应模式和 LLM (#13771) - 修复了返回直接的类型处理问题 (#13776)
- 在检索评估器中将方法名更正为
_aget_retrieved_ids_and_texts
(#13765) - 修复:QueryTransformComponent 错误调用了
self._query_transform
(#13756) - 为
SimpleVectorStoreIndex
实现了更多过滤器 (#13365)
llama-index-embeddings-bedrock
[0.2.0]#
- 增加了对 Bedrock Titan Embeddings v2 的支持 (#13580)
llama-index-embeddings-oci-genai
[0.1.0]#
- 添加了对 Oracle Cloud Infrastructure (OCI) Generative AI 的支持 (#13631)
llama-index-embeddings-huggingface
[0.2.1]#
- 从 AutoModel 中暴露了 "safe_serialization" 参数 (#11939)
llama-index-graph-stores-neo4j
[0.2.0]#
- 添加了对属性图的 Neo4jPGStore 支持 (#13747)
llama-index-indices-managed-dashscope
[0.1.1]#
- 增加了 dashscope 托管索引 (#13378)
llama-index-llms-oci-genai
[0.1.0]#
- 添加了对 Oracle Cloud Infrastructure (OCI) Generative AI 的支持 (#13631)
llama-index-readers-feishu-wiki
[0.1.1]#
- 修复了未定义变量问题 (#13768)
llama-index-packs-secgpt
[0.1.0]#
- SecGPT - LlamaIndex 集成 #13127
llama-index-vector-stores-hologres
[0.1.0]#
- 添加了 Hologres 向量数据库 (#13619)
llama-index-vector-stores-milvus
[0.1.16]#
- 移除了 Milvus 的依赖 FlagEmbedding (#13767)
- 无论 enable_sparse 的值如何,统一了集合构建 (#13773)
llama-index-vector-stores-opensearch
[0.1.9]#
- 重构以将辅助方法放在类定义内部 (#13749)
[2024-05-24]#
llama-index-core
[0.10.39]#
- 添加了 VectorMemory 和 SimpleComposableMemory (#13352)
- 改进了 MarkdownReader 以忽略代码块中的标题 (#13694)
- 适当的异步元素节点解析器 (#13698)
- 在函数调用工作器中只返回消息内容 (#13677)
- 修正了多模态查询引擎使用元数据的问题 (#13712)
- 添加了用于解决工具描述和 QueryPlanTool 冗长的笔记本 (#13701)
llama-index-embeddings-ipex-llm
[0.1.2]#
- 改进了设备选择 (#13644)
llama-index-indices-managed-postgresml
[0.1.3]#
- 添加了 PostgresML 托管索引 (#13623)
llama-index-indices-managed-vectara
[0.1.4]#
- 增加了聊天引擎、流式处理、事实一致性评分等功能 (#13639)
llama-index-llms-deepinfra
[0.0.1]#
- 添加了对 DeepInfra LLM 模型的集成 (#13652)
llama-index-llm-ipex-llm
[0.1.3]#
- 为 llama-index-llm-ipex-llm 添加了 GPU 支持 (#13691)
llama-index-llms-lmstudio
[0.1.0]#
- lmstudio 集成 (#13557)
llama-index-llms-ollama
[0.1.5]#
- 使用 aiter_lines 函数迭代 ollama 集成中的行 (#13699)
llama-index-llms-vertex
[0.1.6]#
- 为 gemini 添加了 safety_settings 参数 (#13568)
llama-index-postprocessor-voyageai-rerank
[0.1.3]#
- VoyageAI 重新排序 bug 修复 (#13622)
llama-index-retrievers-mongodb-atlas-bm25-retriever
[0.1.4]#
- 添加了缺失的返回 (#13720)
llama-index-readers-web
[0.1.17]#
- 添加了 Scrapfly Web Loader (#13654)
llama-index-vector-stores-postgres
[0.1.9]#
- 修复了删除和特殊字符的 bug (#13651)
llama-index-vector-stores-supabase
[0.1.5]#
- 为 ._client 属性不存在的情况添加了 try-catch (#13681)
[2024-05-21]#
llama-index-core
[0.10.38]#
- 在 BaseSQLTableQueryEngine 中启用了流式处理 (#13599)
- 修复了关系节点解析器中的非类型错误 (#13615)
- 新增了所有 llms 的跟踪 (#13565)
- 适当限制了生成问题的数量 (#13596)
- 在元素节点解析器中传递了 'exclude_llm_metadata_keys' 和 'exclude_embed_metadata_keys' (#13567)
- 为 QueryPipeline 添加了批处理模式 (#13203)
- 改进了 SentenceEmbeddingOptimizer 以尊重 Settings.embed_model (#13514)
- ReAct 输出解析器的鲁棒性更改 (#13459)
- 修复了使用单个参数调用 pydantic 工具时的意外错误 (#13522)
- 避免在流式聊天不产生时出现意外错误 (#13422)
llama-index-embeddings-nomic
[0.2.0]#
- 使用 inference_mode 参数实现了本地 Nomic Embed (#13607)
llama-index-embeddings-nvidia
[0.1.3]#
- 废弃了
mode()
,改用__init__(base_url=...)
(#13572) - 添加了 snowflake/arctic-embed-l 支持 (#13555)
llama-index-embeddings-openai
[0.1.10]#
- 更新了 openai 的重试触发方式 (#13608)
llama-index-embeddings-upstage
[0.1.0]#
- 集成:upstage LLM 和 Embeddings (#13193)
llama-index-llms-gemini
[0.1.8]#
- 添加了 gemini 新模型到多模态 LLM 和常规 LLM (#13539)
llama-index-llms-groq
[0.1.4]#
- 修复了启用工具使用的问题 (#13566)
llama-index-llms-lmstudio
[0.1.0]#
- 添加了对 lmstudio 集成的支持 (#13557)
llama-index-llms-nvidia
[0.1.3]#
- 弃用
mode()
,改用__init__(base_url=...)
(#13572)
llama-index-llms-openai
[0.1.20]#
- 更新 OpenAI 重试触发方式 (#13608)
llama-index-llms-unify
[0.1.0]#
- 添加 Unify LLM 支持 (#12921)
llama-index-llms-upstage
[0.1.0]#
- 集成:upstage LLM 和 Embeddings (#13193)
llama-index-llms-vertex
[0.1.6]#
- 添加对 MedLM 模型的支持 (#11911)
llama_index.postprocessor.dashscope_rerank
[0.1.0]#
- 为后处理器添加 dashscope 重新排序功能 (#13353)
llama-index-postprocessor-nvidia-rerank
[0.1.2]#
- 弃用
mode()
,改用__init__(base_url=...)
(#13572)
llama-index-readers-mongodb
[0.1.5]#
- SimpleMongoReader 应允许元数据中的可选字段 (#13575)
llama-index-readers-papers
[0.1.5]#
- 修复:(ArxivReader) 从隐藏目录读取数据时将 exclude_hidden 设置为 False (#13578)
llama-index-readers-sec-filings
[0.1.5]#
- 修复:在向 sec.gov 发送请求时修正 sec_filings 标头 #13548
llama-index-readers-web
[0.1.16]#
- 添加 firecrawl 搜索模式 (#13560)
- 更新 Browserbase web reader (#13535)
llama-index-tools-cassandra
[0.1.0]#
- 为代理添加 Cassandra 数据库工具规范 (#13423)
llama-index-vector-stores-azureaisearch
[0.1.7]#
- 允许在没有非空元数据字段的情况下查询 AzureAISearch (#13531)
llama-index-vector-stores-elasticsearch
[0.2.0]#
- 集成来自 Elasticsearch 客户端的 VectorStore (#13291)
llama-index-vector-stores-milvus
[0.1.14]#
- 修复 Milvus vector store 的过滤表达式构建问题 (#13591)
llama-index-vector-stores-supabase
[0.1.4]#
- 删除时断开连接 (#13611)
llama-index-vector-stores-wordlift
[0.1.0]#
- 添加 WordLift Vector Store (#13028)
[2024-05-14]#
llama-index-core
[0.10.37]#
- 在
MultiModalLLMCompletionProgram
的调用时添加 image_documents 参数 (#13467) - 通过从线程切换到 asyncio 来修复 RuntimeError (#13486)
- 添加对 prompt 参数的支持 (#13405)
- VectorStore -> BasePydanticVectorStore (#13439)
- 修复 user_message 不存在的 bug (#13432)
- 导入缺失的响应类型 (#13382)
- 为
MultiModalLLM
添加CallbackManager
(#13400)
llama-index-llms-bedrock
[0.1.8]#
- 从 Bedrock Cohere 调用模型请求中移除 "Truncate" 参数 (#13442)
llama-index-readers-web
[0.1.14]#
- 为 trafilatura web reader 添加 Trafilatura 参数和进度条 (#13454)
llama-index-vector-stores-postgres
[0.1.8]#
- 修复 #9522 - 使用混合搜索时出现的 SQLAlchemy 警告 (#13476)
llama-index-vector-stores-lantern
[0.1.4]#
- 修复 #9522 - 使用混合搜索时出现的 SQLAlchemy 警告 (#13476)
llama-index-callbacks-uptrain
[0.2.0]#
- 更新 UpTrain 回调处理程序以支持新的 Upgratin eval 模式 (#13479)
llama-index-vector-stores-zep
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-vearch
[0.1.1]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-upstash
[0.1.4]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-typesense
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-timescalerevector
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-tencentvectordb
[0.1.4]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-tair
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-singlestoredb
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-rocksetdb
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-neptune
[0.1.1]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-neo4jvector
[0.1.5]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-myscale
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-metal
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-jaguar
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-epsilla
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-dynamodb
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-dashvector
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-chatgpt-plugin
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-baiduvectordb
[0.1.1]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-bagel
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-awsdocdb
[0.1.5]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-awadb
[0.1.3]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-vector-stores-alibabacloud-opensearch
[0.1.1]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-readers-wordlift
[0.1.4]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-readers-guru
[0.1.4]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-readers-pebblo
[0.1.1]#
- VectorStore -> BasePydanticVectorStore (#13439)
llama-index-postprocessor-voyageai-rerank
[0.1.2]#
- 提升重新排名版本 (#13465)
llama-index-postprocessor-sbert-rerank
[0.1.4]#
- 提升重新排名版本 (#13465)
llama-index-postprocessor-rankllm-rerank
[0.1.3]#
- 提升重新排名版本 (#13465)
llama-index-postprocessor-rankgpt-rerank
[0.1.4]#
- 提升重新排名版本 (#13465)
llama-index-postprocessor-openvino-rerank
[0.1.3]#
- 提升重新排名版本 (#13465)
llama-index-postprocessor-nvidia-rerank
[0.1.1]#
- 提升重新排名版本 (#13465)
llama-index-postprocessor-jinaai-rerank
[0.1.3]#
- 提升重新排名版本 (#13465)
llama-index-postprocessor-flag-embedding-rerank
[0.1.3]#
- 提升重新排名版本 (#13465)
llama-index-postprocessor-colbert-rerank
[0.1.2]#
- 提升重新排名版本 (#13465)
llama-index-postprocessor-cohere-rerank
[0.1.6]#
- 提升重新排名版本 (#13465)
llama-index-multi-modal-llms-openai
[0.1.6]#
- 添加 gpt-4o 支持 (#13463)
llama-index-llms-openai
[0.1.19]#
- 添加 gpt-4o 支持 (#13463)
llama-index-packs-rag-fusion-query-pipeline
[0.1.4]#
- 修复 RAG 融合流程 (#13413)
llama-index-agent-openai
[0.2.5]#
- 修复:更新 OpenAIAssistantAgent 以使用附件 (#13341)
llama-index-embeddings-deepinfra
[0.1.0]#
- 新的嵌入集成 (#13323)
llama-index-llms-mlx
[0.1.0]#
- 新的 llm 集成 (#13231)
llama-index-vector-stores-milvus
[0.1.12]#
- 修复:在 connections.connect() 中更正连接参数 (#13448)
llama-index-vector-stores-azureaisearch
[0.1.6]#
- 修复 AzureAiSearchVectorStore 元数据 f-string (#13435)
llama-index-vector-stores-mongodb
[0.1.5]#
- 为 MongoDBAtlasVectorSearch 添加单元测试和集成测试 (#12854)
llama-index-llms-huggingface
[0.2.0]#
- 更新 llama-index-llms-huggingface 依赖 (#13420)
llama-index-vector-store-relyt
[0.1.0]#
- 新的向量存储集成
llama-index-storage-kvstore-redis
[0.1.5]#
- 在 RedisKVStore 中实现异步方法 (#12943)
llama-index-packs-cohere-citation-chat
[0.1.5]#
- 固定 llama-index-llms-cohere 依赖 (#13417)
llama-index-llms-cohere
[0.2.0]#
- 固定 cohere 依赖 (#13417)
llama-index-tools-azure-code-interpreter
[0.1.1]#
- 修复索引问题和运行时错误消息 (#13414)
llama-index-postprocessor-cohere-rerank
[0.1.5]#
- 修复 Cohere 重新排名 bug (#13410)
llama-index-indices-managed-llama-cloud
[0.1.7]#
- 修复检索器集成 (#13409)
llama-index-tools-azure-code-interpreter
[0.1.0]#
- 新工具
llama-index-readers-google
[0.2.5]#
- 修复 GoogleDriveReader 上缺少 authorized_user_info 检查的问题 (#13394)
llama-index-storage-kvstore-firestore
[0.2.1]#
- 等待 Firestore 的 AsyncDocumentReference (#13386)
llama-index-llms-nvidia
[0.1.2]#
- 添加动态模型列表支持 (#13398)
[2024-05-09]#
llama-index-core
[0.10.36]#
- 使用 MarkdownElementParser 中的 start_char_idx 和 end_char_idx (#13377)
- 使用全局默认处理程序 (#13368)
llama-index-readers-pebblo
[0.1.0]#
- 初始版本发布 (#13128)
llama-index-llms-cohere
[0.1.7]#
- 使用文档参数调用 Cohere RAG 推理 (#13196)
llama-index-vector-scores-kdbai
[0.1.6]#
- 更新添加方法以解码 utf-8 (#13194)
llama-index-vector-stores-alibabacloud-opensearch
[0.1.0]#
- 初始版本发布 (#13286)
llama-index-tools-multion
[0.2.0]#
- 更新工具以使用更新的 API/SDK (#13373)
llama-index-vector-sores-weaviate
[1.0.0]#
- 更新至 weaviate 客户端 v4 (#13229)
llama-index-readers-file
[0.1.22]#
- 修复 PDFReader 忽略 extra_info 的 bug (#13369)
llama-index-llms-azure-openai
[0.1.8]#
- 添加同步 httpx 客户端支持 (#13370)
llama-index-llms-openai
[0.1.18]#
- 添加同步 httpx 客户端支持 (#13370)
- 添加缺失的 openai 模型令牌上下文 (#13337)
llama-index-readers-github
[0.1.9]#
- 添加 fail_on_http_error (#13366)
llama-index-vector-stores-pinecone
[0.1.7]#
- 为 pinecone 添加归属标签 (#13329)
llama-index-llms-nvidia
[0.1.1]#
- 将默认 max_tokens 设置为 1024 (#13371)
llama-index-readers-papers
[0.1.5]#
- 为 arxiv reader 修复隐藏的临时目录问题 (#13351)
llama-index-embeddings-nvidia
[0.1.1]#
- 修复传递 aget_query_embedding 和 get_text_embedding 的截断问题 (#13367)
llama-index-llms-anyscare
[0.1.4]#
- 添加 llama-3 模型 (#13336)
[2024-05-07]#
llama-index-agent-introspective
[0.1.0]#
- 添加了 CRITIC 和反思代理集成 (#13108)
llama-index-core
[0.10.35]#
- 修复了
from_defaults()
擦除摘要内存缓冲历史的问题 (#13325) - 在核心中使用现有的异步事件循环,而不是
asyncio.run()
(#13309) - 修复了在压缩问题聊天引擎中从查询引擎异步流式传输的问题 (#13306)
- 在元素节点解析器中处理了
extract_table_summaries
中的 ValueError (#13318) - 正确处理了 QASummaryQueryEngineBuilder 和 RouterQueryEngine 的 llm (#13281)
- 扩展了仪表板负载 (#13302)
- 修复了 SQL 连接语句中缺少模式的错误 (#13277)
llama-index-embeddings-jinaai
[0.1.5]#
- 在 JinaEmbedding 类中添加了 encoding_type 参数 (#13172)
- 修复了 JinaEmbeddings 中的编码类型访问问题 (#13315)
llama-index-embeddings-nvidia
[0.1.0]#
- 添加了对 nvidia nim embeddings 的支持 (#13177)
llama-index-llms-mistralai
[0.1.12]#
- 修复了与 Mistral AI 流式传输时的异步问题 (#13292)
llama-index-llms-nvidia
[0.1.0]#
- 添加了对 nvidia nim llm 的支持 (#13176)
llama-index-postprocessor-nvidia-rerank
[0.1.0]#
- 添加了对 nvidia nim 重新排名的支持 (#13178)
llama-index-readers-file
[0.1.21]#
- 更新了 MarkdownReader 以在第一个标题之前解析文本 (#13327)
llama-index-readers-web
[0.1.13]#
- 新功能:Spider Web Loader (#13200)
llama-index-vector-stores-vespa
[0.1.0]#
- 为 Vespa 添加了 VectorStore 集成 (#13213)
llama-index-vector-stores-vertexaivectorsearch
[0.1.0]#
- 添加了对 Vertex AI Vector Search 的支持作为 Vector Store (#13186)
[2024-05-02]#
llama-index-core
[0.10.34]#
- 移除了聊天引擎流式传输期间的错误忽略 (#13160)
- 添加了结构化规划代理 (#13149)
- 更新了规划代理的基类 (#13228)
- 修复了使用 SimpleFileNodeParser 解析文件时出现的错误,文件扩展名不在 FILE_NODE_PARSERS 中 (#13156)
- 添加了匹配
source_node.node_id
验证到节点解析器 (#13109) - 检索指标:更新了检索的 HitRate 和 MRR,以评估@K检索的文档。还添加了 RR 作为单独的指标 (#12997)
- 添加了聊天摘要内存缓冲 (#13155)
llama-index-indices-managed-zilliz
[0.1.3]#
- ZillizCloudPipelineIndex 接受灵活的参数来创建流水线 (#10134, #10112)
llama-index-llms-huggingface
[0.1.7]#
- 添加了与 Hugging Face 的文本生成推理集成的工具使用支持 (#12471)
llama-index-llms-maritalk
[0.2.0]#
- 为 maritalk 添加了流式传输 (#13207)
llama-index-llms-mistral-rs
[0.1.0]#
- 集成了 mistral.rs LLM (#13105)
llama-index-llms-mymagic
[0.1.7]#
- 更新了 mymagicai api (#13148)
llama-index-llms-nvidia-triton
[0.1.5]#
- 对 Nvidia 的 Triton 集成添加了流式支持 (#13135)
llama-index-llms-ollama
[0.1.3]#
- 为 ollama llms 添加了异步支持 (#13150)
llama-index-readers-microsoft-sharepoint
[0.2.2]#
- 从 LLMs 和 embeddings 中排除了访问控制元数据键 - SharePoint Reader (#13184)
llama-index-readers-web
[0.1.11]#
- 新功能:Browserbase Web Reader (#12877)
llama-index-readers-youtube-metadata
[0.1.0]#
- 添加了 YouTube Metadata Reader (#12975)
llama-index-storage-kvstore-redis
[0.1.4]#
- 修复了以字节形式存在的 redis kvstore 键 (#13201)
llama-index-vector-stores-azureaisearch
[0.1.5]#
- 对 Azure AI Search 尊重过滤条件 (#13215)
llama-index-vector-stores-chroma
[0.1.7]#
- 为新的 chroma 客户端版本进行了小幅更新 (#13158)
llama-index-vector-stores-firestore
[0.1.0]#
- 添加了 Firestore Vector Store (#12048)
llama-index-vector-stores-kdbai
[0.1.5]#
- 修复了
add()
后返回的 ID 的小问题 (#12515)
llama-index-vector-stores-milvus
[0.1.11]#
- 为 MilvusVectorStore 添加了混合检索模式 (#13122)
llama-index-vector-stores-postgres
[0.1.7]#
- 使 pgvector store 中的查询参数化 (#13199)
[2024-04-27]#
llama-index-core
[0.10.33]#
- 添加了 agent_worker.as_agent() (#13061)
llama-index-embeddings-bedrock
[0.1.5]#
- 使用 Bedrock 一致的字符限制 (#13126)
llama-index-tools-google
[0.1.5]#
- 将参与者的默认值更改为空列表 (#13134)
llama-index-graph-stores-falkordb
[0.1.4]#
- 当索引已经存在时跳过索引创建错误 (#13085)
llama-index-tools-google
[0.1.4]#
- 修复了谷歌日历 create_event api 的日期时间问题 (#13132)
llama-index-llms-anthropic
[0.1.11]#
- 将多个提示合并为一个 (#13131)
llama-index-indices-managed-llama-cloud
[0.1.6]#
- 在 LlamaCloud Retriever 中使用 MetadataFilters (#13117)
llama-index-graph-stores-kuzu
[0.1.3]#
- 修复了 kuzu 集成中的 .execute() 调用 (#13100)
llama-index-vector-stores-lantern
[0.1.3]#
- 维护更新以保持与 lantern 构建的最新状态 (#13116)
[2024-04-25]#
llama-index-core
[0.10.32]#
- 修正了
OutputKeys.from_keys()
的错误输出类型 (#13086) - 添加了对 aws 基础嵌入的 run_jobs (#13096)
- 允许用户自定义关键词提取器提示模板 (#13083)
- (CondenseQuestionChatEngine) 如果没有对话历史记录,则不要压缩问题 (#13069)
- QueryPlanTool: 在查询计划中的后续(依赖)节点中执行工具调用 (#13047)
- 修复融合检索器有时在相似性搜索之前返回 Nonetype 查询的问题 (#13112)
llama-index-embeddings-ipex-llm
[0.1.1]#
- 支持 Intel GPU 的 llama-index-embeddings-ipex-llm (#13097)
llama-index-packs-raft-dataset
[0.1.4]#
- 修复 raft 数据集生成器中的 bug - 多个系统提示 (#12751)
llama-index-readers-microsoft-sharepoint
[0.2.1]#
- 向 SharePoint 读取器添加与访问控制相关的元数据 (#13067)
llama-index-vector-stores-pinecone
[0.1.6]#
- 支持嵌套元数据过滤器 (#13113)
llama-index-vector-stores-qdrant
[0.2.8]#
- 支持嵌套元数据过滤器 (#13113)
[2024-04-23]#
llama-index-core
[0.10.31]#
- 修复查询引擎的异步流式响应 (#12953)
- 强制在元素节点解析器中使用 uuid (#12951)
- 添加调用 LLM 程序的函数 (#12980)
- 使 PydanticSingleSelector 与异步 API 兼容 (#12964)
- 修复查询管道的 arun_with_intermediates (#13002)
llama-index-agent-coa
[0.1.0]#
- 添加 COA Agent 集成 (#13043)
llama-index-agent-lats
[0.1.0]#
- 官方 LATs agent 集成 (#13031)
llama-index-agent-llm-compiler
[0.1.0]#
- 添加 LLMCompiler Agent 集成 (#13044)
llama-index-llms-anthropic
[0.1.10]#
- 添加将自定义标头传递给 Anthropic LLM 请求的功能 (#12819)
llama-index-llms-bedrock
[0.1.7]#
- 将 claude 3 opus 添加到 BedRock 集成 (#13033)
llama-index-llms-fireworks
[0.1.5]#
- 将新的 Llama 3 和 Mixtral 8x22b 模型添加到 Fireworks 的 Llama Index 中 (#12970)
llama-index-llms-openai
[0.1.16]#
- 修复 AsyncOpenAI 在快速创建和销毁 AsyncOpenAI 实例时出现的 "RuntimeError: Event loop is closed bug" 问题 (#12946)
- 不要在所有 OpenAI APIStatusError 异常上重试 - 只在 InternalServerError 上重试 (#12947)
llama-index-llms-watsonx
[0.1.7]#
- 更新 IBM watsonx 基础模型 (#12973)
llama-index-packs-code-hierarchy
[0.1.6]#
- 如果查询节点不存在,则返回父节点 (#12983)
- 修复当函数定义两次时的 bug (#12941)
llama-index-program-openai
[0.1.6]#
- 在 OpenAIPydanticProgram 中添加对部分实例的流式支持 (#13021)
llama-index-readers-openapi
[0.1.0]#
- 添加用于 openapi 文件的读取器 (#12998)
llama-index-readers-slack
[0.1.4]#
- 避免未处理的异常引发无限循环 (#12963)
llama-index-readers-web
[0.1.10]#
- 改进整个站点读取器以删除重复链接 (#12977)
llama-index-retrievers-bedrock
[0.1.1]#
- 修复 Bedrock KB 检索器以使用查询捆绑 (#12910)
llama-index-vector-stores-awsdocdb
[0.1.0]#
- 将 AWS DocumentDB 集成为矢量存储方法 (#12217)
llama-index-vector-stores-databricks
[0.1.2]#
- 修复 databricks 矢量搜索元数据 (#12999)
llama-index-vector-stores-neo4j
[0.1.4]#
- 支持 Neo4j 元数据过滤 (#12923)
llama-index-vector-stores-pinecone
[0.1.5]#
- 修复使用稀疏查询模式查询 PineconeVectorStore 时出现的错误 (#12967)
llama-index-vector-stores-qdrant
[0.2.5]#
- 修复异步和检查集合是否存在的许多问题 (#12916)
llama-index-vector-stores-weaviate
[0.1.5]#
- 将索引删除功能添加到 WeviateVectoreStore (#12993)
[2024-04-17]#
llama-index-core
[0.10.30]#
- 向 QueryPipeline 添加中间输出 (#12683)
- 修复显示进度导致结果无序的问题 (#12897)
- 向简单矢量存储添加 OR 过滤条件支持 (#12823)
- 改进自定义 agent 初始化 (#12824)
- 修复没有文档存储时的管道加载问题 (#12808)
- 在
_arun_step_stream
中使用异步_aprocess_actions
(#12846) - 将异常提供给 StreamChatErrorEvent (#12879)
- 修复加载和搜索工具规范中的 bug (#12902)
llama-index-embeddings-azure-opena
[0.1.7]#
- 公开 azure_ad_token_provider 参数以支持令牌过期 (#12818)
llama-index-embeddings-cohere
[0.1.8]#
- 添加 httpx_async_client 选项 (#12896)
llama-index-embeddings-ipex-llm
[0.1.0]#
- 添加 ipex-llm 嵌入集成 (#12740)
llama-index-embeddings-octoai
[0.1.0]#
- 添加 octoai 嵌入 (#12857)
llama-index-llms-azure-openai
[0.1.6]#
- 公开 azure_ad_token_provider 参数以支持令牌过期 (#12818)
llama-index-llms-ipex-llm
[0.1.2]#
- 添加对加载 "low-bit format" 模型的 IpexLLM 集成支持 (#12785)
llama-index-llms-mistralai
[0.1.11]#
- 支持
open-mixtral-8x22b
(#12894)
llama-index-packs-agents-lats
[0.1.0]#
- 添加 LATS agent pack (#12735)
llama-index-readers-smart-pdf-loader
[0.1.4]#
- 使用传入的元数据来处理文档 (#12844)
llama-index-readers-web
[0.1.9]#
- 添加了 Firecrawl Web Loader (#12825)
llama-index-vector-stores-milvus
[0.1.10]#
- 使用批量插入到 Milvus 向量存储 (#12837)
llama-index-vector-stores-vearch
[0.1.0]#
- 将 vearch 添加到向量存储中 (#10972)
[2024-04-13]#
llama-index-core
[0.10.29]#
- 重大变更 将
PandasQueryEngine
和PandasInstruction
解析器移至llama-index-experimental
(#12419) - 新安装方式:
pip install -U llama-index-experimental
- 新导入方式:
from llama_index.experimental.query_engine import PandasQueryEngine
- 修复了一些核心依赖项,使得 python3.12 能够良好运行 (#12762)
- 更新异步工具
run_jobs()
,包括 tqdm 描述 (#12812) - 重构 kvdocstore 删除方法 (#12681)
llama-index-llms-bedrock
[0.1.6]#
- 支持来自 Bedrock 的 Mistral Large (#12804)
llama-index-llms-openvino
[0.1.0]#
- 添加了 OpenVino LLMs (#12639)
llama-index-llms-predibase
[0.1.4]#
- 更新 LlamaIndex-Predibase 集成到最新 API (#12736)
- 在 LlamaIndex-Predibase 集成中启用选择 Predibase 托管或 HuggingFace 托管的微调适配器的选项 (#12789)
llama-index-output-parsers-guardrails
[0.1.3]#
- 现代化 GuardrailsOutputParser (#12676)
llama-index-packs-agents-coa
[0.1.0]#
- 抽象链 Agent Pack (#12757)
llama-index-packs-code-hierarchy
[0.1.3]#
- 修复了多字节字符分块的问题 (#12715)
llama-index-packs-raft-dataset
[0.1.4]#
- 修复了 raft 数据集生成器中的错误 - 多个系统提示 (#12751)
llama-index-postprocessor-openvino-rerank
[0.1.2]#
- 添加 openvino 重新排序支持 (#12688)
llama-index-readers-file
[0.1.18]#
- 在 docx 读取器中将输入路径 str 转换为 Path (#12807)
- 使得 pip 检查能够使用可选的 pdf 包 (#12758)
llama-index-readers-s3
[0.1.7]#
- 在使用默认 s3 端点时,修复 S3Reader 中的错误文档 id (#12803)
llama-index-retrievers-bedrock
[0.1.0]#
- 添加了 Amazon Bedrock 知识库集成作为检索器 (#12737)
llama-index-retrievers-mongodb-atlas-bm25-retriever
[0.1.3]#
- 添加了 mongodb atlas bm25 检索器 (#12519)
llama-index-storage-chat-store-redis
[0.1.3]#
- 修复了 redis 聊天存储中的消息序列化问题 (#12802)
llama-index-vector-stores-astra-db
[0.1.6]#
- 放宽依赖版本以接受 astrapy
1.*
(#12792)
llama-index-vector-stores-couchbase
[0.1.0]#
- 添加了对 Couchbase 的支持作为向量存储 (#12680)
llama-index-vector-stores-elasticsearch
[0.1.7]#
- 修复了 elasticsearch 混合 rrf 窗口大小 (#12695)
llama-index-vector-stores-milvus
[0.1.8]#
- 添加了从 milvus 检索元数据字段的支持 (#12626)
llama-index-vector-stores-redis
[0.2.0]#
- 现代化 redis 向量存储,使用 redisvl (#12386)
llama-index-vector-stores-qdrant
[0.2.0]#
- 重构:切换默认的 Qdrant 稀疏编码器 (#12512)
[2024-04-09]#
llama-index-core
[0.10.28]#
- 支持 markdown 节点解析器中的缩进代码块围栏 (#12393)
- 将输出解析器传递给指南评估器 (#12646)
- 添加了查询管道 + 内存的示例 (#12654)
- 在 CondensePlusContextChatEngine 异步模式中添加了缺失的节点后处理器 (#12663)
- 在工具 /tool metadata 中添加了
return_direct
选项 (#12587) - 为批量评估运行器添加重试 (#12647)
- 线程安全的仪表化 (#12638)
- 协程安全的仪表化 Spans #12589
- 在 PDFReader 中为非默认文件系统添加内存加载 (#12659)
- 在句子分割器中移除多余的标记器调用 (#12655)
- 在快捷导入中添加 SynthesizeComponent 导入 (#12655)
- 在 SimpleSummarize 中改进截断 (#12655)
- 为 eval_utils default_parser 添加错误处理以确保正确性 (#12624)
- 在 RankGPT 后处理器节点中添加 async_postprocess_nodes (#12620)
- 修复 MarkdownNodeParser ref_doc_id (#12615)
llama-index-embeddings-openvino
[0.1.5]#
- 添加了对 openvino embeddings 的初始支持 (#12643)
llama-index-llms-anthropic
[0.1.9]#
- 添加了 anthropic 工具调用 (#12591)
llama-index-llms-ipex-llm
[0.1.1]#
- 添加了 ipex-llm 集成 (#12322)
- 为 ipex-llm llm 集成添加了更多数据类型支持 (#12635)
llama-index-llms-openllm
[0.1.4]#
- 在 OpenLLM 中正确使用 PrivateAttr (#12655)
llama-index-multi-modal-llms-anthropic
[0.1.4]#
- 升级了 anthropic 依赖版本 (#12655)
llama-index-multi-modal-llms-gemini
[0.1.5]#
- 升级了 generativeai 依赖 (#12645)
llama-index-packs-dense-x-retrieval
[0.1.4]#
- 为 DenseXRetrievalPack 添加了流式支持 (#12607)
llama-index-readers-mongodb
[0.1.4]#
- 提高了 MongoDB 读取器的效率 (#12664)
llama-index-readers-wikipedia
[0.1.4]#
- 为 Wikipedia 读取器添加了多语言支持 (#12616)
llama-index-storage-index-store-elasticsearch
[0.1.3]#
- 从默认集合名称中删除无效字符 (#12672)
llama-index-vector-stores-milvus
[0.1.8]#
- 添加了从 milvus 检索元数据字段的支持 (#12626)
- 修复错误 - MilvusVectorStore 的相似度度量始终为 IP (#12611)
[2024-04-04]#
llama-index-agent-openai
[0.2.2]#
- 更新消息线程类型的导入 (#12437)
llama-index-core
[0.10.27]#
- 修复了 pydantic 查询引擎输出为空的问题 (#12469)
- 为事件(仪表)添加了 span_id 属性 (#12417)
- 修复了从 docs 属性中检索 RedisDocstore 节点的问题 (#12324)
- 为 retriever_tool 添加了 node-postprocessors (#12415)
- FLAREInstructQueryEngine:如果查询引擎支持,委托检索器 API (#12503)
- 使聊天消息转换为字典更安全 (#12526)
- 修复了多关键字参数的批量评估运行程序中的检查问题 (#12563)
- 修复了 agent_react_multimodal_step.py 中的部分参数错误 (#12566)
llama-index-embeddings-clip
[0.1.5]#
- 添加了从本地文件路径加载 clip 模型的支持 (#12577)
llama-index-embeddings-cloudflar-workersai
[0.1.0]#
- 文本嵌入集成:Cloudflare Workers AI (#12446)
llama-index-embeddings-voyageai
[0.1.4]#
- 修复了类定义中的 pydantic 问题 (#12469)
llama-index-finetuning
[0.1.5]#
- 修正了 QA 生成提示中的小错别字 (#12470)
llama-index-graph-stores-falkordb
[0.1.3]#
- 用 FalkorDB 驱动程序替换了 redis 驱动程序 (#12434)
llama-index-llms-anthropic
[0.1.8]#
- 添加了向 Anthropic 客户端传递自定义 HTTP 标头的功能 (#12558)
llama-index-llms-cohere
[0.1.6]#
- 添加了对 Cohere Command R+ 模型的支持 (#12581)
llama-index-llms-databricks
[0.1.0]#
- 与 DataBricks LLM API 的集成 (#12432)
llama-index-llms-watsonx
[0.1.6]#
- 更新了 Watsonx 基础模型 (#12493)
- 在 watsonx 集成中更新了基础模型名称 #12491
lama-index-postprocessor-rankllm-rerank
[0.1.2]#
- 在 RankLLM 中添加了对 RankGPT 的支持 (#12475)
llama-index-readers-microsoft-sharepoint
[0.1.7]#
- 默认使用递归策略来读取 SharePoint (#12557)
llama-index-readers-web
[0.1.8]#
- 修复了 playwright 异步 API 的可读性网页阅读器问题 (#12520)
llama-index-vector-stores-kdbai
[0.1.5]#
- 修复了小的
to_list
问题 (#12515)
llama-index-vector-stores-neptune
[0.1.0]#
- 添加了对 Neptune Analytics 的向量存储支持 (#12423)
llama-index-vector-stores-postgres
[0.1.5]#
- 修复了(postgres)数字元数据过滤器问题 (#12583)
[2024-03-31]#
llama-index-core
[0.10.26]#
- 在 KnowledgeGraphQueryEngine 中为 NodeWithScore 添加了分数 (#12326)
- 修复了 Batch eval runner 的问题 (#12302)
llama-index-embeddings-cohere
[0.1.5]#
- 增加了对二进制/量化嵌入的支持 (#12321)
llama-index-llms-mistralai
[0.1.10]#
- 增加了对 MistralAI 的自定义端点的支持 (#12328)
llama-index-storage-kvstore-redis
[0.1.3]#
- 修复了从文档属性中检索 RedisDocstore 节点的问题 (#12324)
[2024-03-26]#
llama-index-core
[0.10.24]#
- 在
LlamaDebugHandler
中进行了漂亮的打印 (#12216) - 对 pandas 查询引擎进行了更严格的解释器约束 (#12278)
- PandasQueryEngine 现在可以执行 'pd.*' 函数了 (#12240)
- 在文档存储删除函数中删除了正确的元数据 (#12276)
- 改进了 openai 代理解析函数挂钩 (#12062)
- 为 SimpleDirectoryReader 添加了 raise_on_error 标志 (#12263)
- 在核心模块中移除了未捕获的 openai 导入 (#12262)
- 修复了 download_llama_dataset 和 download_llama_pack (#12273)
- 实现了 EvalQueryEngineTool (#11679)
- 扩展了 AgentRunner 的仪表化 Span 覆盖范围 (#12249)
- 添加了对代理/llm(目前支持 mistral)的函数调用概念 (#12222)
llama-index-embeddings-huggingface
[0.2.0]#
- 使用
sentence-transformers
作为后端 (#12277)
llama-index-postprocessor-voyageai-rerank
[0.1.0]#
- 添加了 voyageai 作为重新排序器 (#12111)
llama-index-readers-gcs
[0.1.0]#
- 添加了 Google Cloud 存储读取器 (#12259)
llama-index-readers-google
[0.2.1]#
- 支持不同的驱动器 (#12146)
- 从 Google Drive 读取器中删除不必要的 PyDrive 依赖项 (#12257)
llama-index-readers-readme
[0.1.0]#
- 添加了 readme.com 读取器 (#12246)
llama-index-packs-raft
[0.1.3]#
- 为 RAFT 添加了包 (#12275)
[2024-03-23]#
llama-index-core
[0.10.23]#
- 向基础 LLM 类添加了
(a)predict_and_call()
函数 + openai + mistralai (#12188) - 修复了异步代理流中的
wait()
错误 (#12187)
llama-index-embeddings-alephalpha
[0.1.0]#
- 添加了 alephalpha 嵌入 (#12149)
llama-index-llms-alephalpha
[0.1.0]#
- 添加了 alephalpha LLM (#12149)
llama-index-llms-openai
[0.1.7]#
- 修复了异步代理流中的
wait()
错误 (#12187)
llama-index-readers-docugami
[0.1.4]#
- 修复了 docugami 读取器中的导入错误 (#12154)
llama-index-readers-file
[0.1.12]#
- 修复了远程文件系统的 PDFReader (#12186)
[2024-03-21]#
llama-index-core
[0.10.22]#
- 从 sphinx 更新了文档后端到 mkdocs,添加了全部 API 参考,进行了一些轻微的重组,改进了搜索功能 (#11301)
- 向
BaseReader
类添加了异步加载(尽管目前是假的异步) (#12156) - 修复了
SimpleDirectoryReader
中非本地文件系统的路径实现 (#12141) - 在仪表化中为检索事件的 spans、payloads 添加了 args/kwargs (#12147)
- [react 代理] 在异常发生时,说明情况,以便代理可以自行纠正 (#12137)
llama-index-embeddings-together
[0.1.3]#
- 添加了速率限制处理 (#12127)
llama-index-graph-stores-neptune
[0.1.3]#
- 添加了对 Amazon Neptune 的支持作为图存储 (#12097)
llama-index-llms-vllm
[0.1.7]#
- 修复了 VllmServer 以无需 CUDA 的 vllm 核心工作 (#12003)
llama-index-readers-s3
[0.1.4]#
- 在 S3Reader 中使用 S3FS (#12061)
llama-index-storage-docstore-postgres
[0.1.3]#
- 添加了正确的 kvstore 依赖项 (#12157)
llama-index-storage-index-store-postgres
[0.1.3]#
- 添加了正确的 kvstore 依赖项 (#12157)
llama-index-vector-stores-elasticsearch
[0.1.6]#
- 修复了 es add 函数中未关闭的会话 #12135
llama-index-vector-stores-kdbai
[0.1.3]#
- 添加了对
KDBAIVectorStore
的支持 (#11967)
[2024-03-20]#
llama-index-core
[0.10.21]#
- 对异步元素 StreamingAgentChatResponse 进行了延迟初始化 (#12116)
- 通过 SynthesisEndEvent 修复了流生成器的获取错误 (#12092)
- CLIP 嵌入更多模型 (#12063)
llama-index-packs-raptor
[0.1.3]#
- 为摘要模块添加了
num_workers
(#)
llama-index-readers-telegram
[0.1.5]#
- 修复了日期时间字段 (#12112)
- 添加了选择帖子/消息时间段的功能 (#12078)
llama-index-embeddings-openai
[0.1.7]#
- 为 open ai 嵌入添加了 api 版本/base api 作为可选项 (#12091)
llama-index-networks
[0.2.1]#
- 向网络检索器添加了节点后处理 (#12027)
- 添加了隐私安全网络演示 (#12027)
llama-index-callbacks-langfuse
[0.1.3]#
- 升级了 langfuse 依赖项的最低版本 (#12077)
llama-index-embeddings-google
[0.1.4]#
- 升级了 google-generativeai 依赖项 (#12085)
llama-index-embeddings-gemini
[0.1.5]#
- 升级了 google-generativeai 依赖项 (#12085)
llama-index-llms-gemini
[0.1.6]#
- 升级了 google-generativeai 依赖项 (#12085)
llama-index-llms-palm
[0.1.4]#
- 升级了 google-generativeai 依赖项 (#12085)
llama-index-multi-modal-llms-google
[0.1.4]#
- 升级了 google-generativeai 依赖项 (#12085)
llama-index-vector-stores-google
[0.1.5]#
- 升级了 google-generativeai 依赖项 (#12085)
llama-index-storage-kvstore-elasticsearch
[0.1.0]#
- 新的集成 (#12068)
llama-index-readers-google
[0.1.7]#
- 修复 - Google Drive 文件加载相同名称文件的问题 (#12022)
llama-index-vector-stores-upstash
[0.1.3]#
- 为 UpstashVectorStore 添加元数据过滤支持 (#12054)
llama-index-packs-raptor
[0.1.2]#
- 修复:防止 RaptorPack 无限递归 (#12008)
llama-index-embeddings-huggingface-optimum
[0.1.4]#
- 修复(OptimumEmbedding):移除 token_type_ids 导致 ONNX 验证问题
llama-index-llms-anthropic
[0.1.7]#
- 修复:Anthropic LLM 合并具有相同角色的连续消息 (#12013)
llama-index-packs-diff-private-simple-dataset
[0.1.0]#
- DiffPrivacy ICL Pack - OpenAI 完成 LLMs (#11881)
llama-index-cli
[0.1.11]#
- 从 download_llama_dataset 命令的 llama_hub_url 关键字中移除 (#12038)
[2024-03-14]#
llama-index-core
[0.10.20]#
- 用于可观察性的新
instrumentation
模块 (#11831) - 允许传入 LLM 用于
CitationQueryEngine
(#11914) - 更新 keyval docstore 以允许更改后缀和命名空间 (#11873)
- 为 query_engine 添加部分异步流支持 #11949
llama-index-embeddings-dashscope
[0.1.3]#
- 修复查询文本的嵌入类型 (#11901)
llama-index-embeddings-premai
[0.1.3]#
- 支持 premai 嵌入 (#11954)
llama-index-networks
[0.2.0]#
- 添加对网络检索器的支持 (#11800)
llama-index-llms-anthropic
[0.1.6]#
- 添加对 haiku 的支持 (#11916)
llama-index-llms-mistralai
[0.1.6]#
- 修复 ChatMessage 的导入错误 (#11902)
llama-index-llms-openai
[0.1.11]#
- 为 AZURE_TURBO_MODELS 添加 gpt-35-turbo-0125 (#11956)
- 修复 logprobs 中的非类型错误 (#11967)
llama-index-llms-premai
[0.1.4]#
- 支持 premai llm (#11954)
llama-index-llms-solar
[0.1.3]#
- 支持 solar 作为 LLM 类 (#11710)
llama-index-llms-vertex
[0.1.5]#
- 在 vertex 中添加对 medlm 的支持 (#11911)
llama-index-readers-goolge
[0.1.6]#
- 添加 Google Drive 读取器的 README 文件和查询字符串 (#11724)
llama-index-readers-file
[0.1.11]#
- 更新 ImageReader 以添加
plain_text
选项以触发 pytesseract (#11913)
llama-index-readers-pathway
[0.1.3]#
- 使用纯请求以减少依赖项,简化代码 (#11924)
llama-index-retrievers-pathway
[0.1.3]#
- 使用纯请求以减少依赖项,简化代码 (#11924)
llama-index-storage-docstore-mongodb
[0.1.3]#
- 允许更改 mongodb docstore 的后缀 (#11873)
llama-index-vector-stores-databricks
[0.1.1]#
- 支持将 databricks 向量搜索作为向量存储 (#10754)
llama-index-vector-stores-opensearch
[0.1.8]#
- 重新实现适当的删除 (#11959)
llama-index-vector-stores-postgres
[0.1.4]#
- 修复 IN 过滤器和 OR 文本搜索的问题 (#11872, #11927)
[2024-03-12]#
llama-index-cli
[0.1.9]#
- 移除作为捆绑依赖项的 chroma 以减少
llama-index
的依赖关系
llama-index-core
[0.10.19]#
- 为
OpenAI
llm 类引入重试机制以处理速率限制 (#11867) - 在
SQLDatabase
的 SQL 表模式中添加表注释 (#11774) - 为
ChatResponse
对象添加LogProb
类型 (#11795) - 引入
LabelledSimpleDataset
(#11805) - 修复插入具有不可序列化对象的
IndexNode
对象的问题 (#11836) - 在将响应写入
CondenseQuestionChatEngine
中改进流式聊天类型错误的后处理 (#11856) - 改进 json 查询引擎的后处理 (#11862)
llama-index-embeddings-cohere
[0.1.4]#
- 修复异步关键字参数错误 (#11822)
llama-index-embeddings-dashscope
[0.1.2]#
- 修复 pydantic 导入问题 (#11765)
llama-index-graph-stores-neo4j
[0.1.3]#
- 在验证连接后正确关闭连接 (#11821)
llama-index-llms-cohere
[0.1.3]#
- 添加对新的
command-r
模型的支持 (#11852)
llama-index-llms-huggingface
[0.1.4]#
- 修复带有特殊标记的流式解码问题 (#11807)
llama-index-llms-mistralai
[0.1.5]#
- 添加对最新和开放模型的支持 (#11792)
llama-index-tools-finance
[0.1.1]#
- 修复传递股票新闻 API 的小错误 (#11772)
llama-index-vector-stores-chroma
[0.1.6]#
- 精简 chroma 依赖项 (#11775)
llama-index-vector-stores-lancedb
[0.1.3]#
- 修复删除问题 (#11825)
llama-index-vector-stores-postgres
[0.1.3]#
- 支持嵌套元数据过滤器 (#11778)
[2024-03-07]#
llama-index-callbacks-deepeval
[0.1.3]#
- 更新回调处理程序的导入路径 (#11754)
llama-index-core
[0.10.18]#
- 确保
LoadAndSearchToolSpec
加载文档对象 (#11733) - 修复
QueryFusionRetriever
中没有节点的 bug (#11759) - 允许在
BatchEvalRunner
中为不同的评估器使用不同的运行时关键字参数 (#11727) - 修复 fsspec +
SimpleDirectoryReader
的问题 (#11665) - 从指南评估器中删除
asyncio.run()
要求 (#11719)
llama-index-embeddings-voyageai
[0.1.3]#
- 更新 voyage embeddings 以使用正确的客户端 (#11721)
llama-index-indices-managed-vectara
[0.1.3]#
- 修复了 Vectara 查询引擎在非摘要模式下的问题 (#11668)
llama-index-llms-mymagic
[0.1.5]#
- 添加了
return_output
选项,用于以 JSON 格式输出查询和响应 (#11761)
llama-index-packs-code-hierarchy
[0.1.0]#
- 增加了对
CodeHiearchyAgentPack
的支持,允许对代码库进行代理遍历 (#10671)
llama-index-packs-cohere-citation-chat
[0.1.3]#
- 添加了一个新的 llama-pack,用于引用 + 与 cohere 的聊天 (#11697)
llama-index-vector-stores-milvus
[0.1.6]#
- 防止在添加文档时强制执行
flush()
(#11734)
llama-index-vector-stores-opensearch
[0.1.7]#
- 元数据列名称中的小错字 (#11751)
llama-index-vector-stores-tidbvector
[0.1.0]#
- TiDB 向量存储的初始支持 (#11635)
llama-index-vector-stores-weaviate
[0.1.4]#
- 修复了元数据过滤器中
int
字段的小问题 (#11742)
[2024-03-06]#
全新格式!将尝试按包报告变更。
llama-index-cli
[0.1.8]#
- 更新了
upgrade
命令的映射 (#11699)
llama-index-core
[0.10.17]#
- 为
QueryFusionRetriever
添加了relative_score
和dist_based_score
(#11667) - 在异步代理队列中检查
none
(#11669) - 允许为
BaseSQLTableQueryEngine
添加精炼模板 (#11378) - 更新了 llama-packs 的映射 (#11699)
- 修复了在 KG 索引中提取关系文本时的索引错误 (#11695)
- 当没有节点时,从合成器返回正确的响应类型 (#11701)
- 在 DocumentSummaryIndex 中继承元数据到摘要 (#11671)
- 在 SQL 查询引擎中继承回调管理器 (#11662)
- 修复了代理流未写入聊天历史的小错误 (#11675)
- 修复了使用代理进行函数调用时
none
增量的小 bug (#11713)
llama-index-multi-modal-llms-anthropic
[0.1.2]#
- 增加了对新的多模态模型
haiku
和sonnet
的支持 (#11656)
llama-index-packs-finchat
[0.1.0]#
- 添加了一个新的 llama-pack,用于分层代理 + 金融聊天 (#11387)
llama-index-readers-file
[0.1.8]#
- 添加了对 NLTK 文件是否已下载的支持 (#11676)
llama-index-readers-json
[0.1.4]#
- 创建文档时使用传递的元数据 (#11626)
llama-index-vector-stores-astra-db
[0.1.4]#
- 更新了警告消息中的措辞 (#11702)
llama-index-vector-stores-opensearch
[0.1.7]#
- 避免在代码中调用
nest_asyncio.apply()
,以避免给用户造成困惑的错误 (#11707)
llama-index-vector-stores-qdrant
[0.1.4]#
- 捕获 RPC 错误 (#11657)
[0.10.16] - 2024-03-05#
新功能#
- 对新模型的 Anthropic 支持 (#11623, #11612)
- 更容易创建聊天提示 (#11583)
- 添加了一个 raptor 检索器 llama-pack (#11527)
- 通过 bedrock 改进了批处理 cohere 嵌入 (#11572)
- 添加了对 vertex AI 嵌入的支持 (#11561)
Bug 修复 / 改进#
- 确保异步嵌入生成的顺序 (#11562)
- 修复了 csv 读取器中的空元数据 (#11563)
- 可序列化修复可组合检索器 (#11617)
- 修复了 milvus 元数据过滤器的支持 (#11566)
- 修复了 clickhouse 向量存储中的 pydantic 导入 (#11631)
- 修复了 gemini/vertext-gemini 的系统提示 (#11511)
[0.10.15] - 2024-03-01#
新功能#
- 添加了 FeishuWikiReader (#11491)
- 添加了 videodb 检索器集成 (#11463)
- 对 opensearch 向量存储添加了异步支持 (#11513)
- 新的 LangFuse 一键回调处理程序 (#11324)
Bug 修复 / 改进#
- 修复了异步聊天流的死锁问题 (#11548)
- 在 SimpleDirectoryReader 中改进了隐藏文件检查 (#11496)
- 修复了使用 SimpleDirectoryReader 时文档元数据中的空值问题 (#11501)
- 修复了 jsonalyze 查询引擎中的 sqlite 工具 (#11519)
- 为 ollama 多模态 LLM 添加了基本 URL 和超时 (#11526)
- 更新了查询融合检索器中的重复处理 (#11542)
[0.10.14] - 2024-02-28#
新功能#
- 发布了 llama-index-networks (#11413)
- Jina 重新排序器 (#11291)
- 添加了 DuckDuckGo 代理搜索工具 (#11386)
- chatml 的辅助函数 (#10272)
- 为代理添加了 brave 搜索工具 (#11468)
- 添加了 Friendli LLM 集成 (#11384)
- chromadb 的仅元数据查询 (#11328)
Bug 修复 / 改进#
- 修复了在合成器中继承 llm 回调 (#11404)
- 捕获 milvus 中的删除错误 (#11315)
- 修复了 pinecone kwargs 问题 (#11422)
- Supabase 元数据过滤修复 (#11428)
- gemini 嵌入中的 api 基础修复 (#11393)
- 修复了 elasticsearch 向量存储的 await (#11438)
- vllm 服务器 cuda 修复 (#11442)
- 为上下文聊天引擎传递 LLM 的输入类型 (#11444)
- 为 cohere 嵌入设置输入类型 (#11288)
- azure ad token 的默认值 (#10377)
- 为 react 代理添加回调混合 (#10610)
- 修复了 gemini 的系统角色 (#11481)
- 修复了 mean agg pooling 返回 numpy 浮点值的问题 (#11458)
- 改进了 JSONQueryEngine 中的 JSON 路径解析 (#9097)
[0.10.13] - 2024-02-26#
新功能#
- 添加了一个用于 KodaRetriever 的 llama-pack,用于即时 alpha 调整 (#11311)
- 增加了对
mistral-large
的支持 (#11398) - 对于像 SFR-Embedding-Mistral 这样的 huggingface 嵌入模型,添加了最后一个标记池模式 (#11373)
- 为 SimpleDirectoryReader 添加了对 fsspec 的支持 (#11303)
Bug 修复 / 细微调整#
- 修复了上下文窗口 + 提示助手的问题 (#11379)
- 将 OpenSearch 向量存储移动到 BasePydanticVectorStore (#11400)
- 修复了 fireworks LLM 中的函数调用 (#11363)
- 使 cohere 嵌入类型更加自动化 (#11288)
- 改进了 react agent 中的函数调用 (#11280)
- 修复了 MockLLM 的导入问题 (#11376)
[0.10.12] - 2024-02-22#
新功能#
- 添加了
llama-index-postprocessor-colbert-rerank
包 (#11057) MyMagicAI
LLM (#11263)MariaTalk
LLM (#10925)- 为 github reader 添加了重试机制 (#10980)
- 添加了 FireworksAI 嵌入和 LLM 模块 (#10959)
Bug 修复 / 细微调整#
- 修复了 weaviate 中的字符串格式问题 (#11294)
- 修复了语义分割器中的 off-by-one 错误 (#11295)
- 修复了
download_llama_pack
对于多个文件的问题 (#11272) - 从包中移除了
BUILD
文件 (#11267) - 放宽了所有包对于 Python 版本的要求 (#11267)
- 修复了 chromadb 中的参数问题 (#11104)
[0.10.11] - 2024-02-21#
Bug 修复 / 细微调整#
- 修复了异步 acomplete 的多模态 LLM 问题 (#11064)
- 修复了 llamaindex-cli 导入的问题 (#11068)
[0.10.10] - 2024-02-20#
对于我们的发布流程仍然有些混乱,抱歉。这只是一个版本升级,以确保原本应该在 0.10.9 中发生的更改实际上已经发布了。 (AF)
[0.10.9] - 2024-02-20#
- 添加了 llama-index-cli 依赖
[0.10.7] - 2024-02-19#
新功能#
- 添加了 Self-Discover llamapack (#10951)
Bug 修复 / 细微调整#
- 修复了 CICD 中的 linting 问题 (#10945)
- 修复了使用远程图存储的问题 (#10971)
- 在 NoText 响应合成器中添加了缺失的 LLM kwarg (#10971)
- 修复了 rankgpt 中的 openai 导入问题 (#10971)
- 修复了在 openai 嵌入中将模型名称解析为字符串的问题 (#10971)
- 在句子窗口节点解析器中修复了 off by one 错误 (#10971)
[0.10.6] - 2024-02-17#
首先,抱歉在过去几个版本中错过了更新日志。正在努力找出处理 400+ 个包的最佳流程。
在某个时候,每个包都将有一个专门的更新日志。
新功能#
- 添加了
NomicHFEmbedding
(#10762) - 添加了
MinioReader
(#10744)
Bug 修复 / 细微调整#
- 对 clickhouse 向量存储进行了各种修复 (#10799)
- 修复了 neo4j 向量存储中的索引名称 (#10749)
- 对 sagemaker 嵌入进行了修复 (#10778)
- 在拆分节点时修复了性能问题 (#10766)
- 修复了 reranker + b25 中的非浮点值问题 (#10930)
- openai-agent 应该是 openai 程序的依赖项 (#10930)
- 为查询管道组件添加了缺失的快捷导入 (#10930)
- 修复了 NLTK 和 tiktoken 没有正确捆绑到核心中的问题 (#10930)
- 添加回
llama_index.core.__version__
(#10930)
[0.10.3] - 2024-02-13#
Bug 修复 / 细微调整#
- 修复了将 LLM 传递给
as_chat_engine
的问题 (#10605) - 修复了 anthropic 中的系统提示格式问题 (#10603)
- 修复了 elasticsearch 向量存储中的
__version__
错误 (#10656) - 修复了 openai pydantic 程序中的导入问题 (#10657)
- 将客户端重新添加到 opensearch 向量存储导出中 (#10660)
- 修复了 SimpleDirectoryReader 中未正确使用文件加载器的 bug (#10655)
- 在 RankGPT 中添加了延迟的 LLM 初始化 (#10648)
- 修复了 bedrock 嵌入中
from_credentials
传递模型名称的问题 (#10640) - 将 TelegramReader 中最近的更改重新添加回来 (#10625)
[0.10.0, 0.10.1] - 2024-02-12#
重大更改#
- 引入了一些更改。请查看完整博客文章获取完整详情。
[0.9.48] - 2024-02-12#
Bug 修复 / 细微调整#
- 为 BedrockEmbdding 添加回了已弃用的 API (#10581)
[0.9.47] - 2024-02-11#
在 v0.10 之前的最后一个补丁!
新功能#
- 为查询管道添加了条件链接 (#10520)
- 重构了条件链接 + 添加到 cookbook (#10544)
- 清理了 agent + 查询管道 (#10563)
Bug 修复 / 细微调整#
- 添加了睡眠以修复聊天流中的延迟 (#10339)
- OllamaMultiModal kwargs (#10541)
- 更新摄入管道以处理空文档 (#10543)
- 修复了拼写错误 (#10516)
- 修复了 elasticsearch 异步检查 (#10549)
- 文档更新 slack demo colab (#10534)
- 添加了在 PGVectorStore 中使用 IN 运算符的可能性 (#10547)
- 修复了 agent 重置 (#10562)
- 修复了 MD 中来自多个文档的重复节点 id (#10564)
[0.9.46] - 2024-02-08#
新功能#
- 更新了嵌入模型的池策略 (#10536)
- 添加了多模态视频 RAG 示例 (#10530)
- 添加了 SECURITY.md (#10531)
- 将 agent 模块指南上移一级 (#10519)
Bug 修复 / 细微调整#
- Deeplake 修复 (#10529)
- 为 llamaindex 添加了 cohere 部分 (#10523)
- 修复了 md 元素 (#10510)
[0.9.45.post1] - 2024-02-07#
新功能#
- 将 deeplake 向量数据库升级为使用 BasePydanticVectorStore (#10504)
Bug 修复 / 细微调整#
- 修复了不一致表格的 MD 解析器问题 (#10488)
- 修复 MetadataExtractionSEC.ipynb 中 pypdf 的 ImportError 问题 (#10491)
[0.9.45] - 2024-02-07#
新功能#
- 重构:添加 AgentRunner.from_llm 方法 (#10452)
- 支持非聊天 LLMS 的自定义提示格式 (#10466)
- 将 cryptography 从 41.0.7 升级到 42.0.0 (#10467)
- 为 Colbert Index 添加 persist 和 load 方法 (#10477)
- 允许自定义 agent 接收用户输入 (#10450)
Bug 修复 / 优化#
- 从 arize-phoenix 全局回调处理程序中移除 exporter (#10465)
- 修复 Dashscope qwen llm bug (#10471)
- 修复调用 AWS Bedrock 模型的问题 (#10443)
- 更新 Azure AI Search(原名 Azure Cognitive Search)向最新的客户端 SDK 11.4.0 stable + 更新 jupyter notebook 示例的向量存储集成 (#10416)
- 修复一些导入问题 (#10485)
[0.9.44] - 2024-02-05#
新功能#
- ollama vision cookbook (#10438)
- 支持 Gemini "transport" 配置 (#10457)
- 添加 Upstash Vector (#10451)
[0.9.43] - 2024-02-03#
新功能#
- 添加多模态 ollama (#10434)
Bug 修复 / 优化#
- 更新 astradb 的基类 (#10435)
[0.9.42.post1] - 2024-02-02#
新功能#
- 为 Base nodes parser 添加异步支持 (#10418)
[0.9.42] - 2024-02-02#
新功能#
- 添加对
gpt-3.5-turbo-0125
的支持 (#10412) - 在 rag cli 中添加
create-llama
支持 (#10405)
Bug 修复 / 优化#
- 修复 lance-db 向量存储中的一些小 bug (#10404)
- 修复 ollama 中的流式 bug (#10407)
[0.9.41] - 2024-02-01#
新功能#
- Nomic Embedding (#10388)
- Dashvector 支持稀疏向量 (#10386)
- 使用 MarkDownParser 和 Benchmarking 进行表格 QA (#10382)
- 简单的网页阅读器 (#10395)
Bug 修复 / 优化#
- 修复 KeywordExtractor 中完整节点内容的问题 (#10398)
[0.9.40] - 2024-01-30#
新功能#
- 改进和修复 MarkdownElementNodeParser 的 bug (#10340)
- 修复并改进新模型的 Perplexity 支持 (#10319)
- 确保 system_prompt 传递给 Perplexity LLM (#10326)
- 扩展 BaseRetrievalEvaluator 以包括可选的后处理器 (#10321)
[0.9.39] - 2024-01-26#
新功能#
- 支持新的 GPT Turbo 模型 (#10291)
- 支持 Sentence Transformer Fine tuning 的多个文档 (#10297)
Bug 修复 / 优化#
- 修复 Marvin 导入问题 (#9864)
[0.9.38] - 2024-01-25#
新功能#
- 支持新的 OpenAI v3 嵌入模型 (#10279)
Bug 修复 / 优化#
- 对 qdrant 的稀疏嵌入进行额外检查 (#10275)
[0.9.37] - 2024-01-24#
新功能#
- 添加 RAG CLI 实用程序 (#10193)
- 添加 textai 向量存储 (#10240)
- 添加基于 Postgresql 的文档存储和索引存储 (#10233)
- 在工具规范中指定工具规范 (#10263)
Bug 修复 / 优化#
- 修复 ollama 聊天中的序列化错误 (#10230)
- 在
SentenceTransformerRerank
中添加缺失字段 (#10225) - 修复标题提取问题 (#10209, #10226)
- 修复库/文档中可链式输出解析器更多暴露的问题 (#10262)
- :bug: 摘要索引未携带排除的元数据键 (#10259)
[0.9.36] - 2024-01-23#
新功能#
- 添加对
SageMakerEmbedding
的支持 (#10207)
Bug 修复 / 优化#
- 修复在 openai assistant 上重复的
file_id
(#10223) - 修复程序的循环依赖问题 (#10222)
- 对来自同一父文档的节点组运行
TitleExtractor
(#10209) - 改进 vectara 的自动检索 (#10195)
[0.9.35] - 2024-01-22#
新功能#
- 将
beautifulsoup4
依赖项添加到新的可选额外html
(#10156) - 将
BaseNode.hash
设为@property
(#10163) - Neutrino (#10150)
- feat: JSONalyze 查询引擎 (#10067)
- [wip] 添加自定义混合检索器笔记本 (#10164)
- 在 ChromaVectorStore 类中添加 from_collection 方法 (#10167)
- CLI 实验 v0: ask (#10168)
- 使 react agent 提示更可编辑 (#10154)
- 添加 agent 查询管道 (#10180)
Bug 修复 / 优化#
- 更新 supabase vecs 元数据过滤函数以支持多个字段 (#10133)
- LanceDB 集成的 bug 修复/代码改进 (#10144)
beautifulsoup4
可选依赖项 (#10156)- 修复 qdrant aquery 混合搜索 (#10159)
- 将 hash 设为 @property (#10163)
- 修复 llama-index[postgres] 的 poetry 安装问题 (#10171)
- [doc] 更新 jaguar 向量存储文档 (#10179)
- 移除未启动的 finish_message 的使用 (#10188)
- 更新 Lantern 向量存储文档 (#10192)
- 修复 multi_document_agents.ipynb 中的拼写错误 (#10196)
[0.9.34] - 2024-01-19#
新功能#
- 添加 SageMakerEndpointLLM (#10140)
- 添加对 Qdrant 过滤器的支持 (#10136)
Bug 修复 / 优化#
- 更新 bedrock utils 以适配 Claude 2:1 (#10139)
- BugFix: 使用多进程时出现死锁问题 (#10125)
[0.9.33] - 2024-01-17#
新功能#
- 将 RankGPT 添加为后处理器 (#10054)
- 确保向后兼容新的 Pinecone 客户端版本分叉 (#9995)
- 递归检索所有内容 (#10019)
Bug 修复 / 优化#
- BugFix: 在包含逗号的表格上使用 markdown element parser 时出现问题 (#9926)
- 扩展自动检索笔记本 (#10065)
- 更新 llm_generators 中的属性名称 (#10070)
jaguar vector store add text_tag to add_kwargs in add() (#10057)#
[0.9.32] - 2024-01-16#
新功能#
- 添加了查询时的行检索 + 修复了对结构化数据查询管道的小问题 (#10061)
- ReActive Agents w/ Context + 更新了陈旧链接 (#10058)
[0.9.31] - 2024-01-15#
新功能#
- 在查询管道中添加了选择器和路由器 (#9979)
- 在 qdrant 向量存储中添加了仅稀疏搜索 (#10041)
- 添加了 Tonic 评估器 (#10000)
- 为 firestore docstore 添加了异步支持 (#9983)
- 实现了 mongodb docstore 的
put_all
方法 (#10014)
Bug 修复 / 小问题#
- 根据
max_string_length
正确截断 sql 结果 (#10015) - 修复了
node.resolve_image()
对 base64 字符串的问题 (#10026) - 修复了 cohere 系统提示角色 (#10020)
- 在 SentenceSplitter 中移除了冗余的标记计数操作 (#10053)
[0.9.30] - 2024-01-11#
新功能#
- 使用嵌入实现了语义分割的节点解析器 (#9988)
- 添加了 Anyscale 嵌入模型支持 (#9470)
Bug 修复 / 小问题#
- 修复了 pandas 的提示问题 (#10001)
- 修复了标记计数 bug (#9912)
- 从 3.1.2 升级到 3.1.3 的 jinja2 (#9997)
- 修复了 qdrant 混合搜索的边缘情况 (#9993)
- Bug 修复:sphinx 生成错误 (#9944)
- 修复了
CodeSplitter
中language
在赋值前使用的问题 (#9987) - 修复了在 "Use a Text Splitter…" 部分中不一致的名称 "text_parser" (#9980)
- :bug: 修复了批处理大小 (#9982)
- 为查询管道添加了自动异步执行 (#9967)
- :bug: 修复了初始化问题 (#9977)
- 使用 SimpleDirectoryReader 进行并行加载 (#9965)
- 不强制删除 milvus 中的索引 (#9974)
[0.9.29] - 2024-01-10#
新功能#
- 添加了对 together.ai 模型的支持 (#9962)
- 添加了对批量 redis/firestore kvstores 和异步 firestore kvstore 的支持 (#9827)
- 并行化
IngestionPipeline.run()
(#9920) - 添加了新的查询管道组件:function, argpack, kwargpack (#9952)
Bug 修复 / 小问题#
- 更新了可选的 langchain 导入,以避免警告 (#9964)
- 如果空节点被嵌入,则引发错误 (#9953)
[0.9.28] - 2024-01-09#
新功能#
- 添加了对 Nvidia TenorRT LLM 的支持 (#9842)
- 允许在构建代理时设置
tool_choice
(#9924) - 为
QueryPipeline
添加了流式支持 (#9919)
Bug 修复 / 小问题#
- 为 llama-index 读取器设置一致的文档 ID (#9923, #9916)
- 移除了 HuggingFaceEmbedding 的不必要模型输入 (#9922)
- 将
tool_choice
标志传播到下游 API (#9901) - 将
chat_store_key
添加到 chat memory 的from_defaults()
中 (#9928)
[0.9.27] - 2024-01-08#
新功能#
- 添加查询管道 (#9908)
- 功能:Azure 多模态 (修复:#9471) (#9843)
- 添加 postgres docker (#9906)
- Vectara 自动检索器 (#9865)
- Redis Chat 存储支持 (#9880)
- 将更多类移动到核心 (#9871)
Bug 修复 / 小问题 / 更小的功能#
- 将
tool_choice
标志传播到下游 API (#9901) - 从 faiss 查询中过滤出负索引 (#9907)
- 为 qdrant 负载添加了 NE 过滤器 (#9897)
- 修复了 MyScale 查询结果中的错误 ID 分配问题 (#9900)
- Qdrant 文本匹配过滤器 (#9895)
- 为异步调用避免阻塞,将 sync_to_async 用于单个节点传递给 compute_scores 返回为浮点数 (#9869)
- 移除额外的 linting 步骤 (#9878)
- 添加了 vectara 链接 (#9886)
[0.9.26] - 2024-01-05#
新功能#
- 为专用聊天存储添加了
BaseChatStore
和SimpleChatStore
抽象 (#9863) - 启用自定义
tree_sitter
解析器传递给CodeSplitter
(#9845) - 创建了
BaseAutoRetriever
基类,以允许其他检索器扩展到自动模式 (#9846) - 添加了对 Nvidia Triton LLM 的支持 (#9488)
- 添加了
DeepEval
一键可观察性 (#9801)
Bug 修复 / 小问题#
- 更新了与最新版本兼容的指导集成 (#9830)
- 使文本存储对 doctores/ingestion pipeline 可选 (#9847)
- 为文档添加了缺失的
sphinx-automodapi
依赖 (#9852) - 在 weaviate 查询结果中返回实际节点 ID (#9854)
- 为 LangChainLLM 添加了提示格式化 (#9844)
[0.9.25] - 2024-01-03#
新功能#
- 为数据集生成添加了并发限制 (#9779)
- 新的
deepeval
一键可观察性处理程序 (#9801) - 添加了 jaguar 向量存储 (#9754)
- 添加了 beta 多模态 ReAct 代理 (#9807)
Bug 修复 / 小问题#
- 将 OpenAI 嵌入的默认批处理大小更改为 100 (#9805)
- 为 qdrant upserts 正确使用批处理大小 (#9814)
_verify_source_safety
使用 AST,而不是正则表达式,进行正确的安全检查 (#9789)- 在元素节点解析器中使用提供的 LLM (#9776)
- 更新了 legacy vectordb 加载函数,使其更健壮 (#9773)
- 在 AzureOpenAI 中使用提供的 http 客户端 (#9772)
[0.9.24] - 2023-12-30#
新功能#
- 为 BEIR 评估添加了 reranker (#9743)
- 添加了 Pathway 集成 (#9719)
- 自定义代理实现 + 笔记本 (#9746)
Bug 修复 / 小问题#
- 修复了 vllm 的 beam search:添加了缺失的参数 (#9741)
[0.9.23] - 2023-12-28#
Bug Fixes / Nits#
- 文档:修正了 qdrant_hybrid.ipynb 中的拼写错误 (#9729)
- 使 llm 完成程序更加通用化 (#9731)
- 重构 MM 向量存储和空集合的索引 (#9717)
- 添加 IF 语句以检查使用 "Select" 的模式 (#9712)
- 允许在
download_module
和download_llama_pack
中跳过模块加载 (#9734)
[0.9.22] - 2023-12-26#
新功能#
- 在
SimpleDirectoryReader
中添加了.iter_data()
方法 (#9658) - 为
Ollama
LLM 添加了异步支持 (#9689) - 扩展了 pinecone 过滤器对
in
和not in
的支持 (#9683)
Bug Fixes / Nits#
- 改进了 BM25Retriever 的性能 (#9675)
- 改进了 qdrant 混合搜索的错误处理 (#9707)
- 修复了
ChromaVectorStore
中的None
处理 (#9697) - 修复了如果不存在则创建 postgres 模式 (#9712)
[0.9.21] - 2023-12-23#
新功能#
- 将 zilliz cloud 添加为托管索引 (#9605)
Bug Fixes / Nits#
- 修复了 Bedrock 客户端和 LLM 的问题 (#9671, #9646)
[0.9.20] - 2023-12-21#
新功能#
- 添加了
insert_batch_size
以限制在创建索引时内存中保存的嵌入数量,默认为 2048 (#9630) - 改进了自动检索 (#9647)
- 可配置的节点 ID 生成函数 (#9574)
- 引入了动作输入解析器 (#9575)
- qdrant 稀疏向量支持 (#9644)
- 引入了插入和删除 (#9643)
- 将 Zilliz Cloud Pipeline 添加为托管索引 (#9605)
- 通过 VertexAI 添加了对 Google Gemini 模型的支持 (#9624)
- 支持在自动检索中允许额外的元数据过滤器 (#9662)
Bug Fixes / Nits#
- 修复了 LM 格式规范笔记中的 pip 安装命令 (#9648)
- 修复了一些链接和文档问题 (#9633)
- 一些 Bedrock 的问题和修复 (#9646)
[0.9.19] - 2023-12-20#
新功能#
- 新的 llama 数据集
LabelledEvaluatorDataset
和LabelledPairwiseEvaluatorDataset
(#9531)
[0.9.18] - 2023-12-20#
新功能#
- 多文档自动检索指南 (#9631)
Bug Fixes / Nits#
- 修复了 Vllm 的 'complete' 方法行为与其他 LLM 类相同 (#9634)
- 修复了文档链接和其他文档问题 (#9632)
[0.9.17] - 2023-12-19#
新功能#
- [示例] 添加用户反馈 (#9601)
- 功能:用于检索评估的 Cohere ReRank 相关度指标 (#9495)
Bug Fixes / Nits#
- 修复了 Gemini 聊天模式 (#9599)
- 修复了
types-protobuf
作为主要依赖项 (#9595) - 为 TextEmbeddingInference 类添加了可选的身份验证令牌 (#9606)
- 修复了超出索引的获取最新工具调用 (#9608)
- 修复了 azure_openai.py 中的子类覆盖缺失返回 (#9598)
- 修复了 ollama API 中无效的
formatted
选项 (#9555) - 在最佳推送中添加了设备 #9541 (#9554)
- Gemini 嵌入的标题与内容差异 (#9547)
- 将 pydantic 字段修复为浮点数 (#9542)
[0.9.16] - 2023-12-18#
新功能#
- 代理重构:逐步执行 (#9584)
- 添加 OpenRouter,带有 Mixtral 演示 (#9464)
- 将混合搜索添加到 neo4j 向量存储 (#9530)
- 为 Google Semantic Retriever 添加了服务帐户支持 (#9545)
Bug Fixes / Nits#
- 修复了
LLM.system_prompt
的缺失default=None
(#9504) - 修复了混合搜索的问题,用于 OpenSearch (#9430)
[0.9.13] - 2023-12-06#
新功能#
- 为
LabelledRagDataset
添加了批量预测支持 (#9332)
Bug 修复 / 改进#
- 修复了 faiss 向量存储的保存和加载问题 (#9330)
[0.9.12] - 2023-12-05#
新功能#
- 为 openai/azure 添加了
reuse_client
选项,以帮助处理异步超时。设置为False
可以看到改进 (#9301) - 增加了对
vLLM
llm 的支持 (#9257) - 增加了对 python 3.12 的支持 (#9304)
- 支持
claude-2.1
模型名称 (#9275)
Bug 修复 / 改进#
- 修复了 bedrock cohere embeddings 的嵌入格式问题 (#9265)
- 在 weaviate 向量存储中使用
delete_kwargs
进行过滤 (#9300) - 修复了自动构建 qdrant 客户端的问题 (#9267)
[0.9.11] - 2023-12-03#
新功能#
- 使
LabelledRagDataset
中的reference_contexts
可选 (#9266) - 重新组织了
download
模块 (#9253) - 在摄入管道中添加了文档管理 (#9135)
- 为
LabelledRagDataset
添加了文档 (#9228) - 为
LabelledRagDataset
添加了提交模板笔记本和其他文档更新 (#9273)
Bug 修复 / 改进#
- 将 numpy 转换为列表,以适配
InstructorEmbedding
(#9255)
[0.9.10] - 2023-11-30#
新功能#
- 向量存储的高级元数据过滤器 (#9216)
- Amazon Bedrock Embeddings 新模型 (#9222)
- 添加了 PromptLayer 回调集成 (#9190)
- 重用文件 ID 以支持
OpenAIAssistant
(#9125)
重大变更 / 废弃#
- 废弃了 ExactMatchFilter (#9216)
[0.9.9] - 2023-11-29#
新功能#
- 为
LlamaDataset
添加了新的抽象 (#9165) - 为
AstraDBVectorStore
添加了元数据过滤和 MMR 模式支持 (#9193) - 允许使用最新的
scikit-learn
版本 (#9213)
重大变更 / 废弃#
- 添加了
LocalAI
演示,并开始了废弃周期 (#9151) - 废弃了
evaluation
模块的QueryResponseDataset
和DatasetGenerator
(#9165)
Bug 修复 / 改进#
- 修复了
download_utils.py
中指向错误存储库的 bug (#9215) - 在
AzureOpenAILLM
中使用azure_deployment
关键字参数 (#9174) - 修复了
AstraDBVectorStore
集成的相似度分数返回问题 (#9193)
[0.9.8] - 2023-11-26#
新功能#
- 为
ObjectIndex
添加了persist
和persist_from_dir
方法,以支持它 (#9064) - 添加了异步元数据提取和管道支持 (#9121)
- 重新添加了对节点中开始/结束字符索引的支持 (#9143)
Bug 修复 / 改进#
- 修复了全局服务上一些关键字参数未正确设置的问题 (#9137)
- 修复了当系统/前缀消息较大时
memory.get()
的问题 (#9149) - 全局服务上的一些小修复 (#9137)
[0.9.7] - 2023-11-24#
新功能#
- 添加了对
PGVectoRsStore
的支持 (#9087) - 强制使用
requests>=2.31
进行安全性设置,同时取消对urllib3
的固定版本 (#9108)
Bug 修复 / 改进#
- 增加了上下文聊天引擎的默认内存令牌限制 (#9123)
- 在
CondensePlusContextChatEngine
中添加了系统提示,该提示将被预置到context_prompt
前面 (#9123) - 修复了
CondensePlusContextChatEngine
中未正确使用聊天历史的 bug (#9129)
[0.9.6] - 2023-11-22#
新功能#
- 为 openai LLMs 添加了
default_headers
参数 (#9090) - 添加了对
download_llama_pack()
和 LlamaPack 集成的支持 - 添加了对
llamaindex-cli
命令行工具的支持
Bug 修复 / 改进#
- 将 huggingface 嵌入的规范化存储为布尔值 (#9089)
[0.9.5] - 2023-11-21#
Bug 修复 / 改进#
- 修复了 AzureOpenAI 逻辑推断流块是否为工具调用的 bug (#9018)
新功能#
FastEmbed
嵌入提供程序 (#9043)- 更精确地测试
OpenAILike
(#9026) - 为每个检索器添加了回调管理器 (#8871)
- 通过
OpenAILike
跳过max_tokens
推断的能力 (#9032)
Bug 修复 / 改进#
- 修复了在估算块大小时格式化聊天提示模板的 bug (#9025)
- 沙箱化 Pandas 执行,修复 CVE-2023-39662 (#8890)
- 恢复了 Python 3.8 的
mypy
(#9031) - 放宽了
dataclasses-json
的版本范围,并从pandas
中删除不必要的jinja2
额外内容 (#9042)
[0.9.4] - 2023-11-19#
新功能#
- 添加了
CondensePlusContextChatEngine
(#8949)
较小的功能 / Bug 修复 / 改进#
- 修复了
OpenAIAgent
将错误插入到聊天历史中的 bug (#9000) - 修复了 LiteLLM 和新的 OpenAI 客户端的各种 bug (#9003)
- 为 perplexity llm 添加了上下文窗口属性 (#9012)
- 将
node_parser
属性添加回服务上下文 (#9013) - 重构了 MM 检索器类 (#8998)
- 修复了 SupabaseVectorIndexDemo 上的 TextNode 实例化问题 (#8994)
[0.9.3] - 2023-11-17#
新功能#
- 添加了 perplexity LLM 集成 (#8734)
Bug 修复 / 改进#
- 修复了新的 openai 客户端的令牌计数问题 (#8981)
- 修复了 postgres 向量数据库中的小 pydantic bug (#8962)
- 修复了
HierarchicalNodeParser
中的chunk_overlap
和doc_id
bug (#8983)
[0.9.2] - 2023-11-16#
- 为多模态 Rag 评估添加了新的笔记本指南 (#8945)
- 添加了
MultiModalRelevancyEvaluator
和MultiModalFaithfulnessEvaluator
(#8945)
[0.9.1] - 2023-11-15#
新功能#
- 添加了 Cohere Reranker 微调功能 (#8859)
- 在
AzureOpenAI
LLM 中支持自定义的 httpx 客户端 (#8920)
Bug 修复 / 调整#
- 修复了
set_global_service_context
未传播设置的问题 (#8940) - 修复了使用 Google Palm 嵌入构建索引的问题 (#8936)
- 修复了解析没有文本的 ImageDocuments/Nodes 的小问题 (#8938)
- 优化了代理的
QueryEngineTool
(#8933)
[0.9.0] - 2023-11-15#
新功能 / 变更 / 弃用#
- 新的
IngestionPipeline
概念用于数据摄取和转换 - 数据摄取和转换现在会自动缓存
- 更新了节点解析/文本拆分/元数据提取模块的接口
- 更改了默认的分词器,以及自定义分词器
- PyPi 的打包/安装变化(减少冗余,新增安装选项)
- 更可预测和一致的导入路径
- 此外,测试版中还有用于处理文本和图像的多模态 RAG 模块!
- 在此处查看更多详细信息:
https://medium.com/@llama_index/719f03282945
[0.8.69.post1] - 2023-11-13#
Bug 修复 / 调整#
- 将最大 weaivate 删除大小增加到最大值 10,000 (#8887)
- 最终修复 pickling 遗留问题 (#8902)
[0.8.69] - 2023-11-13#
Bug 修复 / 调整#
- 修复了加载 pickled 对象时的 bug (#8880)
- 修复了
download_loader
中custom_path
与custom_dir
的问题 (#8865)
[0.8.68] - 2023-11-11#
新功能#
- openai assistant agent + 高级检索手册 (#8863)
- 添加检索 API 基准测试 (#8850)
- 添加 JinaEmbedding 类 (#8704)
Bug 修复 / 调整#
- 改进了 OpenAI 的默认超时/重试 (#8819)
- 为 OpenAI 添加了密钥验证 (#8819)
- 禁用自动下载 LLM/嵌入模型,提供信息性错误 (#8819)
- 修复 openai assistant 工具创建 + 检索笔记本 (#8862)
- 快速修复复制多模态示例 (#8861)
- 修复:将路径视为隐藏 (#8860)
- 修复复制多模态 LLM + 笔记本 (#8854)
- 功能/引用元数据 (#8722)
- 修复了 SimpleMultiModalQueryEngine 中 ImageNode 类型从 NodeWithScore 的问题 (#8844)
[0.8.67] - 2023-11-10#
新功能#
- 高级多模态检索示例和文档 (#8822, #8823)
Bug 修复 / 调整#
- 修复了
CitationQueryEngine
的检索节点后处理器问题 (#8818) - 修复了大多数情况下的
cannot pickle 'builtins.CoreBPE' object
问题 (#8835)
[0.8.66] - 2023-11-09#
新功能#
- 使用新的 OpenAI 客户端在
OpenAIPydanticProgram
中支持并行函数调用 (#8793)
Bug 修复 / 调整#
- 修复了带有新 OpenAI 客户端的 pydantic 程序中的 bug (#8793)
- 修复了无法列出的 fsspec 对象的 bug (#8795)
[0.8.65] - 2023-11-08#
新功能#
OpenAIAgent
并行函数调用 (#8738)
新功能#
- 正确支持 Hugging Face 推荐模型 (#8784)
Bug 修复 / 调整#
- 修复了
embeddings.__all__
的缺失导入 (#8779)
变更 / 弃用#
- 在
OpenAI(LLM)
中使用tool_choice
替代function_call
,使用tool
替代functions
(#8738) - 弃用
to_openai_function
,改用to_openai_tool
(#8738)
[0.8.64] - 2023-11-06#
新功能#
OpenAIAgent
并行函数调用 (#8738)- 添加 AI 助理代理 (#8735)
- OpenAI GPT4v 抽象 (#8719)
- 添加对
Lantern
VectorStore 的支持 (#8714)
Bug 修复 / 调整#
- 修复了在弹性搜索向量存储中返回零节点的 bug (#8746)
- 在
SimpleDirectoryReader
循环中添加 try/except 以避免在单个文档上崩溃 (#8744) - 修复了异步嵌入中的
deployment_name
问题 (#8748)
[0.8.63] - 2023-11-05#
新功能#
- 为最新的
openai
客户端包添加了原生同步和异步客户端支持 (#8712) - 添加了对
AzureOpenAIEmbedding
的支持 (#8712)
Bug 修复 / 调整#
- 修复了使用
download_loader
时关于 "未提供主机" 的错误 (#8723)
变更#
OpenAIEmbedding
不再支持 azure,已移入AzureOpenAIEmbedding
类 (#8712)
[0.8.62.post1] - 2023-11-05#
变更#
- 添加新的 devday 模型 (#8713)
- 将
max_docs
参数从构造函数移至lazy_load_data()
以用于SimpleMongoReader
(#8686)
[0.8.61] - 2023-11-05#
新功能#
- [实验性] 超参数调整器 (#8687)
Bug 修复 / 调整#
- 修复了 CohereAIModelName 类中的拼写错误:cohere light models 缺少 v3 (#8684)
- 更新 deeplake.py (#8683)
[0.8.60] - 2023-11-04#
新功能#
- 优化提示指南 (#8659)
- VoyageEmbedding (#8634)
YoutubeTranscriptReader
的多语言支持 (#8673)- 情感提示指南 (#8674)
Bug 修复 / 调整#
- 将 mistral 7b instruct v0.1 添加到可用的 anyscale 模型中 (#8652)
- 使 pgvector 的设置(扩展、模式和表创建)可选 (#8656)
- 允许初始化 Pinecone 向量存储的 stores_text 变量 (#8633)
- 修复 Azure AD 支持 (#8667)
- 修复多线程环境下的 NLTK bug (#8668)
- 修复 cohereai 笔记本中的 Google Colab 链接 (#8677)
- 将 max_tokens 传递给
Cohere
llm (#8672)
[0.8.59] - 2023-11-02#
- 支持 Deepmemory (#8625)
- 添加 CohereAI 嵌入 (#8650)
- 添加 Azure AD (Microsoft Entra ID) 支持 (#8667)
[0.8.58] - 2023-11-02#
新功能#
- 为结构化输出添加
lm-format-enforcer
集成 (#8601) - 支持 Google Vertex (#8626)
[0.8.57] - 2023-10-31#
新功能#
- 添加
VoyageAIEmbedding
集成 (#8634) - 添加微调评估笔记本 (#8596)
- 添加
SingleStoreDB
集成 (#7991) - 添加 ChromaDB PersistentClient 支持 (#8582)
- 添加 DataStax Astra DB 支持 (#8609)
Bug 修复 / 问题修正#
- 更新 Weaviate 中的 dataType (#8608)
- 在具有混合 retriever_mode 的知识图索引中,
- 当“未找到关系”时返回关键字搜索找到的节点
- 修复聊天引擎中的上下文长度超出错误 (#8530)
- 从 KG 检索所有三元组的实际内容 (#8579)
- 在
KnowledgeGraphIndex
中,当嵌入在混合 retriever_mode 中找不到关系时,返回关键字找到的节点 (#8575) - 优化检索工具的内容并进行轻微错误修复 (#8588)
[0.8.56] - 2023-10-30#
新功能#
- 添加 Amazon
BedrockEmbedding
(#8550) - 将
HuggingFaceEmbedding
移至Pooling
枚举的中心进行池化 (#8467) - 添加 IBM WatsonX LLM 支持 (#8587)
Bug 修复 / 问题修正#
- [Bug] 修复 Clarifai 类 (#8529)
- 修复 bedrock llm 的重试 (#8528)
- 修复:VectorStore 的 QueryResult 总是将保存的 Node 返回为 TextNode (#8521)
- 为 SimpleDirectoryReader 添加默认 file_metadata 以获取许多后处理器使用的基本元数据 (#8486)
- 处理 ChromaDB 中具有 None 值的元数据 (#8584)
[0.8.55] - 2023-10-29#
新功能#
- 允许提示接受带有
function_mappings
的函数 (#8548) - 添加高级提示 + “RAG 的提示工程” 笔记本 (#8555)
- 利用 Replicate API 为提供 LLaVa 模态 (#8539)
Bug 修复 / 问题修正#
- 使用 Google Colab 支持更新拉取请求模板 (#8525)
[0.8.54] - 2023-10-28#
新功能#
- 显示如何在结构化输出上微调 llama2 的笔记本 (#8540)
- 添加 GradientAIFineTuningHandler
- 在 ServiceContext 中添加 pydantic_program_mode
- 使用 LlamaIndex 初始化 MultiModal 检索
Bug 修复 / 问题修正#
- 在
ChatEngine
使用模式.md
文档中添加缺失的导入 (#8518) - :bug: 修复异步添加 (#8531)
- 修复:在使用模式中添加所需的 CondenseQuestionChatEngine 导入 (#8518)
- 在 LongLLMLingua.ipynb 中添加 LongLLMLinguaPostprocessor 导入 (#8519)
[0.8.53] - 2023-10-27#
新功能#
- 文档重构 (#8500) 文档组织的全面改变。主要变化
- 添加了一个全新的“理解”部分
- 添加了一个全新的“优化”部分
- 对入门内容进行了全面改进
- 对模块指南进行分类并移动到单独的部分
[0.8.52] - 2023-10-26#
新功能#
- 添加 longllmlingua (#8485)
- 为笔记本添加 Google Colab 支持 (#7560)
Bug 修复 / 问题修正#
- 通过 cassio.init 适配 Cassandra VectorStore 构造函数的 DB 连接 (#8255)
- 允许在托管索引中配置服务上下文和存储上下文 (#8487)
[0.8.51.post1] - 2023-10-25#
新功能#
- 为 Tesla 10k RAG 添加 Llava MultiModal QA 示例 (#8271)
- 修复 React 聊天代理上的流式问题未按预期工作 (#8459)
Bug 修复 / 问题修正#
- 补丁:为路由器查询引擎的响应元数据添加选定结果,修复 bug (#8483)
- 添加 Jina AI 嵌入笔记本 + huggingface 嵌入修复 (#8478)
- 为复制添加
is_chat_model
(#8469) - 将
toml-sort
重新引入pre-commit
(#8267) - 为本地
test_s3_kvstore
添加LocationConstraint
(#8263)
[0.8.50] - 2023-10-24#
新功能#
- 在不同模块中暴露提示 (查询引擎、合成器等) (#8275)
[0.8.49] - 2023-10-23#
新功能#
- 新的 LLM 集成
- 支持 Hugging Face 推理 API 的
conversational
、text_generation
和feature_extraction
端点,通过huggingface_hub[inference]
(#8098) - 添加 Amazon Bedrock LLMs (#8223)
- 添加 AI21 Labs LLMs (#8233)
- 为兼容 OpenAI 的 api 服务器添加 OpenAILike LLM 类 (#7973)
- 新/更新的向量存储集成
- 添加 DashVector (#7772)
- 添加 Tencent VectorDB (#8173)
- 在 PGVectorStore 上添加自定义 Postgres 模式选项,而不仅允许公共模式 (#8080)
- 添加 Gradient 微调引擎 (#8208)
- 文档(FAQ):常见问题解答 (#8249)
Bug 修复 / 问题修正#
- 修复
ReActAgent.stream_chat
中的不一致性 (#8147) - 废弃一些 GuardrailsOutputParser 的函数 (#8016)
- 简化依赖关系 (#8236)
- LiteLLM 的 bug 修复 (#7885)
- 更新 Predibase LLM (#8211)
[0.8.48] - 2023-10-20#
新功能#
- 为 MyScale 向量存储添加
DELETE
功能 (#8159) - 添加 SQL 检索器 (#8197)
- 添加语义核心文档格式 (#8226)
- 改进 MyScale 混合搜索,并为 MyScale 向量存储添加
DELETE
功能 (#8159)
Bug 修复 / 优化#
- 修复 ReActAgent.from_tools() 中的额外 kwargs (#8206)
- 修复提示模板中缺少的空格 (#8190)
- 在异常情况下移除 llama2-13B 的自动下载 (#8225)
[0.8.47] - 2023-10-19#
新功能#
- 为文本到 SQL 添加响应合成 (#8196)
- 添加对
LLMRailsEmbedding
的支持 (#8169) - 使用 PyTorch 推断 MPS 设备 (#8195)
- 合并查询/文本前置 (#8189)
[0.8.46] - 2023-10-18#
新功能#
- 添加微调路由支持 + 嵌入选择器 (#8174)
- 添加更多文档转换器 (#8156)
Bug 修复 / 优化#
- 为 huggingface 嵌入添加归一化 (#8145)
- 改进 MyScale 混合搜索 (#8159)
- 修复在提示中重复的
FORMAT_STR
(#8171) - 为 PandasQueryEngine 添加支持 output_kwargs={'max_colwidth': xx} (#8110)
- 修复 cohere llm 中参数描述的小错误 (#8163)
- 修复 Firestore 客户端信息 (#8166)
[0.8.45] - 2023-10-13#
新功能#
- 添加对微调交叉编码器的支持 (#7705)
- 添加
QueryFusionRetriever
用于合并多个检索器 + 查询增强 (#8100) - 在
pre-commit
中添加nb-clean
以减少 PR 差异 (#8108) - 支持
TextEmbeddingInference
嵌入 (#8122)
Bug 修复 / 优化#
- 改进
BM25Retriever
接口以接受BaseNode
对象 (#8096) - 修复
BM25Retriever
分词器未按预期工作的 bug (#8096) - 使 mypy 在 Python 3.8 中通过 (#8107)
ReActAgent
添加缺失的super().__init__
调用 (#8125)
[0.8.44] - 2023-10-12#
新功能#
- 添加 pgvector SQL 查询引擎 (#8087)
- 添加 HoneyHive 一键可观察性 (#7944)
- 添加对 SQLAlchemy V1 和 V2 的支持 (#8060)
[0.8.43.post1] - 2023-10-11#
新功能#
- 将
codespell
移至pre-commit
(#8040) - 除
.py
外添加prettier
用于自动格式化扩展名 (#8072)
Bug 修复 / 优化#
- 修复
HuggingFaceLLM
中遗漏的 f-str (#8075) - 放宽 numpy/panadas 要求
[0.8.43] - 2023-10-10#
新功能#
- 添加对
GradientEmbedding
嵌入模型的支持 (#8050)
Bug 修复 / 优化#
- 为
HuggingFaceLLM
添加messages_to_prompt
kwarg (#8054) - 改进开源模型的选择和 SQL 解析 (#8054)
- 修复当代理为工具产生过多 kwargs 时的 bug (#8054)
- 改进选择+问题生成的提示和调试 (#8056)
[0.8.42] - 2023-10-10#
新功能#
LocalAI
更直观的模块级变量名 (#8028)- 为 markdown 文档启用
codespell
(#7972) - 添加非结构化表元素节点解析器 (#8036)
- 添加:Qdrant 向量存储的异步 upserting (#7968)
- 添加 cohere llm (#8023)
Bug 修复 / 优化#
- 解析 react agent 答案中的多行输出 (#8029)
- 为关键字
as_retriever
调用添加适当命名的 kwargs (#8011) - 更新对 RAGAS LlamaIndex 集成的引用 (#8035)
- Vectara bug 修复 (#8032)
- 修复 Mbox 读取器中的 get_content 方法 (#8012)
- 在 WeaviateVectorStore 中应用 kwargs 过滤器 (#8017)
- 避免 ZeroDivisionError (#8027)
LocalAI
更直观的模块级变量名 (#8028)- zep/fix: 导入 & 类型 (#8030)
- 重构:使用
str.join
(#8020) - 为节点解析使用正确的元数据 str (#7987)
[0.8.41] - 2023-10-07#
新功能#
- You.com 检索器 (#8024)
- 使用
metadata_names
参数从 mongodb 中提取字段到元数据 (#8001) - 简化
LocalAI.__init__
以保持相同行为 (#7982)
Bug 修复 / 优化#
- 使用最长的元数据字符串进行元数据感知文本拆分 (#7987)
- 处理 mongodb 读取器中的字符串列表 (#8002)
- 移除
OpenAI.class_type
因为它是死代码 (#7983) - 修复
HuggingFaceLLM.device_map
类型提示 (#7989)
[0.8.40] - 2023-10-05#
新功能#
- 添加对
Clarifai
LLM 的支持 (#7967) - 添加对函数微调的支持 (#7971)
兼容性变更#
- 更新文档摘要索引 (#7815)
- 将默认检索模式更改为嵌入
- 在索引时默认将摘要嵌入到向量存储中(而不是在运行时计算嵌入)
- 支持在 llm 检索器中配置 top k
[0.8.39] - 2023-10-03#
新功能#
- 添加对带有查询引擎的 pydantic 对象输出的支持 (#7893)
- 添加用于嵌入支持的
ClarifaiEmbedding
类 (#7940) - Markdown 节点解析器、平面文件读取器和简单文件节点解析器 (#7863)
- 添加对 mongdb atlas
$vectorSearch
的支持 (#7866)
Bug 修复 / 优化#
- 添加对在 discord 读取器中使用消息元数据的支持 (#7906)
- 修复
LocalAI
在没有max_tokens
的情况下的聊天功能 (#7942) - 添加自动检查的
codespell
(#7941) ruff
现代化和自动修复 (#7889)- 实现自己的 SQLDatabase 类 (#7929)
- 更新 LlamaCPP context_params 属性 (#7945)
- 修复重复嵌入 (#7949)
- 添加
codespell
工具以强制执行良好的拼写 (#7941) - 支持
mypy
与venv
的本地使用 (#7952) - Vectara - 小更新 (#7954)
- 避免在 CI 中重新安装
pydantic
(#7956) - 将 tree_sitter_languages 移入 data_requirements.txt (#7955)
- 向
PGVectorStore
添加cache_okay
参数以帮助抑制 TSVector 警告 (#7950)
[0.8.38] - 2023-10-02#
新功能#
- 更新
KeywordNodePostprocessor
以使用 spacy 以支持更多语言 (#7894) LocalAI
支持全局或每个查询的/chat/completions
vs/completions
(#7921)- 添加关于使用 REBEL + Wikipedia 过滤知识图的笔记本 (#7919)
- 添加对
ElasticsearchEmbedding
的支持 (#7914)
[0.8.37] - 2023-09-30#
新功能#
- 支持
LocalAI
LLMs (#7913) - 验证以防止配置不当的块大小 (#7917)
Bug 修复 / 改进#
- 简化 NL SQL 响应以进行 SQL 解析,并扩展 NL SQL 提示 (#7868)
- 改进 vectordb 集成的向量存储检索速度 (#7876)
- 添加替换 {{ 和 }}, 修复 JSON 解析递归 (#7888)
- 优化 JSON 解码错误 (#7891)
- 优化来自 LLM 未提供 SQL 的 SQL 错误 (#7900)
- 优化
HuggingFaceLLM
的ImportError
(#7904) - 评估修复:修复数据集响应生成,向评估器添加分数 (#7915)
[0.8.36] - 2023-09-27#
新功能#
- 添加 "从头开始构建 RAG 笔记本" - OSS/local (#7864)
Bug 修复 / 改进#
- 修复 elasticsearch 混合评分 (#7852)
- 用内部实现替换
get_color_mapping
和print_text
Langchain 依赖 (#7845) - 修复 azure 的异步流式处理 (#7856)
- 避免在子问题生成器中出现
NotImplementedError()
(#7855) - 修补 predibase 初始化 (#7859)
- 提升 langchain 最小版本并从 langchain 更改提示导入 (#7862)
[0.8.35] - 2023-09-27#
Bug 修复 / 改进#
- 修复在递归检索中丢弃 textnodes (#7840)
- 在 callback_manager 为 None 时在 agent 和其 llm 之间共享 callback_manager (#7844)
- 修复 pandas 查询引擎 (#7847)
[0.8.34] - 2023-09-26#
新功能#
- 添加对
Konko
LLM 的支持 (#7775) - 添加 before/after 上下文句子 (#7821)
- EverlyAI 通过 OpenAI 库与 LlamaIndex 的集成 (#7820)
- 向全局处理程序添加 Arize Phoenix tracer (#7835)
Bug 修复 / 改进#
- 规范化从 ElasticSearch 向量存储返回的分数 (#7792)
- 修复
refresh_ref_docs()
中的操作顺序 bug (#7664) - 延迟 postgresql 连接以至
PGVectorStore
真正需要时 (#7793) - 修复
SimpleVectorStore
的删除方法中与元数据过滤器相关的 KeyError (#7829) - 修复
SimpleVectorStore
的删除方法中与元数据过滤器相关的 KeyError (#7831) - 处理 PyYAML 导入错误 (#7784)
- ElasticsearchStore: 更新 User-Agent + 添加示例 docker compose (#7832)
StorageContext.persist
支持Path
(#7783)- 更新 ollama.py (#7839)
- 修复 self._session_pool 的 bug (#7834)
[0.8.33] - 2023-09-25#
新功能#
- 添加成对评估器 + 基准自动合并检索器 (#7810)
Bug 修复 / 改进#
- 在嵌入类中进行轻微清理 (#7813)
- 对
OpenAIEmbedding
进行杂项更新 (#7811)
[0.8.32] - 2023-09-24#
新功能#
- 添加对
HuggingFaceEmbedding
,InstructorEmbedding
和OptimumEmbedding
的本机支持 (#7795) - 向 MyScale 向量存储添加元数据过滤和混合搜索 (#7780)
- 允许 Milvus 自定义文本字段名称 (#7790)
- 为
VectorIndexAutoRetriever
添加对vector_store_query_mode
的支持 (#7797)
Bug 修复 / 改进#
- 更新
LanceDBVectorStore
以处理分数和距离 (#7754) - 在
CondenseQuestionChatEngine
中将 LLM 传递给memory_cls
(#7785)
[0.8.31] - 2023-09-22#
新功能#
- 添加 pydantic 元数据提取器 (#7778)
- 允许用户在 azure cognitive 向量存储中设置嵌入维度 (#7734)
- 添加语义相似度评估器 (#7770)
Bug 修复 / 改进#
- 📝文档:更新 Chatbot 教程和笔记本 (#7767)
- 修复带有空节点的响应合成器 (#7773)
- 修复自动向量检索器中的
NotImplementedError
(#7764) - "KnowledgeGraphQueryEngine" 中的多个 kwargs 值 bug 修复 (#7763)
- 允许设置 azure cognitive 搜索的维度 (#7734)
- 将服务上下文传递给数据集生成器的索引 (#7748)
- 修复选择器模板的输出解析器 (#7774)
- 更新 Chatbot_SEC.ipynb (#7711)
- 对 cassandra 测试进行 linter/typechecker-friendly 改进 (#7771)
- 公开
PgVectorStore
的调试选项 (#7776) - llms/openai: 修复 Azure OpenAI,考虑
prompt_filter_results
字段 (#7755)
[0.8.30] - 2023-09-21#
新功能#
- 添加对
gpt-3.5-turbo-instruct
的支持 (#7729) - 添加对
TimescaleVectorStore
的支持 (#7727) - 添加
LongContextReorder
以解决中间丢失问题 (#7719) - 添加检索评估 (#7738)
Bug 修复 / 改进#
- 添加了节点后处理器到异步上下文聊天引擎 (#7731)
- 为 PostgreSQL 的 tsv 列添加了唯一索引名称 (#7741)
[0.8.29.post1] - 2023-09-18#
Bug 修复 / 优化#
- 修复了嵌入式语言链导入错误 (#7714)
[0.8.29] - 2023-09-18#
新功能#
- 为基本简单向量存储添加了元数据过滤 (#7564)
- 添加低级路由器指南 (#7708)
- 添加了 CustomQueryEngine 类 (#7703)
Bug 修复 / 优化#
- 修复了 lite-llm 中上下文窗口元数据的问题 (#7696)
[0.8.28] - 2023-09-16#
新功能#
- 添加了 CorrectnessEvaluator (#7661)
- 添加了对
Ollama
LLM 的支持 (#7635) - 添加了
HWPReader
(#7672) - 简化了 portkey LLM 接口 (#7669)
- 为
ElasticsearchStore
向量存储添加了异步操作支持 (#7613) - 添加了对
LiteLLM
的支持 (#7600) - 添加了批量评估运行器 (#7692)
Bug 修复 / 优化#
- 避免了异步语言链嵌入的
NotImplementedError
(#7668) - 提高了 LLM 选择器的可靠性 (#7678)
- 修复了输出解析器和完成模型中的
query_wrapper_prompt
和system_prompt
的索引错误 (#7678) - 修复了引文查询引擎中节点属性的继承问题 (#7675)
兼容性变更#
- 重构并更新了
BaseEvaluator
接口以更加一致 (#7661) - 使用
evaluate
函数进行通用输入 - 使用带有来自 llama 索引查询引擎的
Response
对象的evaluate_response
函数 - 使用更明确的命名更新现有的评估器
ResponseEvaluator
->FaithfulnessEvaluator
QueryResponseEvaluator
->RelevancyEvaluator
- 旧名称作为类别别名以保持向后兼容性
[0.8.27] - 2023-09-14#
新功能#
- 添加了低级教程部分 (#7673)
Bug 修复 / 优化#
- 默认 delta 应该是一个字典 (#7665)
- 在 LLMPredictor 上改进了更好的查询包装逻辑 (#7667)
[0.8.26] - 2023-09-12#
新功能#
- 添加了非线性嵌入适配器 (#7658)
- 在知识微调笔记本中添加了 "finetune + RAG" 评估 (#7643)
Bug 修复 / 优化#
- 修复了句子分割器的分块重叠问题 (#7590)
[0.8.25] - 2023-09-12#
新功能#
- 添加了
AGENT_STEP
回调事件类型 (#7652)
Bug 修复 / 优化#
- 允许
simple
模式与as_chat_engine()
一起使用 (#7637) - 修复了 Azure 流式处理中的索引错误 (#7646)
- 从 llama-cpp 中移除了
pdb
(#7651)
[0.8.24] - 2023-09-11#
新功能#
- 指南:精细调整以记忆知识 (#7626)
- 添加了自定义提示模板用于评估模块 (#7626)
Bug 修复#
- 正确检测
llama-cpp-python
版本以加载默认的 GGML 或 GGUFllama2-chat-13b
模型 (#7616) - 使用
RetrieverQueryEngine.from_args()
正确传递summary_template
(#7621) - 修复了 wandb 回调中的 span 类型问题 (#7631)
[0.8.23] - 2023-09-09#
Bug 修复#
- 确保在 llama2 的首次聊天中包含上下文和系统提示 (#7597)
- 避免在精炼过程中出现负块大小错误 (#7607)
- 修复了分层节点解析器中小型文档的关系问题 (#7611)
- 通过完整流式和异步支持更新 Anyscale Endpoints 集成 (#7602)
- 更好地支持将凭据作为 LLM 构造函数参数传递给
OpenAI
、AzureOpenAI
和Anyscale
(#7602)
兼容性变更#
- 更新 milvus 向量存储以支持过滤器和动态模式 (#7286)
- 参见 更新的笔记本 以获取用法
- 添加 NLTK 到核心依赖项以支持默认句子分割器 (#7606)
[0.8.22] - 2023-09-07#
新功能#
- 添加了对 ElasticSearch 向量存储的支持 (#7543)
Bug 修复 / 优化#
- 修复了
ElasticSearchReader
中的小_index
错误 (#7570) - 修复了全局服务上下文中提示助手设置的错误 (#7576)
- 再次从 openai 嵌入中删除换行符 (#7588)
- 在服务上下文中设置
query_wrapper_prompt
时修复了小错误 (#7585)
兼容性变更 / 弃用 API 更改#
- 清理向量存储接口,使用
BaseNode
而不是NodeWithEmbedding
- 对于大多数用户,这是一个无操作的更改
- 对于直接操作
VectorStore
抽象并手动构建NodeWithEmbedding
对象的用户,这是一个轻微的兼容性变更。直接使用设置了embedding
的TextNode
,而不是NodeWithEmbedding
。
[0.8.21] - 2023-09-06#
新功能#
- 添加了嵌入适配器精细调整引擎和指南 (#7565)
- 添加了对 Azure Cognitive Search 向量存储的支持 (#7469)
- 支持在 supabase 中删除 (#6951)
- 添加了对 Espilla 向量存储的支持 (#7539)
- 添加了对 AnyScale LLM 的支持 (#7497)
Bug 修复 / 优化#
- 在
VectorIndexAutoRetriever
中默认使用可配置的 top-k (#7556) - 捕获结构化响应的验证错误 (#7523)
- 修复了流式精炼模板 (#7561)
[0.8.20] - 2023-09-04#
新功能#
- 添加了 Portkey LLM 集成 (#7508)
- 支持 postgres/pgvector 混合搜索 (#7501)
升级递归检索节点参考笔记本 (#7537)#
[0.8.19] - 2023-09-03#
新功能#
- 用摘要索引替换列表索引 (#7478)
- 将列表索引重命名为摘要索引第二部分 (#7531)
[0.8.18] - 2023-09-03#
新功能#
- 添加代理微调指南 (#7526)
[0.8.17] - 2023-09-02#
新功能#
- 使(一些)加载器可序列化 (#7498)
- 将节点引用添加到递归检索中 (#7522)
故障修复 / 问题#
- 在拆分过程中元数据过大时提出信息性错误 (#7513)
- 允许在简单节点解析器中使用 langchain 分割器 (#7517)
[0.8.16] - 2023-09-01#
故障修复 / 问题#
- 修复文档中对 Marvin 笔记本的链接 (#7504)
- 确保在
SimpleWebPageReader
中元数据不为None
(#7499) - 修复了 KGIndex 可视化问题 (#7493)
- 改进了 KG Index 中的空响应 (#7493)
[0.8.15] - 2023-08-31#
新功能#
- 添加对
MarvinEntityExtractor
元数据提取器的支持 (#7438) - 在
SimpleWebPageReader
中添加了 url_metadata 回调 (#7445) - 扩展了回调日志事件 (#7472)
故障修复 / 问题#
- 仅对 OpenAI 中的文本 001 嵌入模型将换行符转换为空格 (#7484)
- 修复了非星云索引的
KnowledgeGraphRagRetriever
(#7488) - 支持在
PGVectorStore
中定义的嵌入维度 (#7491) - 大大提高了基础向量存储的相似度计算速度 (#7494)
[0.8.14] - 2023-08-30#
新功能#
- 功能:在 Graph RAG 中支持非星云异构图 (#7459)
- rag 指南 (#7480)
故障修复 / 问题#
- 改进了 openai 微调模型解析 (#7474)
- 进行了一些代码去重 (#7468)
- 支持 HF LLMs 中的 query_wrapper_prompt 使用 str 和模板 (#7473)
[0.8.13] - 2023-08-29#
新功能#
- 添加嵌入微调 (#7452)
- 添加对 RunGPT LLM 的支持 (#7401)
- 与 DeepEval 集成指南和笔记本 (#7425)
- 将
VectorIndex
和VectaraRetriever
添加为受管索引 (#7440) - 添加对
to_tool_list
检测和使用异步函数的支持 (#7282)
[0.8.12] - 2023-08-28#
新功能#
- 添加 openai 微调类 (#7442)
- 服务上下文到/从字典 (#7395)
- 添加微调指南 (#7429)
较小功能 / 问题修复 / 问题#
- 添加如何运行 FalkorDB docker 的示例 (#7441)
- 更新 root.md 以使用 get_response_synthesizer 期望的类型。 (#7437)
- Bugfix MonsterAPI Pydantic 版本 v2/v1 支持。文档更新 (#7432)
[0.8.11.post3] - 2023-08-27#
新功能#
- AutoMergingRetriever (#7420)
[0.8.10.post1] - 2023-08-25#
新功能#
- 使用 MonsterAPI 添加对
MonsterLLM
的支持 (#7343) - 支持星云图存储中的注释字段和 int 类型 VID (#7402)
- 为 DynamoDB 添加可配置的端点 (#6777)
- 为 Refine 响应合成器添加结构化答案过滤 (#7317)
故障修复 / 问题#
- 使用
utf-8
读取 json 文件 (#7390) - 修复实体提取器初始化问题 (#7407)
[0.8.9] - 2023-08-24#
新功能#
- 添加对 FalkorDB/RedisGraph 图存储的支持 (#7346)
- 添加有向子图 RAG 的支持 (#7378)
- 添加对
BM25Retriever
的支持 (#7342)
故障修复 / 问题#
- 在
Xinference
LLM 中添加max_tokens
(#7372) - 支持在多线程应用程序中创建缓存目录 (#7365)
- 确保 openai 的温度是浮点数 (#7382)
- 删除知识图检索器中的重复主题 (#7378)
- 添加对 pydantic v1 和 v2 的支持,以允许其他应用程序向前移动 (#7394)
破坏性 / 弃用的 API 更改#
- 重构提示模板 (#7319)
- 使用
BasePromptTemplate
进行通用类型定义 - 使用
PromptTemplate
、ChatPromptTemplate
、SelectorPromptTemplate
作为核心实现 - 使用
LangchainPromptTemplate
以兼容 Langchain 提示模板 - 完全用通用的
BasePromptTemplate
替换特定的提示类(例如SummaryPrompt
)以进行代码库中的类型定义。 - 保持
Prompt
作为PromptTemplate
的别名,以保持向后兼容性。 - 破坏性更改:不再支持
Prompt.from_langchain_prompt
,请改用template=LangchainPromptTemplate(lc_template)
。
[0.8.8] - 2023-08-23#
新功能#
OpenAIFineTuningHandler
用于收集 OpenAI 微调的 LLM 输入/输出 (#7367)
故障修复 / 问题#
- 添加对
claude-instant-1.2
的支持 (#7369)
[0.8.7] - 2023-08-22#
新功能#
- 支持微调的 OpenAI 模型 (#7364)
- 添加对 Cassandra 向量存储的支持 (#6784)
- 在工具函数中支持 pydantic 字段 (#7348)
故障修复 / 问题#
- 修复了在
OpenAIAgent
中强制函数调用中的无限循环问题 (#7363)
[0.8.6] - 2023-08-22#
新功能#
- 自动 vs. 递归检索笔记本 (#7353)
- BagelDB 的 Reader 和 Vector Store,附带示例笔记本 (#7311)
故障修复 / 问题#
- 在重试源查询引擎中使用服务上下文进行中间索引的临时修复 (#7341)
- 临时修复提示助手 + 聊天模型 (#7350)
- 在软件包未安装时正确跳过单元测试 (#7351)
[0.8.5.post2] - 2023-08-20#
- 增加了 FireStore 文档存储/索引存储支持 (#7305)
- 增加了递归代理笔记本 (#7330)
Bug 修复 / 问题修正#
- 修复了 Azure pydantic 错误 (#7329)
- 修复回调追踪 ID(将它们作为上下文变量) (#7331)
[0.8.5.post1] - 2023-08-18#
新功能#
- Awadb 向量存储 (#7291)
Bug 修复 / 问题修正#
- 修复了 OpenAI llm 温度类型的 bug
[0.8.5] - 2023-08-18#
新功能#
- 在服务上下文中为开源 LLM 提供系统提示/查询包装器 (#6647)
- 将默认的 MyScale 索引格式更改为
MSTG
(#7288) - 为聊天引擎/代理添加了跟踪 (#7304)
- 将 LLM 和嵌入移至 pydantic (#7289)
Bug 修复 / 问题修正#
- 修复了句子分割器 bug (#7303)
- 修复了句子分割器的无限循环 (#7295)
[0.8.4] - 2023-08-17#
Bug 修复 / 问题修正#
- 改进了 SQL 查询解析 (#7283)
- 修复了从全局服务上下文加载 embed_model 的 bug (#7284)
- 限制 langchain 版本,直到迁移到 pydantic v2 (#7297)
[0.8.3] - 2023-08-16#
新功能#
- 增加了知识图谱 RAG 检索器 (#7204)
Bug 修复 / 问题修正#
- 在 OpenAI LLM 类构造函数中接受
api_key
kwarg (#7263) - 修复为
StreamingAgentChatResponse
的不同实例创建单独的队列实例的 bug (#7264)
[0.8.2.post1] - 2023-08-14#
新功能#
- 增加了 Rockset 作为向量存储的支持 (#7111)
Bug 修复#
- 修复了可能禁用 LLM 的服务上下文定义中的 bug (#7261)
[0.8.2] - 2023-08-14#
新功能#
- 通过在服务上下文中将 LLM 或嵌入模型设置为
None
来禁用它 (#7255) - 使用
embed_model="local:<model_name>"
语法解析几乎任何 huggingface 嵌入模型 (#7255) - 异步工具调用支持 (#7239)
Bug 修复 / 问题修正#
- 更新了用于添加和查询的 supabase kwargs (#7103)
- 对默认提示进行了小调整,以允许更通用的查询 (#7254)
- 使回调管理器对于
CustomLLM
是可选的 + 更新文档 (#7257)
[0.8.1] - 2023-08-13#
新功能#
- 增加了 node_postprocessors 到 ContextChatEngine (#7232)
- 增加了集成查询引擎教程 (#7247)
较小的功能#
- 允许 Fastchat/local OpenAI API 端点的 EMPTY 键 (#7224)
[0.8.0] - 2023-08-11#
新功能#
- 增加了 "LLAMA_INDEX_CACHE_DIR" 以控制缓存文件 (#7233)
- 在可能的情况下默认使用 pydantic selectors (#7154, #7223)
- 在服务上下文中不再需要 langchain 包装器来处理
embed_model
(#7157) - 元数据提取器现在除了
LLMPredictor
外还接受一个LLM
对象 (#7202) - 添加了本地模式 + 回退到 llama.cpp + llama2 (#7200)
- 对于
BAAI/bge-small-en
,添加了嵌入的本地回退 (#7200) - 添加了
SentenceWindowNodeParser
+MetadataReplacementPostProcessor
(#7211)
兼容性变更#
- 将默认的 LLM 更改为从 text-davinci-003 到 gpt-3.5-turbo (#7223)
- 更改 compact/refine/tree_summarize 的提示,以更好地适应 gpt-3.5-turbo (#7150, #7179, #7223)
- 将默认的 LLM 温度增加到 0.1 (#7180)
[0.7.24.post1] - 2023-08-11#
其他变更#
- 恢复了对默认值的 #7223 更改 (#7235)
[0.7.24] - 2023-08-10#
新功能#
- 在可能的情况下默认使用 pydantic selectors (#7154, #7223)
- 在服务上下文中不再需要 langchain 包装器来处理
embed_model
(#7157) - 元数据提取器现在除了
LLMPredictor
外还接受一个LLM
对象 (#7202) - 添加了本地模式 + 回退到 llama.cpp + llama2 (#7200)
- 对于
BAAI/bge-small-en
,添加了嵌入的本地回退 (#7200) - 添加了
SentenceWindowNodeParser
+MetadataReplacementPostProcessor
(#7211)
兼容性变更#
- 将默认的 LLM 更改为从 text-davinci-003 到 gpt-3.5-turbo (#7223)
- 更改 compact/refine/tree_summarize 的提示,以更好地适应 gpt-3.5-turbo (#7150, #7179, #7223)
- 将默认的 LLM 温度增加到 0.1 (#7180)
其他变更#
- 文档:改进了 Mendable Search (#7220)
- 重构了 openai agent (#7077)
Bug 修复 / 问题修正#
- 对于 pgvector/postgres 向量数据库,使用
1 - cosine_distance
(#7217) - 修复了元数据格式化和提取 (#7216)
- 修复(读取器):修复了非 ASCII JSON 读取器的 bug (#7086)
- 改变了 PgVectorStore 变量名,从
sim
改为distance
以增加清晰度 (#7226)
[0.7.23] - 2023-08-10#
Bug 修复 / 问题修正#
- 修复了自定义模板和继承的元数据格式化的 bug (#7216)
[0.7.23] - 2023-08-10#
新功能#
- 在文档中添加了 "一键观测性" 页面 (#7183)
- 为本地部署添加了 Xorbits 推理 (#7151)
- 添加了 Zep 向量存储集成 (#7203)
- feat/zep vectorstore (#7203)
Bug 修复 / 问题修正#
- 更新了默认的
EntityExtractor
模型 (#7209) - 使
ChatMemoryBuffer
可以被 pickle (#7205) - 重构了
BaseOpenAIAgent
(#7077)
[0.7.22] - 2023-08-08#
新功能#
- 添加了集成检索笔记本 (#7190)
- 文档:添加了本地 llama2 笔记本 (#7146)
Bug 修复 / 问题修正#
[0.7.21] - 2023-08-07#
新功能#
- 添加了用于元数据提取的
EntityExtractor
(#7163)
[0.7.20] - 2023-08-06#
新功能#
- 添加了路由模块文档 (#7171)
- 添加了检索路由器 (#7166)
新功能#
- 添加了用于将查询路由到特定检索器的
RouterRetriever
(#7166)
Bug 修复 / 改进#
- 修复了从
OpenAIAgent
并发流式响应中出现令牌交错的问题 (#7164) - 修复了 llms 回调问题 (args[0] 错误) (#7165)
[0.7.19] - 2023-08-04#
新功能#
- 在 weaviate 中添加了元数据过滤 (#7130)
- 在代理和流式处理中添加了令牌计数 (以及所有回调) (#7122)
[0.7.18] - 2023-08-03#
新功能#
- 为内存对象添加了
to/from_string
和to/from_dict
方法 (#7128) - 在 SQL 查询的表信息中包括了列注释 (#7124)
- 添加了 Neo4j 支持 (#7122)
Bug 修复 / 改进#
- 为
AzureOpenAI
类添加了Azure AD
验证支持 (#7127) - 在打印代理/聊天引擎响应流时添加了
flush=True
(#7129) - 为
AzureOpenAI
类添加了Azure AD
支持 (#7127) - 更新了 LLM 问题生成器提示,提到了 JSON markdown (#7105)
- 修复了聊天引擎中的
astream_chat
(#7139)
[0.7.17] - 2023-08-02#
新功能#
- 更新了
ReActAgent
以支持内存模块 (这是一个较小的破坏性更改,因为构造函数采用memory
而不是chat_history
,但主要的from_tools
方法仍然向后兼容。) (#7116) - 更新了
ReActAgent
以支持流式处理 (#7119) - 添加了 Neo4j 图存储和查询引擎集成 (#7122)
- 添加了对象流式处理 (#7117)
[0.7.16] - 2023-07-30#
新功能#
- 聊天源节点 (#7078)
[0.7.15] - 2023-07-29#
Bug 修复 / 改进#
- 人工智能 API 密钥定制化 (#7082)
- 修复了贡献者文档中 API 参考的损坏链接 (#7080)
- 更新了向量存储文档 (#7076)
- 更新了注释 (#7073)
[0.7.14] - 2023-07-28#
新功能#
- 添加了 HotpotQADistractor 基准评估器 (#7034)
- 为 LanceDB 添加了元数据过滤和删除支持 (#7048)
- 在 opensearch 中使用元数据过滤 (#7005)
- 添加了对
KuzuGraphStore
的支持 (#6970) - 添加了
kg_triplet_extract_fn
来自定义知识图的构建方式 (#7068)
Bug 修复 / 改进#
- 修复了上下文聊天引擎中的字符串格式化问题 (#7050)
- 修复了异步事件的跟踪问题 (#7052)
- 对于知识图的三元组提取放宽了限制 (#7059)
- 添加了可配置的知识图数据检索限制 (#7059)
- Nebula 连接改进 (#7059)
- 修复了构建代理响应的源节点的 bug (#7067)
[0.7.13] - 2023-07-26#
新功能#
- 为 AzureOpenAI 添加了支持函数调用的 API (#7041)
Bug 修复 / 改进#
- 调整提示以消除 SubQ 引擎中的 KeyError (#7039)
- 修复了 Azure OpenAI 密钥的验证问题 (#7042)
[0.7.12] - 2023-07-25#
新功能#
- 为
ComposableGraph
添加了kwargs
,用于底层查询引擎 (#6990) - 在初始化时验证 openai 密钥 (#6940)
- 添加了异步嵌入和异步 RetrieverQueryEngine (#6587)
- 为聊天引擎和代理响应添加了
.source_nodes
属性 (#7029) - 添加了
OpenInferenceCallback
,用于以 OpenInference 格式存储生成数据 (#6998)
Bug 修复 / 改进#
- 修复了数据代理的 achat 内存初始化问题 (#7000)
- 为代理/聊天引擎响应类添加了
print_response_stream()
(#7018)
[v0.7.11.post1] - 2023-07-20#
新功能#
- 在可能的情况下,默认使用 pydantic 问题生成进行子问题查询引擎 (#6979)
Bug 修复 / 改进#
- 修复了大型聊天内存中消息的返回顺序问题 (#6979)
[v0.7.11] - 2023-07-19#
新功能#
- 添加了用于快速本地重新排序的
SentenceTransformerRerank
节点后处理器 (#6934) - 为 pandas 查询引擎中的查询添加了 numpy 支持 (#6935)
- 为 Postgres Vector Storage 集成添加了元数据过滤支持 (#6968)
- 为代理和查询引擎添加了正确的 llama2 支持 (#6969)
Bug 修复 / 改进#
- 为 LLMMetadata 添加了
model_name
(#6911) - 在查询引擎中回退到检索服务上下文 (#6911)
- 修复了带有额外 kwargs 的
as_chat_engine()
中的 ValueError (#6971)
[v0.7.10.post1] - 2023-07-18#
新功能#
- 添加了对 Replicate LLM (vicuna & llama 2!) 的支持
Bug 修复 / 改进#
- 修复了 condense 聊天引擎的流式处理问题 (#6958)
[v0.7.10] - 2023-07-17#
新功能#
- 添加了对 chroma v0.4.0 的支持 (#6937)
- 将嵌入向量记录到回调管理器中 (#6962)
Bug 修复 / 改进#
- 添加了更健壮的嵌入超时处理 (#6779)
- 改进了 postgres 向量存储的连接会话管理 (#6843)
[v0.7.9] - 2023-07-15#
新功能#
- 指定
embed_model="local"
以在服务上下文中使用默认的本地嵌入 (#6806) - 为
BasePydanticProgram
添加异步acall
端点(默认为同步版本)。为OpenAIPydanticProgram
实现该功能
Bug 修复 / 改进#
- 修复搜索现有向量数据库的空元数据 (#6912)
- 为
SimpleDirectoryReader
添加模块指南文档 (#6916) - 确保
CondenseQuestionChatEngine
的流式聊天端点能够正常工作,即使在底层查询引擎中没有明确设置streaming=True
。
[v0.7.8] - 2023-07-13#
新功能#
- 添加嵌入速度基准测试 (#6876)
- 添加 BEIR 检索基准测试 (#6825)
Bug 修复 / 改进#
- 从
deprecated_terms
中删除 toctrees (#6895) - 放宽类型依赖关系 (#6879)
- 文档:修改评估笔记本 (#6840)
- 如果模型不支持函数,则引发错误 (#6896)
- 修复(bench embeddings):未考虑字符串长度的错误 (#6899)x
[v0.7.7] - 2023-07-13#
新功能#
- 改进了 milvus 一致性支持和输出字段支持 (#6452)
- 添加了对 cypyer+nebula 知识图查询的支持 (#6642)
- 添加了
Document.example()
以用于快速原型设计的文档创建 (#6739) - 替换 react 聊天引擎以使用本机响应式代理 (#6870)
Bug 修复 / 改进#
- 杂务:为 makefile 添加了帮助消息 (#6861)
Bug 修复 / 改进#
- 修复了使用 SQLTableSchema 上下文_str 属性的支持 (#6891)
[v0.7.6] - 2023-07-12#
新功能#
- 为代理/聊天引擎响应添加了来源 (#6854)
- 为代理/聊天引擎添加了基本的聊天缓冲内存 (#6857)
- 添加加载和搜索工具 (#6871)
- 添加简单代理基准测试 (#6869)
- 添加代理文档 (#6866)
- 添加 react 代理 (#6865)
破坏性/已弃用的 API 更改#
- 用本机 react 代理替换 react 聊天引擎 (#6870)
- 将默认聊天模式设置为 "best":尽可能使用 openai 代理,否则使用 react 代理 (#6870)
Bug 修复 / 改进#
- 修复了对遗留向量存储元数据的支持 (#6867)
- 修复了文档中的 chroma 笔记本 (#6872)
- 更新了 LC 嵌入文档 (#6868)
[v0.7.5] - 2023-07-11#
新功能#
- 添加了
Anthropic
LLM 实现 (#6855)
Bug 修复 / 改进#
- 修复了
SentenceEmbeddingOptimizer
中的索引错误 (#6850) - 修复了自定义嵌入模型的文档 (#6851)
- 修复(静默错误):为
SimpleDirectoryReader
添加验证 (#6819) - 修复了文档中的链接 (#6833)
- 修复了 Azure gpt-35-turbo 模型未被识别的问题 (#6828)
- 更新了 Chatbot_SEC.ipynb (#6808)
- 将剩余的原始名称重命名为 LlamaIndex (#6792)
- 修补了相同类型的嵌套跟踪 (#6791)
[v0.7.4] - 2023-07-08#
新功能#
MetadataExtractor
- 通过基于 LLM 的特征提取器对文档元数据进行增强 (#6764)
Bug 修复 / 改进#
- 修复了将查询捆绑包传递给节点后处理器的错误 (#6780)
- 修复了回调管理器中的嵌套跟踪错误 (#6791)
[v0.7.3] - 2023-07-07#
新功能#
- 子问题查询引擎返回子问题的源节点在回调管理器中 (#6745)
- trulens 集成 (#6741)
- 为子问题引擎添加来源 (#6745)
Bug 修复 / 改进#
- 为简单和压缩聊天引擎添加了流式支持 (#6717)
- 修复了
response_mode="no_text"
的响应合成器 (#6755) - 修复了在服务上下文中设置
num_output
和context_window
的错误 (#6766) - 修复了教程中缺少的 as_query_engine() (#6747)
- 修复了笔记本中的变量 sql_query_engine (#6778)
- 修复了必需的函数字段 (#6761)
- 移除了在 Prompt、SQL gen 中使用停止标记的用法 (#6782)
[v0.7.2] - 2023-07-06#
新功能#
- 支持 Azure OpenAI (#6718)
- 在聊天引擎和 OpenAI 代理中支持前缀消息(例如系统提示) (#6723)
- 添加了
CBEventType.SUB_QUESTIONS
事件类型以跟踪子问题查询/响应 (#6716)
Bug 修复 / 改进#
- 修复了 HF LLM 输出错误 (#6737)
- 为 langchain 消息模板添加系统消息支持 (#6743)
- 修复了应用节点后处理器的问题 (#6749)
- 在
llama_index.llms
下添加丢失的CustomLLM
导入 (#6752) - 修复(拼写错误):
get_transformer_tokenizer_fn
(#6729) - 格式化特性:
black[jupyter]
(#6732) - 修复(测试):
test_optimizer_chinese
(#6730)
[v0.7.1] - 2023-07-05#
新功能#
- 对 OpenAI 代理进行流式支持 (#6694)
- 添加递归检索 + 笔记本示例 (#6682)
[v0.7.0] - 2023-07-04#
新功能#
- 索引创建进度条 (#6583)
Bug 修复 / 改进#
- 改进了聊天细化模板 (#6645)
破坏性/已弃用的 API 更改#
- 将
BaseOpenAIAgent
更改为使用llama_index.llms.OpenAI
。调整chat_history
以使用List[ChatMessage]]
作为类型。 - 移除(先前已弃用的)
llama_index.langchain_helpers.chain_wrapper
模块。 - 移除(先前弃用的)
llama_index.token_counter.token_counter
模块。更多有关基于新回调的标记计数的详细信息,请参阅迁移指南。 - 移除
ChatGPTLLMPredictor
和HuggingFaceLLMPredictor
。有关替代方案的更多详细信息,请参阅迁移指南。 - 移除通过
LLMPredictor
构造函数设置cache
的支持。 - 更新
BaseChatEngine
接口: - 调整
chat_history
为List[ChatMessage]
类型 - 将
chat_history
状态公开为属性 - 支持在
chat
和achat
端点中重写chat_history
- 移除
PromptHelper
的弃用参数:max_input_size
,embedding_limit
,max_chunk_overlap
- 更新所有笔记本以使用原生 openai 集成(#6696)
[v0.6.38] - 2023-07-02#
新功能#
- 添加索引创建过程中的可选 tqdm 进度条(#6583)
- 为“compact”和“refine”响应模式添加异步支持(#6590)
- [功能]为优化器添加了转换器标记功能(中文)(#6659)
- 为向量存储添加简单基准测试(#6670)
- 引入
llama_index.llms
模块,具有新的LLM
接口,以及OpenAI
,HuggingFaceLLM
,LangChainLLM
实现(#6615) - 消除 pydantic 程序(#6666)
Bug 修复 / 改进#
- 改进 RedisVectorStore 的元数据/节点存储和检索(#6678)
- 修复向量存储中节点与文档的过滤(#6677)
- 在文档中添加上下文检索代理的链接(#6660)
- 允许 ImageNode 类中 'image' 属性的空值(#6661)
- 修复文档中的破损链接(#6669)
- 更新 milvus 以存储节点内容(#6667)
[v0.6.37] - 2023-06-30#
新功能#
- 添加上下文增强的 openai 代理(#6655)
[v0.6.36] - 2023-06-29#
新功能#
- Redis 支持索引存储和文档存储(#6575)
- DuckDB + SQL 查询引擎笔记本(#6628)
- 添加展示数据加载器的笔记本(#6638)
Bug 修复 / 改进#
- 从 LLM 对于
SelectionOutputParser
的 JSON 解析更加健壮(#6610) - 使我们的加载器与 llama-hub 保持一致(#6630)
- 移除笔记本中对 SQLStructStoreIndex 的使用(#6585)
- MD 读取器:移除 HTML 标签,保留换行符(#6618)
- 将最小 langchain 版本升级到最新版本(#6632)
- 修复 postgres 向量存储中的元数据列名(#6622)
- 修复贡献.md 中数据加载器的破损链接(#6636)
- 修复:在创建 custom_llm huggingface 示例中的文档中的拼写错误(#6639)
- 更新 SelectionOutputParser 以处理 JSON 对象和数组(#6610)
- 修复文档字符串参数拼写错误(#6652)
[v0.6.35] - 2023-06-28#
- 重构结构化输出 + pydantic 程序(#6604)
Bug 修复 / 改进#
- 修复 OpenSearch 向量存储的序列化(#6612)
- 修补文档中的关系(#6606)
- 修复在解析 git 仓库时忽略目录的 bug(#4196)
- 更新 Chroma 笔记本(#6572)
- 回溯旧的节点名称(#6614)
- 添加更改 Chroma 实现的能力(#6601)
[v0.6.34] - 2023-06-26#
补丁更新(v0.6.34.post1)#
- 为了向后兼容性,修补了 Document 对象的导入(#6597)
新功能#
- 基于 pydantic 的新
TextNode
/Document
对象类(#6586) TextNode
/Document
对象支持元数据定制化(元数据模板,从 LLM 或嵌入中排除元数据)(#6586)- 节点不再需要扁平的元数据字典,除非您使用的向量存储需要它(#6586)
Bug 修复 / 改进#
- 使用
NLTK_DATA
环境变量来控制 NLTK 下载位置(#6579) - [discord] 在 group_conversations.py 中将作者保存为元数据(#6592)
- 在 requirements 中将 bs4 改为 beautifulsoup4(#6582)
- 取反欧几里得距离(#6564)
- 在文档中添加 df 输出解析器的链接(#6581)
破坏性/弃用的 API 更改#
Node
已重命名为TextNode
,并从llama_index.schema
中导入(#6586)- 必须使用 kwargs 实例化
TextNode
和Document
:Document(text=text)
(#6586) TextNode
(原名Node
)具有id_
或node_id
属性,而不是doc_id
(#6586)TextNode
和Document
有一个元数据属性,它取代了 extra_info 属性(#6586)TextNode
不再具有node_info
属性(开始/结束索引可以直接通过start/end_char_idx
属性访问)(#6586)
[v0.6.33] - 2023-06-25#
新功能#
- 添加 typesense 向量存储(#6561)
- 添加 df 输出解析器(#6576)
Bug 修复 / 改进#
- 通过 bridge 模块跟踪 langchain 依赖项(#6573)
[v0.6.32] - 2023-06-23#
新功能#
- 添加对象索引(#6548)
- 添加 SQL Schema Node Mapping + SQLTableRetrieverQueryEngine + obj index 修复(#6569)
- SQL 重构(NLSQLTableQueryEngine)(#6529)
Bug 修复 / 改进#
- 更新 vector_stores.md(#6562)
- 对
BaseResponseBuilder
接口进行了轻微清理(#6557) - 重构 TreeSummarize(#6550)
[v0.6.31] - 2023-06-22#
Bug 修复 / 改进#
[v0.6.30] - 2023-06-21#
新功能#
- 路由查询引擎中的多选择器支持 (#6518)
- 使用 OpenAI 函数调用 API 在路由查询引擎中支持 pydantic 选择器 (#6518)
CondenseQuestionChatEngine
和SimpleChatEngine
中的流式响应支持 (#6524)QdrantVectorStore
中的元数据过滤支持 (#6476)- 添加
PGVectorStore
以支持使用 pgvector 的 postgres (#6190)
Bug 修复 / 问题修正#
- 在 mbox 读取器中改进错误处理 (#6248)
- 修复使用 weaviate 时空白相似度分数的问题 (#6512)
- 修复
PrevNextNodePostprocessor
中排序节点的问题 (#6048)
破坏性 / 弃用的 API 更改#
- 重构 PandasQueryEngine 以直接接受 df,弃用 PandasIndex (#6527)
[v0.6.29] - 2023-06-20#
新功能#
- 使用 OpenAI 函数 API 的查询规划工具 (#6520)
- 文档:kg+vector 索引的示例 (#6497)
- 为 Cohere 和 AI21(J2 模型) 设置上下文窗口大小 (#6485)
Bug 修复 / 问题修正#
- 为 Cohere 和 AI21 添加默认输入大小 (#6485)
- 在字典对象中用冒号替换逗号的文档 (#6439)
- 修正提示和错误消息中的额外空格 (#6443)
- [Issue 6417] 修复 prompt_templates 文档页面 (#6499)
- 移除 monkey patch 并更新模型到上下文窗口映射 (#6490)
[v0.6.28] - 2023-06-19#
新功能#
- 新的 OpenAI Agent + 查询引擎手册 (#6496)
- 允许递归数据提取 (pydantic 程序) (#6503)
Bug 修复 / 问题修正#
- 更新 mongo 接口 (#6501)
- 修复我们忘记包含的 openai pydantic 程序的问题 (#6503) (#6504)
- 修复 Airbyte notebook 中的 github 图片问题 (#6493)
[v0.6.27] - 2023-06-16#
新功能#
- 在 weaviate 中添加节点 doc_id 过滤 (#6467)
- 新的
TokenCountingCallback
用于自定义和跟踪嵌入、提示和完成标记的使用 (#6440) - OpenAI 检索函数代理 (#6491)
破坏性 / 弃用的 API 更改#
- 弃用当前标记跟踪 (llm 预测器和嵌入模型将不再在未来跟踪标记,请使用
TokenCountingCallback
(#6440) - 在 Simple Vector Store 中添加最大边际相关性,可作为查询模式启用 (#6446)
Bug 修复 / 问题修正#
as_chat_engine
正确继承当前服务上下文 (#6470)- 从 pinecone 删除时使用命名空间 (#6475)
- 在 windows 上使用 fsspec 时修复路径问题 (#3778)
- 修复在
SimpleDirectoryReader
中使用自定义文件读取器的问题 (#6477) - 编辑 MMR Notebook (#6486)
- FLARE 修复 (#6484)
[v0.6.26] - 2023-06-14#
新功能#
- 添加 "构建您自己的代理" 的 OpenAIAgent 和教程 notebook (#6461)
- 添加 OpenAIPydanticProgram (#6462)
Bug 修复 / 问题修正#
- 修复引用引擎导入问题 (#6456)
[v0.6.25] - 2023-06-13#
新功能#
- 添加了 FLARE 查询引擎 (#6419)。
[v0.6.24] - 2023-06-12#
新功能#
- 为 Pinecone 和 Weaviate 提供更好的向量存储支持 (例如允许配置文本键),支持批量更新 (#6393)
- 添加了初始的 guidance 集成。添加了
GuidancePydanticProgram
用于通用结构化输出生成,以及GuidanceQuestionGenerator
用于在SubQuestionQueryEngine
中生成子问题 (#6246)。
[v0.6.23] - 2023-06-11#
Bug 修复 / 问题修正#
- 移除硬编码的引文查询引擎的块大小 (#6408)
- 改进了 Mongo 演示 (#6406)
- 修复 notebook (#6418)
- 清理 RetryQuery notebook (#6381)
[v0.6.22] - 2023-06-10#
新功能#
- 添加了
SQLJoinQueryEngine
(对SQLAutoVectorQueryEngine
的泛化) (#6265) - 在底层添加了对图存储的支持,并初步支持 Nebula KG。更多文档即将推出! (#2581)
- 添加了指南评估器,允许 llm 根据用户指南提供反馈 (#4664)
- 添加了对 MongoDB Vector 存储的支持,以启用 Atlas knnbeta 搜索 (#6379)
- 添加了用于响应文本中源的内联引文的新 CitationQueryEngine (#6239)
Bug 修复#
- 修复了
delete_ref_doc
未从文档存储中删除所有元数据的问题 (#6192) - 修复了加载现有 QDrantVectorStore 的 bug (#6230)
其他#
- 正式在 github 仓库中添加了更改日志 (#6191)
[v0.6.21] - 2023-06-06#
新功能#
- SimpleDirectoryReader 现在具有新的
filename_as_id
标志,可自动设置 doc_id (对于refresh_ref_docs()
很有用) - DocArray 向量存储集成
- Tair 向量存储集成
- 用于跟踪和版本化索引的 Weights and Biases 回调处理程序
- 可以直接从向量存储初始化索引:
index = VectorStoreIndex.from_vector_store(vector_store=vector_store)
Bug 修复#
- 修复了 multimodal notebook
- 更新/修复了文档中的 SQL 教程
其他#
- 小的文档更新
- 添加了 github 拉取请求模板
- 添加了 github 问题表单
[v0.6.20] - 2023-06-04#
新功能#
- 新增了使用 JSON 模式提供更准确的 JSON 查询答案的 JSONQueryEngine
- 为 Redis 向量存储添加了元数据支持
- 添加了 Supabase 向量存储集成
Bug 修复#
- 修复了文本转 SQL 提示中的拼写错误
兼容性变更/已弃用的 API 更改#
- 从索引中移除了 GPT 前缀(虽然仍支持旧的导入/名称)
其他#
- 对文档进行了重大更新,将重要模块提升到顶层
[v0.6.19] - 2023-06-02#
新功能#
- 为 llama-hub 数据加载器添加了代理工具抽象
其他#
- 对文档进行了轻微更新
[v0.6.18] - 2023-06-02#
其他#
- 在教程文档部分添加了“发现 LlamaIndex”视频系列
- 对文档进行了轻微更新