羊驼包 🦙📦#
概念#
羊驼包是一个预打包的模块/模板的社区驱动中心,您可以使用它来启动您的 LLM 应用程序。
这直接解决了构建 LLM 应用程序的一个大痛点;每个用例都需要拼凑定制组件和大量的调整/开发时间。我们的目标是通过社区的努力来加速这一过程。
它们可以以两种方式使用:
- 一方面,它们是预打包的模块,可以用参数初始化并直接运行以实现特定的用例(无论是完整的 RAG管道、应用程序模板还是其他)。您还可以导入子模块(例如LLMs、查询引擎)以直接使用。
- 另一方面,羊驼包是您可以检查、修改和使用的模板。
所有包都可以在LlamaHub上找到。 转到下拉菜单并选择“LlamaPacks”以按包进行筛选。
请查看每个包的自述文件以获取详细信息。示例包在这里。
查看我们的发布博客文章以获取更多详细信息。
使用模式#
您可以通过 CLI 或 Python 使用羊驼包。
CLI:
llamaindex-cli download-llamapack <pack_name> --download-dir <pack_directory>
Python:
from llama_index.core.llama_pack import download_llama_pack
# 下载并安装依赖项
pack_cls = download_llama_pack("<pack_name>", "<pack_directory>")
您可以以不同的方式使用包,无论是检查模块、运行端到端,还是自定义模板。
# 每个包都以不同的参数初始化
pack = pack_cls(*args, **kwargs)
# 获取模块
modules = pack.get_modules()
display(modules)
# 运行(每个包将具有不同的参数)
output = pack.run(*args, **kwargs)
重要的是,您可以/应该进入pack_directory
来检查源文件/自定义它。这就是重点所在!
模块指南#
以下是一些示例模块指南。请记住,转到LlamaHub以访问完整范围的包。