📄️ AI21实验室
本文介绍如何开始使用AI21嵌入模型。
📄️ 阿莱夫·阿尔法
阿莱夫·阿尔法的语义嵌入有两种可能的使用方式。如果您有结构不同的文本(例如文档和查询),您会希望使用不对称嵌入。相反,对于结构相似的文本,建议采用对称嵌入。
📄️ Anyscale
让我们加载 Anyscale 嵌入类。
📄️ AwaDB
AwaDB 是一种用于搜索和存储由 LLM 应用程序使用的嵌入向量的 AI 本地数据库。
📄️ Azure OpenAI
让我们使用设置了指示使用 Azure 端点的环境变量来加载 Azure OpenAI Embedding 类。
📄️ 百川文本嵌入
截至今日(2024年1月25日),百川文本嵌入在 C-MTEB(中文多任务嵌入基准)排行榜中名列第一。
📄️ 百度千帆
百度AI云千帆平台是一个为企业开发者提供一站式大型模型开发和服务运营的平台。千帆不仅提供文心译言(ERNIE-Bot)模型和第三方开源模型,还提供各种人工智能开发工具和完整的开发环境,方便客户轻松使用和开发大型模型应用。
📄️ 基石
亚马逊基石是一项完全托管的服务,提供了来自领先人工智能公司如AI21 Labs、Anthropic、Cohere、Meta、Stability AI和Amazon的高性能基础模型(FMs),通过单一 API,以及您构建生成式人工智能应用所需的广泛功能,包括安全性、隐私性和负责任的人工智能。使用亚马逊基石,您可以轻松尝试和评估适合您用例的顶级 FMs,使用微调和检索增强生成(RAG)等技术私密定制它们,并构建执行任务的代理,这些代理使用您的企业系统和数据源。由于亚马逊基石是无服务器的,您无需管理任何基础设施,可以安全地集成和部署生成式人工智能功能到您已熟悉的 AWS 服务中。
📄️ Hugging Face 上的 BGE 模型
Hugging Face 上的 BGE 模型 被认为是最好的开源嵌入模型。
📄️ Bookend AI
让我们加载 Bookend AI Embeddings 类。
📄️ Clarifai
Clarifai 是一个 AI 平台,提供从数据探索、数据标注、模型训练、评估到推断的完整 AI 生命周期。
📄️ Cloudflare Workers AI
Cloudflare, Inc. (维基百科) 是一家提供内容交付网络服务、云安全服务、DDoS 攻击防护以及 ICANN 认证域名注册服务的美国公司。
📄️ Cohere
让我们加载 Cohere 嵌入类。
📄️ DashScope
让我们加载 DashScope 嵌入类。
📄️ DeepInfra
DeepInfra 是一种无服务器推理服务,提供对各种LLM模型和嵌入模型的访问。本笔记介绍了如何使用 LangChain 结合 DeepInfra 进行文本嵌入。
📄️ EDEN AI
Eden AI正在通过整合最优秀的AI提供商,赋予用户解锁无限可能性的能力,发挥人工智能的真正潜力,从而彻底改变人工智能领域。通过一体化全面且无障碍的平台,用户可以快速将AI功能部署到生产环境,通过单一API轻松访问完整的AI功能范围。 (网站//edenai.co/)
📄️ Elasticsearch
使用托管的嵌入模型在Elasticsearch中生成嵌入的详细步骤
📄️ Embaas
embaas 是一个完全托管的自然语言处理(NLP)API服务,提供诸如嵌入生成、文档文本提取、文档到嵌入等功能。您可以选择各种预训练模型。
📄️ ERNIE
ERNIE Embedding-V1 是基于百度文心大规模模型技术的文本表示模型,将文本转换为由数值表示的向量形式,可用于文本检索、信息推荐、知识挖掘等场景。
📄️ 虚假嵌入
LangChain 还提供了一个虚假嵌入类。您可以使用这个类来测试您的流水线。
📄️ Qdrant 的 FastEmbed
Qdrant 公司推出的 FastEmbed 是一个轻量、快速的 Python 库,专为嵌入式生成而设计。
📄️ FireworksEmbeddings
本文介绍如何使用 Fireworks Embeddings,它包含在 langchain_fireworks 软件包中,用于在 langchain 中嵌入文本。在本示例中,我们使用默认的 nomic-ai v1.5 模型。
📄️ GigaChat
本笔记本展示了如何使用 LangChain 与 GigaChat embeddings。要使用它,您需要安装 `gigachat` Python 包。
📄️ 谷歌生成式 AI 嵌入
使用 GoogleGenerativeAIEmbeddings 类连接到谷歌的生成式 AI 嵌入服务,该类位于 langchain-google-genai 包中。
📄️ 谷歌 Vertex AI PaLM
Vertex AI PaLM API 是谷歌云上的一个服务,提供了嵌入模型。
📄️ GPT4All
GPT4All 是一个免费使用的本地运行的、注重隐私的聊天机器人。无需 GPU 或互联网。它包含了流行的模型和自己的模型,如 GPT4All Falcon、Wizard 等。
📄️ 梯度
Gradient 允许使用简单的网络 API 创建 Embeddings,并对 LLMs 进行微调和完成。
📄️ Hugging Face
让我们加载 Hugging Face 嵌入类。
📄️ IBM watsonx.ai
WatsonxEmbeddings 是 IBM watsonx.ai 基础模型的封装。
📄️ 无穷大
Infinity 允许使用 MIT 许可的嵌入服务器创建 Embeddings。
📄️ Hugging Face 上的 Instruct Embeddings
Hugging Face 句子转换器 是一个用于最先进的句子、文本和图像嵌入的 Python 框架。
📄️ Intel® Extension for Transformers 量化文本嵌入
加载由 Intel® Extension for Transformers (ITREX) 生成的量化 BGE 嵌入模型,并使用 ITREX 神经引擎,这是一个高性能的 NLP 后端,以加速模型的推断,同时不影响准确性。
📄️ Jina
让我们加载 Jina 嵌入类。
📄️ John Snow Labs
John Snow Labs 的 NLP & LLM 生态系统包括用于大规模 AI 的软件库、负责任的 AI、无代码 AI,以及超过 20,000 个用于医疗、法律、金融等领域的模型。
📄️ LASER(Language-Agnostic SEntence Representations):Meta AI 的多语言句子表示嵌入库
LASER 是由 Meta AI 研究团队开发的 Python 库,用于创建超过 147 种语言的多语言句子嵌入,截至 2024 年 2 月 25 日。
📄️ Llama-cpp
本文介绍如何在 LangChain 中使用 Llama-cpp 嵌入。
📄️ llamafile
让我们加载 llamafile 嵌入类。
📄️ LLMRails
让我们加载 LLMRails Embeddings 类。
📄️ 本地AI
让我们加载 LocalAI 嵌入类。为了使用 LocalAI 嵌入类,你需要在某个地方托管 LocalAI 服务并配置嵌入模型。请参阅文档 https//localai.io/features/embeddings/index.html。
📄️ MiniMax
MiniMax 提供嵌入式服务。
📄️ MistralAI
本文介绍如何使用 MistralAIEmbeddings,在 langchain_mistralai 包中提供的功能,将文本嵌入到 langchain 中。
📄️ ModelScope
ModelScope 是一个大型的模型和数据集仓库。
📄️ MosaicML
MosaicML 提供了一个托管的推理服务。您可以使用各种开源模型,或者部署自己的模型。
📄️ NVIDIA NeMo 嵌入
使用 NeMoEmbeddings 类连接到 NVIDIA 的嵌入服务。
📄️ NLP Cloud
NLP Cloud 是一个人工智能平台,允许您使用最先进的AI引擎,甚至可以使用自己的数据训练自己的引擎。
📄️ Nomic
本笔记介绍了如何开始使用 Nomic 嵌入模型。
📄️ NVIDIA AI Foundation Endpoints
NVIDIA AI Foundation Endpoints 提供了便捷的方式让用户访问 NVIDIA 托管的 API 端点,用于访问 NVIDIA AI 基础模型,如 Mixtral 8x7B、Llama 2、Stable Diffusion 等。这些模型托管在NVIDIA API 目录上,经过优化、测试,并在 NVIDIA AI 平台上托管,使其快速且易于评估,进一步定制,并在任何加速堆栈上以最佳性能无缝运行。
📄️ oci_generative_ai
甲骨文云基础设施生成式人工智能
📄️ Ollama
让我们加载 Ollama Embeddings 类。
📄️ OpenClip
OpenClip 是 OpenAI 的 CLIP 的一个开源实现。
📄️ OpenAI
让我们加载 OpenAI Embedding 类。
📄️ OpenVINO
OpenVINO™ 是一个用于优化和部署 AI 推断的开源工具包。OpenVINO™ Runtime 支持各种硬件设备,包括 x86 和 ARM CPU,以及 Intel GPU。它可以帮助提升计算机视觉、自动语音识别、自然语言处理和其他常见任务的深度学习性能。
📄️ 使用优化和量化的嵌入器嵌入文档
使用量化嵌入器嵌入所有文档。
📄️ Oracle AI 矢量搜索:生成嵌入
Oracle AI 矢量搜索专为人工智能(AI)工作负载而设计,允许您基于语义而不是关键词查询数据。
📄️ PremAI
PremAI 是一个统一平台,让您能够轻松构建功能强大、可立即投入生产的 GenAI 应用程序,从而让您能够更专注于用户体验和整体增长。在本节中,我们将讨论如何通过 PremAIEmbeddings 来访问不同的嵌入模型。
📄️ SageMaker
让我们加载 SageMaker Endpoints Embeddings 类。如果您在 SageMaker 上托管自己的 Hugging Face 模型,可以使用这个类。
📄️ SambaNova
SambaNova的SambaStudio是一个用于运行您自己的开源模型的平台。
📄️ 自托管
让我们加载 SelfHostedEmbeddings、SelfHostedHuggingFaceEmbeddings 和 SelfHostedHuggingFaceInstructEmbeddings 类。
📄️ Hugging Face 上的句子转换器
Hugging Face 句子转换器 是一个用于最先进的句子、文本和图像嵌入的 Python 框架。
📄️ 太阳能
Solar 提供了嵌入服务。
📄️ SpaCy
spaCy 是一个用于高级自然语言处理的开源软件库,使用 Python 和 Cython 编程语言编写。
📄️ SparkLLM 文本嵌入
官方网站:https://www.xfyun.cn/doc/spark/Embeddingnewapi.html
📄️ TensorFlow Hub
TensorFlow Hub 是一个存储库,其中包含经过训练的机器学习模型,可随时进行微调并部署到任何地方。只需几行代码,就可以重用像 BERT 和 Faster R-CNN 这样的训练模型。
📄️ 文本嵌入推断
Hugging Face 文本嵌入推断(TEI)是一个用于部署和提供开源文本嵌入和序列分类模型的工具包。TEI实现了对最流行模型的高性能提取,包括FlagEmbedding、Ember、GTE和E5。
📄️ 泰坦起飞
TitanML 帮助企业通过我们的训练、压缩和推理优化平台构建和部署更好、更小、更便宜、更快的自然语言处理模型。
📄️ Together AI
这份笔记覆盖了如何开始使用托管在 Together AI API 中的开源嵌入模型。
📄️ Upstage
本文介绍了如何使用 Upstage 嵌入模型。
📄️ Volc Engine
本文提供了一个关于如何加载 Volcano Embedding 类的指南。
📄️ Voyage AI
Voyage AI 提供尖端的嵌入/向量化模型。
📄️ Xorbits 推理(Xinference)
本文档介绍如何在 LangChain 中使用 Xinference 嵌入。
📄️ YandexGPT
本文介绍如何使用 Langchain 与 YandexGPT 嵌入模型。