oci_generative_ai
甲骨文云基础设施生成式人工智能
甲骨文云基础设施(OCI)生成式人工智能是一项完全托管的服务,提供一组最先进的、可定制的大型语言模型(LLMs),涵盖广泛的用例,并可通过单个 API 访问。
使用 OCI 生成式人工智能服务,您可以访问现成的预训练模型,或者基于自己的数据在专用 AI 集群上创建和托管自定义微调模型。服务和 API 的详细文档可在这里和这里找到。
本笔记本将解释如何使用 OCI 的生成式 AI 模型与 LangChain。
先决条件
我们需要安装 oci sdk
!pip install -U oci
OCI 生成式人工智能 API 端点
https://inference.generativeai.us-chicago-1.oci.oraclecloud.com
认证
此 langchain 集成支持的认证方法包括:
API 密钥
会话令牌
实例主体
资源主体
这些遵循标准的 SDK 认证方法,详细信息可在这里找到。
用法
from langchain_community.embeddings import OCIGenAIEmbeddings
# 使用默认的 API 密钥进行身份验证
embeddings = OCIGenAIEmbeddings(
model_id="MY_EMBEDDING_MODEL",
service_endpoint="https://inference.generativeai.us-chicago-1.oci.oraclecloud.com",
compartment_id="MY_OCID",
)
query = "这是一个英文查询。"
response = embeddings.embed_query(query)
print(response)
documents = ["这是一个示例文档", "这里还有一个"]
response = embeddings.embed_documents(documents)
print(response)
# 使用会话令牌进行身份验证
embeddings = OCIGenAIEmbeddings(
model_id="MY_EMBEDDING_MODEL",
service_endpoint="https://inference.generativeai.us-chicago-1.oci.oraclecloud.com",
compartment_id="MY_OCID",
auth_type="SECURITY_TOKEN",
auth_profile="MY_PROFILE", # 用您的配置文件名称替换
)
query = "这是一个示例查询"
response = embeddings.embed_query(query)
print(response)
documents = ["这是一个示例文档", "这里还有一个"]
response = embeddings.embed_documents(documents)
print(response)