Skip to main content
Ctrl+K
🦜🔗 LangChain  documentation - Home 🦜🔗 LangChain  documentation - Home
  • 参考
Ctrl+K
Docs
  • GitHub
  • X / Twitter
Ctrl+K
  • 参考
Docs
  • GitHub
  • X / Twitter

章节导航

基础包

  • 核心
  • Langchain
  • 文本分割器
  • 社区
  • Experimental
    • agents
    • autonomous_agents
    • chat_models
    • comprehend_moderation
    • cpal
    • data_anonymizer
    • fallacy_removal
    • generative_agents
    • graph_transformers
    • llm_bash
    • llm_symbolic_math
    • llms
    • open_clip
      • OpenCLIPEmbeddings
    • pal_chain
    • plan_and_execute
    • prompt_injection_identifier
    • recommenders
    • retrievers
    • rl_chain
    • smart_llm
    • sql
    • tabular_synthetic_data
    • text_splitter
    • tools
    • tot
    • utilities
    • video_captioning

集成

  • AI21
  • Anthropic
  • AstraDB
  • AWS
  • Azure 动态会话
  • Cerebras
  • Chroma
  • Cohere
  • Couchbase
  • Databricks
  • Elasticsearch
  • Exa
  • 烟花
  • Google 社区
  • Google GenAI
  • Google VertexAI
  • Groq
  • Huggingface
  • IBM
  • Milvus
  • MistralAI
  • Neo4J
  • Nomic
  • Nvidia AI 端点
  • Ollama
  • OpenAI
  • Pinecone
  • Postgres
  • Prompty
  • Qdrant
  • Redis
  • Sema4
  • Snowflake
  • Sqlserver
  • 标准测试
  • Together
  • 非结构化
  • Upstage
  • VoyageAI
  • Weaviate
  • XAI
  • LangChain Python API 参考
  • langchain-experimental: 0.3.4
  • open_clip

open_clip#

OpenCLIP Embeddings 模型。

OpenCLIP 是一个多模态模型,可以将文本和图像编码到一个共享空间中。

详情请参阅本文:https://arxiv.org/abs/2103.00020 以及[此仓库](mlfoundations/open_clip)以获取详细信息。

类

open_clip.open_clip.OpenCLIPEmbeddings

OpenCLIP 嵌入模型。

© 版权所有 2023, LangChain Inc.

优云智算