Skip to content

使用AutoGPT运行Ollama

按照以下步骤设置并运行Ollama和您的AutoGPT项目:

  1. 运行Ollama
  2. 打开一个终端
  3. 执行以下命令:
    ollama run llama3
    
  4. 保持此终端运行

  5. 运行后端

  6. 打开一个新的终端
  7. 导航到AutoGPT项目中的后端目录:
    cd autogpt_platform/backend/
    
  8. 使用Poetry启动后端:

    poetry run app
    

  9. 运行前端

  10. 打开另一个终端
  11. 导航到AutoGPT项目中的前端目录:
    cd autogpt_platform/frontend/
    
  12. 启动前端开发服务器:

    npm run dev
    

  13. 选择Ollama模型

  14. 在UI中添加LLMBlock
  15. 在模型选择下拉菜单中选择最后一个选项