使用AutoGPT运行Ollama¶
按照以下步骤设置并运行Ollama和您的AutoGPT项目:
- 运行Ollama
- 打开一个终端
- 执行以下命令:
ollama run llama3
-
保持此终端运行
-
运行后端
- 打开一个新的终端
- 导航到AutoGPT项目中的后端目录:
cd autogpt_platform/backend/
-
使用Poetry启动后端:
poetry run app
-
运行前端
- 打开另一个终端
- 导航到AutoGPT项目中的前端目录:
cd autogpt_platform/frontend/
-
启动前端开发服务器:
npm run dev
-
选择Ollama模型
- 在UI中添加LLMBlock
- 在模型选择下拉菜单中选择最后一个选项