关于Ollama 安装就不说了,直接快进到拉取模型这步骤 n8n 工作流 教程 Ollama上拉取本地模型 Ollama上可以拉取的模型在官网就能看 https://ollama.com/search image- 我的笔记本是 4060 RAM是48G 的,所以我直接拉取 qwen3:4b 规模的模型就可以 image- 下载略慢,耐心一些 byd 这个Ollama拉取模型貌似非要在 C盘 中 我改那个环境变量貌似没好使 位置在 image- n8n搭建工作流 我们搭建一个基于 Ollama 本地 qwen3 的工作流,目的是能够结合今日的实时天气,去发送对应的请求然后给出出行和穿衣的建议 高德地图的 api 自己去看吧,是需要自己申请 key 的,比和风好搞多了,我这边也不是很明白,我只知道一些比较简单的 https://console.amap.com/dev/index…
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。
发布者:Ai探索者,转载请注明出处:https://javaforall.net/246153.html原文链接:https://javaforall.net
