2月26日突然发现Deepseekv3.2版的模型不支持多模态,而本地部署的r1-7B也不支持多模态,如果需要支持多模态需要在本地替换Align-DS-V模型。但是这个模型Deepseek说需要16G内存以上的卡。暂时我没有这种卡。而我想要的应用核心就是用户上传图片。经过对deepseek和千问的询问,Deepseek推荐远端用通义千问 Qwen3.5-Plus,而千问自己推荐本地用Qwen2-VL-7B-Instruct。晚上准备重新配置这两个模型。而且昨天设计的优先网络访问的策略也不用执行了,可以优先本地模型了。
晚上回家注册阿里云的大模型平台,提示有送一些token但是我找了一分钟没找到在哪里看,我就跑去阿里云的一个充值入口充了10快钱。然后开启下载本地模型,但ollama上找不到这个模型,我实在太困了就睡觉了。早上六点半起来,问了豆包几次它都搞不定,我自己去ollama官网去看发现了是模型名字不一致,豆包找不到这个真实的模型名字。更新了名字之后就顺利完成了下载。不过看官网介绍这个模型要6G,我的显卡只有8G,理论上能跑起来。
再次吐槽阿里云的网站,我API死活对接不上,浪费我半个多小时,大概是模型没有开通,但是我又没搞明白怎么开通。但是我看到送的token了。相比之下昨天deepseek的API对接就非常顺利,简洁易懂。阿里保持了一贯的风格,乱七八糟一大堆,新手完全不明白。这就是我这么多年非常不喜欢用阿里产品的原因。
不过刚才想了一下,明天开始标题名字得改了,要把Deepseek去掉,因为本地不用deepseek模型了。27号晚上争取把远端API和本地模型都跑起来,然后就正式开始设计Agent。
openclaw 龙虾
发布者:Ai探索者,转载请注明出处:https://javaforall.net/259478.html原文链接:https://javaforall.net
