【篇主按】霍格沃兹古堡里有用魔法打败魔法的魔法,燕平首城中有用AI部署AI的战法。(『脂砚斋批』:好牵强附会的说)<div>最近听说千问推出了最新版的Qwen3,有好事者(『脂批』:除了篇主还有谁?)第一时间摸鱼捣鼓了半晌时间,实现了命令行模式和浏览器模式的双重部署,并全程截图/录屏,以便抽时间编辑出篇,供各位篇友参考。</div><div>然鹅,由于装机时注册用的片假名,截图中有大量不便公开的信息,后期P图处理委实麻烦,于是,篇主在豆包的指导下,尝试了一种推荐的方式,新建了本地账号(Relaxer),赋予管理员权限,再把原账号彻底删除,再把原账号环境变量迁移到新账号下,并清理了桌面,以便后继做AI相关介绍短视频/图文攻略。</div><div>然鹅(『脂砚斋批』:有多少鹅,可以重来。有多少鹅,值得等待?当爱已成烤鹅,还有什么可以然鹅。。。),不出意外的话,意外来了。因为删除了原账户信息,大量系统和程序的配置发生了变化,导致原来部署的docker、ollama等运行异常,无法调取千问模型。</div><div><br></div><div>闲来无事(『脂砚斋批』:你怎么那么闲啊,不上班吗?!),篇主今日在豆包AI工具的辅助指点之下,经过一步步PDCA(『脂批』:这是一种解决未知问题探索虚拟世界的循环经济型方法论,计划→执行→检查→行动)的安装、调试、卡壳、提问、回答、验证、卡壳。。。魔性循环,最终成功部署了最新版的千问大模型(Qwen3:4b),以下便是整个部署过程。<div>限于篇幅(『脂砚斋批』:其实是美篇对视频文件100MB的限制)限制,本篇仅收录了部分安装调试的截屏。相关视频容后另行提供。</div><div>各位篇友若对AI感兴趣,或有任何疑问,可以评论区留言(『脂批』:美篇哪里有评论区。。。算了,不评了,忒累。你继续。。。)</div></div> 如左图所示,浏览器(豆包桌面版内嵌的浏览器)启动🤖 Qwen Name • Open WebUI时报错:<h3><u><i>无法访问此网站<br></i></u></h3><h3><u><i>127.0.0.1 拒绝了我们的连接请求。</i></u></h3> 问问豆包怎么看 按豆包的建议,跑一下试试 跑不动,再问问豆包怎么办 之前下载过安装包,重装一下Ollama 开始重装Ollama 安装程序发现后台有两个Ollama进程 尝试让安装程序杀死进程 杀不掉,手动杀 干掉一个进程(任务),还剩最后一个 再干掉另一个。 再试,安装程序可以继续了。 安装中。。。 Ollama重装成功,启动成功 命令行检查确认状态正常。再次尝试访问网页,显示仍然异常。怀疑docker异常。 果然docker未启动 搜索docker并启动docker桌面版<div><br></div> docker启动中 启动完毕。浏览器访问页面仍不正常。继续排查。按豆包建议,检查一下docker服务状态 docker服务未启动,手动启动 启动成功,再次浏览器访问本地页面,恢复正常 随便输入用户名密码,开始把玩本地化大模型 提示有新版本,查一下 不知道怎么更新新版本,肿么办 肿么办 肿么办 问问豆包肿么办 复制粘贴搞一下,停止并重启容器<div>docker stop open-webui # 停止当前容器<br>docker rm open-webui # 删除当前容器<br></div> 拉取最新镜像<br>docker pull ghcr.io/open-webui/open-webui:main 启动新容器,如下命令执行错误<div>docker run -d -p 3000:8080 \<br> --name open-webui \<br> -e OLLAMA_HOST=http://host.docker.internal:11434 \ # Ollama API地址<br> -e DEFAULT_MODEL=qwen3:8b \ # 默认模型<br> ghcr.io/open-webui/open-webui:main</div> 让豆包分析一下原委,重新给了启动新容器后的命令 再执行新命令 这次没报错,但还是无法访问此网站<br>localhost 拒绝了我们的连接请求。 再搞一下 成功了。开始探索宇宙。 重新随便输入用户名密码 确认完成版本更新 开始提问 提示没有加载模型 搜索并自动加载千问模型 手输qwen3:4b,让系统自动匹配下载 qwen3:4b模型下载中 qwen3:4b模型下载完毕 qwen3:4b模型加载完毕 可以向千问3提问了。 随便提个问题看看 再问 又问。 开始出篇 出篇记录,录屏文件超限无法上传,用系统自带的编辑器4倍速加速并压缩处理一下再传。