正文内容 评论(0

轻薄本支棱起来了!Intel酷睿Ultra 200H处理器Deepseek本地部署攻略
2025-04-03 09:23:48  出处:快科技 作者:万俟雨休 编辑:万俟雨休     评论(0)点击可以复制本篇文章的标题和链接对文章内容进行纠错

六、本地AI应用1:配合沉浸式翻译插件 使用本地AI大模型翻译网页

在本地部署AI大模型,当然也不能仅仅满足于同AI对话,或者让AI帮忙写首诗什么的,本地AI还能做很多事情。

我们可以让本地AI大模型配合浏览器的沉浸式翻译插件,实现翻译资源本地化,不依赖网络服务,也可以获得更好更精准的翻译服务。

轻薄本支棱起来了!Intel酷睿Ultra 200H处理器Deepseek本地部署攻略

沉浸式翻译插件同样是免费的,在谷歌微软或者火狐浏览器的商店中都能直接找到并安装使用。

轻薄本支棱起来了!Intel酷睿Ultra 200H处理器Deepseek本地部署攻略

沉浸式翻译插件本身也提供付费的AI大模型翻译服务,同时它的翻译服务中也提供了用户自行购买AI服务后的接入功能。

我们在这里面找到Ollama,激活之后进入设置,就可以配置本地AI大模型的翻译功能了。

轻薄本支棱起来了!Intel酷睿Ultra 200H处理器Deepseek本地部署攻略

翻译服务并不需要很大规模的模型,相对而言反应迅速更重要,谁也不想点击翻译之后还要等上半天才能看到结果,所以我们先选择Deepseek-R1:1.5B模型进行测试,看看翻译效果如何。

在配置页面只需要选择模型是我们准备好的模型,然后在APIKEY中输入之前用命令行启动Ollama的命令就可以了,保存设置之后可以点击设置页面右上角的测试服务按钮,看看是否能正常启动翻译服务。

轻薄本支棱起来了!Intel酷睿Ultra 200H处理器Deepseek本地部署攻略

显示绿色的验证成功,就代表我们配置的本地AI大模型翻译服务已经上线可以工作了。

轻薄本支棱起来了!Intel酷睿Ultra 200H处理器Deepseek本地部署攻略

我们打开一个英文网页(尼康英文官网的一千零一夜,中文官网的这个专题消失了,非常遗憾),测试Deepseek-R1:1.5B大模型的翻译效果,可以看到Deepseek-R1作为一个推理模型,在语言翻译这一方面并不擅长,翻译速度很快但效果非常不理想,这时候我们就需要换一个大模型来提高翻译效果。

轻薄本支棱起来了!Intel酷睿Ultra 200H处理器Deepseek本地部署攻略

我们这次选择阿里的通义千问Qwen2.5模型,它不但更加善于理解语言,并且支持29种不同的语言,还提供了0.5B、1.5B和3B这样小规模的版本。

轻薄本支棱起来了!Intel酷睿Ultra 200H处理器Deepseek本地部署攻略

我们重复之前的步骤,将Qwen2.5:1.5B模型部署在Ollama上,然后配置给沉浸式翻译调用,就可以顺利体验到更强的AI大模型翻译服务了。

轻薄本支棱起来了!Intel酷睿Ultra 200H处理器Deepseek本地部署攻略

从资源管理器中可以看到,在翻译页面的时候CPU占用率会快速上升到60%左右,但翻译速度很快,大约不到半分钟就可以完成整个页面的翻译,翻译的质量也很不错

如果不是轻薄本的硬件条件限制太严,部署3B规模的模型翻译效果还能更好。

责任编辑:万俟雨休

文章内容举报

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...