正文内容 评论(0)
六、本地AI应用1:配合沉浸式翻译插件 使用本地AI大模型翻译网页
在本地部署AI大模型,当然也不能仅仅满足于同AI对话,或者让AI帮忙写首诗什么的,本地AI还能做很多事情。
我们可以让本地AI大模型配合浏览器的沉浸式翻译插件,实现翻译资源本地化,不依赖网络服务,也可以获得更好更精准的翻译服务。
沉浸式翻译插件同样是免费的,在谷歌微软或者火狐浏览器的商店中都能直接找到并安装使用。
沉浸式翻译插件本身也提供付费的AI大模型翻译服务,同时它的翻译服务中也提供了用户自行购买AI服务后的接入功能。
我们在这里面找到Ollama,激活之后进入设置,就可以配置本地AI大模型的翻译功能了。
翻译服务并不需要很大规模的模型,相对而言反应迅速更重要,谁也不想点击翻译之后还要等上半天才能看到结果,所以我们先选择Deepseek-R1:1.5B模型进行测试,看看翻译效果如何。
在配置页面只需要选择模型是我们准备好的模型,然后在APIKEY中输入之前用命令行启动Ollama的命令就可以了,保存设置之后可以点击设置页面右上角的测试服务按钮,看看是否能正常启动翻译服务。
显示绿色的验证成功,就代表我们配置的本地AI大模型翻译服务已经上线可以工作了。
我们打开一个英文网页(尼康英文官网的一千零一夜,中文官网的这个专题消失了,非常遗憾),测试Deepseek-R1:1.5B大模型的翻译效果,可以看到Deepseek-R1作为一个推理模型,在语言翻译这一方面并不擅长,翻译速度很快但效果非常不理想,这时候我们就需要换一个大模型来提高翻译效果。
我们这次选择阿里的通义千问Qwen2.5模型,它不但更加善于理解语言,并且支持29种不同的语言,还提供了0.5B、1.5B和3B这样小规模的版本。
我们重复之前的步骤,将Qwen2.5:1.5B模型部署在Ollama上,然后配置给沉浸式翻译调用,就可以顺利体验到更强的AI大模型翻译服务了。
从资源管理器中可以看到,在翻译页面的时候CPU占用率会快速上升到60%左右,但翻译速度很快,大约不到半分钟就可以完成整个页面的翻译,翻译的质量也很不错。
如果不是轻薄本的硬件条件限制太严,部署3B规模的模型翻译效果还能更好。
- 热门文章
- 换一波
- 好物推荐
- 换一波
- 关注我们
-
微博:快科技官方
快科技官方微博 -
今日头条:快科技
带来硬件软件、手机数码最快资讯! -
抖音:kkjcn
科技快讯、手机开箱、产品体验、应用推荐...