正文内容 评论(0

轻薄本支棱起来了!Intel酷睿Ultra 200H处理器Deepseek本地部署攻略
2025-04-03 09:23:48  出处:快科技 作者:万俟雨休 编辑:万俟雨休     评论(0)点击可以复制本篇文章的标题和链接对文章内容进行纠错

一、前言:本地部署大模型 不依靠显卡其实也可以

Deepseek大模型横空出世以来,以其高效和开源的特性迅速火爆出圈,是现在当之无愧最为知名的AI大模型。

Deepseek-R1不但直接开源了其671B参数规模的满血模型,还同步开源了六个不同规模大小的蒸馏模型,分别是DeepSeek-R1-Distill-Qwen-1.5B/7B/8B/14B/32B,以及DeepSeek-R1-Distill-Llama-70B,这就非常方便用户根据自己设备的配置情况,选择合适规模的模型进行本地部署。

轻薄本支棱起来了!Intel酷睿Ultra 200H处理器Deepseek本地部署攻略

在各大厂商纷纷上线AI服务的今天,我们为什么还要在本地部署一个AI大模型呢?

其实原因也很简单,首先是避免云服务不稳定,Deepseek上线初期的网络故障都已经成一个梗了;其次是一些数据不允许公开或者上云,这就必须要在本地完成处理,确保数据和隐私安全。

最后就是玩家的心态了:“我花了这么多钱,买的新硬件有这么高的算力,不充分利用多浪费?”

再加上新硬件也确实可以支撑AI大模型的本地部署运行,所以也就顺理成章的要在本地部署一个AI大模型了。

另一方面,本地部署大模型其实现在也已经没有什么困难,网上很容易就能找到大量的部署教程和方案,甚至已经有人制作了傻瓜式部署的一键包,只需要下载之后解压运行就可以获得一个本地运行的AI大模型,真的让人人都可以轻松上手。

但这些教程方案中,都会提到本地算力的要求,通常都需要一块比较强的显卡,才能比较好的在本地运行AI大模型。

选择模型规模时,往往是要求一定的显存容量,这就对没有独立显卡的轻薄笔记本不太友好,可能会有使用轻薄本的用户直接就放弃了本地部署的计划。

轻薄本支棱起来了!Intel酷睿Ultra 200H处理器Deepseek本地部署攻略

没有大显存显卡真的就不能拥有自己的AI大模型了吗?当然不是。

我们这次就找来一台使用Intel酷睿Ultra 9 285H处理器的轻薄笔记本,来尝试在本地部署大模型并应用,看看不依靠独立显卡,充分发挥CPU、iGPU核显以及NPU的算力资源,能不能真正应用上本地AI大模型。

责任编辑:万俟雨休

文章内容举报

  • 支持打赏
  • 支持0

  • 反对

  • 打赏

文章价值打分

当前文章打分0 分,共有0人打分
  • 分享好友:
  • |

  • 热门文章
  • 换一波

  • 好物推荐
  • 换一波

  • 关注我们

  • 微博

    微博:快科技官方

    快科技官方微博
  • 今日头条

    今日头条:快科技

    带来硬件软件、手机数码最快资讯!
  • 抖音

    抖音:kkjcn

    科技快讯、手机开箱、产品体验、应用推荐...