正文内容 评论(0)
四、AI体验:虹光AI可文生文、文生图 SD1.5速度可达18.506it/s
——虹光AI
七彩虹源N14在系统内预置了虹光AI,这是一款基于云端运算的集成式AI解决方案。
打开虹光AI,在主页可以看到,它预置了写论文、AI绘画、思维导图等方案,无需手动调教,即可直接使用。
在写论文的时候,它可选择语言大模型,可通过输入关键字,来生成需要的论文。
虽然生成的内容只是粗略的大纲,但对比手动码字的效率要快了不少,章节分段的结构很清晰,用户可根据自己的需求来细细调整,或者填充遗漏的内容,从而实现效率的提升。
虹光AI还支持文章续写、扩写、润色等功能,可满足大部分文字工作者的需求。
比如它可以将长达近500字的范文,总结成200字左右的概要,让用户面对较长的文章时,通过它就能快速提取出重点。
在思维导图的体验中,比如以“金融行业、季度报告”为关键词,它能够迅速生成模版,大致来看还是相当全面的,对于职场人士来说尤为实用,有效减负提高工作效率。
在AI绘画中,虹光AI接入了Midjourney,只需要简单到打几个字,就可以出来质量非常高的照片。
比如以“端着木盒的唐代风格的女孩”,要求它生成真实风格、1:1的头像图,其它参数为默认,大约2-3分钟就生成出4张图片,生成的照片质量较高。
如果觉得有不错的图片但又想查看其它风格,它在生成结果下方还提供了变体选项,兼顾了可玩性、便利性。
——本地端AI扩展大模型测试
在本地侧端体验部分,我们使用UL Procyon作为基准测试,它支持对多种AI推理引擎和Stable Diffusion图像生成模型进行测试,并给出非常直观的结果,包含总分、总耗时、图片生成速度等数据、CPU和GPU型号以及跑分设置等信息。
其中AI Image Generation Benchmark套件,包含了2个不同版本的Stable Diffusion模型构建的测试,分别为SD1.5和SDXL,在兼容性上支持TensorRT、OpenVIVO、ONNX Runtime,也就是说支持主流的NVIDIA、Intel、AMD三大平台。
在运行测试时,对本地主机的显存有不同要求:SD1.5至少配有8GB容量的独显、或至少需要32GB RAM;SDXL至少配有10GB容量的独显、或至少16GB VRAM。
我们要测试的就是基于SD1.5(FP16)的AI Image Generation Benchmark,在这个测试过程中会创建16幅512×512分辨率的图像,干预步骤为100。
通过RTX 4070 笔记本电脑 GPU的第四代Tensor Core加速,得到了1133的总分,Stable Diffusion 1.5的UNET(神经网络架构)速度达到了18.506it/s,可平均5.5秒就生成一张图像。