AI绘画显卡选择,3060-12G够用吗?

举报 回答
AI绘画显卡选择,3060-12G够用吗?
问在线客服
扫码问在线客服

玩AI绘画炼丹对显卡内存有一定要求,3060的12G勉强可用,但体验可能受限。若追求更高画质和流畅度,2080Ti魔改22G或4090的24G会更理想,具体取决于实际需求... 查看全部

  • 回答数

    7

  • 浏览数

    9,591

举报 回答

7个回答 默认排序
  • 默认排序
  • 按时间排序

没找到满意答案?去问秘塔AI搜索
取消 复制问题
如果只是体验一下,建议尝试在线平台,例如阿里的通义万象,实际体验比预期更好,日常任务也能轻松应对。如果坚持使用本地设备:
对于图像生成类任务,3060-12G显存基本够用;若使用SD XL生成1024分辨率的图像,8G显存勉强可用,但偶尔会不够,10G则更稳妥。
在运行大模型方面,一般运行12G显存即可,若涉及微调则建议24G。具体来看:
- ChatGLM2-6B 4bit量化版约需6G,完整版需12G显存,否则会溢出;
- ChatGLM2-6B-32K完整版需约20G;
- 百川13B官方建议24G起步;
- Llama2 若涉及微调,也建议24G起步。
如果只是尝试轻量级模型如RWKV,则普通设备也能运行。
如何选择配置,还需结合自身需求综合判断。
此外,20系以下显卡,如P40(24G)或更早版本,半精度计算性能较差,实用性有限。P100虽有16G显存可运行部分模型,但缺少TensorCore加速,且需额外投入解决散热问题。
取消 评论
对于简单应用结合LoRA训练,2060及以上级别、具备8GB显存的显卡完全可以胜任。如果对速度要求不高或愿意承担一定爆内存风险,10系6GB显存的显卡也能勉强体验。
若预算有限,但需要进行生产力工作或模型训练,3060 12GB是一个不错的选择。另外,Tesla P40或P100也具备一定可行性,前提是接受较慢的速度。近期发布的4060 Ti 16GB同样值得考虑。至于魔改2080 Ti,则取决于个人偏好,性能表现还是非常不错的。
对于纯粹的生产力需求,如果不差钱,直接选择4090基本可以满足极致性能需求,属于当前消费级显卡中的顶级水平。稍低一档的话,30系或40系中显存较大的型号也能胜任。此外,还可以考虑专业显卡或Tesla V100等方案。
取消 评论
P104-8G显卡价格只需百元左右即可,但需要搭配核显或其他独立显卡使用。该卡可通过PCIe 1x接口转接,功耗约为180W,只要电源有200W余量就能带动。主显卡可选用任何型号的AMD产品。对于炼丹用途来说,8GB显存已基本够用,若在Windows系统下进行,还可利用共享显存功能。许多任务其实只需百元级显卡就能完成,不必盲目追求万元级别的高端型号。
取消 评论
你提到的那些都行,我之前为了AI从A卡换N卡,先买了两张便宜的试试,结果发现2070s完全能玩,1660s虽然也能用,但出图太慢,勉强应付。
取消 评论
8GB以上内存已足够日常使用,若仅是体验,588元的配置性价比极高;若用于工作和爱好,在预算允许的情况下,配置越高越好。
取消 评论
sd这东西真反人类,产品设计一团糟,迟早会被淘汰。还不如用midjourney、leonardo或者dalle这些工具,体验好太多了。
取消 评论
用LoRA对显存要求不高,但为保证效率,3090或4090显卡更合适。
取消 评论
ZOL问答 > AI绘画显卡选择,3060-12G够用吗?

举报

感谢您为社区的和谐贡献力量请选择举报类型

举报成功

经过核实后将会做出处理
感谢您为社区和谐做出贡献

扫码参与新品0元试用
晒单、顶楼豪礼等你拿

扫一扫,关注我们
提示

确定要取消此次报名,退出该活动?