搜索
bottom↓
回复: 10

有坛友自己搞训练吗?大家用的什么硬件。

[复制链接]

出235入235汤圆

发表于 2023-8-3 17:45:18 | 显示全部楼层 |阅读模式
这两天搞了一个Llama2-Chinese-13B的一个模型,据说显存都需要25G以上了。

坛里有搞这个的吗?

出0入57汤圆

发表于 2023-8-3 17:48:10 | 显示全部楼层
大模型就别想自己训练了,显存可以花钱解决,数据搞不定。

出0入442汤圆

发表于 2023-8-3 19:22:40 来自手机 | 显示全部楼层
leafstamen 发表于 2023-8-3 17:48
大模型就别想自己训练了,显存可以花钱解决,数据搞不定。
(引用自2楼)

搞个4090还是可以玩一玩的。。

出0入0汤圆

发表于 2023-8-3 20:12:42 | 显示全部楼层
这种chatgpt对标的模型应该要 A100起步,4090练下lora是可以的。。。

出330入1862汤圆

发表于 2023-8-4 01:14:33 | 显示全部楼层
25G难,8G 12G的还算可以,就是不知道能战到什么时候

出0入57汤圆

发表于 2023-8-4 08:06:33 | 显示全部楼层
wye11083 发表于 2023-8-3 19:22
搞个4090还是可以玩一玩的。。
(引用自3楼)

普通模型比如区分猫和狗、人脸识别之类的显存8G以上就可,甚至没有显卡用cpu也一样跑,只是慢了一点。但是大模型个人或者小公司都不用想了,显卡可以在云服务器上租,合法且高质量的数据源才是真正的难题。

出0入0汤圆

发表于 2023-8-4 09:20:28 | 显示全部楼层
有搞成功吗?可以分享下大家学学。

出0入4汤圆

发表于 2023-8-4 09:39:49 | 显示全部楼层
可以参考一下这个:
苹果M2 Ultra:AI大模型的新希望
https://www.bilibili.com/video/BV1fh4y1M7DX/

出0入0汤圆

发表于 2023-8-4 10:19:45 | 显示全部楼层
前年,用CPU跑YOLOV3 ,一周可以跑完VOC数据集。

出0入59汤圆

发表于 2023-8-17 16:53:08 | 显示全部楼层
我们用了4张24GB的3090在搞,慢得很。

出125入16汤圆

发表于 2023-8-17 17:11:10 | 显示全部楼层
本帖最后由 rz007 于 2023-8-17 18:01 编辑
sonna 发表于 2023-8-17 16:53
我们用了4张24GB的3090在搞,慢得很。
(引用自10楼)


大佬,能指点下思路吗

用哪个模型合适呀?
回帖提示: 反政府言论将被立即封锁ID 在按“提交”前,请自问一下:我这样表达会给举报吗,会给自己惹麻烦吗? 另外:尽量不要使用Mark、顶等没有意义的回复。不得大量使用大字体和彩色字。【本论坛不允许直接上传手机拍摄图片,浪费大家下载带宽和论坛服务器空间,请压缩后(图片小于1兆)才上传。压缩方法可以在微信里面发给自己(不要勾选“原图),然后下载,就能得到压缩后的图片】。另外,手机版只能上传图片,要上传附件需要切换到电脑版(不需要使用电脑,手机上切换到电脑版就行,页面底部)。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

手机版|Archiver|amobbs.com 阿莫电子技术论坛 ( 粤ICP备2022115958号, 版权所有:东莞阿莫电子贸易商行 创办于2004年 (公安交互式论坛备案:44190002001997 ) )

GMT+8, 2024-4-29 04:32

© Since 2004 www.amobbs.com, 原www.ourdev.cn, 原www.ouravr.com

快速回复 返回顶部 返回列表