-
Notifications
You must be signed in to change notification settings - Fork 367
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
想要在linux&win运行B友 #7
Comments
你的Linux服务器有高性能GPU吗,感觉这玩意不是随便就能跑的啊 |
报错了
|
实际证明我的机器接不住这个B友【双路e5+64g ddr4】
|
如何在linux运行这个B首先把林哥的B 下载到本地并按照林哥的文档安装必要的依赖文件,包括mlx。
然后在启动之前你还需要下载32B的模型文件。
然后执行 #模型下载
from modelscope import snapshot_download
model_dir = snapshot_download('qwen/Qwen1.5-32B-Chat') 下载完成输入 目前在我本地测试32B需要起码64G的内存。 |
跑起来了,但是又了新的报错
|
新的思路林哥给的是一个在M系列芯片运行的版本无法在X86机器上运行,但是林哥给了我们训练需要的数据集,那么我们是否可以用其他方法对Qwen进行lora微调 |
看样子,这么大内存非mbp跑不了 |
苹果的M系列CPU有统一内存技术,可以把内存当显存用,如果要在非苹果M系列CPU中训练32B模型我初步估计要64G显存的显卡,看样子没有H100、H800估计没戏。 |
对,最主要就是M系列的cpu,还有统一内存。 |
你的下一台电脑何必是X86 |
一定是arm机 |
mlx是苹果的机器学习框架,目前只能用于苹果芯片,无法在其他设备上运行。 |
Emm……估计要把MLX优化过的LoRA手动替换成普通LoRA(我用Mac所以无感) |
赞成,Linux&Windows 没个专业卡估计真没戏,要么就换小模型(但是小模型效果估计差一点) |
林哥你好,我看了你的视频对这个B的兴趣很大,想要把它在我自己本地的Linux服务器上运行玩玩。
但目前最大的问题是你使用的开发框架似乎只有mac电脑可以使用,所以希望你可以提供可以在linux运行的方法。
The text was updated successfully, but these errors were encountered: