文章

LM Studio: 跨平台本地运行开源大模型

LM Studio官网

https://lmstudio.ai/

LM-Studio-001

因为我的MacBook CPU是Intel而不是M系列的,所以我使用Windows台式机进行测试。

模型下载

因为它的模型都来源于 Hugging Face,需要科学上网才能下载模型。

image-20240413150951636

下载几个模型试下:

image-20240413151352404

运行使用

点击AI Chat,然后选择不同的模型,进行chat聊天。image-20240413151823461

使用过程非常流畅,比我的MacBook本地使用Ollama搭建的,快了很多,几乎没有感受到什么延迟。而且右侧又很多内置的Prompt,也可以按照自己的需求进行调整。

image-20240413152425788

切换到 codellama 模型让它帮我写一个贪吃蛇游戏:

image-20240413154720866

image-20240413154752821

下面是资源的占用情况,CPU和RAM还是比较高的,GPU占用较低:

image-20240413152657917

启动本地服务

采用的是类OpenAI的接口规范,同时提供了各种Examples Code,可以一键copy进行本地快速调用。

image-20240413153501450

LM Studio还有一个使用 Multi Model 模式,通过加载多个模型来一起工作,因本地RAM限制这里就不做尝试了。

总结

LM Studio 初步体验下来非常的不错,它有如下优点:

  • 可以跨平台进行安装,界面清爽,简单易用

  • 只需要安装应用程序即可使用,不需要本地按照各种package或者语言环境

  • 响应速度非常快,使用起来很流畅,并且可以依据电脑配置推荐合适大小的开源模型,这个真的加分(也许是 Windows的配置比MacBook好?)

  • 模型非常多,几乎可以使用 Hugging Face 中的任何模型

但是也有不可忽视的一些缺点:

  • 在国内需要科学上网才能使用,这个对于部分人来说确实不大友好

  • 只能下载 Huggging Face Hub 中的模型,如果能够接入国产的模型Hub的话,就可以不用科学上网了

  • 并没有其他高级功能,如:传入PDF、Markdown、TXT、Video等来搭建知识库的能力,体验下来只有Chat能力,那么免费的ChatGPT 3.5不香么?

  • 比较适合于初级体验者,能够快速本地体验开源大语言模型,对于进阶学习者如果只是chat功能,使用python脚本也能快速实现,也无法做一些高阶定制化功能

总的来说,值得关注一下和使用,简单无脑,还要啥自行车。

License:  CC BY 4.0