近日,一个名为MLC LLM的项目在GitHub上线,该项目为一个能够在手机上运行的,无需联网的开源人工智能聊天机器人。
据悉,MLC LLM项目的本质是一种通用解决方案,它允许将任何语言模型本地部署在一组不同的硬件后端和本地应用程序上。
同时,它还有着一个高效的框架,供每个人进一步优化自己用例的模型性能。
上述这一切,都在本地运行,无需服务器支持,并通过手机或笔记本电脑上的本地GPU加速。
技术上,MLC LLM使用了Vicuna-7B-V1.1,这是一种基于Meta开发的LLaMA模型的轻量级LLM,效果虽然不如GPT3.5或GPT4,但在大小方面比较占优势。
目前,该项目可用于Windows、Linux、macOS和iOS平台,但暂时还没有适用于Android的版本。
值得一提的是,MLC LLM项目的开发团队来自卡内基梅隆大学的Catalyst计划、SAMPL机器学习研究小组以及华盛顿大学、上海交通大学和OctoML等。