AI大模型轻松本地部署Ollama

Ollama 可以实现本地运行大模型,效率高提高隐私,只需要相对简单的几个步骤,附上指南,大家可以试试

安装步骤如下
步骤1:安装Ollama
步骤2:打开启用或关闭windows功能,勾选适用于Linux的windows子系统
步骤3:安装Docker desktop
步骤4:重启笔记本电脑
步骤5:管理员权限打开终端,运行: docker run -d -p 3000:8080 –add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:main
步骤6:将模型文件放到如下路径/C:\Users\你的主机名字.ollama
步骤7:浏览器输入http://127.0.0.1:3000 进行访问

还有一种方法就是直接安装ollama,然后直接运行加载的模型,在终端运行即可。

记得远程一次命令后,就可以用本地命令,就是断网也能使用你所搭建的AI

© 版权声明
THE END
喜欢就支持一下吧
点赞13 分享
评论 抢沙发

    暂无评论内容