🏏如何在Windows上安装使用Ollama
00 min
2024-9-16
2024-9-16
type
status
date
slug
summary
tags
category
icon
password

部署环境

  • 系统:Windows 11
  • CPU:8核/16线程 AMD Ryzen™ 7 7840HS
  • 显卡:AMD Radeon™ 780M 12core 2700 MHz
  • 内存:32GB DDR5. Dual SO-DIMM
  • 硬盘:2TB SSD. PCIe 4.0 M.2 NVMe.
  • 模型:llama3.1 8B、Qwen2 7B

什么是 ollama

ollama 是一个为快速部署和运行大型语言模型(如 Llama 3、Gemma)而设计的工具,它允许用户在个人电脑上通过简单的命令行界面来使用这些模型。

ollama官网

ollama - Github

安装 ollama 部署 llama3

步骤1

登录官网,下载应用程序,下载完成后安装应用。
notion image

步骤2

安装完成后,打开命令窗口:同时按 win+r 键,输入 cmd ,点击确定
输入命令 ollama ,如下图所示则表示安装成功。
注意:应该至少有 8 GB 可用 RAM(内存) 来运行 7B 型号,16 GB 来运行 13B 型号,32 GB 来运行 33B 型号。
注意:应该至少有 8 GB 可用 RAM(内存) 来运行 7B 型号,16 GB 来运行 13B 型号,32 GB 来运行 33B 型号。

步骤3

ollama 安装成功后就可以部署模型了,选择想要部署的模型,输入对应的运行命令。
运行成功后会自动下载大模型,默认保存在C盘,出现 success,并提示 Send a message,表示模型已成功启动,可以输入问题。

步骤4

输入一个问题,测试效果。
llama3.1 的回答就不太正确
llama3.1 的回答就不太正确
 
qwen2的回答就是正确的
qwen2的回答就是正确的

步骤5

终止模型任务:输入Ctrl + d 或者 /bye

🤗 总结归纳

文本大模型对电脑的内存要求较高,绘图大模型对电脑的显存要求较高,所以在内存白菜价的当下,我建议大家可以先把玩线下大模型,至于绘图大模型如Comfyui和stable diffusion的知识建议在云主机上实操,比如autodl算力云平台(推荐学生使用,性能稳定,价格便宜,性价比目前没有超越者)。

📎 参考文章

  • 感谢抖音up主:鹏哥的AI 的抖音视频 link
  • 参考文章(基本框架参考):
上一篇
Openai大事件记录 [持续更新]
下一篇
Git、Github的入门教程