安装Homebrew
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
使用Homebrew安装Ollama
brew install ollama
检查(可选)
ollama --help

看到下面内容就是成功了

Large language model runner
​
Usage:
  ollama [flags]
  ollama [command]
​
Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  stop        Stop a running model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command
​
Flags:
  -h, --help      help for ollama
  -v, --version   Show version information
​
Use "ollama [command] --help" for more information about a command.
更改模型运行及存储的路径

可以通过添加环境变量OLLAMA_MODELS="/Users/<YourUserName>/Documents/WorkSpace/Models"来修改模型的路径。环境变量的值替换为你要存储模型的地址即可。

首先通过以下命令确认当前使用的 Shell:

echo $SHELL

如果输出为/bin/zsh则说明使用的是 Zsh;如果包含 bash,则是 Bash。我的是Zsh。

编辑Zsh文件:

nano ~/.zshrc

在文件中添加export OLLAMA_MODELS="<your_path>"然后按control + X保存并退出,然后选择 Y,按enter就改好了。

重新加载环境变量:

source ~/.zshrc
启动Ollama服务
ollama serve
运行模型

访问Ollama Search找到想运行的模型,再新打开一个终端,这里以qwen3为例。

ollama run qwen3:8b

如果还没有下载模型会自动开始下载。

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐