专门为大模型调测准备的Python环境安装终极指南。它将帮助新人绕过几乎所有常见的坑,快速搭建一个稳定、高效、且易于管理的开发环境。


Python环境安装与配置指南(大模型调测专用)

一、 核心思想:为什么不能直接安装Python?

对于大模型工作流,你绝对不应该直接在系统自带的Python或一个全局Python环境中安装包。原因如下:

  1. 依赖冲突:不同的大模型项目(甚至同一项目的不同版本)可能依赖相互冲突的Python库版本(如PyTorch、TensorFlow、transformers)。全局安装会导致项目A能运行,项目B却报错。

  2. 环境隔离:每个项目都应该拥有自己独立的“沙箱”(虚拟环境),其中的库互不干扰。

  3. 复现性:精确记录每个项目所需的库及其版本,便于你自己和其他人复现实验结果。

因此,我们的工作流是:安装Python -> 安装Conda(环境管理神器)-> 为每个项目创建独立的虚拟环境


二、 安装步骤
第1步:安装Miniconda(首选)或 Anaconda

Miniconda是一个轻量版,只包含Conda、Python和少量核心依赖,更干净、更灵活,强烈推荐
Anaconda是一个全家桶,预装了数百个科学计算库,体积庞大,有时会引起不必要的冲突。

Windows/macOS (Intel) 用户:

  1. 访问 Miniconda 官网:https://docs.conda.io/en/latest/miniconda.html

  2. 下载 Python 3.10 版本的安装包。这是目前大多数大模型库兼容性最好的版本,非常稳定。

  3. 运行安装程序,务必勾选 “Add Miniconda3 to my PATH environment variable” (即使安装程序提示不推荐)。这能让你在任意终端中使用Conda。

macOS (Apple Silicon, M1/M2) 用户:

  • 同样下载上述Miniconda安装包即可。Conda会自动处理ARM架构(Apple Silicon)和x86架构(Intel)的兼容性问题。

Linux 用户 (如Ubuntu):

bash

# 在终端中执行
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
bash Miniconda3-latest-Linux-x86_64.sh
# 按照提示操作,同样在最后选择“yes”来初始化Conda。
source ~/.bashrc  # 或 source ~/.zshrc,使安装立即生效

验证安装
打开一个新的终端(Terminal) 或 Anaconda Prompt (Windows),输入:

bash

conda --version

如果显示版本号(如 conda 23.9.0),则说明安装成功。


第2步:配置Conda镜像(加速下载!)

国外的包下载源速度极慢,必须配置国内镜像源。

bash

# 配置 Conda 自身的包下载通道(channel)镜像
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/
conda config --set show_channel_urls yes

# 配置 Pip 的镜像源(同样重要,因为很多包需要用pip安装)
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

第3步:为你的大模型项目创建虚拟环境

假设你的项目名叫 llm-research

bash

# 创建一个名为 'llm-research' 的虚拟环境,并指定安装 Python 3.10
conda create -n llm-research python=3.10

# 激活该环境
# Windows:
conda activate llm-research
# macOS/Linux:
conda activate llm-research

# 激活后,你的命令行提示符前面应该会显示 (llm-research)
# 这意味着之后所有包的安装都只在这个环境内进行,不会影响系统其他部分。

第4步:安装核心的大模型库(在激活的环境中进行)

根据你的深度学习框架和硬件选择安装命令。

对于 PyTorch (NVIDIA GPU 用户 - CUDA):

  1. 访问 PyTorch 官网:https://pytorch.org/get-started/locally/

  2. 选择你的配置(例如:Stable, Linux, Pip, Python, CUDA 11.8)。

  3. 复制生成的命令并运行。它通常长这样:

    bash

    # 示例:安装支持CUDA 11.8的PyTorch
    pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

对于 PyTorch (仅CPU或Apple Silicon Mac用户):

bash

# CPU版本
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cpu

# Apple Silicon (MPS加速) - 通常直接安装PyTorch最新版即可自动支持
pip install torch torchvision torchaudio

安装 Hugging Face 生态系统核心库:

bash

# 这是核心,包含了模型、分词器等的标准接口
pip install transformers

# 用于加速训练和推理,必装!
pip install accelerate

# 用于高效的数据集加载和处理
pip install datasets

# 用于评估模型性能
pip install evaluate

# 一个非常强大的参数高效微调(PEFT)库,如LoRA
pip install peft

# 可选:用于跟踪实验,管理模型版本
pip install tensorboard

第5步:验证安装

创建一个简单的Python脚本来测试你的环境是否正常工作。

  1. 创建一个文件 test_env.py,填入以下内容:

    python

    import torch
    import transformers
    from peft import PeftModel
    
    print(f"PyTorch 版本: {torch.__version__}")
    print(f"CUDA 可用: {torch.cuda.is_available()}")
    if torch.cuda.is_available():
        print(f"GPU 设备: {torch.cuda.get_device_name(0)}")
    print(f"Transformers 版本: {transformers.__version__}")
    print("所有核心库导入成功!环境准备就绪。")
  2. 在终端中运行它:

    bash

    python test_env.py
  3. 如果输出类似以下内容,则说明环境完美:

    text

    PyTorch 版本: 2.0.1+cu118 CUDA 可用: True GPU 设备: NVIDIA GeForce RTX 4090 Transformers 版本: 4.34.1


三、 日常环境管理命令

bash

# 查看所有虚拟环境
conda env list

# 激活某个环境
conda activate your_env_name

# 退出当前环境
conda deactivate

# 删除一个环境(谨慎操作!)
conda env remove -n your_env_name

# 导出当前环境的全部依赖清单(用于复现)
pip freeze > requirements.txt

# 根据 requirements.txt 文件在另一台机器上复现环境
pip install -r requirements.txt
四、 高级提示:Jupyter Lab/Kernel 配置

如果你想在Jupyter Notebook中使用这个环境:

  1. 在激活的 llm-research 环境中,安装 ipykernel

    bash

    pip install ipykernel
  2. 将该环境添加到Jupyter的内核列表中:

    bash

    python -m ipykernel install --user --name llm-research --display-name "Python (LLM-Research)"
  3. 启动Jupyter Lab,你就可以在Kernel菜单中选择 "Python (LLM-Research)" 来使用这个配置好的环境了。


这份指南涵盖了从零开始到 ready for AI research 的完整路径。遵循它,你将拥有一个专业、整洁且高效的大模型开发环境。欢迎开启你的大模型之旅!

Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐