简介
本教程将带你从零开始,在本地电脑上完成两件事:
搭建干净、可控的Python开发环境(使用Anaconda + uv包管理工具),为后续AI开发打好基础;
安装并调用Ollama,让你能在终端直接与Llama 2、Mistral等大语言模型对话,完全离线、免费、保护隐私。
无论你是Windows用户还是Mac用户,都可以按照以下步骤一步步操作。每个命令都附有详细解释,并标注了可能遇到的坑及解决方法。
注意:下载太慢或无法下载请切换国内代理
第一部分:Python环境管理
1. 下载并安装Anaconda
Anaconda是一个开源的Python发行版,内置了包管理器conda,能轻松创建隔离的Python环境。
2. 验证Anaconda是否安装成功
打开终端(Windows请使用命令提示符cmd,macOS/Linux使用终端Terminal),输入:
3. 查看当前Python版本
安装完Anaconda后,默认会有一个base环境,里面自带了Python。查看版本:
输出示例:Python 3.12.7
4. 使用Conda切换Python版本(创建虚拟环境)
我们不建议直接在base环境里改动Python版本,而是新建一个专属环境,指定需要的Python版本。
# 创建一个名为 myenv 的新环境,并安装 Python 3.9conda create -n myenv python=3.9# 激活该环境(Windows)conda activate myenv# 激活该环境(macOS/Linux)source activate myenv
激活后,终端提示符会从 (base) 变为 (myenv)。再次执行 python --version 可看到已变为 3.9.x。
5. 查看当前指向的目录地址
这里通常指Conda环境的存储路径,或者当前终端的工作目录。
# 查看所有Conda环境及其所在路径conda info --envs# 查看当前终端的工作目录(Windows)cd# 查看当前终端的工作目录(macOS/Linux)pwd
6. 查看当前Python解释器的安装路径
确认你正在使用的Python到底来自哪个目录,避免混淆。
# Windowswhere python# macOS/Linuxwhich python
输出应包含 anaconda3/envs/myenv/bin/python 或类似路径,说明你正使用虚拟环境中的Python。
7. 安装uv——极速Python包管理工具
uv 是一个用Rust编写的Python包安装工具,速度远超pip,并且支持pyproject.toml。
# 使用pip安装(先确保在虚拟环境中)pip install uv# 或者使用独立安装脚本(macOS/Linux)curl -LsSf https://astral.sh/uv/install.sh | sh# Windows PowerShellpowershell -c "irm https://astral.sh/uv/install.ps1 | iex"
8. uv常用操作命令
| |
|---|
uv venv | |
uv pip install <包名> | |
uv pip install -r requirements.txt | |
uv pip list | |
uv pip freeze | |
uv tool run <工具名> | |
💡 提示:uv也完全兼容pip的语法,你可以用uv pip替换pip,速度提升明显。
9. 创建一个新项目目录
为接下来的Python项目创建一个干净的文件夹:
mkdir my_ai_projectcd my_ai_project
10. 在项目中添加pyproject.toml
pyproject.toml 是现代Python项目的标准配置文件,uv可以直接读取它来管理依赖。
在 my_ai_project 目录下手动创建一个名为 pyproject.toml 的文件,输入以下基础内容:
[project]name = "my-ai-project"version = "0.1.0"dependencies = [ # 这里填写项目依赖包,如 "requests>=2.31.0"]
保存后,uv会自动识别该文件。
11. 安装PyYAML(示例依赖)
PyYAML是一个常用的YAML解析库,我们用它演示如何通过uv安装包。
# 方法1:直接安装并写入依赖uv pip install pyyaml# 此时pyyaml已被安装,但未写入pyproject.toml# 方法2:安装并自动添加至pyproject.toml(推荐)uv add pyyaml
执行 uv add 后,pyproject.toml 的 dependencies 列表会自动追加 "pyyaml>=6.0.2"(具体版本以实际为准)。第二部分:本地安装与调用Ollama
1. 下载并安装Ollama
Ollama 是一个让开发者能在本地轻松运行大语言模型的工具,支持Llama 2、Mistral、Qwen等众多模型。
2. 启动Ollama服务
检查服务状态:在终端输入以下命令,如果有响应则说明服务正常。3. 查看已安装的模型
刚装完Ollama时,本地还没有任何模型。执行:
输出应为 NAME ID SIZE MODIFIED 表头,下面为空。
4. 选择需要下载的模型
Ollama官方模型库:https://ollama.com/library热门模型推荐:
5. 根据电脑配置选择对应版本
每个模型通常有多个参数规模的版本,显存/内存越大,能运行的模型越大。
如果你不确定,优先选择7B版本(如 llama2:7b、mistral:7b),绝大多数电脑都能流畅运行。
6. 在终端下载模型
命令格式:
如果没有写 :7b,默认下载官方推荐的版本(Llama 2 是7B)。
下载过程中会显示进度条,模型文件通常有几个GB,请保持网络畅通。
下载完成后,再次执行 ollama list,可以看到该模型已出现在列表中。
7. 在终端与模型对话
模型下载好后,立即运行它:
示例对话:
>>> 介绍一下大语言模型大语言模型是一种基于深度学习的人工智能模型,能够理解和生成自然语言……
总结
通过以上11+7个步骤,你已经成功:
常见问题与解决方案
Q1:conda命令找不到怎么办?A:重新安装Anaconda并勾选“Add to PATH”;或手动将Anaconda的Scripts/bin目录加入环境变量,重启终端。
Q2:uv安装后提示“uv不是内部或外部命令”A:检查uv是否安装成功,如果使用pip安装,确保Python的Scripts目录已加入PATH;如果使用独立脚本,可能需要重启终端或重新登录。
Q3:ollama pull 下载速度极慢A:Ollama默认从GitHub Releases下载,国内用户可尝试配置代理,或使用夜间下载。也可以先在浏览器下载模型文件,再手动导入(较为复杂,新手建议挂机等待)。
Q4:运行ollama run时提示“ llama2:7b requires at least 8GB RAM”A:你的电脑内存不足,请换用更小的模型,如 phi3:3.8b、tinyllama:1.1b。
Q5:Mac电脑上“ollama”命令无法使用A:macOS安装dmg后,需要将Ollama.app拖入Applications,并在终端输入以下命令将ollama加入PATH:
sudo ln -s /Applications/Ollama.app/Contents/Resources/ollama /usr/local/bin/ollama