手把手教学:用Ollama在本地电脑运行Phi-3-mini-4k-instruct模型

张开发
2026/4/10 11:06:05 15 分钟阅读

分享文章

手把手教学:用Ollama在本地电脑运行Phi-3-mini-4k-instruct模型
手把手教学用Ollama在本地电脑运行Phi-3-mini-4k-instruct模型1. 为什么要在本地运行Phi-3-mini-4k-instruct你可能听说过很多强大的AI模型但它们往往需要联网使用或者对电脑配置要求很高。今天我要介绍的Phi-3-mini-4k-instruct是一个能在你自己电脑上运行的“小巨人”。想象一下你有一个随时待命的智能助手不需要联网不用担心隐私泄露响应速度飞快。这就是本地运行AI模型的魅力。Phi-3-mini虽然只有38亿参数但在很多任务上的表现相当出色特别是写代码、回答问题、创作文本这些日常需求。最棒的是通过Ollama这个工具整个过程变得非常简单。你不需要懂复杂的命令行不需要配置繁琐的环境跟着我的步骤10分钟就能让这个智能助手在你的电脑上跑起来。2. 准备工作检查你的电脑在开始之前我们先看看你的电脑是否准备好了。别担心要求并不高。2.1 系统要求最低配置能跑起来操作系统Windows 10或11macOS 10.15以上或者Ubuntu 18.04以上的Linux系统。内存8GB。这是底线再少可能就有点吃力了。硬盘空间准备5GB左右的空闲空间用来放模型文件。网络第一次安装时需要联网下载之后使用就不需要了。推荐配置跑得更流畅内存16GB或更多。内存越大模型思考得越快。显卡如果你有NVIDIA的独立显卡GPU那速度会快很多。没有也没关系用CPU也能跑。硬盘用固态硬盘SSD会比机械硬盘快不少。2.2 安装OllamaOllama就像是一个AI模型的“应用商店”和“运行环境”。安装它非常简单根据你的电脑系统选择对应的方法Windows用户打开浏览器访问Ollama的官方网站https://ollama.com。点击大大的“Download for Windows”按钮。下载完成后双击运行安装程序一个.exe文件。一直点“下一步”就行安装过程很快。macOS用户你有两种选择方法一推荐如果你会用Homebrew打开“终端”应用输入下面这行命令然后回车brew install ollama方法二和Windows一样去官网下载.dmg安装包双击打开把Ollama图标拖到“应用程序”文件夹里。Linux用户打开终端输入下面这行命令一键搞定curl -fsSL https://ollama.com/install.sh | sh验证安装安装完成后打开终端Windows叫“命令提示符”或“PowerShell”macOS/Linux就叫“终端”输入ollama --version如果看到显示了版本号比如ollama version 0.1.xx恭喜你第一步成功了3. 下载并启动你的AI助手环境准备好了现在让我们把主角——Phi-3-mini模型“请”到电脑里。3.1 下载模型文件在刚才的终端窗口里输入下面这条命令ollama pull phi3:mini然后回车。你会看到类似这样的下载进度信息pulling manifest... pulling xxxxxxxxx... 100% ▕████████████████████▏ 2.2 GB pulling yyyyyyyyy... 100% ▕████████████████████▏ 1.1 GB verifying sha256 digest... writing manifest... success这个过程需要下载大约2.2GB的数据时间取决于你的网速一般几分钟到十几分钟。泡杯茶稍等一下。小提示phi3:mini这个名称就代表我们要的Phi-3-mini-4k-instruct模型Ollama已经帮我们打包好了。3.2 确认模型已就位下载完成后输入下面的命令看看模型是不是已经在列表里了ollama list你应该会看到类似这样的输出NAME ID SIZE MODIFIED phi3:mini 7a2b3c4d5e6f 2.2 GB 2 minutes ago看到phi3:mini这一行就说明模型已经成功安装到你的电脑上了。4. 开始对话三种使用方式模型装好了怎么跟它聊天呢我给你介绍三种方法从简单到方便。4.1 方法一在终端里直接聊最直接在终端里输入ollama run phi3:mini回车后你会看到光标在闪烁等着你输入。这时你就可以像和朋友发消息一样提问了。比如输入请用Python写一个函数用来判断一个数是不是素数。模型会立刻思考并给出回答。聊完之后按Ctrl D可以退出对话。如果你想问一个问题就退出可以这样ollama run phi3:mini 用一句话解释什么是人工智能4.2 方法二使用网页界面更直观很多人不习惯黑乎乎的终端更喜欢有按钮和框的界面。Ollama也提供了网页版。确保Ollama在运行安装后它通常会自动在后台运行。打开你常用的浏览器Chrome、Edge、Safari等。在地址栏输入http://localhost:11434一个简洁的聊天界面就出现了在界面里选择模型为“phi3:mini”然后在下面的输入框提问就行。这种方式特别适合需要频繁交互、或者想保存对话记录的场景。4.3 方法三通过API调用适合开发者如果你会写点代码想把这个AI能力集成到自己的程序里可以用API。Ollama提供了一个本地API服务。比如用Python写一个简单的调用脚本import requests import json # 设置请求的地址和内容 url http://localhost:11434/api/generate payload { model: phi3:mini, prompt: 给我讲一个关于程序员的笑话, stream: False # 设置为True可以流式接收看到一个字一个字出来 } # 发送请求 response requests.post(url, jsonpayload) # 打印结果 if response.status_code 200: result response.json() print(result[response]) else: print(出错了:, response.status_code)运行这个Python脚本你就能通过程序来获取模型的回答了。这对于想开发小工具或自动化脚本的朋友非常有用。5. 让它更懂你实用技巧与参数调整刚开始用你可能会觉得模型的回答有点“机械”或者“跑题”。别急通过一些简单技巧你能让它表现得更好。5.1 写出更好的“提问”提示词技巧模型的理解能力很强但你需要清晰地告诉它你想要什么。要具体不要模糊不好“写点关于狗的东西。”好“写一段100字左右、适合小朋友读的关于金毛寻回犬的可爱描述。”指定格式和角色在问题前加上指令“你是一个经验丰富的Python程序员。请用带注释的代码写一个函数来合并两个字典。”或者“请以项目清单的形式列出学习机器学习需要掌握的三个核心步骤。”进行多轮对话模型能记住当前对话的上下文。你可以先问“Python里列表和元组有什么区别”然后基于它的回答继续问“那我什么时候该用元组而不是列表呢” 它会结合之前的讨论来回答。5.2 调整模型“性格”运行参数运行模型时可以加一些参数来微调它的行为--temperature温度控制回答的随机性。值越低如0.1回答越确定、保守值越高如0.9回答越有创意、不可预测。写代码建议用低一点0.1-0.3写故事可以用高一点0.7-0.9。ollama run phi3:mini --temperature 0.3--num-predict最大生成长度限制模型一次最多生成多少个词。防止它滔滔不绝。ollama run phi3:mini --num-predict 150--system系统指令给模型一个持久的身份设定或行为准则。ollama run phi3:mini --system “你是一个说话简洁、直击要害的技术专家所有回答请控制在三句话以内。”6. 实战演练看看它能做什么光说不练假把式我们来实际看看这个“小模型”能帮我们做什么。场景一编程小助手我的问题 “我正在学习Python请帮我写一个函数输入一个字符串返回这个字符串的反转形式并且忽略其中的空格。” 模型的回答示例 def reverse_string_ignore_spaces(input_str): 反转字符串并忽略空格。 参数: input_str (str): 输入的字符串 返回: str: 反转并去除空格后的字符串 # 先去除字符串中的所有空格 no_spaces input_str.replace( , ) # 使用切片操作反转字符串 reversed_str no_spaces[::-1] return reversed_str # 测试一下 print(reverse_string_ignore_spaces(hello world)) # 输出: dlrowolleh它不仅给出了代码还加了注释和测试例子。场景二内容创作我的问题 “帮我为一家新开的、主打精品手冲咖啡的咖啡馆写一段吸引人的社交媒体简介风格要清新、有格调。” 模型的回答示例 【店名】角落咖啡香气在此停泊。 我们相信每一颗豆子都有故事每一杯手冲都是仪式。 在快节奏的都市里为你留一个安静的角落。 精选全球小众庄园豆咖啡师用心呈现风味地图。 来这里不止喝咖啡更是品尝一段慢时光。 #精品咖啡 #手冲 #城市角落 #慢生活这个文案是不是挺有感觉直接拿去用都可以。场景三学习与解答我的问题 “用通俗易懂的方式向我解释一下‘区块链’是什么就像给完全没听过这个词的朋友解释一样。” 模型的回答示例 想象一下你们一群朋友一起记一本公共账本记录谁欠谁多少钱。每发生一笔交易比如A给B转了10块钱所有人都在自己的账本上同时记下这一笔。 记完一页交易就把这页纸封在一个盒子里这叫一个“区块”并且用一把特殊的锁锁上这把锁的密码由这一页的所有交易内容决定。 然后把这盒子用链子连到上一个盒子上。这样一来账本就不是一个人保管而是大家共同保管、互相验证。任何人想偷偷改掉某一页的记录就必须把从那页之后所有的盒子上的锁都打开重做这几乎是不可能的。这就是区块链一个大家共同维护、难以篡改的分布式账本。这个解释用了非常生活化的类比很容易理解。7. 遇到问题怎么办过程中可能会碰到一些小麻烦这里有一些常见的解决办法。问题运行ollama run时提示“连接错误”或找不到模型。解决首先确保Ollama应用正在运行在Windows任务栏或macOS菜单栏应该能看到它的图标。如果还不行在终端里输入ollama serve先启动服务再开一个新的终端窗口运行命令。问题模型回答速度很慢。解决检查电脑是否在运行其他大型软件比如游戏、视频编辑软件暂时关闭它们。如果电脑有NVIDIA显卡Ollama通常会尝试自动使用它CUDA。你可以运行ollama run phi3:mini时观察一下输出看是否有“Using GPU”之类的提示。尝试减少--num-predict参数的值让生成的内容短一些。问题模型的理解好像有偏差答非所问。解决这通常是“提问方式”的问题。尝试把你的问题写得更清晰、更具体。在问题开头明确你的需求比如“请总结下面这段话的中心思想”。对于复杂任务拆分成几个简单的小问题依次问。问题我想删除这个模型或者升级到新版本。解决删除模型ollama rm phi3:mini查看模型详情ollama show phi3:mini复制一个模型ollama cp phi3:mini my-phi3-copy用于创建自定义版本升级通常只需重新拉取ollama pull phi3:miniOllama会更新到最新版本。8. 总结好了走到这里你已经成功地在自己的电脑上部署了一个功能强大的轻量级AI模型——Phi-3-mini-4k-instruct。让我们简单回顾一下关键步骤准备环境检查电脑配置安装Ollama。获取模型一行命令ollama pull phi3:mini把模型下载到本地。启动对话可以通过终端命令行、网页界面或者API三种方式与它交互。优化使用学会用更清晰的提示词提问并通过调整温度等参数让回答更符合你的期望。投入应用无论是辅助编程、内容创作、学习答疑它都能成为一个得力的本地助手。最大的优势就是“本地化”响应快、无网络依赖、隐私有保障。虽然它可能不如那些千亿参数的云端巨无霸模型知识渊博但对于日常的代码、写作、问答任务其表现足以让人惊喜。现在你可以关掉这篇教程打开终端输入ollama run phi3:mini开始向你专属的、本地的AI助手提出第一个问题了。试试看它能为你做些什么获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

更多文章