普通人学AI指南
. . . . . . . . . . . . . . . . . . . . . . . . . 13 3.1.1 步骤 1:安装 Ollama . . . . . . . . . . . . . . . . . . . . . 13 3.1.2 步骤 2:安装 Llama . . . . . . . . . . . . . . . . . . . . . 14 3.1.3 使用 Llama3 . . . 15 3.2 大模型 phi-3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.2.1 Ollama 安装 phi-3 . . . . . . . . . . . . . . . . . . . . . . 17 3.2.2 使用 phi-3 . . . . . . . . . . . . . . . 零代码搭建本地 AI 前端 19 4.1 LobeChat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 4.2 步骤一安装 docker . . . . . . . . . . . . . . . . . . . . . . . . . . 20 4.2.1 了解 docker 基本用法 . . . . . . .0 码力 | 42 页 | 8.39 MB | 7 月前3Deepseek R1 本地部署完全手册
部署步骤(Linux示例) 1. 安装依赖⼯具: # 安装llama.cpp(⽤于合并分⽚⽂件) /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" brew install llama.cpp 2. 下载并合并模型分⽚: 3. 安装Ollama: 4. 创建Modelfile:0 码力 | 7 页 | 932.77 KB | 7 月前3DeepSeek图解10页PDF
DeepSeek 本地部署三个步骤 一共只需要三步,就能做到 DeepSeek 在本地运行并与它对话。 第一步,使用的是 ollama 管理各种不同大模型,ollama 比较直接、干净, 一键下载后安装就行,安装过程基本都是下一步。 不知道去哪里下载的,可以直接在我的公众号后台回复:ollama,下载这个 软件,然后装上,可以拿着手机扫码下图1直达我的公众号: 教程作者:郭震,工作 8 年目前美国 AI 博士在读,公众号:郭震 AI,欢迎关注获取更多原创教程。资 料用心打磨且开源,是为了帮助更多人了解获取 AI 知识,严禁拿此资料引流、出书、等形式的商业活动 图 1: 我的公众号:郭震 AI 安装后,打开命令窗口,输入 ollama,然后就能看到它的相关指令,一共 10 个左右的命令,如下图2所示,就能帮我们管理好不同大模型: 图 2: Ollama 常用的命令 第二步,命令窗口输入:ollama0 码力 | 11 页 | 2.64 MB | 7 月前3TVM工具组
caffe 网络模型众多,TVM 直接支持 caffe 让大家更方便尝试 caffe 资源。绝赞招聘中 当前进度 无 caffe 依赖 from_caffe 直接导入 caffe 模型文件,不需要预先安装 caffe 。 net 已测试网络:alexnet / densenet121 / inception v1 / inception v3 / inception v4 / mobilenet0 码力 | 6 页 | 326.80 KB | 5 月前3
共 4 条
- 1