Deepseek R1 本地部署完全手册部署步骤(Linux示例) 1. 安装依赖⼯具: # 安装llama.cpp(⽤于合并分⽚⽂件) /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" brew install llama.cpp 2. 下载并合并模型分⽚: 3. 安装Ollama: 4. 创建Modelfile:0 码力 | 7 页 | 932.77 KB | 8 月前3
普通人学AI指南. . . . . . . . . 11 2.5.2 ChatGPT 指令大全 . . . . . . . . . . . . . . . . . . . . . 11 2.5.3 SD 提示词手册 . . . . . . . . . . . . . . . . . . . . . . . . 12 2.5.4 PromptHero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 3.1.1 步骤 1:安装 Ollama . . . . . . . . . . . . . . . . . . . . . 13 3.1.2 步骤 2:安装 Llama . . . . . . . . . . . . . . . . . . . . . 14 3.1.3 使用 Llama3 . . . 15 3.2 大模型 phi-3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.2.1 Ollama 安装 phi-3 . . . . . . . . . . . . . . . . . . . . . . 17 3.2.2 使用 phi-3 . . . . . . . . . . . . . . .0 码力 | 42 页 | 8.39 MB | 8 月前3
清华大学 普通人如何抓住DeepSeek红利在短时间内熟悉公司的产品线、组织 结构、内部系统以及行业情况。然而,公司的产品手册复杂,部门间的职责不清晰,内部系统操作繁琐,行业信 息量庞大,这些都让小李感到不知所措。他担心自己无法在短时间内快速上手,影响工作效率和表现。 以往的解决方式: • 依赖同事的口头介绍,容易遗漏重要信 息。 • 手动查阅厚重的产品手册和内部文档, 耗时较长。 • 参加多部门的培训,但信息量大,难以 消化。 •0 码力 | 65 页 | 4.47 MB | 8 月前3
DeepSeek图解10页PDFDeepSeek 本地部署三个步骤 一共只需要三步,就能做到 DeepSeek 在本地运行并与它对话。 第一步,使用的是 ollama 管理各种不同大模型,ollama 比较直接、干净, 一键下载后安装就行,安装过程基本都是下一步。 不知道去哪里下载的,可以直接在我的公众号后台回复:ollama,下载这个 软件,然后装上,可以拿着手机扫码下图1直达我的公众号: 教程作者:郭震,工作 8 年目前美国 AI 博士在读,公众号:郭震 AI,欢迎关注获取更多原创教程。资 料用心打磨且开源,是为了帮助更多人了解获取 AI 知识,严禁拿此资料引流、出书、等形式的商业活动 图 1: 我的公众号:郭震 AI 安装后,打开命令窗口,输入 ollama,然后就能看到它的相关指令,一共 10 个左右的命令,如下图2所示,就能帮我们管理好不同大模型: 图 2: Ollama 常用的命令 第二步,命令窗口输入:ollama0 码力 | 11 页 | 2.64 MB | 8 月前3
TVM工具组caffe 网络模型众多,TVM 直接支持 caffe 让大家更方便尝试 caffe 资源。绝赞招聘中 当前进度 无 caffe 依赖 from_caffe 直接导入 caffe 模型文件,不需要预先安装 caffe 。 net 已测试网络:alexnet / densenet121 / inception v1 / inception v3 / inception v4 / mobilenet0 码力 | 6 页 | 326.80 KB | 6 月前3
共 5 条
- 1













