DeepSeek本地部署与应用开发:政府与企业级实战案例解析
定 价:79 元
- 作者:康玮剑,杨杰斌 著
- 出版时间:2025/9/1
- ISBN:9787301364901
- 出 版 社:北京大学出版社
- 中图法分类:TP18
- 页码:380
- 纸张:
- 版次:1
- 开本:32开
-
商品库位:
本书聚焦于DeepSeek大模型在企业与政府场景下的本地化部署应用。开篇对DeepSeek进行全面介绍,涵盖大模型发展脉络、DeepSeek的演变历程,剖析DeepSeek其技术架构和参数版本分类等,还讲解如何有效提问以及在热门平台的应用场景。随后深入本地化部署实操,从硬件选型的CPU、GPU配置,到Ollama和DeepSeek模型安装,再到网络安全规划与问题排查,都给出详细指引。并基于OpenWebUI、Dify、AnythingLLM等工具,介绍企业知识库搭建的具体流程。通过金融、医疗、政务、企业营销等行业实战案例,详细说明DeepSeek的应用架构与实现步骤,助力读者将其落地。附录提供了常用命令、硬件配置参考、术语解释等资源,方便读者随时查阅,是一本实操性强的技术指南书籍。全书共分为12章。内容包括:第1章 DeepSeek介绍;第2章 DeepSeek使用;第3章 本地化部署的必要性;第4章 本地化部署实操;第5章 基于OpenUI的企业知识库搭建;第6章 基于Dify的企业知识库搭建;第7章 基于AnythingLLM的企业知识库搭建;第8章 实战:金融行业;第9章 实战:医疗领域;第10章 实战:政务场景;第11章 实战:企业营销;第12章 附录:工具与资源速查。
本书适合对AIGC和DeepSeek技术感兴趣的技术人员、希望深入探究DeepSeek高级应用的技术爱好者和开发人员阅读参考。
康玮剑【著】【中国】【现当代】
———
康玮剑,现任厦门历思科技的软件技术总监。CSDN博客专家,全网粉丝10w+。拥有10年软件开发和IT行业经验,紧跟人工智能大模型技术的发展,成功将其应用于实际项目中,显著提升企业及政府机构的工作效能。
杨杰斌【著】【中国】【现当代】
———
杨杰斌,10年大数据和AI应用开发经验。曾任网宿科技高级大数据工程师,现任美图秀秀高级算法工程师,凭借其卓越的技术能力,主导多项关键技术项目。致力于企业数字化转型和人工智能领域的探索和分享。
目 录
第1章
DeepSeek介绍
1.1 DeepSeek发展历程 002
1.1.1 早期创立与初步探索
(2023年) 002
1.1.2 技术迭代与性能提升(2024年) 002
1.1.3 技术突破与开源登顶
(2025年) 003
1.2 DeepSeek产业革命 004
1.2.1 芯片与算力厂商 004
1.2.2 互联网与云厂商 005
1.2.3 车企与手机厂商 006
1.2.4 政府与政务服务 007
1.2.5 医疗与教育服务 007
1.3 DeepSeek爆火原因 009
1.3.1 国际顶尖的推理能力 009
1.3.2 超低的推理和训练成本 010
1.3.3 开源策略普惠全世界 011
1.4 小结 012
第2章
DeepSeek本地化部署
必要性
2.1 全方位对比矩阵 015
2.2 数据安全与合规 016
2.2.1 高度监管领域 016
2.2.2 经济损失案例 017
2.2.3 实际应用案例 017
2.3 稳定性与可靠性 018
2.4 低延时与实时性 019
2.4.1 实时性场景 019
2.4.2 本地化部署优势 020
2.5 模型微调与优化适配 020
2.5.1 DeepSeek优势 020
2.5.2 实际应用案例 021
2.6 边缘离线应用 022
2.6.1 边缘离线场景 022
2.6.2 实际应用案例 022
2.6 长期使用成本 023
2.7.1 人工客服成本基准 023
2.7.2 API调用成本估算(智能客服) 024
2.7.3 API调用成本估算(智能营销) 025
2.7.4 本地化部署成本 026
2.7.5 小结 026
第3章
DeepSeek本地化部署建议
3.1 评估准备工作 029
3.1.1 必要性评估 029
3.1.2 需求评估 029
3.1.3 资源评估 030
3.1.4 风险评估 031
3.1.5 效益评估 032
3.2 算力申请或租赁 033
3.2.1 购买硬件 033
3.2.2 申请算力 034
3.2.3 租赁算力 035
3.3 分阶段实施 036
3.3.1 初期探索阶段 037
3.3.2 优化拓展阶段 037
3.3.3 全面推广阶段 038
3.4 混合架构策略 039
第4章
DeepSeek本地化部署实操
4.1 本地化部署工具对比 042
4.2 基于Windows系统部署Ollama 043
4.2.1 下载Ollama 043
4.2.2 安装Ollama 044
4.2.3 指定Ollama安装路径 045
4.2.4 指定大模型存储路径 045
4.3 基于Linux系统部署Ollama 046
4.3.1 下载Ollama 047
4.3.2 启动Ollama 047
4.4 Ollama安全设置 048
4.4.1 Ollama的风险隐患 048
4.4.2 Ollama的安全防护 049
4.5 部署DeepSeek模型 050
4.5.1 选择DeepSeek-R1模型 050
4.5.2 拉取DeepSeek-R1模型 053
4.5.3 运行DeepSeek-R1模型 054
4.6 部署过程中的常见问题 056
4.6.1 模型加载时间过长 056
4.6.2 启动Ollama报错 057
4.6.3 内存不足错误 058
4.6.4 模型响应不准确 058
4.7 DeepSeek本地运行实测 058
4.7.1 基于NVIDIA RTX 3060 12G实测 059
4.7.2 基于AMD RX 7900 XTX 24G实测 065
4.8 DeepSeek本地一体机 071
4.8.1 中国电信:息壤智算一体机—(DeepSeek版) 072
4.8.2 京东云:DeepSeek大模型一体机 072
4.8.3 联想:DeepSeek智能体一体机 072
4.8.4 阿里:飞天智算一体机 073
4.8.5 百度:DeepSeek推理一体机 073
4.8.6 浪潮:DeepSeek元脑一体机 074
第5章
DeepSeek信创系统实操
5.1 信创介绍 076
5.1.1 信创的重要性 076
5.1.2 信创的核心架构体系 077
5.1.3 信创的典型应用示例 078
5.2 基于统信UOS部署DeepSeek 079
5.2.1 统信UOS介绍 079
5.2.2 统信UOS AI 080
5.2.3 基于Ollama部署DeepSeek 082
5.3 基于麒麟openKylin部署DeepSeek 082
5.3.1 银河麒麟openKylin介绍 083
5.3.2 麒麟AI助手 083
5.3.3 基于Ollama部署DeepSeek 085
第6章
大模型本地化部署安全防护
6.1 大模型本地化部署的安全隐患 087
6.1.1 数据安全隐患 087
6.1.2 网络安全隐患 088
6.1.3 开源框架漏洞隐患 089
6.2 大模型本地化部署安全隐患的解决方案 090
6.2.1 数据安全解决方案 090
6.2.2 框架漏洞解决方案 091
6.2.3 网络安全解决方案 093
6.3 漏洞扫描检测工具 094
6.3.1 漏洞扫描检测工具对比 094
6.3.2 AI-Infra-Guard安装 096
6.3.3 AI-infra-Guard的Web使用 098
6.3.4 AI-infra-Guard的命令行使用 102
第7章
DeepSeek本地应用实践
7.1 基于Chatbox客户端使用DeepSeek 105
7.1.1 Chatbox下载 105
7.1.2 Chatbox安装 105
7.1.3 Chatbox配置 106
7.1.4 Chatbox使用 107
7.2 基于REST API使用DeepSeek 108
7.2.1 Ollama API文档 108
7.2.2 REST API分类和简述 109
7.2.3 使用Curl快速测试API 连通性 110
7.2.4 使用Apipost调用Ollama
生成文本接口 111
7.2.5 使用Python调用Ollama生成聊天接口 112
7.3 基于Visual Studio Code插件使用DeepSeek 114
7.3.1 VS Code下载 115
7.3.2 VS Code安装 115
7.3.3 VS Code插件 116
7.3.4 使用Roo Code插件 117
7.3.5 使用twinny插件 120
7.3.6 使用Cline插件 123
7.3.7 使用DeepSeek R1插件 126
第8章
OpenWebUI应用实践
8.1 基于Windows部署OpenWebUI 131
8.1.1 Docker Desktop下载 131
8.1.2 Docker Desktop安装 131
8.1.3 Docker Engine启动 133
8.1.4 Docker Engine镜像源 134
8.1.5 拉取OpenWebUI镜像 135
8.1.6 启动OpenWebUI容器 136
8.1.7 停止OpenWebUI容器 137
8.1.8 删除OpenWebUI容器 137
8.2 基于Linux部署OpenWebUI 137
8.2.1 准备Conda环境 138
8.2.2 安装OpenWebUI平台 139
8.3 OpenWebUI基础应用 140
8.3.1 创建管理员账号 141
8.3.2 禁用OpenAI 141
8.3.3 用户管理 142
8.3.4 权限组管理 144
8.3.5 模型管理 146
8.3.6 知识库管理 148
8.3.7 提示词管理 150
8.3.8 本地局域网使用 151
8.4 文档内容提取引擎 153
8.4.1 动态适配源码解析 153
8.4.2 内容提取引擎对比 157
8.4.3 Apache Tika安装 158
8.4.4 Apache Tika集成 159
8.5 联网搜索引擎 160
8.5.1 SearXNG介绍 161
8.5.2 SearXNG安装 162
8.5.3 SearXNG集成 163
8.5.4 SearXNG常见问题 164
8.5.5 Open WebUI使用联网搜索 168
8.6 文本分切器 169
8.6.1 文本分切器对比 170
8.6.2 Tiktoken分切器设置 170
8.7 语义向量模型 171
8.7.1 语义向量模型引擎 171
8.7.2 语义向量模型对比 172
8.7.3 BGE-M3集成 173
8.8 检索机制 174
8.8.1 向量检索源码解析 176
8.8.2 混合检索源码解析 177
8.8.3 Reranker重排序模型 181
8.8.4 BAAI/bge-reranker-v2-m3集成 182
8.9 RAG 183
8.9.1 知识库构建流程 183
8.9.2 RAG工作流程 184
8.9.3 RAG应用示例(办公助手) 186
第9章
Dify应用实践
9.1 Dify概述和核心价值 190
9.1.1 Dify概述 190
9.1.2 Dify核心价值 191
9.2 Dify的核心架构与技术实现 191
9.2.1 知识库管理系统 191
9.2.2 工作流引擎 192
9.2.3 模型管理 193
9.3 Dify的搭建与部署 193
9.3.1 环境准备 193
9.3.2 克隆代码库 194
9.3.3 启动服务 195
9.3.4 常见问题排查 197
9.4 使用Dify搭建AI聊天助手 201
9.4.1 初始化Dify 201
9.4.2 添加模型供应商 202
9.4.3 创建聊天助手 203
9.4.4 发布聊天助手 205
9.5 知识库的使用 206
9.5.1 新建知识库 206
9.5.2 安装Embedding模型 208
9.5.3 在聊天室中配置知识库 209
9.5.4 知识库效果展示 210
9.6 Agent的使用 212
9.6.1 聊天助手、Agent、文本生成应用介绍 212
9.6.2 Agent工具介绍 213
9.6.3 使用Agent实现旅游助手 215
9.7 知识库优化建议 219
9.7.1 文档质量 219
9.7.2 分段策略 220
9.7.3 检索测试 220
9.7.4 成本控制 221
9.8 小结 221
第10章
实战——基于工作流构建企业会议助手
10.1 依赖环境 224
10.2 创建Dify工作流应用 224
10.3 获取个人用户信息 225
10.3.1 获取Dify用户ID 225
10.3.2 绑定OA用户ID 226
10.3.3 获取OA用户ID 227
10.4 实现预定会议功能 231
10.4.1 获取预定会议接口 231
10.4.2 获取接口所需信息 231
10.4.3 请求接口预定会议 237
10.5 实现会议查询功能 242
10.5.1 获取查询会议接口 242
10.5.2 请求接口查询会议 243
10.6 实现会议取消功能 247
10.6.1 取消会议接口 247
10.6.2 获取会议ID 247
10.6.3 请求接口取消会议 252
10.7 实现会议纪要功能 254
10.7.1 安装语音模型 254
10.7.2 开发语音识别服务 257
10.7.3 配置Dify工作流 260
10.7.4 效果演示 264
10.8 实现各个功能汇总 264
第11章
实战——基于智能体构建企业招聘助手
11.1 OpenAI Agents SDK介绍和使用 269
11.1.1 OpenAI Agents SDK介绍 269
11.1.2 OpenAI Agents SDK安装 270
11.1.3 在OpenAI Agents SDK中使用DeepSeek 270
11.1.4 Agent使用示例 272
11.1.5 Handoffs使用示例 273
11.1.6 Tool使用示例 276
11.2 项目开始前准备工作 277
11.2.1 项目环境准备 277
11.2.2 定义使用的模型供应商 278
11.3 实现简历分析功能 279
11.3.1 简历分析工具开发 280
11.3.2 简历分析Agent定义 281
11.3.4 简历分析Agent测试 284
11.4 实现简历概要输出Excel功能 285
11.4.1 简历输出工具开发 285
11.4.2 简历输出Agent定义 288
11.4.3 简历分析和输出Agent测试 289
11.5 实现压缩包解压自动识别简历功能 291
11.5.1 简历解压工具开发 291
11.5.2 简历解压Agent定义 293
11.5.3 简历解压、分析和输出Agent测试 294
11.6 实现简历评估排序功能 296
11.6.1 简历评估排序Agent定义 296
11.6.2 简历解压、分析、排序和输出Agent测试 298
11.7 功能整合与智能体集成 301
11.7.1 入口Agent定义 301
11.7.2 智能体集成与测试 303
第12章
实战——AI聊天机器人
12.1 小智AI系统架构 309
12.1.1 小智AI介绍 309
12.1.2 系统架构设计 311
12.1.3 语音对话流程 313
12.1.4 本地应用场景 314
12.2 ESP32设备端实现 316
12.2.1 硬件平台(ESP32-S3-BOX3) 316
12.2.2 软件框架结构 317
12.2.3 源码编译与固件下载 319
12.2.4 Wi-Fi配网功能实现 322
12.2.5 设备激活功能实现 327
12.2.6 语音对话功能实现 331
12.2.7 离线唤醒和对话打断功能实现 336
12.3 本地服务器实现 347
12.3.1 软件框架结构 347
12.3.2 本地环境准备 349
12.3.3 本地后端服务运行 355
12.3.4 本地前端服务运行 358
12.3.5 服务器配置管理 359
12.3.6 ESP32连接服务器 362
12.3.7 DeepSeek调用流程 364
12.4 总结 368