清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单图示(如文献关键词共现图)直观展示综述内容,帮助 用户更好理解和呈现研究成果。 无数据检索:以现有真实数据库作为支撑,通过关键词 检索,自动搜集相关文献并生成综述报告,目前只支持 英文检索。 低重复率:结合现有查重机制与AI技术,在内容生成阶 段引入重复检测与优化策略,从源头上降低重复率风险, 所生成的综述普通重复率与AIGC重复率均在5%以下。 无限双语数据导入:支持中文与英文文献的导入,并且 文献数 集到的信息来创建文章大纲。 转化文献为连贯文章:可以将现有的文献资料进行分析 和整合,转化为逻辑连贯的新文章,为学者和知识工作 者提供了极大的便利。 多智能体协作对话:Co-STORM模式引入了协作对话 机制,并采用轮次管理策略,实现流畅的协作式AI学术 研究。 用户体验对比:使用步骤 PubScholar平台官网:https://pubscholar.cn/ 输入关键词:进入官网后,在搜索框键入关键词进行文献检索。 现高效计算和推理。DeepSeek通过 无辅助损失的自然负载均衡和共享专 家机制,解决了专家模块工作量不平 衡的问题。 混合专家(MoE)架构 通过低秩压缩减少推理时的内存占用, 同时保持与传统多头注意力(MHA) 相当的性能。MLA在训练中减少了 内存和计算开销,在推理中降低了 KV缓存占用空间。 多头潜在注意力(MLA)机制 通过序列化预测未来多个令牌,增强 模型的上下文建模能力,并支持推测0 码力 | 85 页 | 8.31 MB | 8 月前3
人工智能安全治理框架 1.0人工智能安全治理原则 秉持共同、综合、合作、可持续的安全观,坚持发展和安全并重,以促 进人工智能创新发展为第一要务,以有效防范化解人工智能安全风险为出发点 和落脚点,构建各方共同参与、技管结合、分工协作的治理机制,压实相关主 体安全责任,打造全过程全要素治理链条,培育安全、可靠、公平、透明的人 工智能技术研发和应用生态,推动人工智能健康发展和规范应用,切实维护国 家主权、安全和发展利益,保障公民、法人和其他组织的合法权益,确保人工 术、 管理相结合的安全治理措施,防范应对不同类型安全风险。围绕人工智能研发 应用生态链,明确模型算法研发者、服务提供者、使用者等相关主体的安全责 任,有机发挥政府监管、行业自律、社会监督等治理机制作用。 1.4 开放合作、共治共享。在全球范围推动人工智能安全治理国际合作, 共享最佳实践,提倡建立开放性平台,通过跨学科、跨领域、跨地区、跨国界 的对话和合作,推动形成具有广泛共识的全球人工智能治理体系。 在不良内容,在模型安全防护 机制不完善的情况下,有可能输出违法有害内容。 (b)混淆事实、误导用户、绕过鉴权的风险。人工智能系统及输出内容 等未经标识,导致用户难以识别交互对象及生成内容来源是否为人工智能系统, 难以鉴别生成内容的真实性,影响用户判断,导致误解。同时,人工智能生成 图片、音频、视频等高仿真内容,可能绕过现有人脸识别、语音识别等身份认 证机制,导致认证鉴权失效。 (c)0 码力 | 20 页 | 3.79 MB | 1 月前3
DeepSeek从入门到精通(20250204)识别通用模式,提高提示语可复用性 设计灵活、可扩展的提示语模板 创建适应不同场景的元提示语 批判性思考 客观评估AI输出,识别潜在偏见和错误 设计反事实提示语,测试AI理解深度 构建验证机制,确保AI输出的可靠性 创新思维 探索非常规的提示语方法 结合最新AI研究成果,拓展应用边界 设计实验性提示语,推动AI能力的进化 伦理意识 在提示语中嵌入伦理考量 设计公平、包容的AI交互模式 识别通用模式,提高提示语可复用性 设计灵活、可扩展的提示语模板 创建适应不同场景的元提示语 批判性思考 客观评估AI输出,识别潜在偏见和错误 设计反事实提示语,测试AI理解深度 构建验证机制,确保AI输出的可靠性 创新思维 探索非常规的提示语方法 结合最新AI研究成果,拓展应用边界 设计实验性提示语,推动AI能力的进化 伦理意识 在提示语中嵌入伦理考量 设计公平、包容的AI交互模式 常见陷阱与应对:新手必知的提示语设计误区 忽视伦理边界陷阱:低估AI的伦理限制 陷阱症状: ▪ 要求AI生成有争议、不道德或非法内容。 ▪ 对AI的拒绝或警告感到困惑或不满。 ▪ 尝试绕过AI的安全机制。 ▪ 忽视AI输出可能带来的伦理影响。 应对策略: ▪ 了解界限:熟悉AI系统的基本伦理准则和限制。 ▪ 合法合规:确保你的请求符合法律和道德标准。 ▪ 伦理指南:在提示语中明确包含伦理考虑和指导原则。0 码力 | 104 页 | 5.37 MB | 8 月前3
清华大学 DeepSeek 从入门到精通识别通用模式,提高提示语可复用性 设计灵活、可扩展的提示语模板 创建适应不同场景的元提示语 批判性思考 客观评估AI输出,识别潜在偏见和错误 设计反事实提示语,测试AI理解深度 构建验证机制,确保AI输出的可靠性 创新思维 探索非常规的提示语方法 结合最新AI研究成果,拓展应用边界 设计实验性提示语,推动AI能力的进化 伦理意识 在提示语中嵌入伦理考量 设计公平、包容的AI交互模式 识别通用模式,提高提示语可复用性 设计灵活、可扩展的提示语模板 创建适应不同场景的元提示语 批判性思考 客观评估AI输出,识别潜在偏见和错误 设计反事实提示语,测试AI理解深度 构建验证机制,确保AI输出的可靠性 创新思维 探索非常规的提示语方法 结合最新AI研究成果,拓展应用边界 设计实验性提示语,推动AI能力的进化 伦理意识 在提示语中嵌入伦理考量 设计公平、包容的AI交互模式 常见陷阱与应对:新手必知的提示语设计误区 忽视伦理边界陷阱:低估AI的伦理限制 陷阱症状: ▪ 要求AI生成有争议、不道德或非法内容。 ▪ 对AI的拒绝或警告感到困惑或不满。 ▪ 尝试绕过AI的安全机制。 ▪ 忽视AI输出可能带来的伦理影响。 应对策略: ▪ 了解界限:熟悉AI系统的基本伦理准则和限制。 ▪ 合法合规:确保你的请求符合法律和道德标准。 ▪ 伦理指南:在提示语中明确包含伦理考虑和指导原则。0 码力 | 103 页 | 5.40 MB | 8 月前3
国家人工智能产业综合标准化体系建设指南(2024版)高质量发展的标准体系加快形成。开展标准宣贯和实施推广 的企业超过 1000 家,标准服务企业创新发展的成效更加凸 显。参与制定国际标准 20 项以上,促进人工智能产业全球 化发展。 坚持创新驱动。优化产业科技创新与标准化联动机制, 加快人工智能领域关键共性技术研究,推动先进适用的科技 创新成果高效转化成标准。 坚持应用牵引。坚持企业主体、市场导向,面向行业应 用需求,强化创新成果迭代和应用场景构建,协同推进人工 3 口协议和测试方法,及使能软件的访问协议、功能、性能、能效 的测试方法和运行维护要求等标准。 5. 算力中心标准。规范面向人工智能的大规模计算集群、 新型数据中心、智算中心、基础网络通信、算力网络、数据存储 8 等基础设施的技术要求和评估方法,包括基础设施参考架构、计 算能力评估、技术要求、稳定性要求和业务服务接口等标准。 6. 系统软件标准。规范人工智能系统层的软硬件技术要求, 包括软硬件 模型表达和格式、模型效果评价等,包括自监督学习、无监督学 习、半监督学习、深度学习、强化学习等标准。 2. 知识图谱标准。规范知识图谱的描述、构建、运维、共 享、管理和应用,包括知识表示与建模、知识获取与存储、知识 融合与可视化、知识计算与管理、知识图谱质量评价与互联互通、 9 知识图谱交付与应用、知识图谱系统架构与性能要求等标准。 3. 大模型标准。规范大模型训练、推理、部署等环节的技 术要0 码力 | 13 页 | 701.84 KB | 1 年前3
DeepSeek图解10页PDFTransformer 模型,该架构相比传统的 RNN(递归神经网络)和 LSTM(长短时记忆网络)具有更高的训练效率和 更强的长距离依赖建模能力。Transformer 由多个关键组件组成:1. 自注意 力机制(Self-Attention):模型在处理文本时,会自动关注句子中的重要单 词,理解不同词语间的联系。2. 多头注意力(Multi-Head Attention):使用 多个注意力头同时分析不 Encoding):在没有循环结构的情况下,帮助模型理解单词的顺 序信息。 Transformer 结构的优势 1. 高效的并行计算:摒弃循环结构,使计算速度大幅提升。 2. 更好的上下文理解:注意力机制可捕捉长文本中的远程依赖关系。 3. 良好的可扩展性:可适配更大规模模型训练,增强 AI 泛化能力。 教程作者:郭震,工作 8 年目前美国 AI 博士在读,公众号:郭震 AI,欢迎关注获取更多原创教程。资0 码力 | 11 页 | 2.64 MB | 8 月前3
清华大学 普通人如何抓住DeepSeek红利I生成 文本质量的评估提供了量化依据。 AI的内容生成的边界如何判断 50 智能体认知循环边界并非终点,而是人类探索未知领域和创造 新价值的起点。研究提出基于“自指性”和“循环性”的测量 机制,识别智能体生成内容触及边界的临界点,为优化生成内 容提供量化依据。这一框架可扩展至多模态生成系统,并在教 育、科研和创新领域推动知识生成模式从常规化迈向创新化。 多轮交互中,智能体容易触及认知边界,表现为生成内容的固 识别通用模式,提高提示语可复用性 设计灵活 、可扩展的提示语模板 创建适应不同场景的元提示语 批判性思考 客观评估AI输出,识别潜在偏见和错误 设计反事实提示语,测试AI理解深度 构建验证机制,确保AI输出的可靠性 创新思维 探索非常规的提示语方法 结合最新AI研究成果,拓展应用边界 设计实验性提示语,推动AI能力的进化 伦理意识 在提示语中嵌入伦理考量 设计公平 、包容的AI交互模式0 码力 | 65 页 | 4.47 MB | 8 月前3
开源中国 2023 大模型(LLM)技术报告为大模型提供高效的存储和检索能力 大模型框架及微调 (Fine Tuning) 大模型框架提供基本能力和普适性,而微调 则是实现特定应用和优化性能的关键环节 大模型训练平台&工具 提供了在不同硬件和环境中训练大语言模型 所需的基础设施和支持 编程语言 以 Python 为代表 5 / 32 LLM 基础设施:向量数据库/数据库向量支持 向量数据库是专门用于存储和检索向量数据的数据库,它可以为 数据库,它可以为 LLM 提供高效的存储和检索能力。通过数据向量化,实现了 在向量数据库中进行高效的相似性计算和查询。 根据向量数据库的的实现方式,可以将向量数据库大致分为两类: 原生的向量数据库专门为存储和检索向量而设计, 所管理的数据是基于对象或数据点的向量表示进行 组织和索引。 包括 等均属于原生向量数据库。 除了选择专业的向量数据库,对传统数据库添加 “向量支持”也是主流方案。比如 相比前边的大模型框架和微调,一言以蔽之: 、 11 / 32 LLM 基础设施:大模型训练平台与工具 大模型训练平台与工具根据其性质不同,可分为以下几类: 这些平台提供了从模型开发到部署的综合解决方案,包括计算资源、 数据存储、模型训练和部署服务。它们通常提供易于使用的界面,支 持快速迭代和大规模部署。Amazon SageMaker、Google Cloud AI Platform 和 Microsoft Azure0 码力 | 32 页 | 13.09 MB | 1 年前3
Deepseek R1 本地部署完全手册RAM: 4GB - GPU: 集成显卡/现代CPU - 存储: 5GB - 内存: 8GB (M1/M2/M3) - 存储: 5GB 简单⽂本⽣成、基础代 码补全 7B - RAM: 8-10GB - GPU: GTX 1680(4-bit量 化) - 存储: 8GB - 内存: 16GB(M2 Pro/M3) - 存储: 8GB 中等复杂度问答、代码 调试 14B - - RAM: 24GB - GPU: RTX 3090(24GB VRAM) - 存储: 20GB - 内存: 32GB(M3 Max) - 存储: 20GB 复杂推理、技术⽂档⽣ 成 32B+ 企业级部署(需多卡并联) 暂不⽀持 科研计算、⼤规模数据 处理 2. 算⼒需求分析 模型 参数规 模 计算精 度 最低显存需 求 最低算⼒需求 DeepSeek-R1 (671B)0 码力 | 7 页 | 932.77 KB | 8 月前3
普通人学AI指南镜像(Image):用于创建容器的只读模板。一个镜像可以包含完整的操作 系统环境。 3. Dockerfile:定义镜像内容的文本文件,包含了构建镜像的所有指令。 4. Docker Hub:公共的 Docker 镜像仓库,用于存储和分发 Docker 镜像。 5. 拉取镜像:docker pull6. 构建镜像:在包含 Dockerfile 目录中运行:docker build -t 0 码力 | 42 页 | 8.39 MB | 8 月前3
共 10 条
- 1













