积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部综合其他(12)人工智能(12)

语言

全部中文(简体)(9)中文(简体)(2)英语(1)

格式

全部PDF文档 PDF(12)
 
本次搜索耗时 0.023 秒,为您找到相关结果约 12 个.
  • 全部
  • 综合其他
  • 人工智能
  • 全部
  • 中文(简体)
  • 中文(简体)
  • 英语
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 DeepSeek从入门到精通(20250204)

    例如:DeepSeek-R1,GPT-o3在逻辑推理、数学推理和实时问题解决方面表现突出。 推理大模型: 推理大模型是指能够在传统的大语言模型基础上,强化推理、逻辑分析和决策能力的模型。它 们通常具备额外的技术,比如强化学习、神经符号推理、元学习等,来增强其推理和问题解决能力。 非推理大模型: 适用于大多数任务,非推理大模型一般侧重于语言生成、上下文理解和自然语言处理,而不强 调深度推理能力。此类模型通常通过对大量文本数据的训 缺乏迭代陷阱:期待一次性完美结果 陷阱症状: ▪ 过度复杂的初始提示语 ▪ 对初次输出结果不满意就放弃 ▪ 缺乏对AI输出的分析和反馈 应对策略: ▪ 采用增量方法:从基础提示语开始,逐步添加细节和要求。 ▪ 主动寻求反馈:要求AI对其输出进行自我评估,并提供改进建议。 ▪ 准备多轮对话:设计一系列后续问题,用于澄清和改进初始输出。 过度指令和模糊指令陷阱:当细节淹没重点或意图不明确 陷阱症状: ▪ 提示语异常冗长或过于简短 (1)输入概念: • 社交媒体:即时性、互动性、个性化、病毒传播 • 传统图书馆:知识储备、系统分类、安静学习、专业指导 (2)共同特征: • 信息存储和检索 • 用户群体链接 • 知识分享 (3)融合点: • 实时知识互动 • 知识深度社交网络 • 数字化图书馆员服务 • 个性化学习路径 输入空间定义 明确要融合的两个或多个概念领域 通用空间识别 找出输入空间之间的共同特征 选择性投射
    0 码力 | 104 页 | 5.37 MB | 8 月前
    3
  • pdf文档 清华大学 普通人如何抓住DeepSeek红利

    普通人如何抓住DeepSeek红利 p Deepseek是什么? p Deepseek能够做什么? ——在工作、学习、生活和社会关系中解决问题 p 如何提问?让AI一次性生成你想要的东西 卷不动了?DeepSeek帮你一键“躺赢”! 学习太难?DeepSeek带你“开挂”逆袭! 生活太累?DeepSeek帮你“减负”到家! 社交障碍?DeepSeek教你“高情商”破局! ,主攻大模型研发与应用。 • DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费商用。性能对齐OpenAI-o1正 式版。 • DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大 提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩OpenAl-o1正式版。 (Pass@1) 导致 的误解和错误。通过DeepSeek的数据分析功能,新员 工可以更深入地理解行业动态和公司运营,做出更明智 的决策。 成本更低: 减少了对培训资源的依赖,新员工可以通过DeepSeek 自主学习,降低培训成本。通过提高工作效率,减少了 人力资源的浪费,降低了整体运营成本。 场景3:日常客户沟通与问题反馈处理 常见问题: 与甲方客户的沟通效率低,信息不对称,导致响应不及时或错误 场景:
    0 码力 | 65 页 | 4.47 MB | 8 月前
    3
  • pdf文档 清华大学 DeepSeek 从入门到精通

    例如:DeepSeek-R1,GPT-o3在逻辑推理、数学推理和实时问题解决方面表现突出。 推理大模型: 推理大模型是指能够在传统的大语言模型基础上,强化推理、逻辑分析和决策能力的模型。它 们通常具备额外的技术,比如强化学习、神经符号推理、元学习等,来增强其推理和问题解决能力。 非推理大模型: 适用于大多数任务,非推理大模型一般侧重于语言生成、上下文理解和自然语言处理,而不强 调深度推理能力。此类模型通常通过对大量文本数据的训 缺乏迭代陷阱:期待一次性完美结果 陷阱症状: ▪ 过度复杂的初始提示语 ▪ 对初次输出结果不满意就放弃 ▪ 缺乏对AI输出的分析和反馈 应对策略: ▪ 采用增量方法:从基础提示语开始,逐步添加细节和要求。 ▪ 主动寻求反馈:要求AI对其输出进行自我评估,并提供改进建议。 ▪ 准备多轮对话:设计一系列后续问题,用于澄清和改进初始输出。 过度指令和模糊指令陷阱:当细节淹没重点或意图不明确 陷阱症状: ▪ 提示语异常冗长或过于简短 (1)输入概念: • 社交媒体:即时性、互动性、个性化、病毒传播 • 传统图书馆:知识储备、系统分类、安静学习、专业指导 (2)共同特征: • 信息存储和检索 • 用户群体链接 • 知识分享 (3)融合点: • 实时知识互动 • 知识深度社交网络 • 数字化图书馆员服务 • 个性化学习路径 输入空间定义 明确要融合的两个或多个概念领域 通用空间识别 找出输入空间之间的共同特征 选择性投射
    0 码力 | 103 页 | 5.40 MB | 9 月前
    3
  • pdf文档 开源中国 2023 大模型(LLM)技术报告

    LLM 技术报告 大语言模型(LLM) 技术作为人工智能领域的一项重要创 新在今年引起了广泛的关注。 LLM 是利用深度学习和大数据训练的人工智能系统,专门 设计来理解、生成和回应自然语言。这些模型通过分析大量 的文本数据来学习语言的结构和用法,从而能够执行各种语 言相关任务。以 GPT 系列为代表,LLM 以其在自然语言 处理领域的卓越表现,成为推动语言理解、生成和应用的引 擎。 LLM tructure- vector-database/) 7 / 32 LLM 基础设施:大模型框架及微调 (Fine Tuning) 大模型框架指专门设计用于构建、训练和部署大型机器 学习模型和深度学习模型的软件框架。这些框架提供了 必要的工具和库,使开发者能够更容易地处理大量的数 据、管理巨大的网络参数量,并有效地利用硬件资源。 微调(Fine Tuning)是在大模型框架基础上进行的一个 :为了处理大型数据集和大规模参 数网络,这些框架通常设计得易于水平扩展, 支持在多个处理器或多个服务器上并行处理。 :它们提供工具来有效地加 载、处理和迭代大型数据集,这对于训练大 型模型尤为重要。 国产深度学习框架 OneFlow 架构 (图源:https://www.oneflow.org/a/chanpin/oneflow/) 9 / 32 LLM 基础设施:大模型框架及微调 (Fine Tuning)
    0 码力 | 32 页 | 13.09 MB | 1 年前
    3
  • pdf文档 国家人工智能产业综合标准化体系建设指南(2024版)

    产模式和经济发展形态,将对加快建设制造强国、网络强国 和数字中国发挥重要的支撑作用。人工智能产业链包括基础 层、框架层、模型层、应用层等 4 个部分。其中,基础层主 要包括算力、算法和数据,框架层主要是指用于模型开发的 深度学习框架和工具,模型层主要是指大模型等技术和产 品,应用层主要是指人工智能技术在行业场景的应用。近年 来,我国人工智能产业在技术创新、产品创造和行业应用等 方面实现快速发展,形成庞大市场规模。伴随以大模型为代 (三)关键技术标准 关键技术标准主要包括机器学习、知识图谱、大模型、自然 语言处理、智能语音、计算机视觉、生物特征识别、人机混合增 强智能、智能体、群体智能、跨媒体智能、具身智能等标准。 1. 机器学习标准。规范机器学习的训练数据、数据预处理、 模型表达和格式、模型效果评价等,包括自监督学习、无监督学 习、半监督学习、深度学习、强化学习等标准。 2. 知识图谱标准。规范知识图谱的描述、构建、运维、共 识 演化、动态自适应、动态识别、人机协同感知、人机协同决策与 控制等标准。 9. 智能体标准。规范以通用大模型为核心的智能体实例和 10 智能体基本功能、应用架构等技术要求,包括智能体强化学习、 多任务分解、推理、提示词工程,智能体数据接口和参数范围, 人机协作、智能体自主操作、多智能体分布式一致性等标准。 10. 群体智能标准。规范群体智能算法的控制、编队、感知、 规划、决策、
    0 码力 | 13 页 | 701.84 KB | 1 年前
    3
  • pdf文档 清华大学第二弹:DeepSeek赋能职场

    Lab - PII Data Detecti on 金牌 金山办公2024中文文本智能校对大赛 第二名 2024 法研杯 法律要素争议焦点识别 第二名 AFAC2024金融智能创新大赛 金融工具学习 三等奖 Googl e kaggl e全球专利文件短语相似性匹配 金牌 Googl e kaggl e全球自动问答比赛 金牌 Googl e kaggl e全球医疗对话理解 金牌 2021 (结果可预期) 目标开放性高 (结果多样性) Route (路径灵活性) 线性路径 (流程标准化) 网状路径 (多路径探索) Responsiveness (响应模式) 被动适配 (按规则执行) 主动创新 (自主决策) Risk (风险特征) 低风险 (稳定可控) 高风险 (不确定性高) (限定于文本生成任务) DeepSeek 两种模型对比 V3 R1 DeepSeek 两种模型对比
    0 码力 | 35 页 | 9.78 MB | 8 月前
    3
  • pdf文档 DeepSeek图解10页PDF

    . . . . . . . . . . . . . . . . 7 2.3.2 监督微调(Supervised Fine-Tuning, SFT) . . . . . . 7 2.3.3 强化学习(Reinforcement Learning, RL) . . . . . . . 7 3 DeepSeek-R1 精华图解 . . . . . . . . . . . . . . . . . R1-Zero 的中间推理模型 . . . . . . . 8 3.1.2 核心创新 2:通用强化学习 . . . . . . . . . . . . . . . 8 3.2 含 R1-Zero 的中间推理模型训练过程 . . . . . . . . . . . . . . 9 3.3 通用强化学习训练过程 . . . . . . . . . . . . . . . . . . . . . . 10 Ollama 软件启动 deepseek-r1 界面 1.3 DeepSeek 本地运行使用演示 基于上面步骤搭建完成后,接下来提问 DeepSeek 一个问题:请帮我分析 Python 编程如何从零开始学习?,下面是它的回答,首先会有一个 think 标签,这里面嵌入的是它的思考过程,不是正式的回复: 图 5: deepseek-r1 回复之思考部分 等我们看到另一个结束标签 think 后,表明它的思考已经结束,下面一行
    0 码力 | 11 页 | 2.64 MB | 8 月前
    3
  • pdf文档 清华大学 DeepSeek+DeepResearch 让科研像聊天一样简单

    推理能力:核心突破,专项升级  推理能力 • 强化学习驱动:DeepSeek R1-Zero 是首个完全基于强化学习(RL) 训练的推理模型,无需任何监督微调(SFT)步骤,打破传统模型依 赖大量标注数据的惯例。DeepSeek-R1 采用强化学习作为核心训练 方法,显著提升了模型的推理能力和语言表达的可读性。 • 推理能力专项提升:在除了利用强化学习模型结合跨领域训练提升模 型综合技能以外, 展 示 推 理 路 径 自 我 修 正 DeepSeek R1 的核心突破在于其通过强化学习驱动的推理能力。该 模型在训练过程中,通过强化学习技术,显著提升模型的推理能力, 使其在数学、编程和自然语言推理等任务上表现出色。 传统依赖: 大规模监督微调(SFT) 创新思路: 强化学习(RL)驱动  推理效率 • 长思维链支持:DeepSeek R1 支持长链推理,能够生成数万字的 点,解决强化学习训练初期的不稳定问题,规范模型的输出格 式和推理链条,使其更符合人类可读性。 • 数据来源与特点:这些数据部分来源于清理后的R1-Zero 输出, 还包括人工后处理的长思维链(CoT)数据。其数量相对较少 但质量高,经过精心设计,具有良好的可读性和结构化特点。 • 对模型训练的影响:冷启动数据为模型训练奠定了坚实的基础, 使模型在后续的强化学习阶段能够更稳定地学习和优化。它解
    0 码力 | 85 页 | 8.31 MB | 8 月前
    3
  • pdf文档 【周鸿祎清华演讲】DeepSeek给我们带来的创业机会-360周鸿祎-202502

    解决复杂问题 7政企、创业者必读 8 AI不仅是技术革新,更是思维方式和社会结构的变革 国家 产业 个人 企业政企、创业者必读 人工智能发展历程(一)  从早期基于规则的专家系统,走向基于学习训练的感知型AI  从基于小参数模型的感知型AI,走向基于大参数模型的认知型AI  从擅长理解的认知型AI,发展到擅长文字生成的生成式AI  从语言生成式AI,发展到可理解和生成声音、图片、视频的多模态AI 认为大模型的能力无法进一步得到质的提升 开辟强化学习新范式 从预训练Scaling Law转变为强化学习Scaling Law 大数据+大参数+大算力的 预训练Scaling Law的边际效应递减 • 人类构造的训练数据已达上限 • 万亿参数规模之后,继续增大参数规 模难以带来质的提升 • 训练算力成本和工程化难度大幅上升 强化学习Scaling Law • 利用合成数据解决数据用尽问题 利用合成数据解决数据用尽问题 • 利用self-play强化学习,在不增大参 数规模前提下,大幅提升复杂推理能力 • 通过后训练算力和推理算力,在不增加 预训练算力前提下,大幅提升模型性能 DeepSeek颠覆式创新——技术创新 26政企、创业者必读  预训练模型如GPT——疯狂读书,积 累知识,Scaling law撞墙  预训练模型思考深度不够  算力见顶,变成少数巨头游戏 预训练大模型 推理大模型
    0 码力 | 76 页 | 5.02 MB | 6 月前
    3
  • pdf文档 普通人学AI指南

    AGI AGI(Artificial General Intelligence,人工通用智能)是一种理论上的人工智能, 它可以理解、学习和应用知识跨越各种不同领域,功能上等同于人类智能。 与专用人工智能(AI)不同,AGI 能够执行任何智力任务,具备自我意识和 自适应学习能力。AGI 的研发目标是创造出可以广泛地模拟人类认知能力的智 能系统。 1.3 大模型 大模型通常指的是大规模的人工智能模型,这类模型通过训练大量的数据来获 得广泛的知识和能力。这些模型通常具有庞大的参数数量,能够处理复杂的任 务,如自然语言理解、图像识别、语音识别等。 闭源大模型包括 OpenAI 的 GPT 系列和 Google 的 BERT。这些模型因其 高效的学习能力和强大的通用性而受到关注。 开源大模型以 Meta 的 Llama 系列,2024 年 4 月,Llama3 发布,包括 8B 和 70B 模型。 图 2,时间线主要根据技术论文的发布日期(例如提交至 常用来表示模型在训练中处理的 Token 数量。Token 是指模型处理的 基本单元,可以是一个单词、子词,或者字符等。 在大规模预训练语言模型的训练中,通常会提到模型是在多少个 Token 上 进行学习的,以表明模型的训练规模和数据量。例如:LLaMA3 语言模型使用 了超过 15T 个 token 进行训练。 2 AI 工具梳理 大家有没有觉得 AI 工具太多,种类太多,老的还没用,新的就出来,头大得
    0 码力 | 42 页 | 8.39 MB | 8 月前
    3
共 12 条
  • 1
  • 2
前往
页
相关搜索词
DeepSeek入门精通20250204清华华大大学清华大学普通通人普通人如何抓住红利开源中国2023模型LLM技术报告国家人工智能人工智能产业综合标准标准化体系建设指南2024第二赋能职场图解10PDFDeepResearch科研周鸿祎演讲我们带来创业机会360202502AI
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩