积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部后端开发(191)Python(101)Java(76)Jupyter(61)ActiveMQ(46)云计算&大数据(39)Django(30)Spring(30)数据库(27)Pandas(27)

语言

全部英语(242)中文(简体)(19)英语(3)法语(1)kor(1)zh(1)

格式

全部PDF文档 PDF(195)其他文档 其他(49)TXT文档 TXT(23)PPT文档 PPT(1)
 
本次搜索耗时 0.075 秒,为您找到相关结果约 268 个.
  • 全部
  • 后端开发
  • Python
  • Java
  • Jupyter
  • ActiveMQ
  • 云计算&大数据
  • Django
  • Spring
  • 数据库
  • Pandas
  • 全部
  • 英语
  • 中文(简体)
  • 英语
  • 法语
  • kor
  • zh
  • 全部
  • PDF文档 PDF
  • 其他文档 其他
  • TXT文档 TXT
  • PPT文档 PPT
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 机器学习课程-温州大学-13深度学习-Transformer

    深度学习-Transformer 黄海广 副教授 2 03 Transformer的训练 本章目录 01 Transformer介绍 02 Transformer的工作流程 04 BERT 3 1.Transformer介绍 01 Transformer介绍 03 Transformer的训练 02 Transformer的工作流程 4 1.Transformer介绍 为什么需要用transformer 其实在之前我们使用的是RNN(或者是其的单向或者双向变种LSTM/GRU等) 来 作为编解码器。RNN模块每次只能够吃进一个输入token和前一次的隐藏状态,然 后得到输出。它的时序结构使得这个模型能够得到长距离的依赖关系,但是这也 使得它不能够并行计算,模型效率十分低。 在没有transformer的时候,我们 5 1.Transformer介绍 Seq2Seq任务 Seq2Seq 任务指的是输入和输出都是 序列的任务,输出的长度不确定时采 用的模型,这种情况一般是在机器翻 译的任务中出现,将一句中文翻译成 英文,那么这句英文的长度有可能会 比中文短,也有可能会比中文长,所 以输出的长度就不确定了。 上图,输入的中文长度为4,输出的英文长度为2 6 1.Transformer介绍 Encoder-Decoder模型
    0 码力 | 60 页 | 3.51 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-14深度学习-Vision Transformer (ViT)

    1 2023年06月 深度学习-Vision Transformer (ViT) 黄海广 副教授 2 03 模型训练策略 本章目录 01 背景知识 02 模型介绍 04 模型的缺点与改进 05 模型的代码实现 3 1.背景知识 03 模型训练策略 01 背景知识 02 模型介绍 04 模型的缺点与改进 05 all you need的文章,开创性地提出了 在序列转录领域,完全抛弃 CNN和RNN,只依赖Attention-注 意力结构的简单的网络架构, 名为Transformer;论文实现的 任务是机器翻译。 Transformer结构 Multi-Head Attention Add & Norm Input Embedding Output Embedding Feed Inputs Outputs (shifted right) Positional Encoding Positional Encoding 1.背景知识 6 为什么需要用transformer Transformer原本是用来做 NLP的工作的,所以ViT的 首要任务是将图转换成词 的结构,这里采取的方法 是如上图左下角所示,将 图片分割成小块,每个小 块就相当于句子里的一个 词。这里把每个小块称作
    0 码力 | 34 页 | 2.78 MB | 1 年前
    3
  • pdf文档 PyTorch Release Notes

    Framework containers are no longer tested on Pascal GPU architectures. ‣ Transformer Engine is a library for accelerating Transformer models on NVIDIA GPUs. It includes support for 8-bit floating point (FP8) inference performance with lower memory utilization. Transformer Engine also includes a collection of highly optimized modules for popular Transformer architectures and an automatic mixed precision-like TransformerXL model: This transformer-based language model has a segment-level recurrence and a novel relative positional encoding. The enhancements that were introduced in Transformer-XL help capture better
    0 码力 | 365 页 | 2.94 MB | 1 年前
    3
  • pdf文档 2020美团技术年货 算法篇

    2020 美团技术年货 CODE A BETTER LIFE 【算法篇】 算法 1 智能搜索模型预估框架 Augur 的建设与实践 1 Transformer 在美团搜索排序中的实践 23 BERT 在美团搜索核心排序的探索和实践 36 美团智能配送系统的运筹优化实战 60 一站式机器学习平台建设实践 77 美团搜索中 NER 技术的探索与实践 92 KDD Cup 如何实现能力的快速复用并能够保障业务的安全? 下面,我们将逐一给出答案。 8 > 美团 2020 技术年货 4.1 构建预估内核:高效的特征和模型迭代 4.1.1 Operator 和 Transformer 在搜索场景下,特征抽取较为难做的原因主要包括以下几点: ● 来源多:商户、商品、交易、用户等数十个维度的数据,还有交叉维度。由于 美团业务众多,难以通过统一的特征存储去构建,交易相关数据只能通过服务 异步、自动聚合 RPC、并行 计算的编排优化,从而达到提升性能的目的。 Transformer:用于处理与模型相关的特征逻辑,如分桶、低频过滤等等。一个特 征可以配置一个或者多个 Transformer。Transformer 也提供接口,业务方可以根 据自己的需求定制逻辑。 算法 < 9 离在线统一逻辑:Transformer 是特征处理的模型相关逻辑,因此我们将 Trans- former
    0 码力 | 317 页 | 16.57 MB | 1 年前
    3
  • pdf文档 Moonshot AI 介绍

    cn/),发布时间2023年11⽉2⽇ • 欢迎关注公众号,了解更多动态 公司亮点 1.团队拥有世界级的⼈才密度: a. 创始⼈杨植麟是中国35岁以下NLP领域引⽤最⾼的研究者,Transformer-XL和XLNet两篇重要 论⽂的第⼀作者;两位联合创始⼈周昕宇和吴育昕都有10000+的GoogleScholar引⽤。 b. 团队成员囊括NLP,CV,RL(强化学习) LLaMa和GooglePALM等⼤多数 主流模型的重要组成部分;发明了groupnormalization,是StableDiffusion等AI模型成功 的关键组件;发明了Transformer-XL,是历史上第⼀个在词级别和字级别都全⾯超越RNN 的注意⼒语⾔模型,解决了语⾔建模上下⽂⻓度的关键问题,定义了语⾔建模的新标准;曾 与DeepMind和CMU合作研究,⾸次实现⼩样本性能逼近全监督学习的⾼效对⻬⽅法。 能拍板执⾏。⼀个具体的例⼦是,⽉之暗⾯希望⽐ OpenAI更关⼼⽤⼾,原因是杨植麟判断⽤⼾数据的scaleup的效果最终会超越basemodel⾃⾝。 杨植麟对于⽤transformer这个概率模型的思想基础⾛向AGI也很有信⼼,⽤他的话说“如果你有10 亿的contextlength,今天看到的问题都不是问题”。 AGI:AI本质就是⼀堆scalinglaw
    0 码力 | 74 页 | 1.64 MB | 1 年前
    3
  • pdf文档 Apache ActiveMQ Artemis 2.11.0 User Manual

    effect. <transformer- class-name> X (no more than one can be present) No effect on the deployed divert.(unless restarting broker, in which case the divert will be deployed without the transformer class) No effect on the deployed divert. (unless restarting broker, in which case the divert has the transformer class) Configuration Reload 111 class) class) X (no more than one can be present) Diverts can also be configured to apply a Transformer . If specified, all diverted messages will have the opportunity of being transformed by the Transformer . When an address has multiple diverts configured
    0 码力 | 341 页 | 4.93 MB | 1 年前
    3
  • pdf文档 Apache ActiveMQ Artemis 2.13.0 User Manual

    Configuration Reload 173 <transformer- class-name> more than one can be present) restarting broker, in which case the divert will be deployed without the transformer class) (unless restarting broker broker, in which case the divert has the transformer class) X (no more than one can be present) No effect on the deployed divert.(unless restarting broker) No effect on the deployed divert Diverts can also be configured to apply a Transformer . If specified, all diverted messages will have the opportunity of being transformed by the Transformer . When an address has multiple diverts configured
    0 码力 | 539 页 | 5.24 MB | 1 年前
    3
  • pdf文档 Apache ActiveMQ Artemis 2.12.0 User Manual

    Configuration Reload 171 <transformer- class-name> more than one can be present) restarting broker, in which case the divert will be deployed without the transformer class) (unless restarting broker broker, in which case the divert has the transformer class) X (no more than one can be present) No effect on the deployed divert.(unless restarting broker) No effect on the deployed divert Diverts can also be configured to apply a Transformer . If specified, all diverted messages will have the opportunity of being transformed by the Transformer . When an address has multiple diverts configured
    0 码力 | 534 页 | 5.23 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入

    预训练模型的发展 31 预训练模型的发展 32 Transformer 资料来源:《Attention Is All You Need》,Ashish Vaswani et.al 2017 ◼ Transformer摆脱了人工标注数据集的缺陷,模型在质量上更优、 更易于并行化,所需训练时间明显更少 ◼ Transformer通过成功地将其应用于具有大量和有限训练数据的分 析,可以很好地推广到其他任务 Need》 中提出了一种新的简单架构——Transformer,它完全基于注意力机制, 完全不用重复和卷积,因而这些模型在质量上更优,同时更易于并行化,并 且需要的训练时间明显更少。 ✓ Transformer出现以后,迅速取代了RNN系列变种,跻身主流模型架构基 础。(RNN缺陷正在于流水线式的顺序计算) 图:Transformer模型架构 33 首先通过词嵌入(Word Embedding)将字、词、 增强数据间的结构信息。其次通过Transformer等模式结合 上下文进行推导,生成最终文本。 ◼ Transformer架构可分为自回归系列(例如GPT-3,偏好生成性任务)、双向Transformer+Mask的自编码系列(例如BERT, 偏好自然语言理解)、Encoder-decoder架构(例如T5,使用双向/单向attention,偏好条件文本生成) 图:Transformer典型技术场景下的原理介绍如下所述
    0 码力 | 44 页 | 2.36 MB | 1 年前
    3
  • pdf文档 Apache ActiveMQ Artemis 2.17.0 User Manual

    effect. <transformer- class-name> X (no more than one can be present) No effect on the deployed divert. (unless restarting broker, in which case the divert will be deployed without the transformer class) No effect on the deployed divert. (unless restarting broker, in which case the divert has the transformer class) X (no more than one can be present) No effect on the deployed divert. (unless Diverts can also be configured to apply a Transformer . If specified, all diverted messages will have the opportunity of being transformed by the Transformer . When an address has multiple diverts configured
    0 码力 | 458 页 | 5.91 MB | 1 年前
    3
共 268 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 27
前往
页
相关搜索词
机器学习课程温州大学13深度Transformer14VisionViTPyTorchReleaseNotes2020美团技术年货算法MoonshotAI介绍ApacheActiveMQArtemis2.11UserManual2.132.1212自然语言自然语言处理嵌入2.17
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩