积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部云计算&大数据(16)机器学习(16)

语言

全部英语(8)中文(简体)(8)

格式

全部PDF文档 PDF(16)
 
本次搜索耗时 0.024 秒,为您找到相关结果约 16 个.
  • 全部
  • 云计算&大数据
  • 机器学习
  • 全部
  • 英语
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 复杂环境下的视觉同时定位与地图构建

    the tracking success ratio after initialization. Group A: simple translation Group B: there are loops Group C: slow and nearly pure rotation Group D: fast motion with strong rotation 时间统计 • 台式机上的计算时间 Personal Homepage: http:www.cad.zju.edu.cn/home/gfzhang: Email: zhangguofeng@cad.zju.edu.cn ZJUCVG Group Website: http:www.zjucvg.net:
    0 码力 | 60 页 | 4.61 MB | 1 年前
    3
  • pdf文档 从推荐模型的基础特点看大规模推荐类深度学习系统的设计 袁镱

    基于GPU的多级存储训练:更⾼的性价⽐ � 推荐模型GPU训练的挑战 � 显存(A100最⼤80GB)放不下TB级的模型 � GPU多线程并⾏计算能⼒对稀疏数据不友好 � ⽅案 � 原有:内存能够存储的参数->对应的样本量Group � 新增:显存能够存储的参数->对应的样本量Pass � 新增:GPU并⾏操作友好->CSR格式的显存数据访问 SSD磁盘 10TB 全部参数 内存 1TB 即将⽤到的参数 显存 问题:TB模型实时多地传输和加载成本⾼ � ⽅案:⾼低频分别上线 � 更灵活的⽤法:模型多切⽚,按需上线 � Dssm � wdl ... 分布式Serving集群 副本1 副本2 Group 1 Group N 副本1 副本2 推理节点 SDK MB级别DNN部分 Sparse Hotkey TB级别Embedding部分 全量模型,TB级,低峰期(Cos存储) 增量模型,GB级,20分钟(Cos存储) embedding values 痛点: 1. 更少的values: 变⻓Embedding 特征出现次数少,⽤1个float 结合show/click,有效果提升 2. 更少的key: group lasso key级别的稀疏化 3. 更短的values a) 混合精度: float16+int8+int4 b) 量化压缩,1bit或2bit 优点:与优化器⽆关 缺点:1
    0 码力 | 22 页 | 6.76 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 4 - Efficient Architectures

    picture of a snake or a grizzly bear might trigger caution or fear. In a way, we subconsciously group these animals in our head. We don’t necessarily know everything about a dog and cat, but we know that these blocks via a recurrence cell. They fall under the Recurrence group. The efficient transformers under the Memory/Downsampling group use additional parameters to act as a memory. This memory is used during the training process. The transformers that use sparse attention are grouped under the Sparse group. After input sequence and the attention parameters, the next component to attack is the softmax computation
    0 码力 | 53 页 | 3.92 MB | 1 年前
    3
  • pdf文档 阿里云上深度学习建模实践-程孟力

    AutoFeature  特征组合 • Count select count(1) group by col • GroupByThenMax/Min/Avg/Sum select max(col2) group by col1 • CrossCount[2] select count (1) group by col1,col2 特征组合 + 特征选择  特征选择
    0 码力 | 40 页 | 8.51 MB | 1 年前
    3
  • pdf文档 AI大模型千问 qwen 中文文档

    Qwen Qwen is the large language model and large multimodal model series of the Qwen Team, Alibaba Group. Now the large language models have been upgraded to Qwen1.5. Both language models and multimodal "your_model_path" quant_path = "your_quantized_model_path" quant_config = { "zero_point": True, "q_group_size": 128, "w_bit": 4, "version": "GEMM �→" } # Load your tokenizer and model with AutoAWQ tokenizer "your_model_path" quant_path = "your_quantized_model_path" quantize_config = BaseQuantizeConfig( bits=8, # 4 or 8 group_size=128, damp_percent=0.01, desc_act=False, # set to False can significantly speed up inference but
    0 码力 | 56 页 | 835.78 KB | 1 年前
    3
  • pdf文档 Lecture 7: K-Means

    learning problem Given: N unlabeled examples {x1, · · · , xN}; no. of desired partitions K Goal: Group the examples into K “homogeneous” partitions Loosely speaking, it is classification without ground looks at similarities, no labels are given Without labels, similarity can be hard to define Goal: Group the examples into K “homogeneous” partitions Thus using the right distance/similarity is very important
    0 码力 | 46 页 | 9.78 MB | 1 年前
    3
  • pdf文档 PyTorch Release Notes

    experimental UCC process group for the distributed backend. Users can experiment with it by creating UCC as the default process group via: torch.distributed.init_process_group(backend="ucc", kwargs) or or a side process group with any default via: torch.distributed.init_process_group(backend=any_backend, default_pg_kwargs) ucc_pg = torch.distributed.new_group(backend="ucc", ucc_pg_kwargs) Announcements HDMI Licensing LLC. OpenCL OpenCL is a trademark of Apple Inc. used under license to the Khronos Group Inc. NVIDIA Corporation | 2788 San Tomas Expressway, Santa Clara, CA 95051 https://www.nvidia.com
    0 码力 | 365 页 | 2.94 MB | 1 年前
    3
  • pdf文档 深度学习与PyTorch入门实战 - 40. Batch Norm

    Normalization ▪ Batch Normalization Batch Norm https://medium.com/syncedreview/facebook-ai-proposes-group-normalization- alternative-to-batch-normalization-fb0699bffae7 Pipeline nn.BatchNorm2d Class variables
    0 码力 | 16 页 | 1.29 MB | 1 年前
    3
  • pdf文档 Lecture Notes on Linear Regression

    each step is cheaper. One variants of SGD is so- called mini-batch SGD, where we pick up a small group of training data and do average to accelerate and smoothen the convergence. For example, by randomly
    0 码力 | 6 页 | 455.98 KB | 1 年前
    3
  • pdf文档 超大规模深度学习在美团的应用-余建平

    NN网络矩阵按行切分,解决请求包不均衡问题  特征按照Hash方式分布式存储 • 模型并行调超参  grid search  random search PS的多模型训练 • 提高内存使用效率  model group内共享特征key的存储 • 超大规模模型 -> 高扇出的分布式PS • 长尾效应:单个分片的抖动(网络、CPU)对请求影响变大  单分片4个9的可用性  16分片整体可用性:99.99%
    0 码力 | 41 页 | 5.96 MB | 1 年前
    3
共 16 条
  • 1
  • 2
前往
页
相关搜索词
复杂环境视觉同时定位地图构建推荐模型基础特点大规规模大规模深度学习系统设计EfficientDeepLearningBookEDLChapterArchitectures阿里云上建模实践程孟力AI千问qwen中文文档LectureMeansPyTorchReleaseNotes入门实战40BatchNormonLinearRegression超大超大规模美团应用建平
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩