积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部云计算&大数据(27)机器学习(27)

语言

全部中文(简体)(18)英语(9)

格式

全部PDF文档 PDF(27)
 
本次搜索耗时 0.053 秒,为您找到相关结果约 27 个.
  • 全部
  • 云计算&大数据
  • 机器学习
  • 全部
  • 中文(简体)
  • 英语
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 Keras: 基于 Python 的深度学习库

    one_hot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 6.2.4 text_to_word_sequence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 6.3 图像预处理 . . . . . . . . 来自词汇表的随机单词),标签为 0(负样本)。 若要了解更多和 Skipgram 有关的知识,请参阅这份由 Mikolov 等人发表的经典论文:Efficient Estimation of Word Representations in Vector Space 参数 • sequence: 一个编码为单词索引(整数)列表的词序列(句子) 。如果使用一个 sampling_table, 是数据集中第 i 个最 常见词的采样概率(出于平衡考虑,出现更频繁的词应该被更少地采样)。 采样概率根据 word2vec 中使用的采样分布生成: p(word) = (min(1, sqrt(word_frequency / sampling_factor) / (word_frequency / sampling_factor))) 我们假设单词频率遵循 Zipf 定律(s=1),来导出
    0 码力 | 257 页 | 1.19 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 4 - Efficient Architectures

    robust to the task at hand. We will demonstrate how to do this in just a bit. A Real World Example: Word2Vec In the real world, we must automate the embedding table generation because of the high costs an automated embedding generation technique is the word2vec family of algorithms6 (apart from others like GloVe7) which can learn embeddings for word tokens for NLP tasks. The embedding table generation predict a hidden word in a sentence, given the words surrounding it (the context). This is known as the Continuous Bag of Words (CBOW) task, where the model learns to predict a masked word in a sentence given
    0 码力 | 53 页 | 3.92 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 3 - Learning Techniques

    from a sentence. from random import choice, randint from keras.preprocessing.text import text_to_word_sequence # NLTK Import try: from nltk.corpus import wordnet # Placeholder search to ensure wordnet returns a list of synonyms of the input word. The output list may contain the original word. """ def synonyms(word): results = set() for syn in wordnet.synsets(word): for lemma in syn.lemmas(): results the cases when the synonyms for a word are unavailable. It returns the original word in such cases. """ def synonym_or_self(word): return choice(synonyms(word) or [word]) original = 'We enjoyed our short
    0 码力 | 56 页 | 18.93 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入

    2023年05月 深度学习-自然语言处理和词嵌入 黄海广 副教授 2 03 Word2Vec 04 GloVe 本章目录 01 词汇表征和文本数据处理 02 词嵌入 05 GPT 3 1.词汇表征 01 词汇表征和文本数据处理 03 Word2Vec 04 GloVe 02 词嵌入 05 GPT 4 4 1.词汇表征和文本数据处理 5 1.词汇表征和文本数据处理 6 1.词汇表征和文本数据处理 7 1.词汇表征和文本数据处理 8 2.词嵌入 03 Word2Vec 04 GloVe 02 词嵌入 05 GPT 01 词汇表征和文本数据处理 9 2.词嵌入 “Sally Johnson is an orange farmer.” queen,最后也会得到一样的结果 12 2.词嵌入 嵌入矩阵 13 2.词嵌入 嵌入矩阵 14 3.Word2Vec 03 Word2Vec 04 GloVe 02 词嵌入 05 GPT 01 词汇表征和文本数据处理 15 3.Word2Vec 语言模型的训练机制就是这样 1.我们获得了大量文本数据(例如,所 有维基百科文章)。然后 2
    0 码力 | 44 页 | 2.36 MB | 1 年前
    3
  • pdf文档 深度学习与PyTorch入门实战 - 46. 时间序列表示

    [words, word_vec] ▪ How to represent a word ▪ [Rome, Italy, ...] ▪ one-hot [words, word vec] ▪ sparse ▪ high-dim ▪ semantic similarity Batch ▪ [word num, b, word vec] ▪ [b, word num, word vec] word2vec vs GloVe 下一课时 RNN原理 Thank You.
    0 码力 | 14 页 | 1.16 MB | 1 年前
    3
  • pdf文档 机器学习课程-温州大学-Scikit-learn

    SelectKBest(score_func, k) 过滤式(Filter),保留得分排名前k的特征(top k方式) fs.RFECV(estimator, scoring=“r2”) 封装式(Wrap- per),结合交叉验证的递归特征消除法,自动选择最优特征个数 fs.SelectFromModel(estimator) 嵌入式(Embedded),从 模型中自动选择特征,任何具有coef_或者
    0 码力 | 31 页 | 1.18 MB | 1 年前
    3
  • pdf文档 深度学习在电子商务中的应用

    将搜索词和商品全部数值矢量化, 将文字匹配转化为数值矢量计算  词语矢量化是进一步进行各种深度学习的基础。 • 矢量化模型介绍  Mikolov(Google员工)等人2013发表了两篇关于Word2Vec的文章, 成为词语矢量化表示的基础  Word2vec的优点:  词语矢量考虑了上下文及词语之间的语义关系  复杂词语可以通过矢量计算来实现(如 Vec(北京)= vec(东京) – vec(日本) + vec(中国) 矢量化搜索模型 9 词语矢量化模型 CBOW: 通过上下文词语 来预测词语本身出现的概 率 Skip-gram: 通过词语本身 来预测上下文词语出现的 概率 10 基于词语聚类的矢量化模型 • Word2vec等工具可以有效地将词语转化为向量 • 将句子/段落/文章有效转化为向量则有很大的挑战。  简单平均/加权平均容易失去句子等的语义/结构信息  直接以句子为单位进行训练, 则训练文本严重不足 传统聚类(如Kmeans)在几何距离的基础上进行聚类, 效果不好。 利用随机过程做词 语聚类可以解决这一问题 11 具体的生成cluster的流程如图: V[i]: 为产品信息里每个词的词语向量(word vector)分数 C[i]: 为聚类(cluster)的vector分数 N: 为cluster的数目 Sim(I, j): 词语i 与cluster j的余弦相似度 Random: 生成一个0
    0 码力 | 27 页 | 1.98 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 6 - Advanced Learning Techniques - Technical Review

    general purpose language model, where a model learns to solve the pretext task of predicting the next word in a given sentence, without the need of an associated label. The authors found that using a large scope(): # Prepare the inputs. bert_inputs = dict( input_word_ids=tf.keras.layers.Input( shape=(None,), dtype=tf.int32, name='input_word_ids'), input_mask=tf.keras.layers.Input( shape=(None,), dtype=tf for training a language model over wikipedia’s english data where the goal was to predict the next word. For both, the difficulty of the dataset was gradually increased over time and compared with a non-curriculum
    0 码力 | 31 页 | 4.03 MB | 1 年前
    3
  • pdf文档 《Efficient Deep Learning Book》[EDL] Chapter 5 - Advanced Compression Techniques

    get_clustered_size_bytes(num_elements, num_clusters, floating_point_word_size=4): codebook_size_bytes = num_clusters * floating_point_word_size encoded_img_size_bytes = (num_elements * np.math.log2(num_clusters)) _elements, num_quantization_bits, num_clusters, floating_point_word_size=4): original_size_bytes = num_elements * floating_point_word_size quantized_size_bytes = get_quantized_size_bytes(num_elements in the dataset, it can be classified into one of the 12 classes (each representing either a target word, with one class for ‘unknown’). The code for this project is available here as a Jupyter notebook
    0 码力 | 34 页 | 3.18 MB | 1 年前
    3
  • pdf文档 【PyTorch深度学习-龙龙老师】-测试版202112

    取一个批的句子 print('before:', text.shape, label.shape) # 打印批形状 word_vec = embedding(text) # 通过 Embedding 层获取词向量 print('after:', word_vec.shape) # 打印词向量的 shape Out[47]: before: torch.Size([80 预览版202112 第 11 章 循环神经网络 2 图 11.1 地名系统 One-hot 编码方案 我们把文字编码为数值的过程叫作 Word Embedding。One-hot 的编码方式实现 Word Embedding 简单直观,编码过程不需要学习和训练。但是 One-hot 编码的向量是高维度而 且极其稀疏的,大量的位置为 0,计算效率较低,同时也不利于神经网络的训练。从语义 有相关性,不能很好地体现原有文字的语义相关度,因此 One-hot 编码具有明显的缺陷。 在自然语言处理领域,有专门的一个研究方向在探索如何学习到单词的表示向量(Word Vector),使得语义层面的相关性能够很好地通过 Word Vector 体现出来。一个衡量词向量之 间相关度的方法就是余弦相关度(Cosine similarity): similarity(?,?) ≜ cos(?)
    0 码力 | 439 页 | 29.91 MB | 1 年前
    3
共 27 条
  • 1
  • 2
  • 3
前往
页
相关搜索词
Keras基于Python深度学习EfficientDeepLearningBookEDLChapterArchitecturesTechniques机器课程温州大学12自然语言自然语言处理嵌入PyTorch入门实战46时间序列表示Scikitlearn电子商务电子商务应用AdvancedTechnicalReviewCompression深度学习
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩