阿里云上深度学习建模实践-程孟力6 0 .655 DeepFM: [ { "type": "Categorical", "name": "f1.embed_dim", "candidates": ["16", "32", "48", "64", "80"] }, { "type": "Categorical", "name": ”f2.embed_dim", "80"] } ] MIND: [ { "type": "Categorical", "name": ”capsule_config.routing_logits_scale", “candidates”:[10, 20, 30] }, { "type": "Categorical", "name": "capsule_config.squash_pow"0 码力 | 40 页 | 8.51 MB | 1 年前3
QCon北京2018-《深度学习在微博信息流排序的应用》-刘博阅读模型 Score = ?)*+,-./+ ∗ ???? + ?/6)/7 ∗ ???? + ?-,.8 ∗ ???? 特征工程 Ø 特征工程非常重要 • 手动组合——专家知识 • categorical特征 • 离散化/归一化处理 • conitnues特征 • one-hot 表示 • 假设检验方式 • 相关系数评估 • 特征组合 • GBDT+互信息——有效挖掘 非线性特征及组合 表达能力强 网络结构灵活 User features Relation features Contextual features Continueous featues Categorical features normalize one-hot encode embedding one-hot encode Content features ReLU(256) ReLU(128) 深度学习应用实践 —— DeepFM User features Relation features Contextual features Continueous featues Categorical features normalize one-hot encode embedding Content features ReLU(256) ReLU(128) ReLU(64)0 码力 | 21 页 | 2.14 MB | 1 年前3
《TensorFlow 快速入门与实战》6-实战TensorFlow验证码识别模型损失函数设计 交叉熵(Cross-Entropy, CE) 我们使用交叉熵作为该模型的损失函数。 虽然 Categorical / Binary CE 是更常用的损失函数,不过他们都是 CE 的变体。 CE 定义如下: 对于二分类问题 (C‘=2) ,CE 定义如下: Categorical CE Loss(Softmax Loss) 常用于输出为 One-hot 向量的多类别分类(Multi-Class0 码力 | 51 页 | 2.73 MB | 1 年前3
机器学习课程-温州大学-机器学习项目流程5*IQR,如果存在离群 点大于最大观测值,则上限为最大观测值,离群点 单独以点汇出。如果没有比最大观测值大的数,则 上限为最大值。 14 探索性数据分析(EDA) 寻找关系 为了查看分类变量 - categorical variables对分数的影 响,我们可以通过分类变量的值来绘制密度图。 密度图 还显示单个变量的分布,可以认为是平滑的直方图。 如 果我们通过为分类变量密度曲线着色,这将向我们展示0 码力 | 26 页 | 1.53 MB | 1 年前3
Greenplum机器学习⼯具集和案例(SVD) Norms and Distance FuncDons Sparse Vectors Principal Component Analysis (PCA) Encoding Categorical Variables Pivot Stemming Sept 2017 Graph All Pairs Shortest Path (APSP) Breadth-First Search0 码力 | 58 页 | 1.97 MB | 1 年前3
【PyTorch深度学习-龙龙老师】-测试版202112y_onehot = tf.one_hot(y, depth=10) # 计算交叉熵 loss = tf.losses.categorical_crossentropy(y_onehot, logits, from_logits=True) loss = tf.reduce_mean(loss) pi(s) # 动作分布:[1,2] # 从类别分布中采样 1 个动作, shape: [1] a = tf.random.categorical(tf.math.log(prob), 1)[0] a = int(a) # Tensor 转数字 s_prime, r prob = self.actor(s) # 从类别分布中采样 1 个动作, shape: [1] a = tf.random.categorical(tf.math.log(prob), 1)[0] 预览版202112 14.3 策略梯度方法 19 a = int(a) # Tensor 转数字0 码力 | 439 页 | 29.91 MB | 1 年前3
动手学深度学习 v2.0distributions)) ['AbsTransform', 'AffineTransform', 'Bernoulli', 'Beta', 'Binomial', 'CatTransform', 'Categorical', �→'Cauchy', 'Chi2', 'ComposeTransform', 'ContinuousBernoulli', 'CorrCholeskyTransform', �→ '__name__', '__package__', '__path__', �→ '__spec__', 'bernoulli', 'beta', 'biject_to', 'binomial', 'categorical', 'cauchy', 'chi2', �→'constraint_registry', 'constraints', 'continuous_bernoulli', 'dirichlet' �→'multivariate_normal', 'negative_binomial', 'normal', 'one_hot_categorical', 'pareto', 'poisson', �→'register_kl', 'relaxed_bernoulli', 'relaxed_categorical', 'studentT', 'transform_to', 'transformed_ �→distribution'0 码力 | 797 页 | 29.45 MB | 1 年前3
美团点评2018技术年货minMealPerson等等。 ScoringValue用于存储从POJO中返回的特征值。特征值包含三种基本类型,即数量型(Quantity)、序数型 (Ordinal)、类别型(Categorical)。 ScoreEnum实现特征名到特征值的映射。每类原子特征对应于一个ScoreEnum类,特征名通过反射(Reflection) 的方式来构建对应的ScoreEnum类。ScoreE0 码力 | 229 页 | 61.61 MB | 1 年前3
2022年美团技术年货 合辑Lichan Hong, and Ed H. Chi. Learning multi-granular quantized embeddings for large-vocab categorical features in recommender systems. In Companion Proceedings of the Web Conference 2020, pp. 562-5660 码力 | 1356 页 | 45.90 MB | 1 年前3
共 9 条
- 1













