Qcon北京2018-《深度学习在视频搜索领域的实践》-刘尚堃pdf
0 码力 | 24 页 | 9.60 MB | 1 年前3人工智能发展史
old.pdf Perceptron:1958 http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.335.3398&rep=rep1&type=p df Perceptron http://www.iro.umontreal.ca/~vincentp/ift3395/lectures/backprop_old.pdf Multi-Output kprop_old.pdf NO! Multi-Layer Perceptron is coming ▪ New Issue: How to train MLP ▪ Chain Rules => Backpropagation http://www.iro.umontreal.ca/~vincentp/ift3395/lectures/backprop_old.pdf Backpropagation: ca/~vincentp/ift3395/lectures/backprop_old.pdf Rediscover! 1986 on Nature ▪ David Parker and Yann LeCun mentioned. http://www.iro.umontreal.ca/~vincentp/ift3395/lectures/backprop_old.pdf 1986 https://web.stanford0 码力 | 54 页 | 3.87 MB | 1 年前3机器学习课程-温州大学-02-数学基础回顾-2.CS229-Prob
值,因此它被称为连续随机变量。我们将 在两个实常数 和 之间取值的概率(其中 )表示为: 2.1 累积分布函数 为了指定处理随机变量时使用的概率度量,通常可以方便地指定替代函数(CDF、PDF和PMF),在本节 和接下来的两节中,我们将依次描述这些类型的函数。 累积分布函数(CDF)是函数 ,它将概率度量指定为: 通过使用这个函数,我们可以计算任意事件发生的概率。图1显示了一个样本CDF函数。 对于一些连续随机变量,累积分布函数 处可微。在这些情况下,我们将概率密度函数(PDF)定义 为累积分布函数的导数,即: 请注意,连续随机变量的概率密度函数可能并不总是存在的(即,如果它不是处处可微)。 根据微分的性质,对于很小的 , CDF和PDF(当它们存在时!)都可用于计算不同事件的概率。但是应该强调的是,任意给定点的概率密 度函数(PDF)的值不是该事件的概率,即 。例如, 可以取大于1的值(但是 的任何子集上的积分最多为1)。 性质: 2.4 期望 假设 是一个离散随机变量,其PMF为 , 是一个任意函数。在这种情况下, 可 以被视为随机变量,我们将 的期望值定义为: 如果 是一个连续的随机变量,其PDF 为 ,那么 的期望值被定义为: 直觉上, 的期望值可以被认为是 对于不同的 值可以取的值的“加权平均值”,其中权重由 或 给出。作为上述情况的特例,请注意,随机变量本身的期望值,是通过令 得到0 码力 | 12 页 | 1.17 MB | 1 年前3AI大模型千问 qwen 中文文档
bot = Assistant(llm=llm_cfg, system_message=system, function_list=tools, files=[os.path.abspath('doc.pdf')]) messages = [] while True: query = input('user question: ') messages.append({'role': 'user', 'content': 或文本块大小。 Qwen 1.5 模型系列支持最大 32K 上下文窗口大小。 现在我们可以从文档或网站构建索引。 以下代码片段展示了如何为本地名为’document’的文件夹中的文件(无论是 PDF 格式还是 TXT 格式)构 建索引。 from llama_index.core import VectorStoreIndex, SimpleDirectoryReader documents extSplitter): def __init__(self, pdf: bool = False, **kwargs): super().__init__(**kwargs) self.pdf = pdf def split_text(self, text: str) -> List[str]: if self.pdf: text = re.sub(r"\n{3,}", "\n", text)0 码力 | 56 页 | 835.78 KB | 1 年前3深度学习与PyTorch入门实战 - 37. 什么是卷积
parameters ▪ 1.6MB memory ▪ 80386 http://slazebni.cs.illinois.edu/spring17/lec01_cnn_architectures.pdf Receptive Field https://medium.freecodecamp.org/an-intuitive-guide-to-convolutional-neural- networks-260c2de0a050 http://yann.lecun.com/exdb/publis/pdf/lecun-89e.pdf Convolution Operation Rethink Linear layer http://slazebni.cs.illinois.edu/spring17/lec01_cnn_architectures.pdf Why call Convolution? Convolution0 码力 | 18 页 | 1.14 MB | 1 年前3深度学习在百度搜索中的工程实践-百度-曹皓
�����������BM25/CTR/CQR http://singhal.info/ieee2001.pdf Query = A B C D E Doc = X !" B Y C #` Z �����������BM25/CTR/CQR http://singhal.info/ieee2001.pdf Query = A B C D E Doc = X !" B Y C #` Z �����������BM25/CTR/CQR http://singhal.info/ieee2001.pdf Query = A B C D E Doc = X !" B Y C #` Z ������ �����������BM25/CTR/CQR http://singhal.info/ieee2001.pdf Query = A B C D E Doc = X !" B Y C #`0 码力 | 40 页 | 29.46 MB | 1 年前3Lecture 5: Gaussian Discriminant Analysis, Naive Bayes
random variables Suppose X is a continuous random variable X : S → A Probability density function (PDF) of X is a function fX(x) such that for ∀a, b ∈ A with (a ≤ b) P(a ≤ X ≤ b) = � b a fX(x)dx Feng distribution Suppose both X and Y are continuous random variable Joint probability density function (PDF) f (x, y) P(a1 ≤ X ≤ b1, a2 ≤ Y ≤ b2) = � b1 a1 � b2 a2 f (x, y)dxdy Marginal probability density Conditional Probability Distribution (Contd.) Continuous random variables X and Y Joint PDF f (x, y) Marginal PDF fX(x) = � y f (x, y)dy The Conditional probability density function of Y given X = x0 码力 | 122 页 | 1.35 MB | 1 年前3Keras: 基于 Python 的深度学习库
年 12 月 24 日 *Copyright © 2018 by Keras-Team 前 言 整理 Keras: 基于 Python 的深度学习库 PDF 版的主要原因在于学习 Keras 深度学习库时方 便本地查阅,下载最新 PDF 版本请访问: https://github.com/wanzhenchn/keras-docs-zh。 感谢 keras-team 所做的中文翻译工作,本文档制作基于此处。 The main reason of organizing PDF version based the Chinese Keras Markdown is that it is easy to read locally when learning the Keras Deep Learning Library. For the latest PDF version, please visit https://github Returns 一个初始化器。 参考文献 LeCun 98, Efficient Backprop, - http://yann.lecun.com/exdb/publis/pdf/lecun-98b.pdf 15.2.12 glorot_normal glorot_normal(seed=None) Glorot 正态分布初始化器,也称为 Xavier 正态分布初始化器。 它从以0 码力 | 257 页 | 1.19 MB | 1 年前3深度学习与PyTorch入门实战 - 51. LSTM原理
cs.toronto.edu/~rgrosse/courses/csc321_2017/readings/L15%20Exploding% 20and%20Vanishing%20Gradients.pdf ሚ? ሚ? How to solve Gradient Vanishing? https://weberna.github.io/blog/2017/11/15/LSTM-Vanishing-Gradients cs.toronto.edu/~rgrosse/courses/csc321_2017/readings/L15%20Exploding% 20and%20Vanishing%20Gradients.pdf 下一课时 LSTM使用 Thank You.0 码力 | 16 页 | 1.53 MB | 1 年前3Lecture Notes on Gaussian Discriminant Analysis, Naive
distribution parameterized by µ0 and Σ, such that the corresponding probability density function (PDF) is defined as pX|Y (x | 0) = 1 (2π)n/2|Σ|1/2 exp � −1 2(x − µ0)T Σ−1(x − µ0) � (6) • A3: X | Y variable X given Y = 1 is a Gaussian distribution parameterized by µ1 and Σ, such that the corresponding PDF is given by pX|Y (x | 1) = 1 (2π)n/2|Σ|1/2 exp � −1 2(x − µ1)T Σ−1(x − µ1) � (7) Given m sample0 码力 | 19 页 | 238.80 KB | 1 年前3
共 22 条
- 1
- 2
- 3