【PyTorch深度学习-龙龙老师】-测试版202112机器学习的分类 有监督学习 有监督学习的数据集包含了样本?与样本的标签?,算法模型需要学习到 映射关系??: ? → ?,其中??代表模型函数,?为模型的参数。在训练时,通过计算模型的预 测值??(?)与真实标签?之间的误差来优化网络参数?,使得网络下一次能够预测更精准。常 见的有监督学习有线性回归、逻辑回归、支持向量机、随机森林等。 无监督学习 收集带标签的数据往往代价较为昂贵,对于只有样本 身作为 监督信号,即模型需要学习的映射为??: ? → ?,称为自监督学习(Self-supervised Learning)。在训练时,通过计算模型的预测值??(?)与自身?之间的误差来优化网络参数?。 常见的无监督学习算法有自编码器、生成对抗网络等。 强化学习 也称为增强学习,通过与环境进行交互来学习解决问题的策略的一类算法。 与有监督学习、无监督学习不同,强化学习问题并没有明确的“正确的”动作监督信号, 年,美国心理学家 Frank Rosenblatt 提出了第一个可以自动学习权重的神经元模 型,称为感知机(Perceptron),如图 1.5 所示,输出值?与真实值 之间的误差用于调整神经 元的权重参数{? , ? , … , ? }。Frank Rosenblatt 随后基于“Mark 1 感知机”硬件实现感知 机模型,如图 1.6、图 1.7 所示,输入为 400 个单元的图像传感器,输出为 80 码力 | 439 页 | 29.91 MB | 1 年前3
动手学深度学习 v2.0读取数据集 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 3.2.3 初始化模型参数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 3.2.4 定义模型 . . . . . 定义模型 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 3.3.4 初始化模型参数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 3.3.5 定义损失函数 . . . 网络架构 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 3.4.3 全连接层的参数开销 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 3.4.4 softmax运算 . . .0 码力 | 797 页 | 29.45 MB | 1 年前3
AI大模型千问 qwen 中文文档openai.api_server --model Qwen/Qwen1.5-7B-Chat 然后,您可以使用 create chat interface 来与 Qwen 进行交流: curl http://localhost:8000/v1/chat/completions -H "Content-Type: application/json" - �→d '{ "model": "Qwen/Qwen1 OpenAI's API key and API base to use vLLM's API server. openai_api_key = "EMPTY" openai_api_base = "http://localhost:8000/v1" client = OpenAI( (续下页) 1.2. 快速开始 5 Qwen (接上页) api_key=openai_api_key, apply_chat_template() 函数将消息转换为模型能够理解的格式。其中的 add_generation_prompt 参数用于在输入中添加生成提示,该提示指向 <|im_start|>assistant\n 。尤其需要注意的是,我们 遵循先前实践,对 chat 模型应用 ChatML 模板。而 max_new_tokens 参数则用于设置响应的最大长度。此 外,通过 tokenizer.batch_decode() 函数对响应进行解码。关于输入部分,上述的0 码力 | 56 页 | 835.78 KB | 1 年前3
Keras: 基于 Python 的深度学习库8.1 评价函数的用法 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 8.1.1 参数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 8.1.2 返回值 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 9.2 Keras 优化器的公共参数 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 9.2.1 SGD [source] . . . . 传递一个 input_shape 参数给第一层。它是一个表示尺寸的元组 (一个整数或 None 的元 组,其中 None 表示可能为任何正整数)。在 input_shape 中不包含数据的 batch 大小。 • 某些 2D 层,例如 Dense,支持通过参数 input_dim 指定输入尺寸,某些 3D 时序层支持 input_dim 和 input_length 参数。 • 如果你需要为你的输入指定一个固定的0 码力 | 257 页 | 1.19 MB | 1 年前3
机器学习课程-温州大学-06深度学习-优化算法深度学习-优化算法 黄海广 副教授 2 01 小批量梯度下降 本章目录 02 优化算法 03 超参数调整和BatchNorm 04 Softmax 3 01 小批量梯度下降 02 优化算法 03 超参数调整和BatchNorm 04 Softmax 1.小批量梯度下降 4 小批量梯度下降 小批量梯度下降(Mini-Batch Gradient Descent) 梯度下降的每一步中,用到了一定批量的训练样本 每计算常数?次训练实例,便更新一次参数 ? ?=1(随机梯度下降,SGD) ?=m(批量梯度下降,BGD) ?=batch_size,通常是2的指 数倍,常见有32,64,128等。 (小批量梯度下降,MBGD) 参数更新 ??: = ?? − ? 1 ? ?=? ?+?−1 ℎ ?(?) − ?(?) ?? (?) (同步更新?? ,(j=0,1,...,n )) 5 小批量梯度下降 6 01 小批量梯度下降 02 优化算法 03 超参数调整和BatchNorm 04 Softmax 2.优化算法 7 伦敦温度的例子 days temperature ?1 = 40°F ?2 = 49°F ?3 = 45°F ... ?180 = 60°F0 码力 | 31 页 | 2.03 MB | 1 年前3
机器学习课程-温州大学-03深度学习-PyTorch入门type()。但是更加推荐采用x.type()(这种方式能看到 更具体信息) 5 、 tensor 含 义 device ( 是 否 使 用 GPU ) , requires_grad(是否需要求导)等设置参数。 1.Tensors张量的概念 9 Tensor与NumPy的函数对比 . 操作类别 Numpy PyTorch 数据类型 np.ndarray torch.Tensor np.float32 #TensorFlow一 般使用梯度磁 带tf.GradientTape来记 录正向 运算过程,然后反播磁带自动 得到梯度值。 ②对常量也可求导,需要增加 watch。 ③对tf.Variable可以通过参数 trainable 控制是否可学习,缺 省是True。 是否支持GPU 不支持 支持 支持 常量示例 5.6 torch.tensor([5.6]) a=tf.constant([3.2, 4 乘法,可以认为该乘 法使用使用两个参数的后两个维度来计算,其他的维度都可以认为是batch维度。 假设两个输入的维度分别是input(1000×500×99×11), other(500×11×99)那么我 们可以认为torch.matmul(input, other, out=None)乘法首先是进行后两位矩阵乘法得 到(99×11)×(11×99)⇒(99×99),然后分析两个参数的batch size分别是0 码力 | 40 页 | 1.64 MB | 1 年前3
机器学习课程-温州大学-02机器学习-回归梯度下降的每一步中,用到一个样本,在每一次计算之后 便更新参数 ,而不需要首先将所有的训练集求和 小批量梯度下降(Mini-Batch Gradient Descent,MBGD) 梯度下降的每一步中,用到了一定批量的训练样本 14 梯度下降的三种形式 批量梯度下降(Batch Gradient Descent) 梯度下降的每一步中,都用到了所有的训练样本 参数更新 ??: = ?? − ? 1 次计算之后便更新参数,而不 需要首先将所有的训练集求和 参数更新 ??: = ?? − ? ℎ ?(?) − ?(?) ??(?) (同步更新?? ,(j=0,1,...,n )) 17 梯度下降的三种形式 小批量梯度下降(Mini-Batch Gradient Descent) 梯度下降的每一步中,用到了一定批量的训练样本 每计算常数?次训练实例,便更新一次参数 ? ?=1(随机梯度下降 =1(随机梯度下降,SGD) ?=m(批量梯度下降,BGD) ?=batch_size,通常是2的指 数倍,常见有32,64,128等。 (小批量梯度下降,MBGD) 参数更新 ??: = ?? − ? 1 ? ?=? ?+?−1 ℎ ?(?) − ?(?) ?? (?) (同步更新?? ,(j=0,1,...,n )) 18 梯度下降与最小二乘法比较 梯度下降:需要选择学习率?,需要多次迭代,当特征数量0 码力 | 33 页 | 1.50 MB | 1 年前3
机器学习课程-温州大学-02深度学习-神经网络的编程基础梯度下降的每一步中,用到一个样本,在每一次计算之后 便更新参数 ,而不需要首先将所有的训练集求和 小批量梯度下降(Mini-Batch Gradient Descent,MBGD) 梯度下降的每一步中,用到了一定批量的训练样本 12 梯度下降的三种形式 批量梯度下降(Batch Gradient Descent) 梯度下降的每一步中,都用到了所有的训练样本 参数更新 ??: = ?? − ? 1 次计算之后便更新参数,而不 需要首先将所有的训练集求和 参数更新 ??: = ?? − ? ℎ ?(?) − ?(?) ??(?) (同步更新?? ,(j=0,1,...,n )) 15 梯度下降的三种形式 小批量梯度下降(Mini-Batch Gradient Descent) 梯度下降的每一步中,用到了一定批量的训练样本 每计算常数?次训练实例,便更新一次参数 ? ?=1(随机梯度下降 (小批量梯度下降,MBGD) 参数更新 ??: = ?? − ? 1 ? ?=? ?+?−1 ℎ ?(?) − ?(?) ?? (?) (同步更新?? ,(j=0,1,...,n )) 16 逻辑回归的梯度下降 小批量梯度下降(Mini-Batch Gradient Descent) 梯度下降的每一步中,用到了一定批量的训练样本 每计算常数?次训练实例,便更新一次参数 ? ?=1(随机梯度下降0 码力 | 27 页 | 1.54 MB | 1 年前3
机器学习课程-温州大学-04深度学习-深层神经网络25 7.参数和超参数 什么是超参数? 比如算法中的learning rate ?(学习率)、iterations(梯度下降法循环 的数量)、?(隐藏层数目)、?ሾ?] (隐藏层单元数目)、choice of activation function(激活函数的选择)都需要你来设置,这些数字实 际上控制了最后的参数?和?的值,所以它们被称作超参数。 26 7.参数和超参数 深度学习和大脑的关联性 深度学习和大脑的关联性 深度学习和大脑有什么关联性吗? 关联不大。 27 参考文献 1. IAN GOODFELLOW等,《深度学习》,人民邮电出版社,2017 2. Andrew Ng,http://www.deeplearning.ai 28 谢 谢!0 码力 | 28 页 | 1.57 MB | 1 年前3
机器学习课程-温州大学-numpy使用总结array([ 1., 2., 3., 4., 1., 2., 3., 4., 1., 2.]) 还可以自定义函数产生ndarray。 fromfunction第一个参数接收计算函数,第二个参数接收数组的形状。 17 ndarray的属性 ndarray的元素具有相同的元素类型。常用的有int(整型),float(浮点型), complex(复数型)。 > a = np 2, 0, 0, 2, 2, 0, 0], dtype=object) frompyfunc(func, nin, nout) func:计算函数 nin:func()输入参数的个数 nout:func()输出参数的个数 因为最后输出的元素类型是object,所以我们还需要把它转换 成整型。 y.astype(np.int) 29 广播(broadcasting) 使用ufunc对 二元最小值 maxinum 二元最大值 sort 数组排序 argsort 数组排序下标 percentile 分位数 median 中位数 min,max都有axis,out,keepdims等参数,我们来看其他函数。 39 大小与排序 sort()对数组进行排序会改变数组的内容,返回一个新的数组。axis的默认 值都为-1,即按最终轴进行排序。axis=0对每列上的值进行排序。 np0 码力 | 49 页 | 1.52 MB | 1 年前3
共 73 条
- 1
- 2
- 3
- 4
- 5
- 6
- 8













