动手学深度学习 v2.01 提交微小更改 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 763 16.5.2 大量文本或代码修改 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 763 16.5.3 提交主要更改 . . . 本,并执行以下操作: # 以Intel处理器为例,文件名可能会更改 sh Miniconda3-py39_4.12.0-MacOSX-x86_64.sh -b 如果我们使用Linux,假设Python版本是3.9(我们的测试版本),将下载名称包含字符串“Linux”的bash脚 本,并执行以下操作: # 文件名可能会更改 sh Miniconda3-py39_4.12.0-Linux-x86_64 1.6 转换为其他Python对象 将深度学习框架定义的张量转换为NumPy张量(ndarray)很容易,反之也同样容易。torch张量和numpy数 组将共享它们的底层内存,就地操作更改一个张量也会同时更改另一个张量。 A = X.numpy() B = torch.tensor(A) type(A), type(B) (numpy.ndarray, torch.Tensor) 要0 码力 | 797 页 | 29.45 MB | 1 年前3
Keras: 基于 Python 的深度学习库THEANO_FLAGS=device=gpu,floatX=float32 python my_keras_script.py ”gpu” 可能需要根据你的设备标识符(例如 gpu0,gpu1 等)进行更改。 方法 2: 创建 .theanorc: 指导教程 方法 3: 在代码的开头手动设置 theano.config.device, theano.config.floatX: import theano (batch_size, steps, input_dim)。 输出尺寸 3D 张量,尺寸为 (batch_size, new_steps, filters)。由于填充或窗口按步长滑动,steps 值可能已更改。 5.3.2 Conv2D [source] keras.layers.Conv2D(filters, kernel_size, strides=(1, 1), padding='valid' data_format=’channels_last’,输出 4D 张量,尺寸为 (samples, new_rows, new_cols, filters)。 由于填充的原因,rows 和 cols 值可能已更改。 5.3.3 SeparableConv2D [source] keras.layers.SeparableConv2D(filters, kernel_size, strides=(1, 1)0 码力 | 257 页 | 1.19 MB | 1 年前3
深度学习与PyTorch入门实战 - 01. 初见PyTorchs-part-i-cff0e3841750 静态图 综合评价 PyTorch TensorFlow 1 TensorFlow 2 性能 生态 工业界 学术界 上手难度 易用性 兼容性 发展前景 0 小结 VS PyTorch生态 TorchVision PyTorch能做什么? • GPU加速 • 自动求导 • 常用网络层 1. GPU加速 2. 自动求导0 码力 | 19 页 | 1.06 MB | 1 年前3
QCon北京2018-《未来都市--智慧城市与基于深度学习的机器视觉》-陈宇恒Kubernetes版本发布快,新特性更新频繁,对异构调度的支持不断加强;但配套设施落后(e.g. Spark on K8s, GitlabCI) • 容器系统调用栈深,需要仔细验证操作系统,内核及异构设备驱动的兼容性 • Kubernetes对NUMA、异构计算、存储设备的调度能力待加强 1.6 nvidia/gpu custom scheduler 1.8 local-volume 1.10 CPU0 码力 | 23 页 | 9.26 MB | 1 年前3
机器学习课程-温州大学-时间序列总结2018年10月 时间间隔 由起始时间戳和 结束时间戳表示 8 创建时间序列 Pandas中,时间戳使用Timestamp(Series派生的子 类)对象表示。 该对象与datetime具有高度的兼容性,可以直接通过 to_datetime()函数将datetime转换为TimeStamp对象。 pd.to_datetime('20180828') 9 创建时间序列 如果传入的是多个0 码力 | 67 页 | 1.30 MB | 1 年前3
AI大模型千问 qwen 中文文档device_map="auto", attn_implementation="flash_attention_2", ) 为了解决下载问题,我们建议您尝试从 ModelScope 进行下载,只需将上述代码的第一行更改为以下内容: from modelscope import AutoModelForCausalLM, AutoTokenizer 借助 TextStreamer ,chat 的流式模式变得非常 配置指定。如果您使用 LoRA 或 Q-LoRA,只需根据您的需求添加 --use_lora True 或 --q_lora True 。这是开始微调的最简单方式。如果您想更改更多超参数,您可以深入脚本并修改这些参数。 高级用法 在这个部分中,我们介绍 python 脚本以及 shell 脚本的相关细节 Shell 脚本 在展示 Python 代码之前,我们先对包含命令的 0 码力 | 56 页 | 835.78 KB | 1 年前3
机器学习课程-温州大学-numpy使用总结--------- [1, 3, 5, 7] [9, 8, 7, 6, 5, 4, 3, 2, 1, 0] [5, 3] 可以通过切片的对ndarray中的元素进行更改。 > a[2:4] = 100, 101 > a array([ 0, 1, 100, 101, 4, 5, 6, 7, 8, 9]) 19 ndarray的切片0 码力 | 49 页 | 1.52 MB | 1 年前3
机器学习课程-温州大学-12深度学习-自然语言处理和词嵌入语料库进行语言模型的生成性预训练,然后对每个特定任务 进行区分性微调,可以实现这些任务上的巨大收益。和之前方法不同,GPT在微调期间使用任务感知输入转换,以实现有效的传输, 同时对模型架构的更改最小。 图:GPT-1模型的核心手段是预训练(Pre-training) 无监督预训练 (Unsupervised pre-training) 不需要标注数据集,即大规 模自学阶段,在保证AI算力0 码力 | 44 页 | 2.36 MB | 1 年前3
共 8 条
- 1













