本篇主要是做一个index一样的目录(同时还有一些知识点),方便之后的学习查询
60-Minute Builtz
What is Pytorch?
很多操作和tensorflow一致torch.add(x, y, out = result)y.add_(x) in_place加法可以从tensor复制另外的tensor (x = torch.new_ones(5, 3, dtype=)),甚至x.view()也可以做到Tensor向numpy的转换Torch 可以指定建造Tensor的device,用tensor.to()可转移该tensor,或者直接在创建的时候就指定在什么设备上,用Torch.device()创建设备实例。
Auto-grad
PYTORCH可以在创建tensor时指定是否需要微分,同时变量还有grad_fn函数。对最终生成的量(o)进行反向传播,x的gradient就生成了。没搞懂往backword里加参数是什么意思。
Neural-networks
用class定义神经网络(forward)处理input并调用backword()(如何使用class)计算损失更新权重(优化器)
Traning Classifier
Pytorch训练分类器完整过程
加载数据定义神经网络结构定义损失函数和优化器训练迭代网络在测试集上测试在gpu上做
Data - Parallelism
数据并行计算
Data Loading and Processing
写一个数据集的类
Transoform(改造数据):
RescaleRandom crop转为tensor
遍历数据集
Torchvision, 集成了一些数据集的class
Learning Pytorch with Examples
一些例子:(帮助快速学习使用)
Tensor和autograd的例子nn.Module的例子
迁移学习例子
加载数据(对图像做一些可视化)训练模型(对预测结果做可视化)迁移学习的主要2个用途:
对卷积做Finetune固定特征提取器
用混合前端部署seq2seq
使用混合前端部署seq2seq模型
混合前端:大概就是从eager模式到静态图的转变,主要用于生产环境的计算优化。
loading and save Model
各种情况下的保存和读取模型
What is torch.nn really?
比较scratch写法和用module写的异同。
主要是torch.nn, optim, Dataset, Dataloader的使用。