/imgs/avatar.png

RNN简洁实现

定义模型 RNN层 num_hiddens = 256 rnn_layer = nn.RNN(len(vocab), num_hiddens) RNN模型 #@save class RNNModel(nn.Module): """循环神经网络模型""" def __init__(self, rnn_layer, vocab_size, **kwargs): super(RNNModel, self).__init__(**kwargs) self.rnn =

RNN手动实现

初始化模型参数 def get_params(vocab_size, num_hiddens, device): num_inputs = num_outputs = vocab_size def normal(shape): return torch.randn(size=shape, device=device) * 0.01 # 隐藏层参数 W_xh = normal((num_inputs, num_hiddens)) b_h = torch.zeros(num_hiddens, device=device) W_hh = normal((num_hiddens, num_hiddens)) # 这里是与单层神经网络的唯一区别,计算下一时刻的隐藏层 # 输

循环神经网络

自回归模型 首先它是回归模型,它的“自”指的是对自己进行回归,具体来说,要预测 $x_t$ 的值,需要用到的也是x的信息: $[x_{t-1},\dots,x_{t-\tau}]$ 还有一种策略是隐变量自回归,直

第四周

学习时间 5月2日 到 6月9日 学习目标 深度学习计算章节学习 卷积神经网络章节学习 alexnet代码实现 ResNet论文阅读 学习内容 深度计算计算 模型

BatchNorm

训练深层网络 批量规范化应用于单个可选层(也可以应用到所有层),其原理如下:在每次训练迭代中,我们首先规范化输入,即通过减去其均值并除以其标准

NiN

模型结构 NiN块以一个普通卷积层开始,后面是两个$1 \times 1$的卷积层。这两个$1 \times 1$卷积层充当带有ReLU激活函数的逐像素全连接层。 第一层的