《动手学深度学习》
Table Of Contents
《动手学深度学习》
Table Of Contents

多层感知机的 Gluon 实现

下面我们使用 Gluon 来实现上一节中的多层感知机。首先我们导入所需的包或模块。

In [1]:
import gluonbook as gb
from mxnet import gluon, init
from mxnet.gluon import loss as gloss, nn

定义模型

和 softmax 回归唯一的不同在于,我们多加了一个全连接层作为隐藏层。它的隐藏单元个数为 256,并使用 ReLU 作为激活函数。

In [2]:
net = nn.Sequential()
net.add(nn.Dense(256, activation='relu'),
        nn.Dense(10))
net.initialize(init.Normal(sigma=0.01))

读取数据并训练模型

我们使用和训练 softmax 回归几乎相同的步骤来读取数据并训练模型。

In [3]:
batch_size = 256
train_iter, test_iter = gb.load_data_fashion_mnist(batch_size)

loss = gloss.SoftmaxCrossEntropyLoss()
trainer = gluon.Trainer(net.collect_params(), 'sgd', {'learning_rate': 0.5})
num_epochs = 5
gb.train_ch3(net, train_iter, test_iter, loss, num_epochs, batch_size,
             None, None, trainer)
epoch 1, loss 0.8181, train acc 0.699, test acc 0.807
epoch 2, loss 0.4979, train acc 0.817, test acc 0.834
epoch 3, loss 0.4310, train acc 0.840, test acc 0.856
epoch 4, loss 0.3965, train acc 0.854, test acc 0.868
epoch 5, loss 0.3772, train acc 0.860, test acc 0.865

小结

  • 通过 Gluon 我们可以更方便地构造多层感知机。

练习

  • 尝试多加入几个隐藏层,对比上节中从零开始的实现。
  • 使用其他的激活函数,看看对结果的影响。

扫码直达讨论区

image0