0%

RNN(recurrent neural network)擅长处理序列内容,因此在 NLP 中应用较多。然而 RNN 的拓扑结构与 MLP、CNN 完全不同,因此学习起来会有很大的困扰。本文是介绍如何用锤子敲钉子的,而不是如何造锤子或者为什么要敲的。所以 RNN 的原理与使用场景在这里从略。然而了解 RNN 的工作原理对正确使用 RNN 大有裨益,所以在此附上参考资料 ,供读者参考。

阅读全文 »

本文尽量不涉及 CNN(卷积神经网络)的原理,仅讨论 CNN 的 PyTorch 实现。CNN 独有的层包括卷积层(convolution layer),池化层(pooling layer),转置卷积层(transposed convolution layer),反池化层(unpooling layer)。卷积层与池化层在 CNN 中最常用,而转置卷积层与反池化层通常用于计算机视觉应用里的图像再生,对于 NLP 来说应用不多,不再赘述。

阅读全文 »