Normalization in Pytorch這篇介紹Pytorch內建的Normalization的東西。內容有Batch Normalization, Layer Normalization, Instance Normalization以及另外兩個沒有寫在nn.Layer 裏頭的 Weight…Jun 23, 2019Jun 23, 2019
Pytorch Taoyuan- LeNet 實作團02- Neurons實作團01順利完成,從MNIST dataset processing的過程中,可以知道pytorch dataloader和自己從byte format file一步一步解的差異,相信日後在遇到野生的dataset時,更能有想法來處理這些raw data.Jun 16, 2019Jun 16, 2019
Pytorch Optimizers 01- SGD & Momentum在pytorch中,optimization的模組提供了很多方式來進行網路的反向傳播,在這篇文章簡介常用的幾個方法.May 26, 2019May 26, 2019
Softmax v.s. LogSoftmax這個是用pytorch蓋LeNet的時候,在輸出的時候加上softmax發現效果很差,所以就來研究softmax的數學特性,順便把LogSoftmax也一起比較.Mar 16, 20192Mar 16, 20192
L1 Loss和L2 Loss比較這幾天在弄LeNet的投影片,在分析Output和Loss function的時候發現彼此的一些特性,所以就寫個比較文.Mar 15, 2019Mar 15, 2019