用Rust实现基础的全连接神经网络,并用mnist
数据集进行训练。
- 使用数组构建二维矩阵,并重载了相关运算符,其中使用
&
表示矩阵乘法 - 实现了全连接层和softmax输出层的前馈网络以及方向传播
- 加入了Adam优化器
- 运算效率较低,且收敛较慢,使用pytorch进行对比,编译后的文件每轮耗时大约是pytorch的5倍。其中Adam运算部分最为耗时,其次是矩阵运算部分。
pytorch result
rust result
git clone https://github.com/Dragon-GCS/rust-dnn.git
cd rust-dnn
cargo build -r
-
Relu: $$f(x) =\begin{cases} x & x>0 \\ 0 & x\le0\end{cases}$$ $$f\prime(x) =\begin{cases} 1&x>0 \\ 0&x\le0\end{cases}$$
-
Sigmoid:
$$\sigma(x) = \frac{1}{1+e^x}$$ $$\sigma\prime(x)=\sigma(x)(1-\sigma(x))$$ -
Softmax:
$$f(x) = \frac{e^{x_i}}{\sum_{j}e^{x_j}}$$ $$f\prime(x)= f(x_i)(1 - f(x_i)) + \sum_{j\neq i} f(x_j) f(x_i) $$ -
Cross Entropy(Prime include softmax activation):
$$f(\hat{y}, y) = -\frac{1}{n}\sum^n_{i=1}y_i\ln\hat{y}_i$$ $$f_i\prime(\hat{y}, y) = \hat{y_i} - y_i$$ -
Adam Optimizer:
$$v_t = \frac{\beta_1*v_{t - 1} + (1 - \beta_2)*dW}{1 - \beta_1^t}$$ $$s_t = \frac{\beta_2*s_{t - 1} + (1 - \beta_2)*dW}{1 - \beta_2^t}$$ $$W = W - \alpha * \frac{v_t}{\sqrt{s_t} + \epsilon}$$