SIGMA's BLOG

但行好事,莫问前程


  • 首页

  • 标签

  • 分类

  • 归档

  • 站点地图

GTX970无法安装Ubuntu16.04|安装后黑屏

发表于 2017-12-21 | 分类于 Linux | | 阅读次数:
配置123456CPU:Intel E3-1231 v3 @ 3.40GHz显卡:GTX970内存:16G硬盘:SSD256G+HHD2T拟安装:Ubuntu16.04 出现的问题 无法进入install ubuntu 进入install ubuntu开始安装时提示 “The attempt to ...
阅读全文 »

Convolutional Neural Networks

发表于 2017-12-21 | 分类于 Deep Learning | | 阅读次数:
卷积操作O = \frac{W-K+2P}{S}+1$O$是output_shape,$W$是image,$K$是filter,$P$是padding,$S$是stride stride = 1 stride = 2 Padding padding的计算公式与conv一样 zero paddin ...
阅读全文 »

SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS

发表于 2017-12-21 | 分类于 Deep Learning | | 阅读次数:
2 Fast Approximate Convolutions On Graphs 介绍基于图的神经网络模型 $f(X, A)$ 的理论基础 H^{(l+1)} = \sigma( \tilde{D}^{-\frac{1}{2}} \tilde{A} \tilde{D}^{-\frac{1}{2} ...
阅读全文 »

GCRN代码解读

发表于 2017-12-21 | 分类于 Deep Learning | | 阅读次数:
Intro 论文及源代码:点击这里 若发现存在错误,欢迎指正。 GCN,是基于Spectral Graph Theory所研究出来的一种方法,它主要的好处是利用了SGT里面一些已有的结论和方法,来得到图的性质。GCRN是一个将GCN和RNN结合起来使用的模型,能处理具有空间和时序的数据。 源代码的 ...
阅读全文 »

Fully Convolutional Networks

发表于 2017-12-21 | 分类于 Deep Learning | | 阅读次数:
Here is the paper question translation invariance是指什么,有什么作用 其中一种loss:IoU —— Intersection of Union Ground Truth- 3.convnet = h w d (height, width ...
阅读全文 »

Mask的概念解读

发表于 2017-12-21 | 分类于 Deep Learning | | 阅读次数:
概念转自这里 什么是掩膜(mask) 数字图像处理中的掩膜的概念是借鉴于PCB制版的过程,在半导体制造中,许多芯片工艺步骤采用光刻技术,用于这些步骤的图形“底片”称为掩膜(也称作“掩模”),其作用是:在硅片上选定的区域中对一个不透明的图形模板遮盖,继而下面的腐蚀或扩散将只影响选定的区域以外的区域。 ...
阅读全文 »

Huber loss

发表于 2017-12-21 | 分类于 Deep Learning | | 阅读次数:
wikipedia 在统计学里面,Huber loss是一个在robust regression里面用的loss func。它对离群点没平方差那么敏感。 定义 其中,$|a| = \delta, a = y-f(x)$。$\delta$是参数,$f(x)$是模型的预测值,$y$是真实值。 可以 ...
阅读全文 »

关于RNN的一些问题

发表于 2017-12-21 | 分类于 Deep Learning | | 阅读次数:
Why RNN某些任务是需要NN具有记忆的,比如 我 来了 台北 我 离开了 台北 要确定我要离开还是来了台北,需要知道前一个单词是什么。这就需要网络具有记忆,于是就提出了RNN。 Why RNN’s error surface so rough这是长距离传输引起的。假设有一个RNN,它的 me ...
阅读全文 »

R-squared

发表于 2017-12-21 | 分类于 Deep Learning | | 阅读次数:
view the blog here R-squared是描述所训练出来的线性模型和数据的契合程度。 定义 R-squared = Explained variation / Total variation R-squared是在0-100%之间的百分数 0%表示model不能解释均值附近的数据的 ...
阅读全文 »

Sparse matrix

发表于 2017-12-21 | 分类于 Deep Learning | | 阅读次数:
Sparse matrix稀疏矩阵指的是矩阵里面的元素大多都是0值。 与 sparse 相对的,就是 dense, which most elements of the matrix are nonzero 矩阵的稀疏性 = zero-valued elements / total number o ...
阅读全文 »
12…4
Junyan Wu

Junyan Wu

读研中

37 日志
3 分类
19 标签
GitHub 知乎 简书
© 2017 — 2018 Junyan Wu
由 Hexo 强力驱动
|
主题 — NexT.Muse v5.1.3