-
贝叶斯 从discrete prior 到continuous prior ? 还是只要 continuous prior ?
1.1 bayesian 和frequentist 的区别要不要说 ? 这里要不要 也用frequentist 的方法做一遍 ? -
SRCNN – 普通的CNN 要不要提 ? 要说多详细 ? 数据集要什么 BSD100 ?
-
测量相似度的PSNR SSIM MSSIM
-
preceptral less —li feifei
-
GAN ?
-
VGG ?
-
ResNEt ?
Abstract
1.Intro
这段里说VT 和
2 Related work
2.1 DCGAN 的发展
- Tonie 的paper
2.2 贝叶斯的发展
- 贝叶斯公式怎么推导
- discrete prior
- continuous prior
- 前面的常数的意义
- flat prior 和informative prior 怎么选
2.3 Super Resolution 的发展
- resampling 方法 bicubic bilinear
- A+ sparse-coding- method (抄SRCNN)
3. method
总起段介绍VT 的方法和统计学原理
3.1.1 我统一了PT
3.1.2 我使用了Beta 方程
- conjugate prior 存在的意义, 为什么VT 问题 可以用beta 方程
- beta factor 是什么,为什么选30
- 数据量对结果的影响
3.2
总起段介绍SR
3.2.1 我使用了SRCNN
- CNN的 结构
- 每一层的参数是?
- 给图 keras 生成
- 给表 keras 生成
3.2.2 我使用了 RSRCNN
- CNN的 结构
- 每一层的参数是?
- 给图 keras 生成
- 给表 keras 生成
- 他的优点是快速
4. result
4.1 Beta 举例子
- 三个例子
- 能区别
- 不能区别
- 一开始不能区别后来能区别了
4.2 SR
- normalisation 的方法
- 给结果图 和 传统方法比较
- OMNIGLOT 的表现
- BSD100 SET5 SET 100 的表现
- 给numerical comparision 和 传统方法比较
- SSIM
- PSNR
5. Conclusion
我发明了一个VT 的方法, 在实际使用中, 发现 原图可能会太小, 所以发明了一种让原图放大但不失真的SR 方法, 并且衡量了他们的表现