A tutorial on Artificial Intelligence
0.1
引言
第一卷 数学基础
第二卷 经典物理
第三卷 现代物理学
第四卷 计算机学
第五卷 信号处理
第六卷 人工智能
简介
优化方法
机器学习
神经网络
1. 简介
2. 神经网络组件
3. 神经网络常用损失函数
4. 简单神经网络
5. 支撑矢量机
6. 极速学习机
7. 基于能量的神经网络
8. 卷积神经网络
9. 递归神经网络
10. 生成式神经网络
11. 残差神经网络
12. 分形神经网络
13. 随机神经网络
14. 复杂度分析
15. 参考文献
16. 名词术语
深度学习
模糊神经系统
课程学习
自步学习
第七卷 雷达信号处理
第八卷 医学信号处理
第九卷 天文学
第十卷 应用实践
第十一卷 补充内容
名词术语
A tutorial on Artificial Intelligence
Docs
»
第六卷 人工智能
»
神经网络
神经网络
¶
1. 简介
1.1. What is?
1.1.1. dddddddd
1.2. Why?
1.2.1. dddddddd
1.3. How?
1.3.1. materials
2. 神经网络组件
2.1. 激活函数单元
2.1.1. 什么是激活函数
2.1.2. 为什么要有激活函数
2.1.3. 经典激活函数分类
2.1.4. 新颖激活函数
2.2. 卷积单元
2.2.1. 经典卷积运算
2.2.2. 经典二维转置卷积运算
2.2.3. 新型卷积
2.2.4. 实验分析
2.3. 池化单元
2.3.1. 经典二维池化运算
2.3.2. 膨胀二维池化运算
2.3.3. 金字塔池化
2.4. 正则化单元
2.5. 跳跃连接
2.5.1. 前向跳跃连接
2.5.2. 后向跳跃连接
2.6. 递归单元
2.7. 残差单元
2.7.1. 经典残差块分析
2.8. 参考文献
3. 神经网络常用损失函数
3.1. 基于误差的损失函数
3.1.1. 什么是误差
3.1.2. 均方误差损失
3.1.3. 绝对误差损失
3.1.4. 光滑绝对误差损失
3.2. 基于熵的损失函数
3.2.1. 什么是熵
3.2.2. 交叉熵损失函数
3.2.3. 相对熵损失函数
3.2.4. 二值交叉熵损失函数
4. 简单神经网络
4.1. 单层感知器
4.1.1. 什么是感知器
4.1.2. 单层感知器
4.1.3. 实例
4.2. 多层感知器
4.2.1. 概念与内涵
4.2.2. 实例
4.2.3. MNIST手写体分类
4.2.4. CFAR10物体分类
4.3. 自编码神经网络
5. 支撑矢量机
5.1. 支撑矢量机
5.2. 模糊支撑矢量机
5.2.1. FSVM原理
5.2.2. 隶属函数选择
5.2.3. 实验及结果
5.3. 参考文献
5.4. 名词术语
6. 极速学习机
6.1. 经典极速学习机
6.1.1. 什么是极速学习机
6.2. 基于局部感受野的极速学习机
6.2.1. 说明
6.2.2. 摘要内容
6.2.3. 引言部分
6.2.4. 回顾ELM, CNN和HTM
6.2.5. ELM-LRF 原理
6.2.6. 局部感受野的实现
6.2.7. 讨论
6.2.8. 实验
6.2.9. 结论
6.2.10. 代码实现
6.2.11. 参考文献
6.3. 模糊极速学习机
6.4. 基于局部感受野的模糊极速学习机
6.4.1. 简介
6.4.2. FELM-LRF原理
6.4.3. 隶属函数选择
6.4.4. 实验及结果
6.5. 在线极速学习机
6.5.1. 简介
6.5.2. OSELM 原理
6.6. 基于局部感受野的在线极速学习机
6.6.1. 简介
6.6.2. OSELM-LRF原理
6.7. 参考文献
6.8. 名词术语
7. 基于能量的神经网络
7.1. Hopfield 神经网络
7.2. 玻尔兹曼机与受限玻尔兹曼机
8. 卷积神经网络
8.1. 经典卷积神经网络
8.1.1. 卷积神经网络举例
9. 递归神经网络
9.1. 递归神经网络
10. 生成式神经网络
10.1. 生成式神经网络
11. 残差神经网络
11.1. 残差神经网络
12. 分形神经网络
12.1. 分形神经网络
13. 随机神经网络
13.1. 随机神经网络
14. 复杂度分析
14.1. 衡量指标
14.1.1. 运算量计算
14.2. 实例分析
14.2.1. SSD300目标检测网络分析
15. 参考文献
16. 名词术语