人工智能、大数据与复杂系统

├─01-复杂系统
│ 1.1物理预测的胜利与失效
│ 1.2预测失效原因
│ 1.3复杂系统引论
│ 1.4生活实例与本章答疑

├─02-大数据与机器学习
│ 2.1大数据预测因为
│ 2.2大数据与机器学习

├─03-人工智能的三个阶段
│ 3.10课程大纲(二)
│ 3.1规则阶段
│ 3.2机器学习阶段发展至连接主义阶段
│ 3.3课间答疑
│ 3.4连接主义阶段发展至学习阶段
│ 3.5三个阶段总结分析
│ 3.6人工智能的应用(一)
│ 3.7人工智能的应用(二)
│ 3.8课间答疑
│ 3.9课程大纲(一)

├─04-高等数学—元素和极限
│ 4.10级数的收敛
│ 4.11极限的定义
│ 4.12极限的四则运算
│ 4.13极限的复合
│ 4.14连续性
│ 4.1实数的定义(一)
│ 4.2实数的定义(二)
│ 4.3实数的定义(三)
│ 4.4实数的元素个数(一)
│ 4.5实数的元素个数(二)
│ 4.6自然数个数少于实数个数(一)
│ 4.7自然数个数少于实数个数(二)
│ 4.8无穷大之比较(一)
│ 4.9无穷大之比较(二)

├─05-复杂网络经济学应用
│ 5.1用网络的思维看经济结构
│ 5.2复杂网络认识前后
│ 5.3从网络结构看不同地区(一)
│ 5.4从网络结构看不同地区(二)

├─06-机器学习与监督算法
│ 6.1什么是机器学习
│ 6.2机器学习的类型
│ 6.3简单回归实例(一)
│ 6.4简单回归实例(二)
│ 6.5简单回归实例(三)

├─07-阿尔法狗与强化学习算法
│ 7.1人工智能的发展
│ 7.2强化学习算法(一)
│ 7.3强化学习算法(二)
│ 7.4强化学习算法(三)
│ 7.5Alphago给我们的启示
│ 7.6无监督学习

├─08-高等数学—两个重要的极限定理
│ 8.1元素与极限的知识点回顾
│ 8.2第一个重要极限定理的证明(一)
│ 8.3第一个重要极限定理的证明(二)
│ 8.4夹逼定理
│ 8.5第二个重要极限定理的证明

├─09-高等数学—导数
│ 9.10泰勒展开的证明
│ 9.1导数的定义
│ 9.2初等函数的导数
│ 9.3反函数的导数(一)
│ 9.4反函数的导数(二)
│ 9.5复合函数的导数
│ 9.6泰勒展开
│ 9.7罗尔定理
│ 9.8微分中值定理和柯西中值定理
│ 9.9洛比塔法则

├─10-贝叶斯理论
│ 10.10贝叶斯于机器学习(一)
│ 10.11贝叶斯于机器学习(二)
│ 10.12贝叶斯决策(一)
│ 10.13贝叶斯决策(二)
│ 10.14贝叶斯决策(三)
│ 10.1梯度优化(一)
│ 10.2梯度优化(二)
│ 10.3概率基础
│ 10.4概率与事件
│ 10.5贝叶斯推理(一)
│ 10.6贝叶斯推理(二)
│ 10.7贝叶斯推理(三)
│ 10.8辛普森案件
│ 10.9贝叶斯推理深入

├─11-高等数学—泰勒展开
│ 11.1泰勒展开
│ 11.2展开半径
│ 11.3欧拉公式
│ 11.4泰勒展开求极限(一)
│ 11.5泰勒展开求极限(二)

├─12-高等数学—偏导数
│ 12.1偏导数的对称性
│ 12.2链式法则
│ 12.3梯度算符、拉氏算符

├─13-高等数学—积分
│ 13.1黎曼积
│ 13.2微积分基本定理
│ 13.3分部积分(一)
│ 13.4分部积分(二)

├─14-高等数学—正态分布
│ 14.1标准正态分布
│ 14.2中心极限定理
│ 14.3误差函数
│ 14.4二维正态分布
│ 14.5多维正态分布

├─15-朴素贝叶斯和最大似然估计
│ 15.10朴素贝叶斯(三)
│ 15.11最大似然估计(一)
│ 15.12最大似然估计(二)
│ 15.1蒙特卡洛分析(一)
│ 15.2蒙特卡洛分析(二)
│ 15.3贝叶斯先验
│ 15.4先验到后验的过程
│ 15.5朴素贝叶斯(一)
│ 15.6朴素贝叶斯(二)
│ 15.7算法设计
│ 15.8TF-IDF(一)
│ 15.9TF-IDF(二)

├─16-线
│ 16.10常规线空间
│ 16.11线关
│ 16.12秩
│ 16.1线代数概述
│ 16.2线代数应用方法论
│ 16.3线律
│ 16.4线空间
│ 16.5线空间八条法则(一)
│ 16.6线空间八条法则(二)
│ 16.7线空间八条法则(三)
│ 16.8连续傅
│ 16.9傅立

├─17-数据科学和统计学(上)
│ 17.10随机变量(二)
│ 17.11换门的概率模拟计算(一)
│ 17.12换门的概率模拟计算(二)
│ 17.13换门的概率模拟计算(三)
│ 17.1课程Overview
│ 17.2回顾统计学(一)
│ 17.3回顾统计学(二)
│ 17.4回顾统计学(三)
│ 17.5回顾数据科学(一)
│ 17.6回顾数据科学(二)和教材介绍
│ 17.7R和RStudio等介绍(一)
│ 17.8R和RStudio等介绍(二)
│ 17.9随机变量(一)

├─18-线代数—矩阵、等价类和行列式
│ 18.10等价类
│ 18.11行列式(一)
│ 18.12行列式(二)
│ 18.13行列式(三)
│ 18.1线代数知识点回顾
│ 18.2矩阵表示线变化
│ 18.3可矩阵表示坐标变化
│ 18.4相似矩阵
│ 18.5相似矩阵表示相同线变化
│ 18.6线代数解微分方程
│ 18.7矩阵的运算—转秩(一)
│ 18.8矩阵的运算—转秩(二)
│ 18.9等价关系

├─19-Python基础课程(上)
│ 19.10变量类型—字符串类型(三)
│ 19.11变量类型—列表类型(一)
│ 19.12变量类型—列表类型(二)
│ 19.13变量类型—列表类型(三)
│ 19.14变量类型—语言组类型、字典类型(一)
│ 19.15变量类型—字典类型(二)
│ 19.1Python介绍(一)
│ 19.2Python介绍(二)
│ 19.3变量—命名规范
│ 19.4变量—代码规范
│ 19.5变量类型—数值类型
│ 19.6变量类型—bool类型
│ 19.7变量类型—字符串类型(一)
│ 19.8课间答疑
│ 19.9变量类型—字符串类型(二)

├─20-线代数—特征值与特征向量
│ 20.10线代数核心定理
│ 20.11对偶空间(一)
│ 20.12对偶空间(二)
│ 20.13欧氏空间与闵氏空间
│ 20.14厄米矩阵
│ 20.1线代数知识点回顾
│ 20.2例题讲解(一)
│ 20.3例题讲解(二)
│ 20.4例题讲解(三)
│ 20.5特征值与特征向量的物理意义
│ 20.6特征值与特征向量的性质(一)
│ 20.7特征值与特征向量的性质(二)
│ 20.8本征值的计算(一)
│ 20.9本征值的计算(二)

├─21-监督学习框架
│ 21.10KNN(K最近邻)算法(二)
│ 21.11KNN(K最近邻)算法(三)
│ 21.12线性分类器
│ 21.13高斯判别模型(一)
│ 21.14高斯判别模型(二)
│ 21.1经验误差和泛化误差
│ 21.2最大后验估计
│ 21.3正则化
│ 21.4lasso回归
│ 21.5超参数(一)
│ 21.6超参数(二)
│ 21.7监督学习框架(一)
│ 21.8监督学习框架(二)
│ 21.9KNN(K最近邻)算法(一)

├─22-Python基础课程(下)
│ 22.10函数(三)
│ 22.11函数(四)
│ 22.12类(一)
│ 22.13类(二)
│ 22.14类(三)
│ 22.1条件判断(一)
│ 22.2条件判断(二)
│ 22.3循环(一)
│ 22.4循环(二)
│ 22.5课间答疑
│ 22.6循环(三)
│ 22.7循环(四)
│ 22.8函数(一)
│ 22.9函数(二)

├─23-PCA、降维方法引入
│ 23.1无监督学习框架
│ 23.2降维存在的原因
│ 23.3PCA数学分析方法(一)
│ 23.4PCA数学分析方法(二)
│ 23.5PCA数学分析方法(三)
│ 23.6PCA数学分析方法(四)
│ 23.7PCA之外的降维方法—LDA
│ 23.8PCA背后的假设(一)
│ 23.9PCA背后的假设(二)

├─24-数据科学和统计学(下)
│ 24.10参数估计(一)
│ 24.11参数估计(二)
│ 24.12假设检验(一)
│ 24.13假设检验(二)
│ 24.1课程Overview
│ 24.2理解统计思想(一)
│ 24.3理解统计思想(二)
│ 24.4理解统计思想(三)
│ 24.5概率空间
│ 24.6随机变量(一)
│ 24.7随机变量(二)
│ 24.8随机变量(三)
│ 24.9随机变量(四)

├─25-Python操作数据库、 Python爬虫
│ 25.10Python操作数据库(二)
│ 25.11Python操作数据库(三)
│ 25.12Python操作数据库(四)
│ 25.13Python爬虫(一)
│ 25.14Python爬虫(二)
│ 25.15Python爬虫(三)
│ 25.16Python爬虫(四)
│ 25.17Python爬虫(五)
│ 25.1课程介绍
│ 25.2认识关系型数据库(一)
│ 25.3认识关系型数据库(二)
│ 25.4MySQL数据库与Excel的不同
│ 25.5命令行操作数据库(一)
│ 25.6命令行操作数据库(二)
│ 25.7命令行操作数据库(三)
│ 25.8命令行操作数据库(四)
│ 25.9Python操作数据库(一)

├─26-线分类器
│ 26.10Perceptron(三)
│ 26.11Perceptron(四)
│ 26.12熵与信息(一)
│ 26.13熵与信息(二)
│ 26.1Lasso:alpha参数与准确率(一)
│ 26.2Lasso:alpha参数与准确率(二)
│ 26.3Lasso:alpha参数与准确率(三)
│ 26.4线分类器
│ 26.5LDA(一)
│ 26.6LDA(二)
│ 26.7LDA(三)
│ 26.8Perceptron(一)
│ 26.9Perceptron(二)

├─27-Python进阶(上)
│ 27.10Pandas基本操作(四)
│ 27.11Pandas绘图(一)
│ 27.12Pandas绘图(二)
│ 27.13Pandas绘图(三)
│ 27.14Pandas绘图(四)
│ 27.1NumPy基本操作(一)
│ 27.2NumPy基本操作(二)
│ 27.3NumPy基本操作(三)
│ 27.4NumPy基本操作(四)
│ 27.5NumPy基本操作(五)
│ 27.6NumPy基本操作(六)
│ 27.7Pandas基本操作(一)
│ 27.8Pandas基本操作(二)
│ 27.9Pandas基本操作(三)

├─28-Scikit-Learn
│ 28.1课程介绍
│ 28.2Scikit-Learn介绍
│ 28.3数据处理(一)
│ 28.4数据处理(二)
│ 28.5模型实例、模型选择(一)
│ 28.6模型实例、模型选择(二)
│ 28.7模型实例、模型选择(三)
│ 28.8模型实例、模型选择(四)
│ 28.9模型实例、模型选择(五)

├─29-熵、逻辑斯蒂回归、SVM引入
│ 29.10逻辑斯蒂回归(三)
│ 29.11逻辑斯蒂回归(四)
│ 29.12逻辑斯蒂回归(五)
│ 29.13SVM引入
│ 29.1熵(一)
│ 29.2熵(二)
│ 29.3熵(三)
│ 29.4熵(四)
│ 29.5熵(五)
│ 29.6熵(六)
│ 29.7熵(七)
│ 29.8逻辑斯蒂回归(一)
│ 29.9逻辑斯蒂回归(二)

├─30-Python进阶(下)
│ 30.1泰坦尼克数据处理与分析(一)
│ 30.2泰坦尼克数据处理与分析(二)
│ 30.3泰坦尼克数据处理与分析(三)
│ 30.4泰坦尼克数据处理与分析(四)
│ 30.5泰坦尼克数据处理与分析(五)
│ 30.6泰坦尼克数据处理与分析(六)
│ 30.7泰坦尼克数据处理与分析(七)
│ 30.8泰坦尼克数据处理与分析(八)
│ 30.9泰坦尼克数据处理与分析(九)

├─31-决策树
│ 31.1决策树(一)
│ 31.2决策树(二)
│ 31.3决策树(三)
│ 31.4决策树(四)

├─32-数据呈现基础
│ 32.1课程安排
│ 32.2什么是数据可视化
│ 32.3设计原则
│ 32.4数据可视化流程
│ 32.5视觉编码
│ 32.6图形选择(一)
│ 32.7图形选择(二)
│ 32.8图形选择(三)

├─33-云计算初步
│ 33.1Hadoop介绍
│ 33.2Hdfs应用(一)
│ 33.3Hdfs应用(二)
│ 33.4MapReduce(一)
│ 33.5MapReduce(二)
│ 33.6Hive应用(一)
│ 33.7Hive应用(二)
│ 33.8Hive应用(三)
│ 33.9Hive应用(四)

├─34-D-Park实战
│ 34.10Spark应用(四)
│ 34.11Spark应用(五)
│ 34.12Spark应用(六)
│ 34.13Spark应用(七)
│ 34.1Pig应用(一)
│ 34.2Pig应用(二)
│ 34.3Pig应用(三)
│ 34.4Pig应用(四)
│ 34.5Pig应用(五)
│ 34.6Pig应用(六)
│ 34.7Spark应用(一)
│ 34.8Spark应用(二)
│ 34.9Spark应用(三)

├─35-第四范式分享
│ 35.1推荐技术的介绍
│ 35.2人是如何推荐商品的
│ 35.3推荐系统的形式化以及如何评价推荐结果
│ 35.4求解—从数据到模型
│ 35.5数据拆分与特征工程
│ 35.6推荐系统机器学习模型
│ 35.7评估模型
│ 35.8建模过程的演示与课间答疑

├─36-决策树到随机森林
│ 36.10Bagging与决策树(一)
│ 36.11Bagging与决策树(二)
│ 36.12Boosting方法(一)
│ 36.13Boosting方法(二)
│ 36.14Boosting方法(三)
│ 36.15Boosting方法(四)
│ 36.1决策树
│ 36.2随机森林
│ 36.3在Scikit-Learn里面如何用随机森林做预测(一)
│ 36.4在Scikit-Learn里面如何用随机森林做预测(二)
│ 36.5模型参数的介绍
│ 36.6集成方法(一)
│ 36.7集成方法(二)
│ 36.8Blending
│ 36.9gt多样化

├─37-数据呈现进阶
│ 37.10D3(三)
│ 37.11div.html
│ 37.12svg.html
│ 37.13D3支持的数据类型
│ 37.14Make a map(一)
│ 37.15Make a map(二)
│ 37.1静态信息图(一)
│ 37.2静态信息图(二)
│ 37.3静态信息图(三)
│ 37.4静态信息图(四)
│ 37.5静态信息图(五)
│ 37.6HTML、CSS和JavaScript基础介绍
│ 37.7DOM和开发者工具
│ 37.8D3(一)
│ 37.9D3(二)

├─38-强化学习(上)
│ 38.10Policy Learning(二)
│ 38.11Policy Learning(三)
│ 38.12Policy Learning(四)
│ 38.13Policy Learning(五)
│ 38.14Policy Learning(六)
│ 38.1你所了解的强化学习是什么
│ 38.2经典条件反射(一)
│ 38.3经典条件反射(二)
│ 38.4操作性条件反射
│ 38.5Evaluation Problem(一)
│ 38.6Evaluation Problem(二)
│ 38.7Evaluation Problem(三)
│ 38.8Evaluation Problem(四)
│ 38.9Policy Learning(一)

├─39-强化学习(下)
│ 39.10大脑中的强化学习算法(三)
│ 39.11大脑中的强化学习算法(四)
│ 39.12大脑中的强化学习算法(五)
│ 39.13RL in alphaGo(一)
│ 39.14RL in alphaGo(二)
│ 39.15RL in alphaGo(三)
│ 39.16RL in alphaGo(四)
│ 39.1Policy Learning总结
│ 39.2基于模型的RL(一)
│ 39.3基于模型的RL(二)
│ 39.4基于模型的RL(三)
│ 39.5基于模型的RL(四)
│ 39.6基于模型的RL(五)
│ 39.7基于模型的RL(六)
│ 39.8大脑中的强化学习算法(一)
│ 39.9大脑中的强化学习算法(二)

├─40-SVM和网络引入
│ 40.10SVM(九)
│ 40.11SVM(十)
│ 40.12SVM(十一)
│ 40.13SVM(十二)和网络引入
│ 40.1VC维
│ 40.2SVM(一)
│ 40.3SVM(二)
│ 40.4SVM(三)
│ 40.5SVM(四)
│ 40.6SVM(五)
│ 40.7SVM(六)
│ 40.8SVM(七)
│ 40.9SVM(八)

├─41-集成模型总结和GDBT理解及其衍生应用
│ 41.10GDBT理解及其衍生应用(五)
│ 41.11GDBT理解及其衍生应用(六)
│ 41.12GDBT理解及其衍生应用(七)
│ 41.13GDBT理解及其衍生应用(八)
│ 41.14GDBT理解及其衍生应用(九)
│ 41.15GDBT理解及其衍生应用(十)
│ 41.1集成模型总结(一)
│ 41.2集成模型总结(二)
│ 41.3集成模型总结(三)
│ 41.4集成模型总结(四)
│ 41.5集成模型总结(五)
│ 41.6GDBT理解及其衍生应用(一)
│ 41.7GDBT理解及其衍生应用(二)
│ 41.8GDBT理解及其衍生应用(三)
│ 41.9GDBT理解及其衍生应用(四)

├─42-网络
│ 42.1SVM比较其他分类起代码(一)
│ 42.2SVM比较其他分类起代码(二)
│ 42.3网络(一)
│ 42.4网络(二)
│ 42.5网络(三)
│ 42.6网络(四)

├─43-监督学习-回归
│ 43.10经验分享(一)
│ 43.11经验分享(二)
│ 43.12经验分享(三)
│ 43.1机器学习的概念和监督学习
│ 43.2机器学习工作流程(一)
│ 43.3机器学习工作流程(二)
│ 43.4机器学习工作流程(三)
│ 43.5机器学习工作流程(四)
│ 43.6案例分析(一)
│ 43.7案例分析(二)
│ 43.8案例分析(三)
│ 43.9案例分析(四)

├─44-监督学习-分类
│ 44.10模型训练与选择(二)
│ 44.11Airbnb数据探索过程(一)
│ 44.12Airbnb数据探索过程(二)
│ 44.13地震数据可视化过程(一)
│ 44.14地震数据可视化过程(二)
│ 44.1常用的分类算法
│ 44.2模型评估标准和案例分析
│ 44.3数据探索(一)
│ 44.4数据探索(二)
│ 44.5数据探索(三)
│ 44.6数据探索(四)
│ 44.7数据探索(五)
│ 44.8数据探索(六)
│ 44.9模型训练与选择(一)

├─45-网络基础与卷积网络
│ 45.10网络(十)
│ 45.11图像处理基础
│ 45.12卷积(一)
│ 45.13卷积(二)
│ 45.1网络(一)
│ 45.2网络(二)
│ 45.3网络(三)
│ 45.4网络(四)
│ 45.6网络(六)
│ 45.7网络(七)
│ 45.8网络(八)
│ 45.9网络(九)
│ 45.网络(五)

├─46-时间序列预测
│ 46.10长短期记忆网络(LSTM)案例分析
│ 46.11Facebook开源的新预测工具—Prophet(一)
│ 46.12Facebook开源的新预测工具—Prophet(二)
│ 46.13课程答疑
│ 46.1时间序列预测概述(一)
│ 46.2时间序列预测概述(二)
│ 46.3差分自回归移动平均模型(ARIMA)
│ 46.4差分自回归移动平均模型(ARIMA)案例分析(一)
│ 46.5差分自回归移动平均模型(ARIMA)案例分析(二)
│ 46.6差分自回归移动平均模型(ARIMA)案例分析(三)
│ 46.7差分自回归移动平均模型(ARIMA)案例分析(四)
│ 46.8长短期记忆网络(LSTM)(一)
│ 46.9长短期记忆网络(LSTM)(二)

├─47-人工智能金融应用
│ 47.1人工智能金融应用(一)
│ 47.2人工智能金融应用(二)
│ 47.3人工智能金融应用(三)
│ 47.4人工智能金融应用(四)
│ 47.5机器学习方法(一)
│ 47.6机器学习方法(二)
│ 47.7机器学习方法(三)
│ 47.8机器学习方法(四)

├─48-计算机视觉深度学习入门目的篇
│ 48.1计算机视觉深度学习入门概述
│ 48.2计算机视觉领域正在关心的问题(一)
│ 48.3计算机视觉领域正在关心的问题(二)
│ 48.4实际问题转化为具体问题并用深度学习解决(一)
│ 48.5实际问题转化为具体问题并用深度学习解决(二)
│ 48.6实际问题转化为具体问题并用深度学习解决(三)
│ 48.7实际问题转化为具体问题并用深度学习解决(四)

├─49-计算机视觉深度学习入门结构篇
│ 49.10结构之间的优劣评判以及实验结果(五)
│ 49.11结构之间的优劣评判以及实验结果(六)
│ 49.12结构之间的以及实验结果(七)
│ 49.13结构之间的优劣评判以及实验结果(八)
│ 49.1复习计算机视觉最主要的负责特征提取的结构CNN
│ 49.2特征如何组织(一)
│ 49.3特征如何组织(二)
│ 49.4特征如何组织(三)
│ 49.5特征如何组织(四)
│ 49.6结构之间的优劣评判以及实验结果(一)
│ 49.7结构之间的优劣评判以及实验结果(二)
│ 49.8结构之间的优劣评判以及实验结果(三)
│ 49.9结构之间的优劣评判以及实验结果(四)

├─50-计算机视觉学习入门优化篇
│ 50.1计算机视觉学习入门:优化篇概述
│ 50.2CNN模型的一阶优化逻辑
│ 50.3稳定性:Annealing和Momentum
│ 50.4拟合:从Dropout到Weight Decay
│ 50.5优化器和多机并行
│ 50.6手动超参优化逻辑以及超参优化往何处去

├─51-计算机视觉深度学习入门数据篇
│ 51.1计算机视觉领域的常用竞赛数据集
│ 51.2对数据常用的预处理工作和后处理工作如何提高竞赛成绩(一)
│ 51.3对数据常用的预处理工作和后处理工作如何提高竞赛成绩(二)
│ 51.4如何使用端到端深度学习的方法

├─52-计算机视觉深度学习入门工具篇
│ 52.1计算机视觉深度学习入门工具篇(一)
│ 52.2计算机视觉深度学习入门工具篇(二)
│ 52.3计算机视觉深度学习入门工具篇(三)

├─53-个化推荐算法
│ 53.10工程望
│ 53.1个化推荐的发展
│ 53.2推荐算法的演进(一)
│ 53.3推荐算法的演进(二)
│ 53.4推荐算法的演进(三)
│ 53.5推荐算法的演进(四)
│ 53.6建模step by step(一)
│ 53.7建模step by step(二)
│ 53.8建模step by step(三)
│ 53.9算法评估和迭代

├─54-Pig和Spark巩固
│ 54.10Spark巩固(五)
│ 54.1Pig巩固(一)
│ 54.2Pig巩固(二)
│ 54.3Pig巩固(三)
│ 54.4Pig巩固(四)
│ 54.5Pig巩固(五)
│ 54.6Spark巩固(一)
│ 54.7Spark巩固(二)
│ 54.8Spark巩固(三)
│ 54.9Spark巩固(四)

├─55-人工智能与设计
│ 55.10使用人工智能的方式
│ 55.1智能存在的意义是什么
│ 55.2已有人工智的设计应用
│ 55.3人的智能(一)
│ 55.4人的智能(二)
│ 55.5人的智能的特点(一)
│ 55.6人的智能的特点(二)
│ 55.7人的智能的特点(三)
│ 55.8人工智能(一)
│ 55.9人工智能(二)

├─56-网络
│ 56.1卷积的本质
│ 56.2卷积的三大特点
│ 56.3Pooling
│ 56.4数字识别(一)
│ 56.5数字识别(二)
│ 56.6感受野
│ 56.7RNN

├─57-线动力学
│ 57.1非线动力学
│ 57.2线动力系统
│ 57.3线动力学与非线动力学系统(一)
│ 57.4线动力学与非线动力学系统(二)
│ 57.6Poincare引理

├─58-订单流模型
│ 58.1交易
│ 58.2点过程基础(一)
│ 58.3点过程基础(二)
│ 58.4点过程基础(三)
│ 58.5订单流数据分析(一)
│ 58.6订单流数据分析(二)
│ 58.7订单流数据分析(三)
│ 58.8订单流数据分析(四)
│ 58.9订单流数据分析(五)

├─59-区块链一场革命
│ 59.1比特币(一)
│ 59.2比特币(二)
│ 59.3比特币(三)
│ 59.4以太坊简介及ICO

├─60-统计物理专题(一)
│ 60.10证明理想气体方程
│ 60.11化学势
│ 60.12四大热力学势(一)
│ 60.13 四大热力学势(二)
│ 60.1统计物理的开端(一)
│ 60.2统计物理的开端(二)
│ 60.3抛硬币抛出正态分布(一)
│ 60.4抛硬币抛出正态分布(二)
│ 60.5再造整个世界(一)
│ 60.6再造整个世界(二)
│ 60.7温度的本质(一)
│ 60.8温度的本质(二)

├─61-统计物理专题(二)
│ 61.1神奇公式
│ 61.2信息熵(一)
│ 61.3信息熵(二)
│ 61.4Boltzmann分布
│ 61.5配分函数

├─62-复杂网络简介
│ 62.1Networks in real worlds
│ 62.2BasicConcepts(一)
│ 62.3BasicConcepts(二)
│ 62.4Models(一)
│ 62.5Models(二)
│ 62.6Algorithms(一)
│ 62.7Algorithms(二)

├─63-ABM简介及金融市场建模
│ 63.10ABM与复杂系统建模-交通系统(一)
│ 63.11ABM与复杂系统建模-交通系统(二)
│ 63.12ABM金融市场-SFI股票市场模型(一)
│ 63.13ABM金融市场-SFI股票市场模型(二)
│ 63.14ABM金融市场-genova市场模型
│ 63.15ABM金融市场-Agent及其行为
│ 63.16学习模型
│ 63.17ABM金融市场-价格形成机制
│ 63.18ABM的特点
│ 63.1课程介绍
│ 63.2系统与系统建模
│ 63.3ABM与复杂系统建模(一)
│ 63.4ABM与复杂系统建模(二)
│ 63.5ABM与复杂系统建模(三)
│ 63.6ABM为经济系统建模
│ 63.7经典经济学如何给市场建模
│ 63.8ABM与复杂系统建模-市场交易
│ 63.9ABM与复杂系统建模-技术扩散

├─64-用伊辛模型理解复杂系统
│ 64.10(网络中的)投票模型
│ 64.11观念动力学
│ 64.12集体运动Vicsek模型
│ 64.13自旋玻璃
│ 64.14Hopfield神经网络
│ 64.15限制Boltzmann机
│ 64.16深度学习与重正化群(一)
│ 64.17深度学习与重正化群(二)
│ 64.18总结
│ 64.19答疑
│ 64.1伊辛模型的背景及格气模型
│ 64.2伊辛模型(一)
│ 64.3伊辛模型(二)
│ 64.4从能量到统计分布及Monte Carlo模拟
│ 64.5Ising Model(2D)
│ 64.6相变和临界现象
│ 64.7Critical Exponents
│ 64.8正问题和反问题
│ 64.9(空间中的)投票模型

├─65-金融市场的复杂性
│ 65.10Classical Benchmarks(五)
│ 65.11Endogenous Risk(一)
│ 65.12Endogenous Risk(二)
│ 65.13Endogenous Risk(三)
│ 65.14Endogenous Risk(四)
│ 65.15Endogenous Risk(五)
│ 65.16Endogenous Risk(六)
│ 65.17Heterogeneous Beliefs(一)
│ 65.18Heterogeneous Beliefs(二)
│ 65.19总结
│ 65.1导论(一)
│ 65.2导论(二)
│ 65.3导论(三)
│ 65.4导论(四)
│ 65.5导论(五)
│ 65.6Classical Benchmarks(一)
│ 65.7Classical Benchmarks(二)
│ 65.8Classical Benchmarks(三)
│ 65.9Classical Benchmarks(四)

├─66-广泛出现的幂律分布
│ 66.1界(一)
│ 66.2界(二)
│ 66.3界(三)
│ 66.4界(四)
│ 66.5城市、商业(一)
│ 66.6城市、商业(二)
│ 66.7启示(一)
│ 66.8启示(二)
│ 66.9总结

├─67-自然启发算法
│ 67.10粒子群算法(一)
│ 67.11粒子群算法(二)
│ 67.12粒子群算法(三)
│ 67.13遗传算法和PSO的比较)
│ 67.14更多的类似的算法(一)
│ 67.15更多的类似的算法(二)
│ 67.16答疑
│ 67.1课程回顾及答疑
│ 67.2概括(一)
│ 67.3概括(二)
│ 67.4模拟退火算法(一)
│ 67.5模拟退火算法(二)
│ 67.6进化相关的算法(一)
│ 67.7进化相关的算法(二)
│ 67.8进化相关的算法(三)
│ 67.9进化相关的算法(四)

├─68-机器学习的方法
│ 68.10输出是最好的学习(二)
│ 68.11案例(一)
│ 68.12案例(二)
│ 68.13案例(三)
│ 68.14案例(四)
│ 68.15案例(五)
│ 68.1为什么要讲学习方法
│ 68.2阅读论文
│ 68.3综述式文章举例(一)
│ 68.4综述式文章举例(二)
│ 68.5碎片化时间学习及书籍
│ 68.6视频学习资源及做思维导图
│ 68.7铁哥答疑(一)
│ 68.8铁哥答疑(二)
│ 68.9输出是最好的学习(一)

├─69-模型可视化工程管理
│ 69.10定制化可视化系统—Jupyter Dashboard(一)
│ 69.11定制化可视化系统—Jupyter Dashboard(二)
│ 69.12变身前端—seaboarn+Bokeh+Echarts
│ 69.13日志管理系统—ELK
│ 69.14极速Bi系统—superset
│ 69.15Dashboard补充
│ 69.16ELK补充
│ 69.17Superset补充
│ 69.18Superset补充及总结
│ 69.1课程简介
│ 69.2虚拟换环境—Anaconda&docker(一)
│ 69.3虚拟换环境—Anaconda&docker(二)
│ 69.4虚拟换环境—Anaconda&docker(三)
│ 69.5虚拟换环境—Anaconda&docker(四)
│ 69.6虚拟换环境—Anaconda&docker(五)
│ 69.7虚拟换环境—Anaconda&docker(六)
│ 69.8虚拟换环境—Anaconda&docker(七)
│ 69.9虚拟换环境—Anaconda&docker(八)

├─70-Value Iteration Networks
│ 70.1Background&Motivation
│ 70.2Value Iteration
│ 70.3Grid—world Domain
│ 70.4总结及答疑

├─70-最新回放
│ 0822 CNN RNN回顾 非线性动力学引入
│ 0822 高频订单流模型、区块链介绍

├─71-线动力学系统(上)
│ 71.10混沌(一)
│ 71.11混沌(二)
│ 71.12混沌(三)
│ 71.13混沌(四)
│ 71.14混沌(五)
│ 71.15混沌(六)
│ 71.16混沌(七)
│ 71.17混沌(八)
│ 71.18混沌(九)
│ 71.19混沌(十)
│ 71.1线动力学系统(一)
│ 71.20混沌(十一)
│ 71.2线动力学系统(二)
│ 71.3二维系统动力学综述—Poincare引理
│ 71.4Bifurcation(一)
│ 71.5Bifurcation(二)
│ 71.6Bifurcation(三)
│ 71.7Bifurcation(四)
│ 71.8Bifurcation(五)
│ 71.9Bifurcation(六)

├─72-线动力学系统(下)
│ 72.1自然语言处理(一)
│ 72.2自然语言处理(二)
│ 72.3RNN
│ 72.4RNN

├─73-自然语言处理导入
│ 73.1中文分词
│ 73.2中文分词、依存文法分析
│ 73.3篇章分析、自动摘要、知识提取、文本相似度计算
│ 73.4知识库构建、问答系统
│ 73.5示范2的豆瓣评论词云(一)
│ 73.6示范2的豆瓣评论词云(二)
│ 73.7示范2的豆瓣评论词云(三)
│ 73.8示范2的豆瓣评论词云(四)
│ 73.9示范2的豆瓣评论词云(五)

├─74-复杂网络上的物理传输过程
│ 74.10一些传播动力学模型(七)
│ 74.11一些传播动力学模型(八)
│ 74.12仿真模型的建立过程(一)
│ 74.13仿真模型的建立过程(二)
│ 74.14仿真模型的建立过程(三)
│ 74.15仿真模型的建立过程(四)
│ 74.16Combining complex networks and data mining
│ 74.1一些基本概念
│ 74.2常用的统计描述物理量
│ 74.3四种网络模型
│ 74.4一些传播动力学模型(一)
│ 74.5一些传播动力学模型(二)
│ 74.6一些传播动力学模型(三)
│ 74.7一些传播动力学模型(四)
│ 74.8一些传播动力学模型(五)
│ 74.9一些传播动力学模型(六)

├─75-RNN及LSTM
│ 75.10梯度消失与梯度爆炸(二)
│ 75.11Reservoir computing—偷懒方法
│ 75.12LSTM
│ 75.13LSTM、Use Examples
│ 75.14词向量、Deep RNN
│ 75.15Encoder Decoder Structure
│ 75.16LSTM Text Generation(一)
│ 75.17LSTM Text Generation(二)
│ 75.18LSTM Text Generation(三)
│ 75.1RNN—序列处理器(一)
│ 75.2RNN—序列处理器(二)
│ 75.3A simple enough case
│ 75.4A dance between fix points
│ 75.5Fix point、Train Chaos
│ 75.6RNN作为生成模型(动力系统)
│ 75.7RNN训练—BPTT(一)
│ 75.8RNN训练—BPTT(二)
│ 75.9梯度消失与梯度爆炸(一)

├─76-漫谈人工智能创业
│ 76.10三个战略管理学商业模型(三)
│ 76.11三个战略管理学商业模型(四)
│ 76.12三个战略管理学商业模型(五)
│ 76.13三个战略管理学商业模型(六)
│ 76.14三个战略管理学商业模型(七)
│ 76.15三个战略管理学商业模型(八)
│ 76.16三个战略管理学商业模型(九)
│ 76.17关于Entrepreneurship
│ 76.1人工智能对我们生活的影响(一)
│ 76.2人工智能对我们生活的影响(二)
│ 76.3人工智能对我们生活的影响(三)
│ 76.4人工智能对我们生活的影响(四)
│ 76.5人工智能对我们生活的影响(五)
│ 76.6人工智能对我们生活的影响(六)
│ 76.7人工智能创业中的商业思维
│ 76.8三个战略管理学商业模型(一)
│ 76.9三个战略管理学商业模型(二)

├─77-学习其他主题
│ 77.1
│ 77.10程序讲解(三)
│ 77.2玻尔兹曼机—联想的机器
│ 77.3玻尔兹曼机
│ 77.4学习(一)
│ 77.5学习(二)
│ 77.6学习(三)
│ 77.7学习(四)
│ 77.8程序讲解(一)
│ 77.9程序讲解(二)

└─78-课程总结
78.10课程总结(二)
78.1开场
78.2Attention实例—Spatial Transformer
78.3猫狗大战—CNN实战(一)
78.4猫狗大战—CNN实战(二)
78.5RNN
78.6课程复习
78.7课程大纲(一)
78.8课程大纲(二)
78.9课程总结(一)

100元一份,点击右侧【打赏】后,加我 QQ:344436884 索取资料。

猜你喜欢

转载自www.cnblogs.com/tadas/p/10031537.html