机器学习从认知到实践(第2辑)(套装共3册
2020-04-01 10:18:43 0 举报
AI智能生成
机器学习从认知到实践(第2辑)(套装共3册,Python+TensorFlow)
作者其他创作
大纲/内容
TensorFlow机器学习项目实战
1 探索和转换数据
1.1 TensorFlow的主要数据结构——张量
1.1.1 张量的属性——阶、形状和类型
1.1.2 创建新的张量
1.1.3 动手工作——与TensorFlow交互
1.2 处理计算工作流——TensorFlow的数据流图
1.2.1 建立计算图
1.2.2 数据供给
1.2.3 变量
1.2.4 保存数据流图
1.3 运行我们的程序——会话
1.4 基本张量方法
1.4.1 简单矩阵运算
1.4.2 序列
1.4.3 张量形状变换
1.4.4 数据流结构和结果可视化——TensorBoard
1.5 从磁盘读取信息
1.5.1 列表格式——CSV
1.5.2 读取图像数据
1.5.3 加载和处理图像
1.5.4 读取标准TensorFlow格式
1.6 小结
2 聚类
2.1 从数据中学习——无监督学习
2.2 聚类的概念
2.3 k均值
2.3.1 k均值的机制
2.3.2 算法迭代判据
2.3.3 k均值算法拆解
2.3.4 k均值的优缺点
2.4 k最近邻
2.4.1 k最近邻算法的机制
2.4.2 k-nn的优点和缺点
2.5 有用的库和使用示例
2.5.1 matplotlib绘图库
2.5.2 scikit-learn数据集模块
2.5.3 人工数据集类型
2.6 例1——对人工数据集的k均值聚类
2.6.1 数据集描述和加载
2.6.2 模型架构
2.6.3 损失函数描述和优化循环
2.6.4 停止条件
2.6.5 结果描述
2.6.6 每次迭代中的质心变化
2.6.7 完整源代码
2.6.8 k均值用于环状数据集
2.7 例2——对人工数据集使用最近邻算法
2.7.1 数据集生成
2.7.2 模型结构
2.7.3 损失函数描述
2.7.4 停止条件
2.7.5 结果描述
2.7.6 完整源代码
2.8 小结
3 线性回归
3.1 单变量线性模型方程
3.2 选择损失函数
3.3 最小化损失函数
3.3.1 最小方差的全局最小值
3.3.2 迭代方法:梯度下降
3.4 示例部分
3.4.1 TensorFlow中的优化方法——训练模块
3.4.2 tf.train.Optimizer类
3.4.3 其他Optimizer实例类型
3.5 例1——单变量线性回归
3.5.1 数据集描述
3.5.2 模型结构
3.5.3 损失函数描述和Optimizer
3.5.4 停止条件
3.5.5 结果描述
3.5.6 完整源代码
3.6 例2——多变量线性回归
3.6.1 有用的库和方法
3.6.2 Pandas库
3.6.3 数据集描述
3.6.4 模型结构
3.6.5 损失函数和Optimizer
3.6.6 停止条件
3.6.7 结果描述
3.6.8 完整源代码
3.7 小结
4 逻辑回归
4.1 问题描述
4.2 Logistic函数的逆函数——Logit函数
4.2.1 伯努利分布
4.2.2 联系函数
4.2.3 Logit函数
4.2.4 对数几率函数的逆函数——Logistic函数
4.2.5 多类分类应用——Softmax回归
4.3 例1——单变量逻辑回归
4.3.1 有用的库和方法
4.3.2 数据集描述和加载
4.3.3 模型结构
4.3.4 损失函数描述和优化器循环
4.3.5 停止条件
4.3.6 结果描述
4.3.7 完整源代码
4.3.8 图像化表示
4.4 例2——基于skflow单变量逻辑回归
4.4.1 有用的库和方法
4.4.2 数据集描述
4.4.3 模型结构
4.4.4 结果描述
4.4.5 完整源代码
4.5 小结
5 简单的前向神经网络
5.1 基本概念
5.1.1 人工神经元
5.1.2 神经网络层
5.1.3 有用的库和方法
5.2 例1——非线性模拟数据回归
5.2.1 数据集描述和加载
5.2.2 数据集预处理
5.2.3 模型结构——损失函数描述
5.2.4 损失函数优化器
5.2.5 准确度和收敛测试
5.2.6 完整源代码
5.2.7 结果描述
5.3 例2——通过非线性回归,对汽车燃料效率建模
5.3.1 数据集描述和加载
5.3.2 数据预处理
5.3.3 模型架构
5.3.4 准确度测试
5.3.5 结果描述
5.3.6 完整源代码
5.4 例3——多类分类:葡萄酒分类
5.4.1 数据集描述和加载
5.4.2 数据集预处理
5.4.3 模型架构
5.4.4 损失函数描述
5.4.5 损失函数优化器
5.4.6 收敛性测试
5.4.7 结果描述
5.4.8 完整源代码
5.5 小结
6 卷积神经网络
6.1 卷积神经网络的起源
6.1.1 卷积初探
6.1.2 降采样操作——池化
6.1.3 提高效率——dropout操作
6.1.4 卷积类型层构建办法
6.2 例1——MNIST数字分类
6.2.1 数据集描述和加载
6.2.2 数据预处理
6.2.3 模型结构
6.2.4 损失函数描述
6.2.5 损失函数优化器
6.2.6 准确性测试
6.2.7 结果描述
6.2.8 完整源代码
6.3 例2——CIFAR10数据集的图像分类
6.3.1 数据集描述和加载
6.3.2 数据集预处理
6.3.3 模型结构
6.3.4 损失函数描述和优化器
6.3.5 训练和准确性测试
6.3.6 结果描述
6.3.7 完整源代码
6.4 小结
7 循环神经网络和LSTM
7.1 循环神经网络
7.1.1 梯度爆炸和梯度消失
7.1.2 LSTM神经网络
7.1.3 其他RNN结构
7.1.4 TensorFlow LSTM有用的类和方法
7.2 例1——能量消耗、单变量时间序列数据预测
7.2.1 数据集描述和加载
7.2.2 数据预处理
7.2.3 模型结构
7.2.4 损失函数描述
7.2.5 收敛检测
7.2.6 结果描述
7.2.7 完整源代码
7.3 例2——创作巴赫风格的曲目
7.3.1 字符级模型
7.3.2 字符串序列和概率表示
7.3.3 使用字符对音乐编码——ABC音乐格式
7.3.4 有用的库和方法
7.3.5 数据集描述和加载
7.3.6 网络训练
7.3.7 数据集预处理
7.3.8 损失函数描述
7.3.9 停止条件
7.3.10 结果描述
7.3.11 完整源代码
7.4 小结
8 深度神经网络
8.1 深度神经网络的定义
8.2 深度网络结构的历史变迁
8.2.1 LeNet 5
8.2.2 Alexnet
8.2.3 VGG模型
8.2.4 第一代Inception模型
8.2.5 第二代Inception模型
8.2.6 第三代Inception模型
8.2.7 残差网络(ResNet)
8.2.8 其他的深度神经网络结构
8.3 例子——VGG艺术风格转移
8.3.1 有用的库和方法
8.3.2 数据集描述和加载
8.3.3 数据集预处理
8.3.4 模型结构
8.3.5 损失函数
8.3.6 收敛性测试
8.3.7 程序执行
8.3.8 完整源代码
8.4 小结
9 规模化运行模型——GPU和服务
9.1 TensorFlow中的GPU支持
9.2 打印可用资源和设备参数
9.2.1 计算能力查询
9.2.2 选择CPU用于计算
9.2.3 设备名称
9.3 例1——将一个操作指派给GPU
9.4 例2——并行计算Pi的数值
9.4.1 实现方法
9.4.2 源代码
9.5 分布式TensorFlow
9.5.1 分布式计算组件
9.5.2 创建TensorFlow集群
9.5.3 集群操作——发送计算方法到任务
9.5.4 分布式编码结构示例
9.6 例3——分布式Pi计算
9.6.1 服务器端脚本
9.6.2 客户端脚本
9.7 例4——在集群上运行分布式模型
9.8 小结
10 库的安装和其他技巧
10.1 Linux安装
10.1.1 安装要求
10.1.2 Ubuntu安装准备(安装操作的前期操作)
10.1.4 Linux下从源码安装TensorFlow
10.2 Windows安装
10.2.1 经典的Docker工具箱方法
10.2.2 安装步骤
10.3 MacOS X安装
10.4 小结
TensorFlow技术解析与实战
缘起
第一篇 基础篇
1 人工智能概述
2 TensorFlow环境的准备
3 可视化TensorFlow
4 TensorFlow基础知识
5 TensorFlow源代码解析
6 神经网络的发展及其TensorFlow实现
7 TensorFlow的高级框架
第二篇 实战篇
8 第一个TensorFlow程序
9 TensorFlow在MNIST中的应用
10 人脸识别
11 自然语言处理
12 图像与语音的结合
13 生成式对抗网络
第三篇 提高篇
14 分布式TensorFlow
15 TensorFlow线性代数编译框架XLA
16 TensorFlow Debugger[1]
17 TensorFlow和Kubernetes结合
18 TensorFlowOnSpark
19 TensorFlow移动端应用
20 TensorFlow的其他特性
21 机器学习的评测体系
附录A 公开数据集
附录B 项目管理经验小谈
总目录
Python机器学习实践指南
审阅者简介
译者简介
本书涵盖的内容
阅读本书需要准备什么
本书的读者
约定
读者反馈
客户支持
下载示例代码
勘误
盗版行为
疑问
1 Python机器学习的生态系统
1.1 数据科学/机器学习的工作流程
1.1.1 获取
1.1.2 检查和探索
1.1.3 清理和准备
1.1.4 建模
1.1.5 评估
1.1.6 部署
1.2 Python库和功能
1.2.1 获取
1.2.2 检查
1.2.3 准备
1.2.4 建模和评估
1.2.5 部署
1.3 设置机器学习的环境
1.4 小结
2 构建应用程序,发现低价的公寓
2.1 获取公寓房源数据
使用import.io抓取房源数据
2.2 检查和准备数据
2.2.1 分析数据
2.2.2 可视化数据
2.3 对数据建模
2.3.1 预测
2.3.2 扩展模型
2.4 小结
3 构建应用程序,发现低价的机票
3.1 获取机票价格数据
3.2 使用高级的网络爬虫技术检索票价数据
3.3 解析DOM以提取定价数据
通过聚类技术识别异常的票价
3.4 使用IFTTT发送实时提醒
3.5 整合在一起
3.6 小结
4 使用逻辑回归预测IPO市场
4.1 IPO市场
4.1.1 什么是IPO
4.1.2 近期IPO市场表现
4.1.3 基本的IPO策略
4.2 特征工程
4.3 二元分类
4.4 特征的重要性
5 创建自定义的新闻源
5.1 使用Pocket应用程序,创建一个监督训练的集合
5.1.1 安装Pocket的Chrome扩展程序
5.1.2 使用Pocket API来检索故事
5.2 使用embed.ly API下载故事的内容
5.3 自然语言处理基础
5.4 支持向量机
5.5 IFTTT与文章源、Google表单和电子邮件的集成
通过IFTTT设置新闻源和Google表单
5.6 设置你的每日个性化新闻简报
5.7 小结
6 预测你的内容是否会广为流传
6.1 关于病毒性,研究告诉我们了些什么
6.2 获取分享的数量和内容
6.3 探索传播性的特征
6.3.1 探索图像数据
6.3.2 探索标题
6.3.3 探索故事的内容
6.4 构建内容评分的预测模型
6.5 小结
7 使用机器学习预测股票市场
7.1 市场分析的类型
7.2 关于股票市场,研究告诉我们些什么
7.3 如何开发一个交易策略
7.3.1 延长我们的分析周期
7.3.2 使用支持向量回归,构建我们的模型
7.3.3 建模与动态时间扭曲
8 建立图像相似度的引擎
8.1 图像的机器学习
8.2 处理图像
8.3 查找相似的图像
8.4 了解深度学习
8.5 构建图像相似度的引擎
8.6 小结
9 打造聊天机器人
9.1 图灵测试
9.2 聊天机器人的历史
9.3 聊天机器人的设计
9.4 打造一个聊天机器人
9.5 小结
10 构建推荐引擎
10.1 协同过滤
10.1.1 基于用户的过滤
10.1.2 基于项目的过滤
10.2 基于内容的过滤
10.3 混合系统
10.4 构建推荐引擎
10.5 小结
本书包含哪些内容
读这本书你需要什么
本书目标读者
侵权行为
问题
0 条评论
回复 删除
下一页