- TensorFlow 教程
- TensorFlow - 主页
- TensorFlow - 简介
- TensorFlow - 安装
- 了解人工智能
- 数学基础
- 机器学习与深度学习
- TensorFlow - 基础知识
- 卷积神经网络
- 循环神经网络
- TensorBoard 可视化
- TensorFlow - 词嵌入
- 单层感知器
- TensorFlow - 线性回归
- TFLearn 及其安装
- CNN 和 RNN 区别
- TensorFlow - Keras
- TensorFlow - 分布式计算
- TensorFlow - 导出
- 多层感知器学习
- 感知器的隐藏层
- TensorFlow - 优化器
- TensorFlow - 异或实现
- 梯度下降优化
- TensorFlow - 形成图
- 使用 TensorFlow 进行图像识别
- 神经网络训练的建议
- TensorFlow 有用资源
- TensorFlow - 快速指南
- TensorFlow - 有用的资源
- TensorFlow - 讨论
TensorFlow - 数学基础
在 TensorFlow 中创建基本应用程序之前,了解 TensorFlow 所需的数学概念非常重要。数学被认为是任何机器学习算法的核心。它借助数学的核心概念,定义了特定机器学习算法的解决方案。
向量
连续或离散的数字数组被定义为向量。机器学习算法处理固定长度的向量,以更好地生成输出。
机器学习算法处理多维数据,因此向量起着至关重要的作用。
矢量模型的图示如下所示 -
标量
标量可以定义为一维向量。标量是那些只包含大小而不包含方向的标量。对于标量,我们只关心大小。
标量的示例包括儿童的体重和身高参数。
矩阵
矩阵可以定义为多维数组,以行和列的格式排列。矩阵的大小由行长和列长定义。下图显示了任意指定矩阵的表示。
考虑如上所述的“m”行和“n”列的矩阵,矩阵表示将被指定为“m*n 矩阵”,它也定义了矩阵的长度。
数学计算
在本节中,我们将了解 TensorFlow 中的不同数学计算。
矩阵相加
如果矩阵具有相同维度,则可以将两个或多个矩阵相加。添加意味着根据给定位置添加每个元素。
考虑以下示例以了解矩阵加法的工作原理 -
$$示例:A=\begin{bmatrix}1 & 2 \\3 & 4 \end{bmatrix}B=\begin{bmatrix}5 & 6 \\7 & 8 \end{bmatrix}\:然后\:A +B=\begin{bmatrix}1+5 & 2+6 \\3+7 & 4+8 \end{bmatrix}=\begin{bmatrix}6 & 8 \\10 & 12 \end{bmatrix}$$
矩阵减法
矩阵减法的运算方式与两个矩阵的加法类似。只要维度相等,用户就可以对两个矩阵进行减法。
$$示例:A-\begin{bmatrix}1 & 2 \\3 & 4 \end{bmatrix}B-\begin{bmatrix}5 & 6 \\7 & 8 \end{bmatrix}\:然后\:AB -\begin{bmatrix}1-5 & 2-6 \\3-7 & 4-8 \end{bmatrix}-\begin{bmatrix}-4 & -4 \\-4 & -4 \end{bmatrix} $$
矩阵乘法
为了使两个矩阵 A m*n 和 B p*q 可相乘,n应等于p。得到的矩阵是 -
米*q
$$A=\begin{bmatrix}1 & 2 \\3 & 4 \end{bmatrix}B=\begin{bmatrix}5 & 6 \\7 & 8 \end{bmatrix}$$
$$c_{11}=\begin{bmatrix}1 & 2 \end{bmatrix}\begin{bmatrix}5 \\7 \end{bmatrix}=1\times5+2\times7=19\:c_{12} =\begin{bmatrix}1 & 2 \end{bmatrix}\begin{bmatrix}6 \\8 \end{bmatrix}=1\times6+2\times8=22$$
$$c_{21}=\begin{bmatrix}3 & 4 \end{bmatrix}\begin{bmatrix}5 \\7 \end{bmatrix}=3\times5+4\times7=43\:c_{22} =\begin{bmatrix}3 & 4 \end{bmatrix}\begin{bmatrix}6 \\8 \end{bmatrix}=3\times6+4\times8=50$$
$$C=\begin{bmatrix}c_{11} & c_{12} \\c_{21} & c_{22} \end{bmatrix}=\begin{bmatrix}19 & 22 \\43 & 50 \end {b矩阵}$$
矩阵转置
矩阵A,m*n的转置一般用AT(transpose)n*m表示,是通过将列向量转置为行向量而获得的。
$$示例:A=\begin{bmatrix}1 & 2 \\3 & 4 \end{bmatrix}\:然后\:A^{T}\begin{bmatrix}1 & 3 \\2 & 4 \end{ b矩阵}$$
向量的点积
任何 n 维向量都可以表示为矩阵 v = R^n*1。
$$v_{1}=\begin{bmatrix}v_{11} \\v_{12} \\\cdot\\\cdot\\\cdot\\v_{1n}\end{bmatrix}v_{2}= \begin{bmatrix}v_{21} \\v_{22} \\\cdot\\\cdot\\\cdot\\v_{2n}\end{bmatrix}$$
两个向量的点积是相应分量 - 沿同一维度的分量的乘积之和,可以表示为
$$v_{1}\cdot v_{2}=v_1^Tv_{2}=v_2^Tv_{1}=v_{11}v_{21}+v_{12}v_{22}+\cdot\cdot+ v_{1n}v_{2n}=\displaystyle\sum\limits_{k=1}^n v_{1k}v_{2k}$$
向量点积的例子如下 -
$$示例:v_{1}=\begin{bmatrix}1 \\2 \\3\end{bmatrix}v_{2}=\begin{bmatrix}3 \\5 \\-1\end{bmatrix}v_ {1}\cdot v_{2}=v_1^Tv_{2}=1\times3+2\times5-3\times1=10$$