bohanjun Asked: November 27, 2022, 8:59 am Issue 字体错误 P70 Ln1 000 字体错误 P70 Ln1 字体错误:P70 第1行 「我们定……数据集 $D$ 中所有……」中的 D 字体与前文不同,应为「我们定……数据集 $\mathcal{D}$ 中所有……」
zpz66 Asked: September 27, 2022, 5:39 am Issue P120页“5.3参数学习”中表述及公式是否有错误呢? 000 文字表述及公式是否存在错误 + P120 [1] 若l层为卷积层,则l层的特征映射净输入Z应该为l层的权重矩阵与l-1层的特征映射净输出的卷积吧。而书中则是l层的权重矩阵与l-1层的特征映射净输入的卷积。
ZiqingYip Asked: August 20, 2022, 9:15 am Issue 发现一处错别字 P275 000 P275 (章节:11.4 变分推断), “变方法的应用十分广泛” 一句中的“变方” 理解应该是 “变分” 。
AIR-hl Asked: July 25, 2022, 6:44 am Issue 7.4数据预处理第三段第一句语病p178 000 问题描述(例如:错别字) + 页号或公式号 p178 第三段第一句话“不同特征取值范围差异比较大时还会梯度下降法的 搜索效率”应改为:“不同特征取值范围差异比较大时还会【降低】梯度下降法的 搜索效率” 错别字:P66 公式2.3 下面一行“1111”改为“2222” (参考示例1) 推导错误:P66 公式2.3 中推导错误,。。。 (参考示例...
veager Asked: July 25, 2022, 3:13 am Issue P177 最后一段 层归一化和批量归一化 000 原文: 层归一化是对矩阵的每一列进行归一化,而批量归一化是对每一行进行归一化 是不是应该写反了? 层归一化是对矩阵的每一行(每一样本)进行归一化,而批量归一化(每一特征)是对每一列进行归一化
zhangjunroger Asked: June 7, 2022, 12:36 pm Issue #分别讨论给出公式 P94 公式4.61 000 分别讨论给出公式 P94 公式4.61 更完善:P94 公式4.61最好分别根据输出层、隐藏层,给出具体的公式,更完善。
B1INGO Asked: April 20, 2022, 12:22 am Issue 文字错误 000 问题描述(例如:错别字) + 页号或公式号 415页 图D.2的名称 累计分布函数---->累积分布函数
Chenkehan21 Asked: April 19, 2022, 10:01 am Issue 第118页,第五章5.4.1节 ,卷积核的数量写错了 000 第118页,第五章5.4.1节 LeNet的第(3)层结构中,C3卷积层应该是16个5x5的卷积核,书中写成了60个。
B1INGO Asked: April 16, 2022, 9:20 am Issue 公式错误 000 问题描述(例如:错别字) + 页号或公式号 公式错误 109页 公式4.63 错误原因:Hadamard积运算符要求因子具有相同的维度。书中运算符两侧因子具有不同维度,所以此处不能使用Hadamard积运算符。 更正建议:删除公式4.63或者使用其他运算符替代。
yananchen1989 Asked: February 18, 2022, 6:35 pm Issue 58页公式错误 000 58页公式3.20, 3.21 等号右边分别为对应的条件概率,即 $\hat{y}^{(n)}$ 和 $1 - \hat{y}^{(n)}$