zzgnb Asked: September 12, 2023, 12:30 pm Issue 疑问:P68 章节3.4 算法3.3 000 算法3.3 参数更新的符号问题 疑问:加号是否应为减号 这里个人觉得应该是减号,否则使用梯度下降的话,梯度为(预测-label),损失函数就变成(预测-label)*W,恒小于0,正确率越高则loss越趋近于0(loss越大),不符合梯度下降结果。 此外在证明广义感知器收敛性上界中无法放缩(也是在做题时才发现这个问题): 因为 若...
lufei60 Asked: June 6, 2023, 3:03 pm Issue 请教:随时间反向传播算法:式6.32与式6.43为什么一个用直接偏导数,另一个不是? 000 随时间反向传播算法:式6.32与式6.43为什么一个用直接偏层数,另一个不是?
xiongqisong Asked: February 23, 2023, 2:49 am Issue 线性无关的定义是错误的 000 定义错误 + 385页 定义错误:线性无关:线性空间 𝒱 中的 𝑀 个向量 {𝒗1, 𝒗2, ⋯ , 𝒗𝑀}, 如果对任意的一组标量 𝜆1, 𝜆2, ⋯ , 𝜆𝑀, 满足𝜆1𝒗1 + 𝜆2𝒗2 +⋯+ 𝜆𝑀𝒗𝑀 = 0, 则必然 𝜆1 = 𝜆2 = ⋯ = 𝜆𝑀 = 0, 那么{𝒗1, 𝒗2, ⋯ , 𝒗𝑀}是线性无关的, 也称为线性独立的. 如果线性无关是上面的定义,则任意一组向量都是线性无关的,实际上线...
bohanjun Asked: November 27, 2022, 8:59 am Issue 字体错误 P70 Ln1 000 字体错误 P70 Ln1 字体错误:P70 第1行 「我们定……数据集 $D$ 中所有……」中的 D 字体与前文不同,应为「我们定……数据集 $\mathcal{D}$ 中所有……」
zpz66 Asked: September 27, 2022, 5:39 am Issue P120页“5.3参数学习”中表述及公式是否有错误呢? 000 文字表述及公式是否存在错误 + P120 [1] 若l层为卷积层,则l层的特征映射净输入Z应该为l层的权重矩阵与l-1层的特征映射净输出的卷积吧。而书中则是l层的权重矩阵与l-1层的特征映射净输入的卷积。
ZiqingYip Asked: August 20, 2022, 9:15 am Issue 发现一处错别字 P275 000 P275 (章节:11.4 变分推断), “变方法的应用十分广泛” 一句中的“变方” 理解应该是 “变分” 。
AIR-hl Asked: July 25, 2022, 6:44 am Issue 7.4数据预处理第三段第一句语病p178 000 问题描述(例如:错别字) + 页号或公式号 p178 第三段第一句话“不同特征取值范围差异比较大时还会梯度下降法的 搜索效率”应改为:“不同特征取值范围差异比较大时还会【降低】梯度下降法的 搜索效率” 错别字:P66 公式2.3 下面一行“1111”改为“2222” (参考示例1) 推导错误:P66 公式2.3 中推导错误,。。。 (参考示例...
veager Asked: July 25, 2022, 3:13 am Issue P177 最后一段 层归一化和批量归一化 000 原文: 层归一化是对矩阵的每一列进行归一化,而批量归一化是对每一行进行归一化 是不是应该写反了? 层归一化是对矩阵的每一行(每一样本)进行归一化,而批量归一化(每一特征)是对每一列进行归一化
zhangjunroger Asked: June 7, 2022, 12:36 pm Issue #分别讨论给出公式 P94 公式4.61 000 分别讨论给出公式 P94 公式4.61 更完善:P94 公式4.61最好分别根据输出层、隐藏层,给出具体的公式,更完善。