0
在神经网络术语中: 一个epoch=所有训练示例的一次前向和后向传播。
batch size(批次大小)=一次前向/后向传播中的训练示例数。批处理大小越高,需要的内存空间越多。
Iteration的数目= 传播的次数,即每次传播使用[batch size]的数目。清晰地说,one pass = one forward pass + one backward pass 。(我们不将前向pass和后向pass计算为两个不同的pass)。
举例:如果你有1000个训练示例,你的batch size 是500,那么将花费两次 Iteration(迭代)来完成一个epoch(周期)。
“batch”一词含混不清,有些人用它来指定整个训练集,有些人用它来指代一次向前/向后传播中的训练示例数(就像我在此答案中所说的那样)。为了避免这种歧义并清楚地使batch与一次前向/后向传播中的训练示例数量相对应,可以使用术语mini-batch。
收藏