总结
这篇论文太难懂了,可能是由于数学太差了,我一直无法理解 \(\lim_{\lambda \to 0} v^*_i = 1, \lim_{\lambda \to \infty} v^*_i = 0\) 这个约束在代码里应该怎么实现,此外对于 \(v\) 向量应该也是要约束在 \([0, 1]\),但是这在代码里应该怎么实现?这个向量应该会随着模型更新的,它完全有可能被更新成小于 0,或者大于 1。
暂且不跟进这篇论文了。
前置背景
该论文对 curriculum learning 和 self-paced learning 做了的一点介绍,如果读者对这两个学习制度不了解,可以有选择地读一下这两个的介绍,否则应该看不懂论文中提出的算法。
课程式学习(Curriculum learning,CL)或者自步学习(self-paced learning,SPL)都是最近(一个 2009,一个 2010)被提出的学习制度(learning regime),灵感来源于人类和动物的学习过程,即从简单逐渐到更复杂的策略。其中,二者具有相似的学习范式,但是有着不同的学习计划。Abs
在 CL 中,课程是由先验知识决定的,并且之后保持不变。因此其高度依赖先验知识的依赖,而忽略了对学习者的反馈(博主注:说白了就是课程由教务组制定,之后的课程保持不变,学生学习的好坏取决于教务组的能力。教务组对应于人类标注者(annotator),学生对应于模型)。在 SPL 中,课程式动态决定的,以适应学习者的学习节奏。Abstract Intro CL 和 SPL 主要的差异在于课程的定义不同
课程(curriculum)决定了一系列的训练样本,基本上对应着一群以学习难度升序排序的样本。
CL 的优点是整合不同来源的先验知识的灵活性,缺点是课程的设计已经被决定,于后续的学习无关。SPL 受限于没有将先验知识整合进训练过程,导致它易于过拟合。由于它们各自都有优点,实际上很难判断谁更好。Introduction
这些学习范式已经从经验上被证明有助于避免不良的局部极小值,并取得更好的泛化结果。(作者贴了三篇论文)Introduction
确实。一条样本如果要简单,那么它的优化过程可能相对来说要简单。那么再优化难的样本可能就只需要花更少的时间。博主瞎猜
关于 CL 和 SPL 具体的算法实现,可以阅读对应的论文,此处不再深入。