<div id="js_content">
<p>How to Retrain Recommender System? A Sequential Meta-Learning Method</p>
<p>Yang Zhang, Fuli Feng, Chenxu Wang, Xiangnan He, Meng Wang, Yan Li, Yongdong Zhang</p>
<p>University of Science and Technology of China, National University of Singapore, Hefei University of Technology, Beijing Kuaishou Technology</p>
<p>http://staff.ustc.edu.cn/~hexn/papers/sigir20-SML.pdf</p>
<p>实际推荐系统需要定时重新训练,利用新数据更新模型。为了追求模型的高准确性,通常重新训练模型时需要同时利用历史数据和新数据,这样能够同时考虑用户的长期偏好和短期偏好。</p>
<p>但是,完整模型的重新训练非常耗时,也非常耗内存,尤其是历史数据的量比较大的时候。这篇文章研究推荐系统中模型的重新训练机制,该话题实用价值较高,但是在这方面的研究比较少。</p>
<p>作者们的假设之一为在历史数据上重新训练模型没有必要,这是因为模型已经在这些数据上训练过了。但是,只在新数据上训练模型容易过拟合,还有一些模式容易忘记的问题。毕竟新的数据规模更小,其中能囊括用户的长期偏好的信息比较少。<br></p>
<p>为了解决这种难题,作者们提出一种新的训练方法,旨在重训练时将之前的训练经验迁移过来,进而可以丢弃历史数据。具体而言即为,设计一种基于神经网络的迁移元素,将老的模型迁移到新的模型,专门用于未来的推荐。</p>
<p>为了更好的学习迁移的成分,作者们对未来的性能进行优化,未来的性能即为下个时间周期推荐系统的准确性。这种序列元学习方式提供了一种通用的训练范式,苦役用于任何可微模型。</p>
<p>基于矩阵分解的SML在两个真实数据集上的实验表明,SML不仅速度明显提升,而且在推荐准确性层面的效果优于完整的模型重新训练,验证了作者们所提方法的有效性。</p>
<p>模型重新训练过程示例如下<br></p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-ead90d21b5d33f7a064bbf059458fc4b"></p>
<p>三种重新训练的模式简介如下</p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-53dc35d83d615ab60b30e567fd0ee79f"></p>
<p>这篇文章的主要贡献如下</p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-1762fee110261003945217dfc2dfcc8e"></p>
<p>每次重新训练的方式以及可以解决的问题描述如下</p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-dd30acc033972039bfbb9d85a27f0cd5"></p>
<p>重新训练过程可以进一步优化,具体形式如下</p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-58a8b25b4ca4282aab75cd7017339f14"></p>
<p>这篇文章提出了一种通用模型框架,图示如下<br></p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-c34242ff254e20393346144eb314facf"></p>
<p style="text-align: left">重新训练主要包含两个过程<img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-37cd73368156e7fc076af9ed5f2e0761"></p>
<p>其中堆叠层的简介及用途如下</p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-1f07198d90c6005b9614b1c3c86e30c3"></p>
<p>卷积层的细节及简介如下</p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-47807f433a70abc1e24936df37af4ba1"></p>
<p>接下来是全连接层以及输出层<br></p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-76a6ca5debdcb467b6d1bc1bd8c5fd22"></p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-580ca5c9031e776275e628bd2d97de4b"></p>
<p>序贯训练的算法伪代码如下</p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-81fc8b3f2b5f7fb6783d76061264f9be"></p>
<p>其中第一步,简介及技巧如下<br></p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-81b539b94eb60fefee949c1c9f4811fd"></p>
<p>第二步的过程及简介如下</p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-62554083e5718a7beceeb529f764d9bc"></p>
<p>模型评估及更新策略如下<br></p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-08ca0562a40cbea5891bef4b02576559"></p>
<p>数据集简介及过滤规则如下<br></p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-e40aa247d14ec2936ffb28655d891a18"></p>
<p>下面是数据集分割的策略</p>
<p style="text-align: center"><img src="https://201907.oss-cn-shanghai.aliyuncs.com/cs/5606289-5a8a570c764f3af54fa3c260895ea412"></p>
<p>参与对比的三种重新训练策略如下<br></p>
<p style="text-al |
|