前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >深度学习在花椒直播中的应用—神经网络与协同过滤篇

深度学习在花椒直播中的应用—神经网络与协同过滤篇

作者头像
石晓文
发布2019-09-05 18:15:47
1.2K0
发布2019-09-05 18:15:47
举报
文章被收录于专栏:小小挖掘机小小挖掘机

一、协同过滤算法概述

协同过滤(collaborative filtering)算法一经发明便在推荐系统中取得了非凡的成果。许多知名的系统早期都采用了协同过滤算法,例如Google News,亚马逊、Hulu、Netfix等。协同过滤算法一般采用评分矩阵来表示用户和物品的交互,评分矩阵 R 中的每一个元素 rij 表示用户 i 对物品 j 的喜好评分。由于用户不能对大部分物品都有交互,所以在很多场景下评分矩阵都很稀疏,稀疏率在 90% 以上,稀疏度很高决定算法在优化和选取上有很多考量。

传统协同过滤算法

传统的协同过滤分为 user base 和 item base 两种算法,这两种算法的核心思想是一样的,我们以 item base 算法为例,说明算法的具体流程

1. 计算物品之间的相似度,我们利用评分矩阵的列向量作为每一个物品 jj 的向量,然后运用余弦相似度来计算每两个物品之间的相似度

2. 通过用户喜欢的物品集合,计算出用户 u 对物品 j 的分数

。N(u) 是用户 u 喜欢的物品集合

。S(j,k) 是和物品 j 是最相似的 k 个物品的集合

。Sji 是物品 j 和 i 的相似度

。rui 代表用户 u 对物品 i 的分数

3. 通过上述计算的分数,从大到小召回 TopK 个物品

基于隐向量的协同过滤

传统的基于物品或用户的协同过滤有如下缺陷

  • 它们是一种基于统计的方法,而不是优化学习的方法,没有学习过程和设立指标进行优化得到最优模型的过程
  • 没有用到全局数据,只用了局部数据计算相似度、进行推荐
  • 当用户或物品维度很大时,会占用很大的内存

基于以上缺陷,学者们又提出了广义的协同过滤算法,即基于基于隐向量的协同过滤。基于隐向量的协同过滤最早是隐语义模型(LFM)。他的核心思想很朴素,利用矩阵分解,把很大很稀疏的评分矩阵 R分解成两个较为稠密的矩阵

它的优化目标一般使用 MSE 作为损失函数

目前推荐系统中应用的协同过滤算法一般都是基于隐向量的协同过滤算法。

显式反馈和隐式反馈

显示反馈是用户直接对物品进行喜好打分,比如豆瓣电影,IMDB 电影打分。隐式反馈主要出现在互联网应用场景,一般很难收集到用户对物品的直接喜好打分,转而寻求隐含的偏好倾向,例如点击次数、点赞、观看时长等

显式反馈

隐式反馈

用户主动表示对物品的喜好分数,例如豆瓣电影打分,IMDB电影打分

用户对物品的行为交互频率,比如说观看次数,点赞次数,观看时长……

分数代表喜欢程度

数值只是代表交互程度,并不能明确表示喜欢程度

适用于有收集喜好打分的网站,应用面比较狭窄

适用于目前互联网大部分应用场景

花椒中用到的矩阵分解算法也是基于隐式反馈,本文接下来篇幅中介绍的神经网络协同过滤算法也都是基于隐式反馈。需要注意的是,基于隐式反馈的算法,都会引入负反馈来训练,由于负反馈的量级远远大于正反馈,负反馈一般采用随机采样的方法,一个正样本搭配5个负样本

在基于隐式反馈的协同过滤算法中, Spark 上实现了 ALS 算法,Spark 上实现的接口简单易用,计算迅速,部署简答,目前很多应用都基于 ALS 算法进行快速搭建。ALS 算法的应用实例如下

二、损失函数的选择

基于回归的损失函数

基于显式反馈的矩阵分解算法,采用MSE作为损失函数,他拟合稀疏矩阵中所有有值的元素。他的计算公式如下

它的求解方法一般采用交替最小二乘法,交替固定X,Y,不断迭代求解

隐式反馈的损失函数,设置稍微复杂,需要考虑隐式反馈强度的设定,步骤如下

  1. 首先定义用户对物品的偏好

2. 其次定义用户 u对物品i 偏好置信度,反馈次数越多,越确信用户对物品的偏好

3. 定义损失函数为

4. 用 ALS 算法求解

交叉熵损失函数

这类方法把隐式反馈划归为分类问题,有反馈的用户物品pair类别是 1,没有反馈的用户物品pair类别是 0,这样就可以用交叉熵损失函数来求解二分类问题。交叉熵损失函数定义如下

交叉熵损失函数一般用随机梯度下降(SGD) 算法来求解

BPR 损失函数

传统的矩阵分解是一种 point-wise 算法,很多实验表明, 并不是错误率越低最终的推荐表现就越好,它可能的原因有

  • 衡量错误率和排序表现的指标之间存在差异
  • 观测到的数据和实际情况有偏差,即用户更加倾向于给喜欢的物品打分

BPR 是 pair-wise 排序算法中的一种,他的核心思想是对用户每一个正反馈,都随机采样n个负反馈,并且最大化他们的分数差距,它优化的是两个物品间的相对排序,而不是单个物品的绝对分数。BPR 损失函数定义如下

BPR 损失函数一般用随机梯度下降(SGD) 算法来求解

三、神经网络与协同过滤

负采样

目前基于深度学习的协同过滤算法一般都采用隐式反馈数据,这些算法都需要对已经观测到的正反馈数据,采样负反馈数据,对于交叉熵损失函数,采样的负反馈数据直接标记成类别 0,对于 BPR 损失函数,负采样的数据则被放到损失函数(u,i,j)偏置对中的j部分负采样一般采取随机采样,对一个正样本随机采样n个负样本,n的设置值得考量。n设置过小,每个epoch训练不够充分,n设置过大,有过拟合的风险,同时会增加模型的数据量,影响训练速度。经过花椒的实践,n设置为5比较恰当。

优化器的选择

我们模型一般采用交叉熵和 BPR 损失函数,所以采用 SGD 类的方法作为优化器,经过我们的训练和使用,Adam 方法得益于自适应学习率和动量学习,在收敛速度和模型效果上能到到较好的平衡,所以我们模型采用 Adam 作为优化器。

离线评估方法

传统矩阵分解采用 MSE 作为评估方法不太恰当,只考虑了测试机上的整体误差,没有考虑每个人推荐列表的相对顺序,这种评估方法和实际推荐系统中用户的点击行为不匹配,离线评估效果不能作为线上效果的依据。

我们采用 ndcg 和 hit ratio 作为我们离线评估指标, ndcg 侧重于考量推荐列表中位置关系,hr 则侧重评估在 topk 问题中的命中率。 其中ndcg的定义如下

评估方法,我们采取的是 leave one out 方法,它的详细步骤如下

  1. 对每个用户,选取最近的一条正反馈样本当测试样本
  2. 对测试机中每个正样本,随机采样100个没有交互的负样本
  3. 对每个用户的101个样本,输入到模型获取评估分数
  4. 对每个用户的101个样本,按照堆排序方法,获取top k 个样本,评估ndcg 和 hr 分数
  5. 求出整个测试集的整体 ndcg 和 hr

评估方法的 tensorflow 代码如下所示

代码语言:javascript
复制
 def evaluate(user_data, sess, model):
     ndcg = 0.0
     hr = 0.0
     for u in user_data:
         to_test = user_data[u]['scores']
         true_id = user_data[u]['true_id']
         uid, mid, y = zip(*to_test)
         feed_dic = {
             model['uid']: uid,
            model['i']: mid,
            model['keep_probe']: 1.0
        }
        score, user_emb = sess.run([model['score'], model['user_vec']], feed_dict=feed_dic)
        predict = []
        # print("user+++++ uid=%d, trueid=%d, loss=%.5f" % (u, true_id, loss))
        for i, row in enumerate(to_test):
            predict.append((row[0], row[1], score[i]))
        ranklist = heapq.nlargest(TOP_K, predict, key=lambda r: r[2])

        u_ndcg = 0.0
        u_hr = 0.0
        for i, row in enumerate(ranklist):
            if row[1] == true_id:
                u_ndcg = 1 / math.log2(2 + i)
                u_hr += 1
        ndcg += u_ndcg
        hr += u_hr
        if u == 6040:
            print(user_emb[0])
            print(u, ranklist)
            print("~~~~~~uid=%d, u_ndcg=%.5f" % (u, u_ndcg))

    ndcg = ndcg / len(user_data)
    hr = hr / len(user_data)
    time = datetime.datetime.now().isoformat()

    print("%s ------------------- evaluate ndcg(10)=%.5f, hr(10)=%.5f" % (time, ndcg, hr))

在接下来篇幅中,我们将着重介绍一些花椒推荐系统在实际中尝试过的基于神经网络的协同过滤模型。

通用矩阵分解模型(GMF)

这个是何向南提出的 NCF 算法中的一部分,他提出了一种通过的矩阵分解模型,模型构建步骤如下:

代码语言:javascript
复制
 def model_fn():
     uid = tf.placeholder(tf.int32, shape=[None])
     item = tf.placeholder(tf.int32, shape=[None])
     y = tf.placeholder(tf.float32, shape=[None])
 
     user_emb = tf.Variable(initial_value=tf.truncated_normal(shape=[USER_COUNT + 1, EMB_SIZE], mean=0, stddev=0.5),
                            name="user_emb")
     movie_emb = tf.Variable(initial_value=tf.truncated_normal(shape=[MOVIE_COUNT + 1, EMB_SIZE], mean=0, stddev=0.5),
                             name="movie_emb")

    user_vec = tf.nn.embedding_lookup(user_emb, uid)
    item_vec = tf.nn.embedding_lookup(movie_emb, item)

    layer = tf.multiply(user_vec, item_vec)
    last_layer = tf.keras.layers.Dense(1, None,
                                       kernel_initializer=tf.random_normal_initializer(stddev=0.5),
                                       kernel_regularizer=tf.keras.regularizers.l2(L2_LAMBDA),
                                       bias_initializer=tf.random_normal_initializer(stddev=0.5),
                                       bias_regularizer=tf.keras.regularizers.l2(L2_LAMBDA))

    logits = last_layer.apply(layer)
    logits = tf.reshape(logits, (-1,))
    l2_loss = tf.losses.get_regularization_loss()

    score = tf.sigmoid(logits)
    label = tf.minimum(y, 1.0)
    loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(labels=label, logits=logits)) + l2_loss
    return {"score": score,
            "loss": loss,
            'uid': uid,
            "i": item,
            "y": y,
            }

MLP 模型

相对于 GMF 拟合用户向量和物品向量的线性关系,MLP 模型期望用多层神经网络拟合用户向量和物品向量之间的高阶非线性关系,同 GMF 模型一样,MLP 模型也采用交叉熵作为损失函数,它的构建步骤如下

  • 将用户向量和物品向量 concat 起来
  • concat 后的向量输入到 MLP 模型中
  • MLP 最后一层用 sigmod 函数激活输入到交叉熵损失函数
  • 梯度下降求解模型参数

MLP 模型的示例代码如下

代码语言:javascript
复制
def model_fn():
    uid = tf.placeholder(tf.int32, shape=[None])
    item = tf.placeholder(tf.int32, shape=[None])
    y = tf.placeholder(tf.float32, shape=[None])
    keep_prob = tf.placeholder(tf.float32)

    user_emb = tf.Variable(initial_value=tf.truncated_normal(shape=[USER_COUNT + 1, EMB_SIZE], mean=0, stddev=0.01))
    movie_emb = tf.Variable(initial_value=tf.truncated_normal(shape=[MOVIE_COUNT + 1, EMB_SIZE], mean=0, stddev=0.01))

    user_vec = tf.nn.embedding_lookup(user_emb, uid)
    item_vec = tf.nn.embedding_lookup(movie_emb, item)

    # input = tf.multiply(user_vec, item_vec)
    input = tf.concat([user_vec, item_vec], axis=1)
    output_size = EMB_SIZE * 2
    layers = []
    for i in range(2):
        output_size = output_size / 2
        l = tf.keras.layers.Dense(output_size,
                                  activation=tf.nn.relu,
                                  kernel_initializer=tf.truncated_normal_initializer(stddev=0.1),
                                  kernel_regularizer=tf.keras.regularizers.l2(L2_RATE),
                                  bias_regularizer=tf.keras.regularizers.l2(L2_RATE),
                                  )
        layers.append(l)

    for l in layers:
        input = l(input)
        input = tf.nn.dropout(input, keep_prob=keep_prob)

    last_layer = tf.keras.layers.Dense(1, activation=None,
                                       kernel_initializer=tf.truncated_normal_initializer(stddev=0.1),
                                       kernel_regularizer=tf.keras.regularizers.l2(L2_RATE),
                                       bias_regularizer=tf.keras.regularizers.l2(L2_RATE))
    logits = last_layer(input)
    logits = tf.reshape(logits, (-1,))

    score = tf.sigmoid(logits)
    l2_loss = tf.losses.get_regularization_loss()
    loss = l2_loss + tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(labels=y, logits=logits))

    return {"score": score,
            "loss": loss,
            'uid': uid,
            "item": item,
            'y': y,
            }

NeuMF 模型

GMF 和 MLP 模型分别能拟合用户、物品向量的线性和非线性关系,联想自 Google 提出的 Wide and Deep Recommendation 算法,我们也自然而然的将 GMF 和 MLP 算法融合起来,期望能拟合更为复杂用户、物品交互关系。NeuMF 模型的构建步骤为

  • 预训练 GMF 和 MLP 模型的隐向量和MLP部分参数
  • 将 GMF 和 MLP 最后一层融合到一起输入到损失函数
  • 梯度下降方法更新每一层参数

NeuMF 模型的结构为

NeuMF 模型的示例代码为

代码语言:javascript
复制
def model_fn():
    uid = tf.placeholder(tf.int32, shape=[None])
    item = tf.placeholder(tf.int32, shape=[None])
    y = tf.placeholder(tf.float32, shape=[None])
    dropout_rate = tf.placeholder(tf.float32)

    mf_user_emb = tf.get_variable(name='mf_user_emb',
                                  initializer=tf.truncated_normal_initializer(mean=0, stddev=0.1),
                                  shape=[USER_COUNT + 1, MF_EMB_SIZE],
                                  trainable=True,
                                  regularizer=None
                                  )
    mf_movie_emb = tf.get_variable(name='mf_movie_emb',
                                   initializer=tf.truncated_normal_initializer(mean=0, stddev=0.1),
                                   shape=[MOVIE_COUNT + 1, MF_EMB_SIZE],
                                   trainable=True,
                                   regularizer=None
                                   )

    mlp_user_emb = tf.get_variable(name='mlp_user_emb',
                                   initializer=tf.truncated_normal_initializer(mean=0, stddev=0.1),
                                   shape=[USER_COUNT + 1, MLP_EMB_SIZE],
                                   trainable=True,
                                   regularizer=None
                                   )
    mlp_movie_emb = tf.get_variable(name='mlp_movie_emb',
                                    initializer=tf.truncated_normal_initializer(mean=0, stddev=0.1),
                                    shape=[MOVIE_COUNT + 1, MLP_EMB_SIZE],
                                    trainable=True,
                                    regularizer=None)

    user_mf_vec = tf.nn.embedding_lookup(mf_user_emb, uid)
    item_mf_vec = tf.nn.embedding_lookup(mf_movie_emb, item)
    mf_layer = tf.multiply(user_mf_vec, item_mf_vec)

    mlp_user_vec = tf.nn.embedding_lookup(mlp_user_emb, uid)
    mlp_movie_vec = tf.nn.embedding_lookup(mlp_movie_emb, item)

    input = tf.concat([mlp_user_vec, mlp_movie_vec], axis=1)
    #input = tf.multiply(mlp_user_vec, mlp_movie_vec)

    layers = []
    size = MLP_EMB_SIZE
    for i in range(2):
        l = tf.keras.layers.Dense(size,
                                  activation=tf.nn.relu,
                                  bias_regularizer=tf.keras.regularizers.l2(L2_LAMBDA),
                                  kernel_regularizer=tf.keras.regularizers.l2(L2_LAMBDA),
                                  kernel_initializer=tf.contrib.layers.xavier_initializer())
        layers.append(l)
        input = l.apply(input)
        input = tf.nn.dropout(input, keep_prob=1 - dropout_rate)
        size = size / 2

    layer = tf.concat([mf_layer, input], axis=1)

    last_layer = tf.layers.Dense(1,
                                 activation=None,
                                 kernel_regularizer=tf.keras.regularizers.l2(L2_LAMBDA),
                                 kernel_initializer=tf.contrib.layers.xavier_initializer(),
                                 bias_regularizer=tf.keras.regularizers.l2(L2_LAMBDA)
                                 )
    logits = last_layer.apply(layer)
    logits = tf.reshape(logits, shape=(-1,))
    l2_loss = tf.losses.get_regularization_loss()
    score = tf.sigmoid(logits)
    loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(labels=y, logits=logits)) + l2_loss

    return {"score": score,
            "loss": loss,
            'uid': uid,
            "i": item,
            "y": y,
            "dropout_rate": dropout_rate,
            }

深度矩阵分解模型(DMF)

模型结构

深度矩阵分解模型,跟上面的 NeuMF 不同之处在于,它不采用 embedding 向量作为模型的输入,转而直接采用评分矩阵R中的行、列原始数据作为模型的输入。在评分矩阵R中,每个用户Ui都被表示为一个高维向量Yi*,它表示的是第i个用户对所有物品的频分。同样的,每个物品Vj都被表示成一个高维向量Yj*,它表示的是所有用户对第j个物品的评分。该模型的构建步骤如下

。对所有的用户、物品获取高维的表示向量

。将用户、物品的高维向量分别输入到两个MLP网络

。经过MLP处理后,用户和物品的向量分别变成了稠密向量Pi,Qj

。用余弦相似度计算,用户对物品的评分

。用梯度下降求解模型参数

DMF 模型的结构如下

损失函数

DMF 模型采用的是交叉熵损失函数,即建模为一个二分类问题。DMF模型的创新性在于,它注意到了公共数据集 movielens 中存在分数导致样本权重不一样的问题,一个评 1 分的电影和评 5 分的电影在损失函数中贡献的权重是一样的,这样有些违背常识,评分高的样本应该比评分低的样本设置更高的权重,因此 DMF 模型设置了一个归一化的交叉熵损失函数,定义如下

可以看出正样本的权重会按照用户的分数的高低进行归一化。

模型示例代码
代码语言:javascript
复制
def model_fn(embs):
    uid = tf.placeholder(tf.int32, shape=[None])
    item = tf.placeholder(tf.int32, shape=[None])
    y = tf.placeholder(tf.float32, shape=[None])
    dropout_rate = tf.placeholder(tf.float32)

    user_emb = tf.convert_to_tensor(embs)
    movie_emb = tf.transpose(embs)

    user_vec = tf.nn.embedding_lookup(user_emb, uid)
    item_vec = tf.nn.embedding_lookup(movie_emb, item)
    #
    for i, u_size in enumerate(USER_LAYER):
        i_size = ITEM_LAYER[i]
        act = None
        use_bias = False
        if i > 0:
            act = tf.keras.activations.relu
            use_bias = True

       l_u = tf.keras.layers.Dense(u_size,
                                    activation=act,
                                    use_bias=use_bias,
                                    bias_regularizer=tf.keras.regularizers.l2(L2_LAMBDA),
                                    kernel_regularizer=tf.keras.regularizers.l2(L2_LAMBDA),
                                    kernel_initializer=tf.truncated_normal_initializer(stddev=0.01))
        l_i = tf.keras.layers.Dense(i_size,
                                    activation=act,
                                    use_bias=use_bias,
                                    bias_regularizer=tf.keras.regularizers.l2(L2_LAMBDA),
                                    kernel_regularizer=tf.keras.regularizers.l2(L2_LAMBDA),
                                    kernel_initializer=tf.truncated_normal_initializer(stddev=0.01))
        user_vec = l_u.apply(user_vec)
        item_vec = l_i.apply(item_vec)
   
    dot = tf.reduce_sum(tf.multiply(user_vec, item_vec), axis=1)
    mod_u = tf.sqrt(tf.reduce_sum(tf.square(user_vec), axis=1))
    mod_i = tf.sqrt(tf.reduce_sum(tf.square(item_vec), axis=1))

    y_ = dot / (mod_u * mod_i)
    y_ = tf.maximum(MIU, y_)
    score = y_

    # loss = tf.reduce_sum(tf.where(tf.greater(y, 0), tf.log(y_), tf.log(1.0 - y_)))
    norm_rate = y / 5.0
    loss = tf.reduce_sum(norm_rate * tf.log(y_) + (1.0 - norm_rate) * tf.log(1.0 - y_))
   l2_loss = 0.0  # tf.losses.get_regularization_loss()
    loss = l2_loss - loss
    return {"score": score,
            "loss": loss,
            'uid': uid,
            "i": item,
            "y": y,
            }

基于卷积的矩阵分解模型(ConvMF)

模型结构

ConvMF 是目前的 state-of-the-art 模型,在公共数据集上表现的效果最好,主要原因是他通过卷积神经网络(CNN)充分挖掘出用户和物品之间的交互特征。他的创新点如下:

  • 首次用外积(Outer Product)来表示用户和物品之间的交互信息
  • 创新性的用 CNN 网络来挖掘用户和物品交互信息

ConvMF 模型简洁、清晰、明了,是深度学习中不可多见的精品模型,他的构建步骤如下:

• 用稠密的embedding表示用户和物品的隐向量分别为Pu,Qi,他们的维度为n

模型结构如下

CNN 网络结构如下

可以看到 CNN 结构同图像领域典型的卷积-池化的结构不太一样,每一层卷积都采用 strides 为 2 ,使得交叉矩阵的大小不断减半,直至最后一层演变成一维向量。

损失函数

ConvMF 的损失韩式采用的是 BPR 损失函数

模型示例代码

模型结构部分

代码语言:javascript
复制
def model_fn():
    uid = tf.placeholder(tf.int32, shape=[None])
    item_i = tf.placeholder(tf.int32, shape=[None])
    item_j = tf.placeholder(tf.int32, shape=[None])
    keep_prob = tf.placeholder(tf.float32)

    user_emb = tf.Variable(initial_value=tf.truncated_normal(shape=[USER_COUNT + 1, EMB_SIZE], mean=0, stddev=0.01))
    movie_emb = tf.Variable(initial_value=tf.truncated_normal(shape=[MOVIE_COUNT + 1, EMB_SIZE], mean=0, stddev=0.01))

   user_vec = tf.nn.embedding_lookup(user_emb, uid)
    i_vec = tf.nn.embedding_lookup(movie_emb, item_i)
    j_vec = tf.nn.embedding_lookup(movie_emb, item_j)

    w = tf.get_variable('w_',
                        shape=[FILTER_COUNT],
                        initializer=tf.truncated_normal_initializer(stddev=0.1),
                        regularizer=tf.keras.regularizers.l2(L2_W)
                        )
    b = tf.get_variable('b_',
                        shape=[1],
                        initializer=tf.random_normal_initializer(stddev=0.1),
                        regularizer=tf.keras.regularizers.l2(L2_W)
                        )

    conv_layers = []
    for i in range(6):
        conv_layers.append(tf.keras.layers.Conv2D(filters=FILTER_COUNT,
                                                  kernel_size=(2, 2),
                                                  strides=(2, 2),
                                                  padding='SAME',
                                                  activation=tf.nn.relu,
                                                  kernel_regularizer=tf.keras.regularizers.l2(L2_CONV),
                                                 bias_regularizer=tf.keras.regularizers.l2(L2_CONV)
                                                  )
                           )

    x_i = conv(user_vec, i_vec, keep_prob, w, b, conv_layers)
    x_j = conv(user_vec, j_vec, keep_prob, w, b, conv_layers)

   l2_loss = tf.losses.get_regularization_loss() + L2_EMB * (l2(user_vec) + l2(i_vec) + l2(j_vec))
    loss = l2_loss - tf.reduce_sum(tf.log(tf.sigmoid(x_i - x_j)))

    return {"score": x_i,
            "loss": loss,
            'uid': uid,
            "i": item_i,
            "j": item_j,
            "user_vec": user_vec,
            }

卷积部分

代码语言:javascript
复制
def conv(user_emb, item_emb, keep_prob, w, b, conv_layers):
    user_emb_1 = tf.reshape(user_emb, shape=[-1, EMB_SIZE, 1])
    item_emb_t = tf.reshape(item_emb, shape=[-1, 1, EMB_SIZE])
    matrix = tf.matmul(user_emb_1, item_emb_t)
    matrix = tf.expand_dims(matrix, -1)

    input = matrix
    for l in conv_layers:
        input = l(input)
        input = tf.nn.dropout(input, keep_prob=keep_prob)
        print(input.shape)
    layer = tf.nn.dropout(input, keep_prob=keep_prob)
    layer = tf.reshape(layer, [-1, FILTER_COUNT])

    y = tf.reduce_sum(tf.multiply(layer, w), axis=1) + b

    return y

四、深度协同过滤模型在花椒的应用

现代推荐系统的架构一般都如下图所示

花椒推荐系统也采用了同样的架构,整体结构分为召回和排序两部分,整个过程就是从大量的物品集合中精选几十个推荐给用户。我们上述介绍的一系列深度协同过滤模型都是召回阶段算法,但是采用 BPR 作为损失函数的模型也具有 pair-wise 排序功能。

花椒推荐系统的召回算法主要采用 NeuMF 算法,经过多轮超参调整和模型结构调整,我们最终采用了 BPR 损失函数,BPR比交叉熵损失函数效果有略微提升。需要注意的是,花椒数据集的规模比 movielens 1m大很多,常规的单机程序已经满足不了效率要求,我们采取了目前分布式计算中较为流行的 Spark 工具来进行数据集的生成和处理,处理完成后的数据集存储在 HDFS 上。在训练阶段,单机多显卡的配置也满足不了 tensorflow 训练的要求,因此我们采用了 360 私有云的 HBOX 分布式训练平台来完成日常深度模型的训练。

五、总结

本文首先介绍了传统基于相似度的协同过滤算法,然后引申出基于矩阵分解的广义协同过滤,现在推荐系统用到的协同过滤算法几乎都是基于矩阵分解进行的各种优化和扩展。由于算法的需要,需要把推荐问题建模成不同的机器学习模型,他们分别是回归模型、分类模型、BPR 模型,针对这些模型有不同的损失函数来描述他们。

本文重点介绍了目前学术界一些比较好的深度协同过滤算法,介绍了实施这些算法的评估方法、负采样、优化器的选择等方面,然后针对每个算法,都从模型的构建过程,损失函数的选择,模型的结构,以及模型的求解等方面作了简单介绍,为了方便读者尝试和实践,我们都用 tensorflow 描述了算法的基本结构。由于篇幅所限,每个算法都浅尝辄止,感兴趣的同学可以阅读文后的参考文献中的论文,详细了解算法背后的原理。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-09-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 小小挖掘机 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、协同过滤算法概述
    • 基于隐向量的协同过滤
      • 显式反馈和隐式反馈
      • 二、损失函数的选择
        • 基于回归的损失函数
          • 交叉熵损失函数
            • BPR 损失函数
            • 三、神经网络与协同过滤
              • 负采样
                • 离线评估方法
                  • 通用矩阵分解模型(GMF)
                    • MLP 模型
                      • NeuMF 模型
                        • 深度矩阵分解模型(DMF)
                          • 模型结构
                          • 损失函数
                          • 模型示例代码
                        • 基于卷积的矩阵分解模型(ConvMF)
                          • 模型结构
                          • 损失函数
                          • 模型示例代码
                      • 四、深度协同过滤模型在花椒的应用
                      • 五、总结
                      领券
                      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档