推荐系统实战之FM(Factorization Machine)算法——keras算法练习(4)

笔者在之前的文章中介绍过使用keras搭建一个基于矩阵分解的推荐系统,而那篇文章所介绍的方法可能只是一个庞大推荐系统中的一小环节。而对于工业级别的推荐系统,面对极其庞大的产品种类数量,一步就输出符合用户心意的产品可能够呛,最好的方式应该是从巨大的产品类别之中粗筛出一些靠谱的待推荐产品,然后再从粗筛的产品中精挑细选出要推荐给用户的最终产品

工业级别的推荐系统简介

工业级别的推荐系统的架构图如下图所示,大致分为两个阶段:

  • 召回阶段:也就是粗筛阶段,由于涉及到的产品数量巨大,大的公司都是千万级别,甚至上亿级别的产品数量,此阶段的模型应该尽量简单,特征维度也尽量少,这样方便快速筛选出一些待推荐的产品。
  • 排序阶段:即对上一阶段粗筛出来的待推荐产品进行精挑细选,此阶段为了推荐出符合用户心意的产品,需要模型尽量的准确。而且由于粗筛阶段将数据量减少到几千,甚至几百级别,所以使用复杂模型,并且特征维度也可以尽量丰富,尽量多一些,这样训练出来的模型才能有较强的性能。


    推荐系统的架构图

而接下来我要介绍的FM(Factorization Machine)算法,不仅在召回阶段有用武之地,在排序阶段也是很拿得出手的推荐模型。

FM(Factorization Machine)算法简介

Factorization Machine的中文叫因子分解机,FM算法的最强特点就是考虑到了特征的二阶组合——即特征两两组合形成一个新的特征。在产品推荐,CTR预估等任务中,特征相互组合很可能会得到一个特别强的新特征。接下来我们从FM算法的公式来了解一下此算法的精髓:
y = w_0 + \sum_{i=1}^{n}w_ix_i + \sum_{i=1}^{n} \sum_{j=i+1}^{n} <v_i,v_j>x_ix_j
如果我们单看FM算法的前面一部分:y = w_0 + \sum_{i=1}^{n}w_ix_i ,这不就是一个Logistics回归模型吗,确实没错,FM算法的前半部分就是Logistics回归,算法的后半部分才体现出FM的特征组合的思想:

  • 其中v_i 和v_j可以理解成特征i和特征j的另外一种向量表示
  • v_i 和v_j 向量相乘得到的值则是特征i和特征j组合特征的权重
  • Logistics回归 + 特征之间的两两组合,最后给每个两两组合而来的新特征乘上一个权重值,就实现了FM算法的特征的二阶组合的思想。

通过下图我们可以将FM算法的公式转化为:

FM算法的改写


不要小看了公式的改写这一步,公式的改写这一过程会带来了算法时间复杂度的下降,加速算法的运行。接下来我们就尝试使用keras实现一下FM算法。

FM算法实战

首先导入毕要的python 包,导入 sklearn中乳腺癌的分类任务数据(笔者只是为了实现算法,所以只找了个简单的现成数据跑一跑)。

import keras
from keras.layers import Layer, Dense, Dropout,Input
from keras import Model,activations
from keras.optimizers import Adam
import keras.backend as K
from sklearn.datasets import load_breast_cancer

FM层的定义,其中call函数中定义了FM的主要实现部分。

class FM(Layer):
    def __init__(self, output_dim=30, activation="relu",**kwargs):
        self.output_dim = output_dim
        self.activate = activations.get(activation)
        super(FM, self).__init__(**kwargs)

    def build(self, input_shape):
        self.wight = self.add_weight(name='wight', 
                                      shape=(input_shape[1], self.output_dim),
                                      initializer='glorot_uniform',
                                      trainable=True)
        self.bias = self.add_weight(name='bias', 
                                      shape=(self.output_dim,),
                                      initializer='zeros',
                                      trainable=True)
        self.kernel = self.add_weight(name='kernel', 
                                      shape=(input_shape[1], self.output_dim),
                                      initializer='glorot_uniform',
                                      trainable=True)
        super(FM, self).build(input_shape)

    def call(self, x):
        feature =  K.dot(x,self.wight) + self.bias
        a = K.pow(K.dot(x,self.kernel), 2)
        b = K.dot(x, K.pow(self.kernel, 2))
        cross = K.mean(a-b, 1, keepdims=True)*0.5
        cross = K.repeat_elements(K.reshape(cross, (-1, 1)), self.output_dim, axis=-1)
        return self.activate(feature + cross)

    def compute_output_shape(self, input_shape):
        return (input_shape[0], self.output_dim)

数据载入

载入sklearn中乳腺癌的分类任务数据。

data = load_breast_cancer()["data"]
target = load_breast_cancer()["target"]

模型构建

这里我采用了一层FM层,一层15个神经元的隐层构建了一个两层的网络模型,Loss 采用的是平方误差损失(mse),当然也可以采用交叉熵损失(cross entropy)。

K.clear_session()
inputs = Input(shape=(30,))
out = FM(20)(inputs)
out = Dense(15,activation="sigmoid")(out)
out = Dense(1,activation="sigmoid")(out)

model = Model(inputs=inputs, outputs=out)
model.compile(loss='mse',
                      optimizer=adam(0.0001),
                      metrics=['accuracy'])
model.summary()

模型训练

定义好batch_size 和训练轮数,就可以将模型跑起来了。

model.fit(data, target,
            batch_size=1,
            epochs=100,
            validation_split=0.2)

下图训练的截图,由于数据集太小,太简单这里也没有对比FM和其他算法的性能差异,不过看网上的博客教程,FM在应对特征丰富的推荐任务时有着很不错的效果。毕竟考虑到了特征之间的组合关系。


模型训练

结语

笔者之前也介绍过GBDT+ LRWide and deep等推荐算法,这次介绍的FM算法也是推荐算法中比较常用的算法,他们都有一个共同的特点——就是这些算法都在寻找特征之间的组合关联,从而实现推荐算法性能的提升。万事万物都存在联系,确实只有算法能够洞察事物(特征)之间联系,才有可能做出更精确的推荐决策。

参考文献

https://zhuanlan.zhihu.com/p/58160982
https://github.com/Hourout/CTR-keras

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,036评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,046评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,411评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,622评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,661评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,521评论 1 304
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,288评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,200评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,644评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,837评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,953评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,673评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,281评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,889评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,011评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,119评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,901评论 2 355

推荐阅读更多精彩内容