FM模型的一些理解的实操

原文:https://www.csie.ntu.edu.tw/~b97053/paper/Rendle2010FM.pdf
  本文仅仅只是对文章的一些个人理解。本章先回顾一下FM模型和代码实现。


  在FM模型里,每个事物被表式为一个多领域的类别特征向量 表示,利用one-hot/multi-hot编码来描述上下文信息。one-hot大家一定很了解,比如性别特征男=[1,0,0],女=[0,1,0],未识别=[0,0,1]。但是multi-hot是第一次听说,文中给的一个例子是historical items,可以类比在电商领域里,用户在过去某一段时间浏览的商品。由于用户不只是对一种商品有过浏览行为,所以不像one-hot只在某一位上有值。比如[衣服,鞋子,包],用户在前一天浏览了衣服和鞋子,则该特征为[1,1,0]。
  式子(1)是FM模型,我们回顾一下,其中是全局的偏置项,是第个变量的权重值,到此为止也就是大家常见的线性模型。FM模型是在线性模型的基础上加了二阶项,也就是式(1)的第三项。其中<v_i,v_j>是二阶交叉项的系数。式子(1)的第三项可以被简化成:
简记为和平方-平方和。虽然它在线性模型的基础上加上了二阶特征,但它的局限性也在于此,它仅仅只利用了特征之间两两乘积的线性组合。更高阶的特征组合仍无法获取。由此作者提出了CFM模型。其目的是获取更高阶的特征组合。我们先回忆一下FM模型的代码,先看主程序

if __name__ == '__main__':
    # 读取数据
    data = pd.read_csv('./criteo_sample.txt')
    # 将数据按照连续特征离散特征和目标分开
    dense_features = ['I' + str(i) for i in range(1, 14)]
    sparse_features = ['C' + str(i) for i in range(1, 27)]
    labelName = 'label'
    # 数据基础处理
    df = hadleData(data=data,sparse_features=sparse_features, dense_features=dense_features)
    # 将数据按照8:2分成训练数据和测试数据
    df_train, df_test = train_test_split(df, test_size=0.2, random_state=10)
    # 得到特征集和特征个数
    dict, feature_size = get_feature_dict(df_train, dense_features,labelName)
    # for k,v in dict.items():
    #     print("--------------")
    #     print(k)
    #     print(v)
    #

    # 可以这样理解这一步,
    x_train_index, x_train_value, y_train = get_data(df_train, dict,dense_features,labelName)
    # print(len(x_train_index))
    # for i in range(len(x_train_index)):
    #     print(x_train_index[i])
    # print("--------------")
    # for i in range(len(x_train_index)):
    #     print(x_train_value[i])
    x_test_index, x_test_value, y_test = get_data(df_test, dict,dense_features,labelName)
    #
    m, n = np.array(x_train_index).shape
    xidx = tf.placeholder(tf.int32, [None, None], name='feat_index')
    xval = tf.placeholder(tf.float32, [None, None], name='feat_value')
    y = tf.placeholder(tf.float32, [None, 1], name='label')
    #模型预测值
    embedding_size = 4 # 定义embedding的大小
    liner = linear(xidx, xval ,feature_size,n)
    fm =  FM(n,feature_size,embedding_size,xidx,xval)
    # prediction = tf.add(liner, fm)  # None * 1 # 回归最后一层
    prediction = tf.nn.sigmoid(tf.add(liner, fm)) #因为只有两类,所有用sigmoid

    # 模型的损失函数
    # loss = tf.reduce_mean(tf.square(prediction  - y)) #回归的损失函数
    loss = tf.reduce_mean(-tf.reduce_sum(y_train * tf.log(prediction), reduction_indices=[1]))
    # 分类的损失函数,交叉熵损失函数

    # 梯度下降
    lr =0.01 # 定义梯度下降的参数,试验几种梯度下降法
    train_op = tf.train.AdamOptimizer(learning_rate=lr).minimize(loss)
    epoch = 1000
    init = tf.global_variables_initializer() # 初始化参数,必须要
    with tf.Session() as sess:
        sess.run(init)
        for step in range(epoch):
            if step%50==0:
                train_acct_num =computeAcc(x_train_index, x_train_value, y_train)
                # test_acct_num = computeAcc(x_test_index, x_test_value, y_test)
                tmp_loss_train, _ = sess.run([loss, train_op],
                                       feed_dict={xidx: x_train_index, xval: x_train_value, y: y_train})
                print("epoch:%d train_acct_num:%f  tmp_loss_train: %f" %(step,train_acct_num, tmp_loss_train))

首先我们要对拿到的数据做一些最基础的处理,比如空值填充,one-hot编码及连续值scale化。

def hadleData(data, sparse_features, dense_features):
    # 空值填充,连续值填充为0,离散值填充为-1
    data[sparse_features] = data[sparse_features].fillna('-1', )
    data[dense_features] = data[dense_features].fillna(0, )
    # 独热编码,在本代码中实际不需要,因为在#get_feature_dict中实际上进行了独热编码
#    for feat in sparse_features:
#        lbe = LabelEncoder()
#        data[feat] = lbe.fit_transform(data[feat])
    # 连续特征进行归一化处理
    mms = MinMaxScaler(feature_range=(0, 1))
    data[dense_features] = mms.fit_transform(data[dense_features])
    return data

接着我们需要将特征变成{field:{特征:编号}}的形式,例如C22离散特征,它只有-1、c9d4222a、ad3062eb、8ec974f4、78e2e389。共5个取值,最终的类结合为{'-1': 1664, 'c9d4222a': 1665, 'ad3062eb': 1666, '8ec974f4': 1667, '78e2e389': 1668}后面的数字1701是它的特征编码,也就是说它是第1701个特征。可以这样理解,把所有特征编码后展开,连续特征维数不变,离散特征要拉长成它所有取值的大小。然后将其重新编号。

def get_feature_dict(df,denseFeature,labelName):
    feature_dict = {}
    total_feature = 0
    # df.drop(labelName, axis=1, inplace=True)
    for col in df.columns:
        if col in denseFeature:
            feature_dict[col] = total_feature
            total_feature += 1
        else:
            unique_feature = df[col].unique()
            feature_dict[col] = dict(zip(unique_feature, range(total_feature, total_feature + len(unique_feature))))
            total_feature += len(unique_feature)
    return feature_dict, total_feature

下面的操作就类似于稀疏存储,记录每个样本非空的特征xi和对应的特征值xv。

def get_data(df,feature_dict,denseFeature,labelName):
   y = df[[labelName]].values
   dd = df.drop(labelName,axis=1)
   df_index = dd.copy()
   df_value = dd.copy()
   for col in df_index.columns:
       if col in denseFeature:
           df_index[col] = feature_dict[col]
       else:
           df_index[col] = df_index[col].map(feature_dict[col])
           df_value[col] = 1.0
   xi=df_index.values.tolist()
   xv=df_value.values.tolist()
   return xi,xv,y

接着看两大主要部分:线性模块和FM模块

def linear(xidx, xval ,feature_size,n):
    # xidx 的大小是[160, 39] feature_sze = 1872
    # 偏置项
    w_0 = tf.Variable(initial_value=tf.zeros(shape=[1]),dtype=tf.float32) ,
    # 权重项,初始化为均值为0方差为0.01的二项分布
    w =  tf.Variable(initial_value=tf.random_normal(shape=[feature_size, 1], mean=0,stddev=0.01),
                     dtype=tf.float32)

    # tf.nn.embedding_lookup函数的用法主要是选取一个张量里面索引对应的元素
    # 例如 c=np.random([5,1]) b = tf.nn.embedding_lookup(c, [1,3])
    # b=[[ 0.23976515],[ 0.77505197],[ 0.08798201],[ 0.20635818],[ 0.37183035]], c = [[ 0.77505197],[ 0.20635818]]
    embedding_first = tf.nn.embedding_lookup(w, xidx)
    # reshape将矩阵重新,相当于把数据拉长成了一维数据进行计算
    value = tf.reshape(xval, [-1, n, 1])
    # multiply(embedding_first,value) = embedding_first*value
    # axis=1,如果是二维矩阵,按行求和,例如[[1,2], [3,4]] 就和的结果为[3,7]
    first_order = tf.reduce_sum(tf.multiply(embedding_first, value), axis=1)
    liner = tf.add(w_0, first_order)
    return liner
def FM(n,feature_size,embedding_size,xidx,xval):
    # 定义权重  v = [sampleNum, sampleDim]
    v = tf.Variable(initial_value=tf.random_normal(
        shape=[feature_size, embedding_size], mean=0, stddev=0.01),
        dtype=tf.float32
    )
    # 此时inputData= [sampleNum, sampleDim]
    #计算v_{i,k}*x_i, 最后得到的维度是[sampleNum, sampleDim],只不过每个v_{i,k}的位置乘了x_i
    embedding = tf.nn.embedding_lookup(v, xidx)  # N n embedding_size
    value = tf.reshape(xval, [-1, n, 1])
    embedding_value = tf.multiply(embedding, value)  # N n embedding_size
    # 和平方 (\sum_i^n v_{i,k}*x_i)^2, 按行求和
    square_of_sum = tf.square(tf.reduce_sum(
        embedding_value, axis=1, keepdims=True))
    # 平方和 \sum_i^n (v_{i,k}*x_i)^2
    sum_of_square = tf.reduce_sum(
        embedding_value * embedding_value, axis=1, keepdims=True)
    cross_term = square_of_sum - sum_of_square
    cross_term = 0.5 * tf.reduce_sum(cross_term, axis=2, keepdims=False)
    return cross_term

  问题1:实际上我所理解如果要用该模型做分类的话,应该在外层嵌套一个sigmoid函数,就像LR模型,是在线性模型的基础上嵌套一层sigmoid函数,作为二分类模型的某类别的概率值。
  问题2:看到有人说FM实际上先进行one-hot再进行embedding。embedding具体在哪里体现的呢?

参考文献
[1]https://blog.csdn.net/qq_40006058/article/details/88532970
[2]//www.greatytc.com/p/d2068c991ee7

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,372评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,368评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,415评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,157评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,171评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,125评论 1 297
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,028评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,887评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,310评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,533评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,690评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,411评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,004评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,659评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,812评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,693评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,577评论 2 353

推荐阅读更多精彩内容