小言_互联网的博客

Word2Vec与文章相似度

201人阅读  评论(0)

 2.7 Word2Vec与文章相似度

学习目标

  • 目标
    • 知道文章向量计算方式
    • 了解Word2Vec模型原理
    • 知道文章相似度计算方式
  • 应用
    • 应用Spark完成文章相似度计算

2.7.1 文章相似度

  • 在我们的某项目推荐中有很多地方需要推荐相似文章,包括首页频道可以推荐相似的文章,详情页猜你喜欢

  • 需求

    • 首页频道推荐:每个频道推荐的时候,会通过计算两两文章相似度,快速达到在线推荐的效果,比如用户点击文章,我们可以将离线计算好相似度的文章排序快速推荐给该用户。此方式也就可以解决冷启动的问题
  • 方式:
    • 1、计算两两文章TFIDF之间的相似度
    • 2、计算两两文章的word2vec或者doc2vec向量相似度

我们采用第二种方式,实践中word2vec在大量数据下达到的效果更好。

2.7.2 Word2Vec模型介绍

2.7.2.2 为什么介绍Word2Vec

  • 计算相似度:寻找相似词、或者用于文章之间的相似度
  • 文本生成、机器翻译等

2.7.2.2 词向量是什么

定义:将文字通过一串数字向量表示

  • 词的独热表示:One-hot Representation
    • 采用稀疏方式 存储,简单易实现
    • 灯泡:[0,0,0,0,0,1,0,0,0,0,0,0,0,0,0,0]、灯管:[0,0,0,0,0,0,0,1,0,0,0,0,0,0,0,0]

维度过大词汇鸿沟现象:任意两个词之间都是孤立的。光从这两个向量中看不出两个词是否有关系,哪怕”灯泡”和”灯管”这两个词是同义词也不行

  • 词的分布式表示:Distributed representation
    • 传统的独热表示( one-hot representation)仅仅将词符号化,不包含任何语义信息
    • Distributed representation 最早由 Hinton在 1986 年提出。它是一种低维实数向量,这种向量一般长成这个样子: [0.792, −0.177, −0.107, 0.109, −0.542, …]
    • 最大的贡献就是让相关或者相似的词,在距离上更接近了

2.7.2.3 词向量原理

  • 统计语言模型: 统计语言模型把语言(词的序列)看作一个随机事件,并赋予相应的概率来描述其属于某种语言集合的可能性

例如:一个句子由w1,w2,w3,w4,w5,…….这些词组,使得P(w1,w2,w3,w4,w5……)概率大(可以从训练语料中得出)

  • N-Gram

    • 语言是一种序列,词与词之间并不是相互独立
    • 一元模型(unigram model):假设某个出现的概率与前面所有词无关

      • P(s) = P(w1)P(w2)P(w3)…P(w4)
    • 二元模型(bigram model):假设某个出现的概率与前面一个词相关

      • P(s) = P(w1)P(w2|w1)P(w3|w2)…P(w_i|w_i-1)
    • 三元模型(trigram model):假设某个出现的概率与前面两个词相关
      • P(s) = P(w1)P(w2|w1)P(w3|w1,w2)…P(w_i|w_i-2,w_i-1)

注:目前使用较多的是三元模型,由于训练语料限制,无法追求更大的N,并且N越大导致计算量越来越大

2.7.2.4 词向量计算得出

  • 通过一个三层神经网络得出,由约书亚.本吉奥(Yoshua Bengio)提出word2vec模型

 

  • 通过窗口输入句子中的连续三个词,w1,w2,w3
    • 输入网络中已是初始化的向量,如w1:[0,0,0,0,…..,0],值的向量长度自定义
    • 三个词向量,输入到网络中,目标值为原句子的后面一个w4,通过onehot编码定义
    • 网络训练,网络参数更新,自动调整w1,w2,w3的向量值,达到经过最后的softmax(多分类概率),输出预测概率,与目标值计算损失

2.7.3 文章词向量训练

  • 目的:通过大量历史文章数据,训练词的词向量

由于文章数据过多,在开始设计的时候我们会分频道进行词向量训练,每个频道一个词向量模型。

  • 步骤:
    • 1、根据频道内容,读取不同频道号,获取相应频道数据并进行分词
    • 3、Spark Word2Vec训练保存模型

根据频道内容,读取不同频道号,获取相应频道数据

在setting目录汇总创建一个default.py文件,保存默认一些配置,如频道


  
  1. channelInfo = {
  2. 1: "html",
  3. 2: "开发者资讯",
  4. 3: "ios",
  5. 4: "c++",
  6. 5: "android",
  7. 6: "css",
  8. 7: "数据库",
  9. 8: "区块链",
  10. 9: "go",
  11. 10: "产品",
  12. 11: "后端",
  13. 12: "linux",
  14. 13: "人工智能",
  15. 14: "php",
  16. 15: "javascript",
  17. 16: "架构",
  18. 17: "前端",
  19. 18: "python",
  20. 19: "java",
  21. 20: "算法",
  22. 21: "面试",
  23. 22: "科技动态",
  24. 23: "js",
  25. 24: "设计",
  26. 25: "数码产品",
  27. }

创建word2vec.ipynb文件,用来训练模型:


  
  1. import os
  2. import sys
  3. # 如果当前代码文件运行测试需要加入修改路径,避免出现后导包问题
  4. BASE_DIR = os.path.dirname(os.path.dirname(os.getcwd()))
  5. sys.path.insert( 0, os.path.join( BASE_DIR))
  6. PYSPARK_PYTHON = "/miniconda2/envs/reco_sys/bin/python"
  7. # 当存在多个版本时,不指定很可能会导致出错
  8. os.environ[ "PYSPARK_PYTHON"] = PYSPARK_PYTHON
  9. os.environ[ "PYSPARK_DRIVER_PYTHON"] = PYSPARK_PYTHON
  10. from offline import SparkSessionBase
  11. from setting. default import channelInfo
  12. from pyspark.ml.feature import Word2Vec
  13. class TrainWord2VecModel(SparkSessionBase):
  14. SPARK_APP_NAME = "Word2Vec"
  15. SPARK_URL = "yarn"
  16. ENABLE_HIVE_SUPPORT = True
  17. def __init__(self):
  18. self.spark = self._create_spark_session()
  19. w2v = TrainWord2VecModel()

获取数据并分词处理,注意分词函数导入(这里只选取了18号频道部分数据进行测试)


  
  1. # 这里训练一个频道模型演示即可
  2. w2v.spark.sql( "use article")
  3. article = w2v.spark.sql( "select * from article_data where channel_id=18 limit 2")
  4. words_df = article.rdd.mapPartitions(segmentation).toDF([ 'article_id', 'channel_id', 'words'])

Spark Word2Vec训练保存模型

  • 模块:from pyspark.ml.feature import Word2Vec
  • API:class pyspark.ml.feature.Word2Vec(vectorSize=100, minCount=5, numPartitions=1, stepSize=0.025, maxIter=1, seed=None, inputCol=None, outputCol=None, windowSize=5, maxSentenceLength=1000)
    • vectorSize=100: 词向量长度
    • minCount:过滤次数小于默认5次的词
    • windowSize=5:训练时候的窗口大小
    • inputCol=None:输入列名
    • outputCol=None:输出列名

  
  1. new_word2Vec = Word2Vec(vectorSize= 100, inputCol= "words", outputCol= "model", minCount= 3)
  2. new_model = new_word2Vec.fit(words_df)
  3. new_model.save( "hdfs://hadoop-master:9000/headlines/models/test.word2vec")

上传历史数据训练的模型

在本地准备了训练一段时间每个频道的模型

hadoop dfs -put ./word2vec_model /headlines/models/

2.7.4 增量更新-文章向量计算

有了词向量之后,我们就可以得到一篇文章的向量了,为了后面快速使用文章的向量,我们会将每个频道所有的文章向量保存起来。

  • 目的:保存所有历史训练的文章向量
  • 步骤:
    • 1、加载某个频道模型,得到每个词的向量
    • 2、获取频道的文章画像,得到文章画像的关键词(接着之前增量更新的文章article_profile)
    • 3、计算得到文章每个词的向量
    • 4、计算得到文章的平均词向量即文章的向量

加载某个频道模型,得到每个词的向量


  
  1. from pyspark. ml. feature import Word2VecModel
  2. channel_id = 18
  3. channel = "python"
  4. wv_model = Word2VecModel. load(
  5. "hdfs://hadoop-master:9000/headlines/models/word2vec_model/channel_%d_%s.word2vec" % (channel_id, channel))
  6. vectors = wv_model. getVectors()

获取新增的文章画像,得到文章画像的关键词

可以选取小部分数据来进行测试


  
  1. # 选出新增的文章的画像做测试,上节计算的画像中有不同频道的,我们选取Python频道的进行计算测试
  2. profile = articleProfile. filter( 'channel_id = {}'. format(channel_id))
  3. profile.registerTempTable( "incremental")
  4. articleKeywordsWeights = ua.spark.sql(
  5. "select article_id, channel_id, keyword, weight from incremental LATERAL VIEW explode(keywords) AS keyword, weight")
  6. _article_profile = articleKeywordsWeights.join(vectors, vectors.word==articleKeywordsWeights.keyword, "inner")

计算得到文章每个词的向量

  • 这里用词的权重 * 词的向量 = weights x vector=new_vector
articleKeywordVectors = _article_profile.rdd.map(lambda row: (row.article_id, row.channel_id, row.keyword, row.weight * row.vector)).toDF(["article_id", "channel_id", "keyword", "weightingVector"])

计算得到文章的平均词向量即文章的向量


  
  1. def avg(row):
  2. x = 0
  3. for v in row.vectors:
  4. x += v
  5. # 将平均向量作为article的向量
  6. return row.article_id, row.channel_id, x / len(row.vectors)
  7. articleKeywordVectors. registerTempTable( "tempTable")
  8. articleVector = ua.spark. sql(
  9. "select article_id, min(channel_id) channel_id, collect_set(weightingVector) vectors from tempTable group by article_id").rdd. map(
  10. avg). toDF([ "article_id", "channel_id", "articleVector"])

对计算出的”articleVector“列进行处理,该列为Vector类型,不能直接存入HIVE,HIVE不支持该数据类型


  
  1. def toArray(row):
  2. return row.article_id, row.channel_id, [ float(i) for i in row.articleVector. toArray()]
  3. articleVector = articleVector.rdd. map(toArray). toDF([ 'article_id', 'channel_id', 'articleVector'])

最终计算出这个18号Python频道的所有文章向量,保存到固定的表当中

  • 创建文章向量表

  
  1. CREATE TABLE article_vector(
  2. article_id INT comment "article_id",
  3. channel_id INT comment "channel_id",
  4. articlevector ARRAY comment "keyword");

保存数据到HIVE

# articleVector.write.insertInto("article_vector")

上传计算好的历史文章向量

hadoop dfs -put ./article_vector /user/hive/warehouse/article.db/

2.7.5 文章相似度计算

  • 目的:计算每个频道两两文章的相似度,并保存

  • 分析问题:

    • 1、是否需要某频道计算所有文章两两相似度?
    • 2、相似度结果数值如何保存?

2.7.4.1 问题1

我们在推荐相似文章的时候,其实并不会用到所有文章,也就是TOPK个相似文章会被推荐出去,经过排序之后的结果。如果我们的设备资源、时间也真充足的话,可以进行某频道全量所有的两两相似度计算。但是事实当文章量达到千万级别或者上亿级别,特征也会上亿级别,计算量就会很大。一下有两种类型解决方案

每个频道的文章先进行聚类

可以对每个频道内N个文章聚成M类别,那么类别数越多每个类别的文章数量越少。如下pyspark代码


  
  1. bkmeans = BisectingKMeans(k= 100, minDivisibleClusterSize= 50, featuresCol= "articleVector", predictionCol= 'group')
  2. bkmeans_model = bkmeans.fit(articleVector)
  3. bkmeans_model.save(
  4. "hdfs://hadoop-master:9000/headlines/models/articleBisKmeans/channel_%d_%s.bkmeans" % (channel_id, channel))

但是对于每个频道聚成多少类别这个M是超参数,并且聚类算法的时间复杂度并不小,当然可以使用一些优化的聚类算法二分、层次聚类。

局部敏感哈希LSH(Locality Sensitive Hashing)

从海量数据库中寻找到与查询数据相似的数据是一个很关键的问题。比如在图片检索领域,需要找到与查询图像相似的图,文本搜索领域都会遇到。如果是低维的小数据集,我们通过线性查找(Linear Search)就可以容易解决,但如果是对一个海量的高维数据集采用线性查找匹配的话,会非常耗时,因此,为了解决该问题,我们需要采用一些类似索引的技术来加快查找过程,通常这类技术称为最近邻查找(Nearest Neighbor,AN),例如K-d tree;或近似最近邻查找(Approximate Nearest Neighbor, ANN),例如K-d tree with BBF, Randomized Kd-trees, Hierarchical K-means Tree。而LSH是ANN中的一类方法。

  • 基本思想:LSH算法基于一个假设,如果两个文本在原有的数据空间是相似的,那么分别经过哈希函数转换以后的它们也具有很高的相似度

经常使用的哈希函数,冲突总是难以避免。LSH却依赖于冲突,在解决NNS(Nearest neighbor search )时,我们期望:

  • 离得越近的对象,发生冲突的概率越高
  • 离得越远的对象,发生冲突的概率越低

总结:那么我们在该数据集合中进行近邻查找就变得容易了,我们只需要将查询数据进行哈希映射得到其桶号,然后取出该桶号对应桶内的所有数据,再进行线性匹配即可查找到与查询数据相邻的数据。

落入相同的桶内的哈希函数需要满足以下两个条件:

  1. 如果d(O1,O2)<r1,那么Pr[h(O1)=h(O2)] ≥ p1
  2. 如果d(O1,O2)>r2,那么Pr[h(O1)=h(O2)] ≤ p2

LSH在线查找时间由两个部分组成:

(1)通过LSH hash functions计算hash值(桶号)的时间;

(2)将查询数据与桶内的数据进行比较计算的时间。第(2)部分的耗时就从O(N)变成了O(logN)或O(1)(取决于采用的索引方法)。

注:LSH并不能保证一定能够查找到与query data point最相邻的数据,而是减少需要匹配的数据点个数的同时保证查找到最近邻的数据点的概率很大。

实际中常见的LSH

LSH详细过程

mini hashing

假设我们有如下四个文档D1,D2,D3,D4D1,D2,D3,D4的集合情况,每个文档有相应的词项,用{w1,w2,..w7}{w1,w2,..w7}表示。若某个文档存在这个词项,则标为1,否则标为0。

过程

1、Minhash的定义为:** 特征矩阵按行进行一个随机的排列后,第一个列值为1的行的行号。

 

  • 重复上述操作
    • 矩阵按行进行多次置换,每次置换之后统计每一列(对应的是每个文档)第一个不为0位置的行号,这样每次统计的结果能构成一个与文档数等大的向量,我们称之为签名向量
    • (如果两个文档足够相似,也就是说这两个文档中有很多元素是共有的,这样置换出来的签名向量,如果原来其中有一些文档的相似度很高,那么这些文档所对应的签名向量的相应的元素值相同的概率也很高。)

初始时的矩阵叫做input matrix,由m个文档m,n个词项组成.而把由t次置换后得到的一个t×mt×m矩阵叫做signature matrix。

 

2、对Signature每行分割成若干brand(一个brand若干行),每个band计算hash值(hash函数可以md5,sha1任意),我们需要将这些hash值做处理,使之成为事先设定好的hash桶的tag,然后把这些band“扔”进hash桶中。

两个文档一共存在b个band,这b个band都不相同的概率是,r和b影响对应的概率.

概率1−(1−s^r)^b就是最终两个文档被映射到同一个hash bucket中的概率。我们发现,这样一来,实际上可以通过控制参数r,b值来控制两个文档被映射到同一个哈希桶的概率。而且效果非常好。比如,令b=20,r=5

s∈[0,1]是这两个文档的相似度,等于给的文当前提条件下:

  • 当s=0.8时,两个文档被映射到同一个哈希桶的概率是
    • Pr(LSH(O1)=LSH(O2))=1−(1−0.85)5=0.9996439421094793
  • 当s=0.2时,两个文档被映射到同一个哈希桶的概率是:
    • Pr(LSH(O1)=LSH(O2))=1−(1−0.25)5=0.0063805813047682

参数环境下的概率图:

  • 相似度高于某个值的时候,到同一个桶概率会变得非常大,并且快速靠近1
  • 当相似度低于某个值的时候,概率会变得非常小,并且快速靠近0

Random Projection

Random Projection是一种随机算法.随机投影的算法有很多,如PCA、Gaussian random projection - 高斯随机投影。

随机桶投影是用于欧几里德距离的 LSH family。其LSH family将x特征向量映射到随机单位矢量v,并将映射结果分为哈希桶中。哈希表中的每个位置表示一个哈希桶。


转载:https://blog.csdn.net/weixin_43894652/article/details/128746536
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场