《从NLP反作弊技术看马蜂窝注水事件》笔记

0.原文

NLP系列(6)_从NLP反作弊技术看马蜂窝注水事件 - 寒小阳 - CSDN博客
https://blog.csdn.net/han_xiaoyang/article/details/84205701

1.马蜂窝是否有大量抄袭点评

1.1 先用词袋模型快速筛选一批相似点评

词袋子模型是一种非常经典的文本表示。顾名思义,它就是将字符串视为一个 “装满字符(词)的袋子” ,袋子里的词语是随便摆放的。而两个词袋子的相似程度就以它们重合的词及其相关分布进行判断。

词袋模型的缺点

  • 召回率高但准确率低
    解决:只用于初步筛选
  • 只统计词语是否出现或者词频,会被无意义的词汇所影响
    解决:文本预处理(a.去除停用词;b.文字、字母、标点符号统一;c.利用TF-IDF去除不重要的词)
  • 无法识别语义层面的信息
    解决:基于深度学习的文本表示(词向量、句向量等)
  • 无法关注词语之间的顺序关系
    解决:深度学习

1.2 再用字符串匹配确定一批实锤

最长公共子串,动态规划求解

优点

  • 准确率高:子串的判断是完全匹配的,绝对属于实锤

缺点

  • 召回率低
  • 速度慢:时间复杂度O(n2)O(n^2)O(n2)

1.3 用深度学习捞漏网之鱼

1.3.1 基于深度学习的文本表示:词向量/句向量

词向量:wod2vec
句向量:

  • 最简单:将句子中所有词的词向量加起来
  • 通过神经网络将输入的词向量经过CNN\RNN\self-attention机制得到整个句子的表示,最后用一层max pooling转换到固定长度的向量。计算两个句子的余弦值作为它们的相似度。

1.3.2 直接用神经网络建模句子之间的相似度

在搜索引擎的场景下,把用户的搜索语句(query)和搜索引擎展示的网页文本(document)都输入给神经网络。之后分别输出query与各个document的相似度,以用户是否点击作为标注进行建模。得到模型后,就可以直接给任意两句话计算相似度了。
这种方法比较依赖海量的标注数据。而搜索引擎天然具有这海量的标注数据。

1.4 人工校验

人工校验,分析badcase,进一步优化模型……

2.马蜂窝是否有大量抄袭账号

2.1 传统学习进行文本分类

关键词匹配是指关键词与页面中的内容进行匹配。如果文本中出现了某些典型关键词,就可以直接判断该文本所属的分类。
举例:我们可以抽出女性关键词:“老公”、“男友”等。男性关键词:“老婆”、“女友”等。我们将已知关键词拿到文中去进行匹配,就可以识别账号评论的性别。

缺点

准确率高、召回率低

改进

进行大量的特征工程。比如增加词语的词性、命名实体相关特征,或者采用更好的分词器。另一个思路是增加2gram、3gram特征。

2.2 机器学习进行文本分类

文本表示(词袋模型)+分类器模型(朴素贝叶斯/逻辑回归/支持向量机)
词袋模型是一种基于统计的将文本中的词进行统一表示的方法。而得到这些文档的向量表示后,可以采用朴素贝叶斯、逻辑回归或支持向量机等机器学习的算法模型对文本加以分类,从而识别出各文本中的人物年龄、性别等信息,进而找出矛盾点及识别出账号的真伪。

2.3 深度学习进行文本分类

采用基于深度学习方法的文本分类技术主要包括卷积神经网络(CNN),循环神经网络(RNN),注意力机制(Attention)等。

3.马蜂窝是否有大量水军评论

用更多的可视化技术帮助人工去寻找作弊关键点。一个典型的方法是绘制词云。其实本质上也是统计词频,但是通过可视化技术可以讲词频较高的词语、短语放大标出。这样可以有个更加直观的认识,形成更加专业的分析报告。

3.1 模板评论

统计词频发现模板评论

3.2 机翻关键词

结合词组统计和用肉眼看。

3.3 “投毒”

类似机翻关键词的寻找。

4.马蜂窝是否有大量洗稿攻略

鉴别洗稿NLP技术其实目前还是开放问题,因为这属于长文本的相似度判断

长文本相似与短文本相似最大的区别是:长文本的信息量更加丰富,处理起来更加困难。如句子之间的顺序、段落间的谋篇布局、篇章整体的主题等等,都远比句子级别的信息更复杂。

4.1 词语级别抽取信息

用基于统计的词袋子模型快速筛选一批相似攻略。这个方法的好处是速度快、召回率高,但准确率低。这在面对海量文章进行判断时比较有用,把绝大部分明显不是抄袭的攻略都过滤掉。

4.2 句子级别抽取信息

采用字符串匹配判断是否存在数个以上的句子完全相同。这是洗稿文章典型特征。而这种方法准确率高,但召回率低。而且特别容易被洗稿团队绕过。

4.3 深度学习捞漏网之鱼

之后可以把中间地带的文本拆成句子用深度学习筛选一遍,捞一批漏网之鱼

4.4 篇章级别抽取信息

涉及到的NLP技术包括情感倾向分析与主题模型LDA。

4.5 人工校验

最后再用人工校验,分析badcase,进一步优化策略……

原文地址:https://blog.csdn.net/weixin_38493025/article/details/88788499

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


python方向·数据分析   ·自然语言处理nlp   案例:中文分词·社交网络分析      案例:人物关系分析·人工智能·深度学习·计算机视觉案例:行人检测·网络爬虫·量化交易          案例:多因子策略模型 
原文地址http://blog.sina.com.cn/s/blog_574a437f01019poo.html昨天实验室一位刚进组的同学发邮件来问我如何查找学术论文,这让我想起自己刚读研究生时茫然四顾的情形:看着学长们高谈阔论领域动态,却不知如何入门。经过研究生几年的耳濡目染,现在终于能自信地知道去哪儿了解最新科研
ptb数据集是语言模型学习中应用最广泛的数据集,常用该数据集训练RNN神经网络作为语言预测,tensorflow对于ptb数据集的读取也定义了自己的函数库用于读取,在python1.0定义了models文件用于导入ptb库函数,然而当python升级后,导入models文件时就会出现:ModuleNotFountError错误,这时需
 Newtonsoft.JsonNewtonsoft.Json是.Net平台操作Json的工具,他的介绍就不多说了,笔者最近在弄接口,需要操作Json。以某个云计算平台的Token为例,边操作边讲解。Json转为Model将Model转为Json将LINQ转为JSONLinq操作命名空间、类型、方法大全 Json转为Model 
NLP(NaturalLanguageProcessing)自然语言处理是人工智能的一个子领域,它是能够让人类与智能机器进行沟通交流的重要技术手段,同时也是人工智能中最为困难的问题之一。因此,NLP的研究处处充满魅力和挑战,也因此被称为人工智能“皇冠上的明珠”。目前各家主流深度学习框架,都开放了相应
做一个中文文本分类任务,首先要做的是文本的预处理,对文本进行分词和去停用词操作,来把字符串分割成词与词组合而成的字符串集合并去掉其中的一些非关键词汇(像是:的、地、得等)。再就是对预处理过后的文本进行特征提取。最后将提取到的特征送进分类器进行训练。一、什么是自然语言处
NLP(NaturalLanguageProcessing)自然语言处理是人工智能的一个子领域,它是能够让人类与智能机器进行沟通交流的重要技术手段,同时也是人工智能中最为困难的问题之一。因此,NLP的研究处处充满魅力和挑战,也因此被称为人工智能“皇冠上的明珠”。目前各家主流深度学习框架,都开放了相应
编者注:文中超链接如果不能访问可以点击“阅读原文”访问本文原页面;可以参考2018年5月21-24日伦敦Strata数据会议上的教学辅导课《使用spaCy和SparkNLP进行自然语言理解》。本系列博客的目地是通过使用两个领先的生产级语言处理库(JohnSnowLabs的ApacheSparkNLP和Explosion
NLP文本相似度相似度相似度度量:计算个体间相似程度相似度值越小,距离越大,相似度值越大,距离越小最常用--余弦相似度:​一个向量空间中两个向量夹角的余弦值作为衡量两个个体之间差异的大小余弦值接近1,夹角趋于0,表明两个向量越相似如果向量a和b不是二维而是n维​
0.原文NLP系列(6)_从NLP反作弊技术看马蜂窝注水事件-寒小阳-CSDN博客https://blog.csdn.net/han_xiaoyang/article/details/842057011.马蜂窝是否有大量抄袭点评1.1先用词袋模型快速筛选一批相似点评词袋子模型是一种非常经典的文本表示。顾名思义,它就是将字符串视为
地址:https://gitbook.cn/books/5c7888e1a19247277cb5c313/index.html深度学习优势总结:手工特征耗时耗力,还不易拓展自动特征学习快,方便拓展深度学习提供了一种通用的学习框架,可用来表示世界、视觉和语言学信息深度学习既可以无监督学习,也可以监督学习在DeepNLP
本文将分享发表在2018年的NAACL上,outstandingpaper。论文链接ELMo。该论文旨在提出一种新的词表征方法,并且超越以往的方法,例如word2vec、glove等。论文贡献点能捕捉到更复杂的语法、语义信息。能更好的结合上下文内容,对多义词做更好的表征。(以往的词表征方法,例如word2ve
时间:2016年1月。出处:http://blog.csdn.net/longxinchen_ml/article/details/50597149http://blog.csdn.net/han_xiaoyang/article/details/50616559声明:版权所有,转载请联系作者并注明出处##1.引言贝叶斯方法是一个历史悠久,有着坚实的理论基础的方法,同时处理很多问题时
NLP的工程化,不是一个个算法的累积,也不是一个个任务的独立优化,而应该是系统工程,综合考虑语言、计算、场景等多种因素,不断演进融合,寻求效果满意解的过程。根据赫伯特.西蒙(图灵奖和诺贝尔奖双料得主)的有限理性模型,受到所处环境的高度复杂性和有限的信息加工能力限制,因此NLP应用
继NLP之后,我又开了ML这个大坑。这是因为NLP涉及到太多的ML模型,仅仅拿过来用的话,我实现的HanLP已经快到个人极限了。而模型背后的原理、如何优化、如何并行化等问题,都需要寻根求源才能解决。所以我找了个书单自学,电子书为主,顺便分享出来。 ML书单│  李航.统计学习方法.
少玩ai,人工智能,nlp,tensorflow之类的玄学,多学学基础,三大浪漫,C++,搞开发,千万不要变成调参侠
 0.introductionGAN模型最早由IanGoodfellowetal于2014年提出,之后主要用于signalprocessing和naturaldocumentprocessing两方面,包含图片、视频、诗歌、一些简单对话的生成等。由于文字在高维空间上不连续的问题(即任取一个wordembedding向量不一定能找到其所对应的文字),GA
自然语言处理Firstatall 因为本人换系统之前都在用oneNote,在ubuntu上部署不便,所以将一些常用的信息写成博客 本文主要引用Ruder大神的NLP-proress做了一下翻译和提取原文地址:传送门1.前沿技术StateoftheArt 机器学习和自然语言处理(NLP)的研究近来发展
北风网-人工智能就业班培训链接:https://pan.baidu.com/s/128DJgMY9G-fjzRAxq1QO-w  提取码:ngwi课程体系阶段一、人工智能基础-高等数学必知必会本阶段主要从数据分析、概率论和线性代数及矩阵和凸优化这四大块讲解基础,旨在训练大家逻辑能力,分析能力。拥有良好的数学基础,有利