所以,我正在尝试进行文本多类分类.我一直在阅读很多旧的问题和博客文章,但我仍然无法完全理解这个概念.
我也从这篇博客文章中尝试了一些例子. http://www.laurentluce.com/posts/twitter-sentiment-analysis-using-python-and-nltk/
但是当谈到多类分类时,我不太明白.假设我想将文本分为多种语言,法语,英语,意大利语和德语.我想使用NaviesBayes,我认为这是最容易开始的.从我在旧问题中读到的内容来看,最简单的解决方案是使用one vs all.因此,每种语言都有自己的模型.所以,我会有3种法语,英语和意大利语模型.然后我会针对每个模型运行一个文本,并检查哪个模型的概率最高.我对么?
但是当谈到编码时,在上面的例子中他有这样的推文,它将被分类为正面或负面.
pos_tweets = [('I love this car','positive'),('This view is amazing',('I feel great this morning',('I am so excited about tonight\'s concert',('He is my best friend','positive')] neg_tweets = [('I do not like this car','negative'),('This view is horrible',('I feel tired this morning',('I am not looking forward to tonight\'s concert',('He is my enemy','negative')]
这是积极的还是消极的.那么,当谈到为法语训练一个模型时,我应该如何标记文本?会这样吗?那么这将是积极的吗?
[('Bon jour','French'),'je m'appelle','French']
否定的是
[('Hello','English'),('My name','English')]
但这是否意味着我可以添加意大利语和德语,只有4种语言的模型?或者我真的不需要否定?
那么,问题是使用ntlk进行多类分类的正确方法是什么?
解决方法
没有必要采用Naive Bayes的一对一方案 – 它是开箱即用的多类型模型.只需将(样本,标签)对列表提供给分类器学习器,其中label表示语言.
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。