nltk专题提供nltk的最新资讯内容,帮你更好的了解nltk。
我有一个带有字符串条目的数据框,我正在使用一个函数来删除停用词。该单元格可以编译,但不会产
我正在尝试从德语句子中提取动词。问题是,例如这句话 <code>Ich rufe noch einmal an.</code> 我将r
我目前正在研究csv文件中单词的反义化,之后我将所有单词以小写字母传递,删除所有标点符号并拆分
我在输入中输入文字,例如: <pre><code>class UserModel{ String id; String name; String role; UserModel({
我有一个大约5000个单词和5000行的数据集: 2行示例 <pre><code>data = [[&#34;I&#34;, &#34;am&#34;, &#34;John&
一段时间以来,我一直在试图弄清楚该如何做。 我有一棵看起来像这样的nltk树: <pre><code>(S (NP (
我正在尝试使用停用词('is','the','was')作为分隔符来标记以下文本 预期输出是这样: <pre><co
我正在尝试使用不带nltk.download('wordnet')的wordnet,因为该功能已被公司的IT策略阻止。我已经下载了word
我目前正在使用AWS Lambda。以下是代码摘录: <pre><code>import pandas as pd import re import nltk from stop_words impor
我的输出格式为 <pre><code>[(&#39;the&#39;, 1334), (&#39;and&#39;, 919), (&#39;a&#39;, 615), (&#39;to&#39;, 560), (&#39;i&#
我正在研究概率上下文无关语法的动态编程-CYK算法,以查找最可能的解析树。 我正在使用NLTK的树
我正在研究一种概率CYK算法以生成解析树,并且正在使用Python NLTK的Treebank给出的CFG语法。但是,我不知
我制作了如下的tweets bigram和二进制标签的CSV文件。我要在其上运行<code>NaiveBayesClassifier</code>。 <pre><co
我在将熊猫系列中的单词标记化时遇到问题。 我的系列名为<code>df</code>: <pre><code>
每个人 我想根据句子及其频率在python中创建双字母组,但是当计算每个双字母组的频率时,我不知道如
我正在使用NLTK库。我有一个名为<code>chunks</code>的列表,我想在该列表后面附加单词,所以我在做: <
我有这句话: <pre><code>Sentence Who the president of Kuala Lumpur is? </code></pre> 我正在尝试提取所有单词
如果列表超过一定数量,我正在尝试获取列表的频率分布。 示例: <pre><code>import nltk test_list=[&#3
我的法语文本带有两个撇号。我想以相同的方式分割所有的撇号。例如: <pre class="lang-py prettyprint-over
<pre class="lang-py prettyprint-override"><code>from nltk.corpus.reader.conll import ConllCorpusReader READER = ConllCorpusReader(root=&#34