我正在使用以下模块:
from nltk.tokenize import word_tokenize
from nltk.util import ngrams
def makeNGrams(filename, n):
variable_NGrams = ngrams(word_tokenize(filename), n)
return [' '.join(grams) for grams in variable_NGrams]
只需输入我想使用的文本即可,但是导入文本文件不起作用。
当我这样写模块时
from nltk.tokenize import word_tokenize
from nltk.util import ngrams
def makeNGrams(filename, n):
text = open(filename, 'r').read()
variable_NGrams = ngrams(word_tokenize(text), n)
return [' '.join(grams) for grams in variable_NGrams]
并使用它打开特定的txt文件,我收到大量错误
如何在此模块中导入和使用文本文件?
您有两个问题之一。您的文件名是全名,您不需要附加,.txt
或者它不包含适当的文件扩展名,您需要适当地添加它。
选项1:
def makeNGrams(filename, n):
# Note the difference here
text = open(filename, 'r').read()
variable_NGrams = ngrams(word_tokenize(text), n)
return [' '.join(grams) for grams in variable_NGrams]
选项2:
def makeNGrams(filename, n):
# Note the difference here
text = open('{}.txt'.format(filename), 'r').read()
variable_NGrams = ngrams(word_tokenize(text), n)
return [' '.join(grams) for grams in variable_NGrams]
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句