nltk
Tokenizing
Поиск…
Вступление
Это относится к расщеплению предложений и слов из текста текста в токены предложения или токены соответственно. Это неотъемлемая часть НЛП, так как многие модули работают лучше (или только) с тегами. Например, pos_tag нуждается в тегах в качестве входных данных, а не в словах, чтобы пометить их по частям речи.
Приговор и токенизация слова из данного параграфа
from nltk.tokenize import sent_tokenize, word_tokenize
example_text = input("Enter the text: ")
print("Sentence Tokens:")
print(sent_tokenize(example_text))
print("Word Tokens:")
print(word_tokenize(example_text))
Modified text is an extract of the original Stack Overflow Documentation
Лицензировано согласно CC BY-SA 3.0
Не связан с Stack Overflow