from janome.tokenizer import Tokenizer
t = Tokenizer()
tokens = t.tokenize("形態素解析対象文")
# 出力
for token in tokens:
print(token)
品詞で限定する場合
def extract_words(text):
tokens = t.tokenize(text)
return [token.base_form for token in tokens
if token.part_of_speech.split(',')[0] in [u'名詞', u'動詞']]