Чтение и запись предложений с тегами POS из текстовых файлов с использованием NLTK и Python

Кто-нибудь знает, существует ли существующий модуль или простой метод для чтения и записи предложений с тегами частей речи в текстовые файлы и из них? Я использую Python и набор инструментов для работы с естественным языком (NLTK). Например, этот код:

import nltk

sentences = "Call me Ishmael. Some years ago - never mind how long precisely - having little or no money in my purse, and nothing particular to interest me on shore, I thought I would sail about a little and see the watery part of the world."

tagged = nltk.sent_tokenize(sentences.strip())
tagged = [nltk.word_tokenize(sent) for sent in tagged]
tagged = [nltk.pos_tag(sent) for sent in tagged]

print tagged

Возвращает этот вложенный список:

[[('Call', 'NNP'), ('me', 'PRP'), ('Ishmael', 'NNP'), ('.', '.')], [('Some', 'DT'), ('years', 'NNS'), ('ago', 'RB'), ('-', ':'), ('never', 'RB'), ('mind', 'VBP'), ('how', 'WRB'), ('long', 'JJ'), ('precisely', 'RB'), ('-', ':'), ('having', 'VBG'), ('little', 'RB'), ('or', 'CC'), ('no', 'DT'), ('money', 'NN'), ('in', 'IN'), ('my', 'PRP$'), ('purse', 'NN'), (',', ','), ('and', 'CC'), ('nothing', 'NN'), ('particular', 'JJ'), ('to', 'TO'), ('interest', 'NN'), ('me', 'PRP'), ('on', 'IN'), ('shore', 'NN'), (',', ','), ('I', 'PRP'), ('thought', 'VBD'), ('I', 'PRP'), ('would', 'MD'), ('sail', 'VB'), ('about', 'IN'), ('a', 'DT'), ('little', 'RB'), ('and', 'CC'), ('see', 'VB'), ('the', 'DT'), ('watery', 'NN'), ('part', 'NN'), ('of', 'IN'), ('the', 'DT'), ('world', 'NN'), ('.', '.')]]

Я знаю, что мог бы легко сбросить это в рассол, но я действительно хочу экспортировать это как сегмент большего текстового файла. Я хотел бы иметь возможность экспортировать список в текстовый файл, а затем вернуться к нему позже, проанализировать его и восстановить исходную структуру списка. Есть ли в NLTK встроенные функции для этого? Я искал, но не могу найти...

Пример вывода:

<headline>Article headline</headline>
<body>Call me Ishmael...</body>
<pos_tags>[[('Call', 'NNP'), ('me', 'PRP'), ('Ishmael', 'NNP')...</pos_tags>

person rjf    schedule 06.04.2011    source источник


Ответы (2)


Похоже, что использование pickle.dumps и вставка его вывода в ваш текстовый файл, возможно, с оболочкой тега для автоматической загрузки удовлетворит ваши требования.

Не могли бы вы уточнить, как должен выглядеть текстовый вывод? Вы стремитесь к чему-то более понятному для человека?

EDIT: добавление кода

from xml.dom.minidom import Document, parseString
import nltk

sentences = "Call me Ishmael. Some years ago - never mind how long precisely - having little or no money in my purse, and nothing particular to interest me on shore, I thought I would sail about a little and see the watery part of the world."

tagged = nltk.sent_tokenize(sentences.strip())
tagged = [nltk.word_tokenize(sent) for sent in tagged]
tagged = [nltk.pos_tag(sent) for sent in tagged]

# Write to xml string
doc = Document()

base = doc.createElement("Document")
doc.appendChild(base)

headline = doc.createElement("headline")
htext = doc.createTextNode("Article Headline")
headline.appendChild(htext)
base.appendChild(headline)

body = doc.createElement("body")
btext = doc.createTextNode(sentences)
headline.appendChild(btext)
base.appendChild(body)

pos_tags = doc.createElement("pos_tags")
tagtext = doc.createTextNode(repr(tagged))
pos_tags.appendChild(tagtext)
base.appendChild(pos_tags)

xmlstring = doc.toxml()

# Read back tagged

doc2 = parseString(xmlstring)
el = doc2.getElementsByTagName("pos_tags")[0]
text = el.firstChild.nodeValue
tagged2 = eval(text)

print "Equal? ", tagged == tagged2
person so12311    schedule 07.04.2011
comment
Спасибо. Да, я бы хотел, чтобы это было читабельно для человека, если это возможно. Я извлекаю данные из газетных статей и создаю записи с тегами. Я бы хотел, чтобы одно из полей содержало предложения с тегами POS из статьи. См. редактирование выше, например, идеального вывода... - person rjf; 07.04.2011
comment
Похоже, что результат, который вы хотите, такой же, как и в представлении python вашего списка? - person so12311; 07.04.2011
comment
Да, но есть ли способ преобразовать его обратно в список после того, как я сделал его строкой с помощью repr()? - person rjf; 07.04.2011
comment
Будущие читатели: В этом коде нет ничего плохого, но это не оптимальный подход в NLTK. Пожалуйста, смотрите мой ответ. - person alexis; 13.09.2012

NLTK имеет стандартный формат файла для текста с тегами. Это выглядит так:

Позвони/ННП мне/ПРП Измаил/ННП ./.

Вам следует использовать этот формат, так как он позволяет читать ваши файлы с помощью NLTK TaggedCorpusReader и других подобных классов и получать полный набор функций чтения корпуса. Как ни странно, в NLTK нет высокоуровневой функции для записи размеченного корпуса в этом формате, но это, вероятно, потому, что это довольно тривиально:

for sent in tagged:
    print " ".join(word+"/"+tag for word, tag in sent)

(NLTK предоставляет nltk.tag.tuple2str(), но обрабатывает только одно слово — проще ввести word+"/"+tag).

Если вы сохраните текст с тегами в одном или нескольких файлах fileN.txt в этом формате, вы сможете прочитать его с помощью nltk.corpus.reader.TaggedCorpusReader следующим образом:

mycorpus = nltk.corpus.reader.TaggedCorpusReader("path/to/corpus", "file.*\.txt")
print mycorpus.fileids()
print mycorpus.sents()[0]
for sent in mycorpus.tagged_sents():
    <etc>

Обратите внимание, что метод sents() дает вам текст без тегов, хотя и с немного странным интервалом. Нет необходимости включать в файл как тегированные, так и нетегированные версии, как в вашем примере.

TaggedCorpusReader не поддерживает заголовки файлов (для заголовка и т. д.), но если вам это действительно нужно, вы можете создать свой собственный класс, который читает метаданные файла, а затем обрабатывает все остальное, как TaggedCorpusReader.

person alexis    schedule 13.09.2012
comment
Небольшая ошибка, вам нужно создать список внутри вызова присоединения: print .join([word+/+tag for word, tag in send]) - person Rahul Jha; 28.06.2013
comment
@RahulJha, почему? Попробуй как я написал. Он называется генератором и работает без предварительного построения списка результатов (отлично подходит для очень длинных списков, но хорош везде). - person alexis; 28.06.2013