Вставка оглавления — Служба поддержки Office
Создание оглавления
-
Поместите курсор в то место, куда вы хотите добавить оглавление.
-
Выберите Ссылки > Оглавление. и выберите Автоматический стиль.
-
Если вы вносите в документ изменения, которые влияют на оглавление, обновите оглавление, щелкнув правой кнопкой мыши оглавление и выбрав команду Обновить поле.
Чтобы обновить оглавление вручную, ознакомьтесь с разделами Обновлениеоглавления.
Отсутствующие элементы
Отсутствующие элементы часто случаются, так как заголовки не форматируются в виде заголовков.
-
Выделите текст заголовка для каждого заголовка, который вы хотите добавить в оглавление.
-
Перейдите на вкладку главная > стилии выберите Заголовок 1.
-
Обновление оглавления.
Чтобы обновить оглавление вручную, ознакомьтесь с разделами Обновлениеоглавления.
Создание оглавления
На основе заголовков Word автоматически создает оглавление, которое может обновляться при изменении текста, последовательности или уровня заголовка.
-
Щелкните место, где требуется вставить оглавление — как правило, в начале документа.
-
Щелкните Ссылки> Оглавление, а затем выберите из списка стиль Автоматическое оглавление.
Примечание: Для стиля Ручное оглавление Word не создает оглавление на основе заголовков и не может обновлять его автоматически. Вместо этого Word создает представление оглавления с замещающим текстом, вместо которого можно вручную ввести каждый раздел. Чтобы обновить оглавление, созданное вручную, ознакомьтесь с разделами Обновлениеоглавления.
Оглавление можно форматировать и настраивать. Например, можно изменить шрифт, число уровней заголовков и указать, должны ли отображаться пунктирные линии между названиями разделов и номерами страниц.
Отсутствующие элементы
Отсутствующие элементы часто случаются, так как заголовки не форматируются в виде заголовков.
-
Выделите текст заголовка для каждого заголовка, который вы хотите добавить в оглавление.
-
Перейдите на вкладку главная > стилии выберите Заголовок 1.
-
Обновление оглавления.
Чтобы обновить оглавление вручную, ознакомьтесь с разделами Обновлениеоглавления.
В настоящее время вы не можете вставить оглавление в Word для веб-сайта. Если вы хотите вставить оглавление в документ, вам нужно сделать это в классическом приложении. Однако вы можете обновить оглавление в Word для Интернета.
Если вы вносите в документ изменения, которые влияют на оглавление, выполните указанные ниже действия.
-
Щелкните оглавление или коснитесь его.
-
Перейдите в References раздел ссылки > оглавление и выберитекоманду Обновитьоглавление.
Чтобы получить более подробные сведения о том, как обновить оглавление или создать оглавление, используйте команду Открыть в Word , чтобы открыть документ в классической версии Word (Windows или Mac).
Дополнительные сведения можно найти в статье инструкции по созданию оглавления в Word для Windows и Mac.
Как написать убедительный вводный абзац — счетчик слов
Вы смотрите на пустой экран. Мысли не текут. Абсолютно ничего. Как, черт возьми, вы собираетесь начать свое эссе?
Вступительный абзац — один из самых важных разделов эссе в колледже. Фактически, этот короткий абзац выполняет большую часть работы, которая способствует полноте вашего написания.
Выбор правильного крючка для вашей первой фразы имеет решающее значение для привлечения внимания читателя с самого начала.
Это помогает привлечь внимание читателя и убедить его продолжить чтение. Здесь вы указываете четкое направление и даете читателю знать, куда вы его ведете. А также здесь вы формулируете четкий тезис и цель своего письма.
Мы знаем … он многого требует. Но поверьте нам, это возможно.
Мы составили список ответов на самые распространенные вопросы, связанные с написанием вводного абзаца.
Какую информацию нужно включить в вводный абзац?
Ваше введение должно состоять из трех основных частей:
-
Крючок — начальная строка, привлекающая внимание читателя.Креативное, информативное, а иногда и забавное, это предложение задает тон вашему эссе. Возможно, вам придется пересматривать эту строку несколько раз на протяжении всего процесса, чтобы получить именно ту формулировку, которая вам нужна.
-
Контекст — некоторые пояснения и информация по теме. Представьте определение вашей основной идеи. Людям нужно знать, о чем вы говорите.
-
Тезис — основной аргумент, которым руководствуется остальная часть эссе.Это критическая строка, в которой объявляется, что вы пытаетесь заявить и как вы планируете поддержать свое мнение.
Как зацепить ридер?
Написание вступительной строки — одна из самых сложных задач в сочинении. Вам нужно что-то достаточно информативное, чтобы представить вашу основную идею, и в то же время достаточно занимательное, чтобы кому-то захотелось продолжить чтение.
Вот несколько тактик, которые хорошо работают:
-
Искра любопытства.
На вашей коже живет больше форм жизни, чем на нашей планете. Мне интересно … расскажите подробнее. -
Используйте юмор.
Иногда я поражаюсь; в другие дни я хожу по лестнице. Ха! Я был там. -
Задайте вопрос.
Если люди не начнут пытаться защитить окружающую среду, что произойдет с Землей? Что случится? Мне нужно знать. -
Укажите ценовое предложение.
«Никогда не сомневайтесь, что небольшая группа вдумчивых, преданных делу граждан может изменить мир; действительно, это единственное, что когда-либо было », — так красноречиво заявила Маргарет Мид. Вот Это Да! Эта дама вдохновляет. Послушаем еще. -
Расскажите анекдот.
Выходя из школы тем дождливым днем, я даже представить себе не мог, что это будет последний раз, когда я увижу своего лучшего друга. Боже мой! Что случилось с твоим другом?
Создание звездного вступительного абзаца означает отказ от чрезмерно используемых и скучных приемов, которые отбивают у читателя желание продолжить чтение.
Чего следует избегать?
Как бы важно ни было убедиться, что вы включили все важные части вводного абзаца, не менее важно исключить все ненужные слова и фразы, которые с самого начала отвлекут вашего читателя.Так чего следует избегать?
-
Избегайте клише. Клише слишком часто используются и не имеют силы. Используйте свои собственные слова, которые несут более сильный смысл (и более уникальный голос).
Вы знаете, что они говорят: «Сэкономленный пенни — это заработанный пенни». Тьфу. Я думаю, что это говорил мой прапрапрадедушка. -
Остерегайтесь определений. Если определение действительно не вызывает интереса у читателя или не крайне необходимо, оставьте его. Это излишне, если большинство людей уже знакомы с определением. Словарь Вебстера определяет школу как «организацию, обеспечивающую обучение». Эм … а?
-
Не будьте слишком расплывчаты. У вас есть всего несколько коротких предложений, чтобы изложить ваши основные идеи. Считайте каждое слово. Все любят собак. Ага. Мы делаем. Но что с того?
-
Не будьте слишком конкретны. Вы же не хотите ошеломлять читателя каждой мелочью. У вас будет время углубиться в детали в основной части вашего эссе.
Четыре раза, когда я видел, как люди отказывались от переработки отходов в моем районе, что является одним из факторов, способствующих повышению температуры Земли на два градуса, включая прошлую пятницу, две среды назад, четверг перед моим днем рождения и вчера ночь. Мне жаль; ты потерял меня там. Я перестал читать.
Как долго должно длиться мое знакомство?
Хотя вы не хотите повторять и повторять вводный абзац, это ваш шанс задать тон вашей статье, вызвать интерес к вашей теме и поделиться своим мнением. Вам нужно иметь содержание без множества ненужных дополнений.
Большинство вступлений должно состоять из трех-пяти предложений. И вы должны стремиться к тому, чтобы количество слов было от 50 до 80 слов.
Необязательно говорить все в первом абзаце. Вам просто нужно достаточно этих нескольких предложений, чтобы дать читателю четкое представление о том, к чему вы собираетесь писать эссе, и вдохновить их продолжить чтение.
Вступление, состоящее из 50-80 слов, гарантирует, что у вас будет достаточно содержания, чтобы заинтересовать ваших читателей, не перегружая их слишком большим количеством информации. Вы хотите, чтобы они продолжали читать.
Произвести первое впечатление важно не только при личном общении, но и при письме.Ваше вступление — это первое, что прочитает ваша аудитория, и вы хотите, чтобы оно вдохновляло их читать дальше. Сделайте его кратким, интересным и информативным, и это обеспечит успех остальной части вашего эссе.
.
Введение в встраивание Word и Word2Vec | автор: Друвил Карани
Встраивание слов — одно из самых популярных представлений словаря документов. Он способен улавливать контекст слова в документе, семантическое и синтаксическое сходство, связь с другими словами и т. Д.
Что такое вложения слов? Грубо говоря, они являются векторными представлениями определенного слова. Сказав это, мы расскажем, как их генерировать? Что еще более важно, как они отражают контекст?
Word2Vec — один из самых популярных методов изучения встраивания слов с использованием неглубокой нейронной сети.Его разработал Томаш Миколов в 2013 году в Google.
Давайте рассмотрим эту часть по частям.
Зачем они нам?
Рассмотрим следующие похожие предложения: Удачного дня и Удачного дня. Вряд ли они имеют разное значение. Если мы составим исчерпывающий словарь (назовем его V), он будет иметь V = {Have, a, good, great, day}.
Теперь давайте создадим вектор с горячим кодированием для каждого из этих слов в V. Длина нашего вектора с горячим кодированием будет равна размеру V (= 5).У нас был бы вектор нулей, за исключением элемента в индексе, представляющего соответствующее слово в словаре. Этот конкретный элемент будет одним. Кодировки ниже объяснят это лучше.
Имеют = [1,0,0,0,0] `; a = [0,1,0,0,0] `; хорошо = [0,0,1,0,0] `; великий = [0,0,0,1,0] `; day = [0,0,0,0,1] `(` представляет транспонирование)
Если мы попытаемся визуализировать эти кодировки, мы можем представить себе 5-мерное пространство, где каждое слово занимает одно из измерений и не имеет ничего общего с делать с остальным (без проекции по другим измерениям).Это означает, что «хороший» и «отличный» так же разные, как «день» и «иметь», что неверно.
Наша цель состоит в том, чтобы слова с похожим контекстом занимали близкие пространственные позиции. Математически косинус угла между такими векторами должен быть близок к 1, то есть углу, близкому к 0.
Google Images
Здесь возникает идея создания распределенных представлений . Интуитивно вводим некую зависимость одного слова от других слов. Слова в контексте этого слова получат большую долю этой зависимости . В одном представлении горячего кодирования все слова независимы, друг от друга , , как упоминалось ранее.
Как работает Word2Vec?
Word2Vec — это метод для создания такого вложения. Его можно получить с помощью двух методов (оба с участием нейронных сетей): пропустить грамм и общий пакет слов (CBOW)
CBOW Модель: Этот метод принимает контекст каждого слова в качестве входных данных и пытается предсказать слово соответствующий контексту.Рассмотрим наш пример: Удачного дня.
Пусть входом в нейронную сеть будет слово, отлично. Обратите внимание, что здесь мы пытаемся предсказать целевое слово ( d ay ) , используя одно слово ввода контекста great. Более конкретно, мы используем одно горячее кодирование входного слова и измеряем ошибку вывода по сравнению с одним горячим кодированием целевого слова ( d ay). В процессе предсказания целевого слова мы изучаем векторное представление целевого слова.
Давайте глубже посмотрим на реальную архитектуру.
CBOW Model
Входное или контекстное слово — это один вектор с горячим кодированием размера V. Скрытый слой содержит N нейронов, а выход — это снова вектор длины V, элементы которого являются значениями softmax.
Давайте рассмотрим термины на картинке справа:
— Wvn — это весовая матрица, которая сопоставляет входной x со скрытым слоем (размерная матрица V * N)
— W`nv — это весовая матрица, которая отображает скрытые слой выводит на окончательный выходной слой (размерная матрица N * V)
Я не буду вдаваться в математику.Мы просто поймем, что происходит.
Нейроны скрытого слоя просто копируют взвешенную сумму входных данных на следующий уровень. Нет такой активации, как сигмовидная, tanh или ReLU. Единственная нелинейность — это вычисления softmax в выходном слое.
Но вышеупомянутая модель использовала одно контекстное слово для предсказания цели. Мы можем использовать несколько контекстных слов, чтобы сделать то же самое.
Google images
Приведенная выше модель принимает контекстные слова C. Когда Wvn используется для вычисления входных данных скрытого слоя, мы берем среднее значение по всем этим входам контекстного слова C.
Итак, мы увидели, как представления слов создаются с использованием контекстных слов. Но есть еще один способ сделать то же самое. Мы можем использовать целевое слово (представление которого мы хотим создать), чтобы предсказать контекст, и в процессе мы создаем представления. Другой вариант, названный моделью Skip Gram, делает это.
Модель Skip-Gram:
Похоже, что модель CBOW с несколькими контекстами только что изменилась. В некоторой степени это правда.
Вводим в сеть целевое слово.Модель выводит C распределений вероятностей. Что это значит?
Для каждой позиции контекста мы получаем C распределений вероятностей V вероятностей, по одному для каждого слова.
В обоих случаях сеть использует обратное распространение для обучения. Подробную математику можно найти здесь
Кто победит?
Оба имеют свои достоинства и недостатки. По словам Миколова, Skip Gram хорошо работает с небольшим объемом данных и хорошо отображает редкие слова.
С другой стороны, CBOW быстрее и лучше отображает более частые слова.
Что впереди?
Приведенное выше объяснение является очень простым. Это просто дает вам общее представление о том, что такое встраивание слов и как работает Word2Vec.
Это еще не все. Например, чтобы сделать алгоритм более эффективным с вычислительной точки зрения, используются такие приемы, как Hierarchical Softmax и Skip-Gram Negative Sampling. Все это можно найти здесь.
Спасибо за чтение! Я завела свой личный блог и не собираюсь писать больше замечательных статей на Medium.Поддержите мой блог, подписавшись на thenlp.space
.
Введение в векторные слова — DZone AI
Векторы слов
векторных слов представляют собой значительный шаг вперед в развитии нашей способности анализировать взаимосвязи между словами, предложениями и документами. Поступая так, они продвигают технологии, предоставляя машинам гораздо больше информации о словах, чем это было возможно ранее при использовании традиционных представлений слов. Именно векторы слов делают возможными такие технологии, как распознавание речи и машинный перевод.Есть много отличных объяснений векторов слов, но в этом я хочу сделать концепцию доступной для людей, занимающихся данными и исследованиями, которые не очень знакомы с обработкой естественного языка (НЛП).
Что такое векторы слов?
Векторов слов — это просто векторы чисел, которые представляют значение слова. Пока это не очень ясно, но мы вернемся к этому чуть позже. Прежде всего полезно рассмотреть, почему векторы слов считаются таким шагом вперед по сравнению с традиционными представлениями слов.
Традиционные подходы к НЛП, такие как одноразовое кодирование и модели набора слов (т. Е. Использование фиктивных переменных для представления присутствия или отсутствия слова в наблюдении, т. Е. В предложении), в то время как полезны для некоторого машинного обучения (ML ) задачи, не собирают информацию о значении слова или контексте. Это означает, что потенциальные отношения, такие как контекстная близость, не отражаются в наборах слов. Например, одноразовое кодирование не может зафиксировать простые отношения, такие как определение того, что слова «собака» и «кошка» оба относятся к животным, которые часто обсуждаются в контексте домашних животных.Такие кодировки часто обеспечивают достаточную основу для простых задач НЛП (например, классификаторы спама в электронной почте), но им не хватает сложности для более сложных задач, таких как перевод и распознавание речи. По сути, традиционные подходы к НЛП, такие как одноразовое кодирование, не фиксируют синтаксические (структура) и семантические (смысловые) отношения между наборами слов и, следовательно, представляют язык очень наивным образом.
Напротив, векторы слов представляют слова как многомерные непрерывные числа с плавающей запятой, где семантически похожие слова отображаются в близкие точки в геометрическом пространстве.Проще говоря, вектор слова — это строка действительных чисел (в отличие от фиктивных чисел), где каждая точка фиксирует измерение значения слова, а семантически похожие слова имеют похожие векторы. Это означает, что такие слова, как колесо и двигатель , должны иметь векторы слов, аналогичные слову автомобиль (из-за сходства их значений), тогда как слово банан должно быть довольно отдаленным. Другими словами, слова, которые используются в аналогичном контексте, будут отображаться в приближенное векторное пространство (мы узнаем, как создаются эти векторы слов, ниже).Прелесть представления слов в виде векторов в том, что они поддаются математическим операторам. Например, мы можем складывать и вычитать векторы — канонический пример здесь показывает, что, используя векторы слов, мы можем определить это:
Другими словами, мы можем вычесть одно значение из вектора слова для короля (то есть мужественности), добавить другое значение (женственность) и показать, что этот новый вектор слова (король — мужчина + женщина) наиболее точно соответствует вектору слов для Королева.
Числа в векторе слов представляют вес слова , распределенный по измерениям .В упрощенном смысле каждое измерение представляет значение, и числовой вес слова в этом измерении отражает его близость к этому значению и к нему. Таким образом, семантика слова встроена в размерности вектора.
Упрощенное представление векторов слов
На рисунке мы представляем, что каждое измерение имеет четко определенное значение. Например, если вы вообразите, что первое измерение представляет значение или понятие «животное», тогда вес каждого слова в этом измерении показывает, насколько близко оно соотносится с этим понятием.
Это довольно большое упрощение векторов слов, поскольку размеры не имеют такого четко определенного значения, но это полезный и интуитивно понятный способ осмыслить концепцию векторных измерений слов.
Мы создаем список слов, применяем синтаксический анализатор spaCy, извлекаем вектор для каждого слова, складываем их вместе, а затем извлекаем два основных компонента для целей визуализации.
импортировать numpy как np импортный простор из sklearn.decomposition import PCA nlp = простор.load ("en") животные = "собака кошка хомяк лев тигр слон гепард обезьяна горилла антилопа кролик мышь крыса зоопарк домашний питомец пушистый дикий одомашненный" animal_tokens = nlp (животные) animal_vectors = np.vstack ([word.vector для слова в animal_tokens, если word.has_vector]) pca = PCA (n_components = 2) animal_vecs_transformed = pca.fit_transform (животные_векторы) animal_vecs_transformed = np.c_ [animals.split (), animal_vecs_transformed]
Здесь мы просто извлекаем векторы для разных животных и слова, которые могут быть использованы для описания или из них.Как упоминалось в начале, векторы слов обладают удивительной мощью, потому что они позволяют нам (и машинам) идентифицировать сходства в разных словах, представляя их в непрерывном векторном пространстве. Здесь вы можете увидеть, насколько близки векторы для таких животных, как «лев», «тигр», «гепард» и «слон». Вероятно, это потому, что они часто обсуждаются в схожих контекстах; например, эти животные большие, дикие и потенциально опасные — действительно, описательное слово «дикие» довольно близко соответствует этой группе животных.
Подобные слова отображаются вместе в векторном пространстве. Обратите внимание, насколько близки «кошка» и «собака» к «домашнему животному», как сгруппированы «слон», «лев» и «тигр», и как описательные слова также группируются вместе.
Здесь также интересно то, насколько близко друг к другу соотносятся слова «дикий», «зоопарк» и «одомашненный». Это имеет смысл, учитывая, что это слова, которые часто используются для описания животных, но подчеркивают удивительную силу слов-векторов!
Откуда берутся векторы слов?
Отличный вопрос здесь: Откуда берутся эти размеры и вес ?! Существует два распространенных способа генерирования векторов слов:
- Количество совпадений слова / контекста
- Предсказания контекста данного слова (модели нейронных сетей с пропуском грамм, т.е. word2vec)
Примечание : Ниже я описываю высокоуровневый подход word2vec для генерации векторов слов, но здесь можно найти хороший обзор подхода подсчета / совпадения.
Оба подхода к генерации векторов слов основаны на гипотезе распределения Ферта (Firth, 1957) , которая гласит:
«Вы должны знать слово по компании, которую оно составляет».
Другими словами, слов, которые имеют схожий контекст, обычно имеют схожее значение .Контекст слова в практическом смысле относится к его окружающему слову (ям), а векторы слов (обычно) генерируются путем прогнозирования вероятности контекста данного слова. Иными словами, веса, составляющие вектор слова, изучаются путем прогнозирования вероятности того, что другие слова контекстуально близки к данному слову. Это похоже на попытку заполнить пробелы вокруг некоторого заданного входного слова. Например, с учетом входной последовательности «Пушистая собака лаяла, преследуя кошку», контекст из двух окон (два слова, предшествующие ключевому слову и следующие за ним) для слов «собака» и «лаял» будет выглядеть так:
Я не хочу вдаваться в математические подробности того, как нейронные сети слишком много изучают встраивание слов, поскольку люди, более квалифицированные для этого, уже объяснили это.В частности, эти сообщения были мне полезны, когда я пытался понять, как изучаются векторы слов:
- Глубокое обучение, НЛП и представления
- Удивительная сила векторных слов
- Word2Vec Учебное пособие: модель Skip-Gram
Однако полезно коснуться работы модели word2vec, учитывая ее популярность и полезность. Модель word2vec — это просто нейронная сеть с одним скрытым слоем, которая предназначена для восстановления контекста слов путем оценки вероятности того, что слово «близко» к другому слову, заданному на входе.
Модель обучается на словах, контекстных парах для каждого слова в корпусе, например:
-
(СОБАКА, THE) (СОБАКА), FLUFFY (СОБАКА, ЛАЯ) (СОБАКА, КАК)
Обратите внимание, что это технически контролируемый процесс обучения, но вам не нужны маркированные данные — метки (целевые / зависимые переменные) генерируются из слов, которые образуют контекст ключевого слова. Таким образом, с помощью оконной функции модель изучает контекст, в котором используются слова.В этом простом примере модель узнает, что «пушистый» и «лающий» используются в контексте (определяемом длиной окна) слова «собака».
Одна из интересных особенностей векторов слов, созданных моделями word2vec, заключается в том, что они являются побочными эффектами прогнозной задачи, а не ее результатом. Другими словами, вектор слов не предсказывается (предсказываются вероятности контекста), вектор слов — это изученное представление входных данных, которые используются в задаче предсказания — i.е. предсказание слова в контексте. Вектор слова — это попытка модели изучить хорошее числовое представление слова, чтобы минимизировать потерю (ошибку) его предсказаний. По мере того, как модель повторяется, она корректирует веса своих нейронов, пытаясь свести к минимуму ошибку своих предсказаний, и при этом постепенно уточняет свое представление слова. При этом «значение» слова включается в вес, полученный каждым нейроном в скрытом слое сети.
Модель word2vec, таким образом, принимает в качестве входных данных одно слово (представленное как одноразовое кодирование среди всех слов в корпусе), и модель пытается предсказать вероятность того, что случайно выбранное слово в корпусе находится в соседней позиции для входное слово.Это означает, что для каждого входного слова существует n выходных вероятностей, где n равно общему размеру корпуса. Волшебство здесь в том, что процесс обучения включает только контекст слова, а не все слова в корпусе. Это означает, что в нашем простом примере выше, учитывая слово «собака» в качестве входных данных, «гавкнувшая» будет иметь более высокую оценку вероятности, чем «кошка», потому что она ближе по контексту, то есть изучается в процессе обучения. Иными словами, модель пытается предсказать вероятность того, что другие слова в корпусе принадлежат контексту входного слова.Следовательно, с учетом приведенного выше предложения («Пушистый пес лаял, преследуя кошку») в качестве входных данных прогон модели будет выглядеть так:
Примечание. Этот концептуальный NN является близким другом диаграммы в сообщении блога Криса Маккормика, ссылка на который приведена выше.
Ценность прохождения этого процесса состоит в том, чтобы извлечь веса, которые были изучены нейронами скрытого слоя модели. Именно эти веса формируют вектор слова, т.е. если у вас есть скрытый слой из 300 нейронов, вы создадите вектор слова размером 300 для каждого слова в корпусе.Таким образом, результатом этого процесса является отображение слова и вектора размером n — входных слов * n — нейронов скрытого слоя.
Следующая
Векторы Word — это удивительно мощная концепция и технология, которая позволит сделать значительный прорыв в приложениях и исследованиях НЛП. Они также подчеркивают красоту глубокого обучения нейронных сетей и, в частности, силу заученных представлений входных данных в скрытых слоях. В следующем посте я буду использовать векторы слов в сверточной нейронной сети для задачи классификации.Это позволит выделить векторы слов на практике, а также то, как перенести предварительно обученные векторы слов в модель Keras.
.
Математическое введение в модель word2vec | Андреа Капитанелли
Word2vec стал очень популярным методом для встраивания слов . Встраивание слов означает, что слова представлены векторами с действительными значениями, поэтому с ними можно работать так же, как с любым другим математическим вектором. Преобразование из текстовой строковой области в векторное пространство с помощью нескольких канонических операций (в основном, вычитания суммы и).
Смена домена
Почему встраивание слов?
С помощью встраивания слов мы можем математически обрабатывать слова текста.Если два слова имеют одинаковое значение, их векторы близки: вложение слов — это мера сходства , что позволяет связывать не только слова, но и предложения, и целые тексты. Это очень полезно в различных задачах и системах НЛП, таких как поиск информации, анализ настроений или системы рекомендаций.
Статьи
В 2013 г. Миколов и др. предложил две основополагающие статьи [1] [2] и две различные модели для встраивания слов: непрерывный мешок слов (CBOW) и модель скип-грамма .По существу они не так уж и различны, и в следующем обсуждении я сосредоточусь на последнем.
Предположение для обеих моделей — это распределительная гипотеза: слов, встречающихся в одном и том же контексте, как правило, имеют похожие значения (Harris, 1954). То есть слово характеризует компанию, в которой оно находится.
Предположим, что наш текст состоит из последовательности слов:
Текст как последовательность слов
Тогда для слова wⱼ контекст wⱼ задается его левой и правой окрестностями:
, где M — это половину размера контекстного окна.
Затем каждому слову w присваивается векторное представление v, , и вероятность , что wₒ находится в контексте wᵢ , определяется как softmax их векторного произведения:
Вероятность вывода задается softmax векторного произведения
. Цель модели скип-грамм — предсказать контекст центральных слов . Таким образом, обучение модели означает нахождение набора v , которые максимизируют целевую функцию:
Целевая функция
Эквивалентно это означает минимизировать функцию потерь , которая, по-видимому, представляет собой усредненную по корпусу кросс-энтропию (поскольку истинное распределение равно 1 только в контексте центрального слова):
Пока что это все, что нам нужно знать о vanilla wordvec .
Однако такой подход, который требует учета всех вероятностей контекста каждого слова, не поддается аналитической обработке с прилично большим корпусом, который обычно включает миллиарды слов. Поэтому группа Миколова предложила несколько эффективных мер по увеличению эффективности вычислений. И, что довольно удивительно, они также улучшают результаты встраивания. Посмотрим на них.
.
Смотрите также
-
Как в word закрепить нижнее подчеркивание
-
Как в word скопировать шапку таблицы
-
Как перевести экселевский документ в word
-
Как создать ярлык wordа на рабочем столе
-
Как в word сделать разрыв между страницами
-
Как сделать нужную таблицу в word
-
Как из wordа сохранить фото
-
Как в word убрать линейку
-
Как в word 2003 изменить ориентацию листа
-
Как в word 2010 выровнять столбцы
-
Как из пдф файла скопировать в word