Что такое LSI копирайтинг

LSI – латентно-семантическое индексирование – это подход в сфере информационного поиска. Слово «латентный» приравнивается к термину «неявный», а семантика оперирует со смыслами слов. Латентно-семантический анализ (основа метода) был запатентован в 1988 году коллективом авторов. Метод стал применяться в связи с тем, что тексты в Интернете стали насыщаться ключевиками с соблюдением только плотности, тошноты и пр. без смысла в содержании.

Пользователь, набравший запрос в Гугл или Яндекс, то по сочетанию ключевых слов получает предложение десятков или сотен миллионов сайтов. Только полезные сайты могут появиться на первых страницах ПС, благодаря СЕО и LSI-копирайтингу. Последний пишется с применением LSI-слов. Основное применение направления – информационные сайты, блоги на коммерческих сайтах.

Что такое LSI-ключи

LSI-слова роботы поисковиков определяют как фразы и слова, связанные по тематике с основным ключом (маркерным запросом). Это могут быть как синонимы главного запроса, необходимые при оптимизации, так и релевантные слова, раскрывающие смысл. Перечень сверяемых ключей поисковики берут из запросов и популярных среди пользователей материалов. Оттуда же их подбирают СЕО-специалисты. Например к слову «автомобиль» подбираются LSI-компоненты «авто» и «машина».

В чем преимущества и недостатки LSI копирайтинга

Плюсы и минусы
Низкий риск попадания под фильтры. Это «Панда» от Гугл и «Баден-Баден» от Яндекс, созданные для изъятия из поиска спамных низкокачественных текстов.
Оптимизация пользовательского поведения: интересная статья дает улучшение показаний метрик за счет более длительного пребывания пользователя на сайте. Хорошим материалом чаще делятся в социальных сетях, его пересылают по электронной почте или кладут в закладки для повторного посещения. А это рост бесплатного трафика для проекта.
Улучшение позиций в ПС, рост ИКС за счет расширенного семантического ядра в виде низкочастотных ключей. Это дает большее количество посетителей по редким словам, рост позиций по высокочастотным ключевикам по причине улучшения поведенческих факторов. Гугловский алгоритм «Колибри» и яндексовский «Палех» ищут документы по запросам разговорного типа, основываясь на семантических связках, а не просто запросах. Последняя разработка Яндекса – «Королев» базируется на нейросетях и сопоставляет смысл запроса содержанию веб-страницы.
Упрощение структуры сайта: нет необходимости в создании множества тематических страниц, можно отразить все аспекты на одной.
Особенностью русского языка является многозначность ряда слов. Например, «замок» может быть как архитектурным сооружением, так и слесарным изделием. В зависимости от контекста изменятся и дополнительные слова. LSI-модель, к сожалению, не допускает различия в значениях. Кроме того, иносказания, юмор в статье не учитываются: она рассматривается как набор слов без учета порядка и взаимосвязей.

Ранжирование документов с LSI-оптимизацией и без

Предшественником LSI была СЕО-оптимизация. СЕО-специалисты для улучшения вида страницы в глазах Яндекса, Гугла и др. создавали контент, исходя преимущественно из технических характеристик. К ним относится: длина текста, перечень ключевиков с заданным числом вхождений, расположение ключевых слов в заголовках, первых абзацах, уникальность. Меньше внимания уделяется оформлению страниц. Акцент делается на симпатии роботов, а не на удовлетворенности пользователя.

Количество сайтов растет быстрее, чем количество пользователей. Растущее предложение при ограниченном спросе по законам рынка вынуждает создателей веб-ресурсов улучшать качество продукта.

LSI-оптимизация предполагает, что для текста формируется «хвост запросов» \ лонгрид по которому читатель получает максимальное раскрытие термина или тематики без переспама маркерным запросом (но с его присутствием в допустимом количестве). На сайте находится решение для проблемы, максимизируется комфорт использования. Последнее достигается улучшенной структурированностью: изображения, списки, таблицы, инфографика. Становится важен дизайн и юзабилити ресурса. Такой контент лучше продвигается в поисковых системах. Алгоритм «Вега» использует нейросеть уже при составлении поисковой базы.

Где брать ключи для LSI-копирайтинга

Ключи собираются или вручную или специальными программами. Основные программы – платные, предоставляют большой объем ключевиков.

Вручную «хвост запросов» подбирается:

  • В Яндексе путем ввода в поисковую строку запроса или его частей. К примеру, по запросу «нейронные сети» вниз откроется список, в котором словосочетание дополнится словами: «это», «что это», «для начинающих», и т.д.  Если ввести отдельно «нейронные» или «нейронный» или «сети», то данные для лонгрида будут совсем другими. Отметим, что дополнительные запросы актуальны на момент ввода в строку маркерного: в следующем месяце «хвосты» могут быть другими. В связи с чем необходима дополнительная оптимизация для сайта на периодической основе. Точно также собирается информация из поисковой строки Гугла.
  • Из блоков на первых страницах поисковых систем «вместе с ….часто ищут».
  • В разделе поисковиков «картинки» имеются теги с уточняющими запросами.
  • Из статистики ключевых слов. У Яндекса – это правая колонка «Запросы, похожие на…» в Вордстат. Можно сделать подборку для региона, мобильных, планшетных или десктопных версий устройств. У Гугла – данные из Кейворд Планер в разделе Adwords. Также анализируется основная колонка «что искали со словом….», где LSI-конструкции стоят до или после маркерного запроса.
  • Из Google Search Console или раздела Яндекс.Вебмастера (статистика запросов) для уже существующих сайтов.

Бесплатно LSI-ключи для Яндекса подбираются в сервисе arsenkin.ru в разделе «Парсинг подсветок» (50 запросов), в Arthur2k. Лемматизировать собранные фразы можно также сервисами Арсенкина с подбором N-грамм.

Платные сервисы: Pixel Tools (раздел ТЗ для копирайтеров), Serpstat, Megaindex, Key Collector. TextAnalyzer, Rush Analytics (может сделать нестандартный подбор, например по YouTube). Собранное семантическое ядро подлежит чистке от нерелевантных запросов и кластеризации.

LSI-тексты: общие правила написания

Максимально разносторонне раскрывается смысл основных ключевых слов. Необходимо избегать запросов вне тематики, чтобы у поискового робота не возникло сомнений, о чем данная страница. Текст пишется простым языком, непонятные слова должны иметь разъяснение, желателен заголовок, задерживающий внимание и понятная пользователю структура, легкая навигация. Информация подается без «воды», орфографических, грамматических, стилистических ошибок, отличается высокой достоверностью. В высококонкурентных нишах важен дизайн, юзабилити и скорость загрузки веб-ресурса.

Как написать LSI текст: пошаговый план для автора

Во главу латентно-семантически корректного текста ставится его полезность для пользователя. Автор должен отобразить все возможные ассоциации, логические связи. В результате чего документ станет настолько полезным, что ему не будет конкурентов среди посетителей и поисковиков. Или будет их минимальное количество.

Для этого необходимо следовать техническому заданию СЕО-специалиста:

  1. Изучить предлагаемые источники информации для текста, описание целевой аудитории.
  2. Составить заголовки к абзацам с вписанием маркерных запросов или LSI-ключей или использовать предложенную в задании структуру текста.
  3. Написать текст заданной длины, применяя цитаты, таблицы, списки, со вставкой основных и дополнительных ключевиков в требуемом количестве. При необходимости дополнить изображениями с применением латентно-семантических ключей в названии файлов, title и alt к картинкам.
  4. Соблюсти необходимые технические требования: уникальность, заспамленность, водность. Проверить сервисами Тургенев-Ашманов, Главред, Адвего, text.ru, etxt.ru, istio.com  и др.

Полученный результат сочетает в себе пользу для роботов и для людей за счет внедрения маркерных запросов, достоверности, актуальности, информативности статьи.