Главная страница
Навигация по странице:

  • Анализ страниц и семантической связи между ними.

  • Анализ ссылок.

  • Теоретические основы формирования поисковых запросов

  • Практические основы формирования и оценки семантического ядра сайта.

  • Параметры анализа Классическая методика, Semonitor

  • Оценка внутренних факторов ранжирования.

  • Диссертация - 57. Введение 2 Глава Обоснование эффективности применения поискового продвижения в рекламной стратегии оип Страховой Гуру 5


    Скачать 1.56 Mb.
    НазваниеВведение 2 Глава Обоснование эффективности применения поискового продвижения в рекламной стратегии оип Страховой Гуру 5
    Дата19.02.2018
    Размер1.56 Mb.
    Формат файлаdoc
    Имя файлаДиссертация - 57.doc
    ТипДокументы
    #36804
    страница2 из 6
    1   2   3   4   5   6

    Глава 2. Теоретические и практические основы поискового ранжирования сайтов. Формирование методологии поискового продвижения отраслевых интернет-порталов




    2.1. Общее понятие о поисковых системах, алгоритмах и факторах ранжирования.



    Поисковая система в контексте данного исследования – «это специализированный сетевой ресурс, предоставляющий услуги поиска и сортировки информации в интернет, путем формирования интерактивного рейтинга веб-страниц на основе пользовательских запросов» [8, с. 44]. Поисковые системы используют для своей работы автоматизированные алгоритмы ранжирования и хранения информации.

    Общая суть работы всех поисковых систем состоит в том, чтобы проиндексировать (последовательно обойти и запомнить) как можно большее число веб-страниц, алгоритмически обработать содержащуюся в них информацию по различным параметрам и сформировать на основе веса параметров специальное хранилище данных, к которому затем будет обращаться пользователь для получения нужной информации.

    Современные поисковые системы работают на основе фундаментальных математических и лингвистических исследований в области машинного поиска. Основную часть функционала поиска составляют два компонента: релевантность и важность.

    Релевантность – это «степень, в которой содержимое возвращенного в результате поиска документа совпадает с намерением и терминами запроса пользователя» [8, c. 44]. Релевантность документа увеличивается, если термины или фраза запроса пользователя встречаются в нем несколько раз и содержаться в заголовке страницы или в заголовках документа. Релевантность определяется, в первую очередь, в момент анализа контента сайта.

    Важность – это «относительная популярность, измеряемая по цитированию данного документа, соответствующего запросу пользователя» [8, c. 44]. Популярность документа увеличивается с каждым новым ссылающимся на него документом или сайтом, т.е. зависит от внешних ссылок.

    Таким образом, любой поисковый алгоритм опирается на два осиновых критерия – информацию на самом сайте и его популярность в интернете, которая в наибольшей степени зависит от внешних ссылок на ресурс, однако по наблюдениям большинства SEO-аналитиков (Ашманов, Иванов, 2010; Энж, Спенсер, Фишкин, Стрикчиолла 2011; Яковлев, 2010), а так же заявлениям самих поисковых систем [11], постепенно акцент с внешних ссылок смещается в сторону поведенческих факторов и социальной популярности.

    Технологическая сторона индексации большого объема веб-страниц является весьма сложным и ресурсоемким процессом, в максимально простом изложении, он выглядит как обход различными роботами-индексаторами доступного для сканирования интернет-пространства, с последующим занесением полученной информации в базу данных поисковой системы.

    Анализ страниц и семантической связи между ними.

    При анализе документа поисковая система осуществляет анализ факторов ранжирования в важных областях документа (заголовки страницы, метаданные, теги заголовков, тело текста) и производит автоматическое измерение качества документа (анализ документа, прочие факторы). Кроме этого поисковые системы оценивают семантическую связанность документов.

    Семантическая связность — это слова или фразы, которые обычно ассоциируются друг с другом. Поисковые системы создают свои собственные словари, которые помогают им определить, как связаны термины или темы. Сканируя огромные базы данных контента, они применяют теорию нечетких множеств и определенные алгоритмические уравнения для связывания терминов, что позволяет им интерпретировать web-страницы более естественным, «человеческим» образом.

    Несмотря на то, что сам процесс сканирования достаточно сложен, основы его просты. Поисковые системы полагаются на машинную логику (правда/ложь, да/нет и т. д.). Хотя машинная логика имеет определенные преимущества перед человеческой (возможность обрабатывать большие объемы данных, скорость, точность), она имеет и недостатки – некоторые моменты аналитическому алгоритму понять тяжело, например, машинная логика имеет проблему характеристики того или иного объекта и не может однозначно дать ответ на вопрос «апельсин круглый или квадратный?».

    Для решения задач подобного рода поисковые системы как раз и используют семантическую связанность. Огромные знания человечества (содержащиеся в Интернете) заносятся в индекс системы и анализируются, т.е. искусственно создаются те связи, которые уже созданы людьми. Таким образом, машина узнает, что апельсин круглый, а не квадратный.

    Применение теории нечетких множеств помогает алгоритму понять, как термины связаны (путем измерения того, как часто и в каком контексте они используются вместе).

    На этом понятии основана концепция латентного семантического анализа (latent semantic analysis, LSA), которую используют все современные поисковики. Суть концепции заключается в том, что взяв огромный составной индекс из миллиардов web-страниц, поисковая система может «выучить», какие слова связаны и какие концепции имеют отношение друг к другу.

    Однако, проблема состоит в том, что некоторые формы LSA имеют слишком высокую вычислительную стоимость. Например, в настоящее время поисковые системы недостаточно «умны» для того чтобы понять, что «утки улетают на юг», они могут понять, что «утки» и «юг», это семантические связанные слова, но выстроить их связь логическим выражением пока не могут.

    Дополнительно к LSA ПС используют латентное семантическое индексирование (latent semantic indexing, LSI) – т.е. применяют семантический анализ для идентификации связанных web-страниц. Таким образом, поисковый алгоритм может заметить связь страницы о домашних животных со страницей о кошках (на основании других общих слов). В результате страница о кошках, может быть показана при запросе «домашние животные».

    Семантическая связанность играет все большую роль в алгоритмах поисковых систем, что в свою очередь обуславливает больший акцент SEO-специалистов на страницах и их содержании. В будущем поисковые системы будут только развивать свои «способности» к понимаю идей, тем, а так же к распознаванию контента и ссылок, что в свою очередь должно привести к улучшению качества информации в поисковой выдаче.

    Анализ ссылок.

    В ходе развития поисковых систем, стало очевидно, что контент на сайте поддается простому манипулированию со стороны владельцев сайтов и соответственно может быть легко использован для влияния на результаты ранжирования в поисковых системах. Проблему «независимости» результатов выдачи поисковые системы решали разными способами: внедрением ручных модерируемых каталогов сайтов, использованием дополнительных мета-данных на страницах и т.д. Но как показала практика, наиболее актуальным способом оказался анализ авторитетности сайта и его страниц путем определения внешних ссылок на них.

    Впервые анализ внешних ссылок применил в своих алгоритмах Google, внедрив так называемый PageRank, это нововведение позволило компании в короткие сроки занять лидирующие позиции в сегменте веб-поиска, в первую очередь, за счет многократного увеличения релевантности выдачи. На данный момент, алгоритмы подобные PageRank используют все популярные поисковые системы, например у Яндекса похожий показатель называется ТИЦ или тематический индекс цитирования. Однако, в ходе дальнейшей эволюции поисковых алгоритмов, владельцы сайтов постепенно научились воздействовать и на внешние факторы: появились каталоги ссылок, линкаторы, биржи и системы обмена.

    В свою очередь поисковики были вынуждены продолжить совершенствование алгоритмов учета внешних ссылок. В некотором смысле, наблюдалась «гонка вооружений» между SEO-оптимизаторами и поисковыми системами. Одни пытались разгадать тонкости работы алгоритмов и разработать все более сложные системы получения внешних ссылок, другие совершенствовали формулы, вводили новые способы борьбы с «накрутками».

    В итоге, «гонка вооружений» привела к тому, что поисковики сначала закрыли точные формулы расчета веса ссылок, публикуемые PageRank и ТИЦ превратились в некую условную величину популярности страницы, более точные данные остались доступны лишь самим поисковикам, а в последствии полностью ушли от однозначно определяющего влияния ссылок на позиции сайта в выдаче, за счет использования машинного обучения, персонализированной выдачи и т.д. Однако, несмотря на все изменения, ссылки до сих пор играют важную роль в ранжировании сайтов и служат одним из ключевых источников информации для поисковой системы.

    2.2. Тенденции и тренды в развитии поисковых систем



    Классическая схема ранжирования, основанная на оценке конента сайта и его ссылок, по данным анализа cooбщества SEO-оптимизаторов searchengines [15], в течение длительного времени будет оставаться центральным элементом работы поисковых систем, вместе с тем, особенности прикладного характера, такие как – правила формирования выдачи, точные алгоритмы учета внешних и внутренних факторов динамично меняются и оказывают наиболее существенное влияние на практическую сторону поискового продвижения сайтов. Для целей классификации и учета этих изменений SEO-аналитики выделяют так называемые тренды или тенденции в развитии поисковых систем. По мнению автора, наиболее важными из них являются следующие:

    1. Поиск с учетом региона, геозависимость, персонализация выдачи. По данным статистого анализа Яндекса, количество геозависимых запросов составляет около 15-20% от общего числа обращений пользователей [13]. В эту группу входит целый ряд семантических классификаций, начиная от геолакационного поиска товаров и услуг и закачивая смысловыми различиями одинаковых словоформ в различных регионах. Осуществление поиска с учетом геозависимости является очень важной функцией с точки зрения навигации в интернете, так как позволяет сделать огромный шаг в определении реальных потребностей пользователей и увеличении релевантности выдачи поисковых систем. Впервые о внедрении геозависимых запросов Google объявил в 2008 году, а Яндекс в 2009. С точки зрения поисковой оптимизации геозависимые запросы серьезно повлияли на способы SEO-анализа и продвижения сайтов. Если запрос является геозависимым, то работа над ним во многом привязывается к региону или регионам, в которых требуется достичь нужных позиций в поисковых системах: необходимо верное указание области действия сайта, учет региональности при формировании контента и внешних ссылок, ориентация SEO-анализа на региональные интернет-площадки и ресурсы. Однако, внедрение геозависимости в ранжирование сайта – это частный, «укрупненный» случай персонализированной выдачи. Поисковые системы, на данный момент, движутся в сторону максимального учета индивидуальных особенностей каждого пользователя. По данным SEO-оптимизаторов [15], для этого используются браузерные надстройки, временные файлы, функции группового и социального анализа. Пока персонализированная выдача находится в стадии опытов и тестирования, однако ее влияние смещает вектор позиционного продвижения в сторону трафикого.

    2. Машинное обучение с использованием ассесоров.
      Основная задача поисковой системы – предоставление максимально релевантной выдачи. Но «невозможно написать для поисковой системы программу, в которой предусмотрен каждый запрос и для каждого запроса известен лучший ответ. Поэтому поисковая система должна уметь принимать решения самостоятельно. Для этого ей нужно уметь обучаться» [13]. Следуя этой логике, ведущие поисковые системы в течение долгого времени работали над разработкой и внедрением алгоритмов машинного обучения. Суть данного метода анализа и ранжирования контента состоит в применении нейрокомпьютерного подхода с использованием обучающей выборки. Специальные люди (асессоры), самостоятельно оценивают качество выдачи поисковой системы, выставляя оценки найденным результатам по определенной шкале, на следующем этапе поисковый алгоритм анализирует десятки и сотни параметров релевантных и нерелевантных ответов ПС, выделяя в них общие закономерности, в результате чего, формирует уникальную, наиболее подходящую именно для этой тематики формулу ранжирования сайтов. Внедрение машинного обучения в работу поисковых систем произвело весомые перестановки в понимании SEO-специалистами сути и смысла оптимизации сайтов. Обобщенная формула с сотнями параметрами ранжирования была проще в понимании и воздействии на неё, чем система машинного обучения. На данный момент, сами разработчики поиска не могут дать ответ, какие факторы окажутся решающими для ранжирования в результатах поиска того или иного запроса (Гусев, 2010). Т.к. фактически, выявление и взвешивание факторов доверено алгоритмическим системам. А это в свою очередь, означает деактуализацию каких-либо стандартных или «формульных» подходов в продвижении сайтов.

    3. Добавление сервисов и настроек к поисковой выдаче, спектральный и вертикальный поиск. Помимо внедрения систем машинного обучения в алгоритмы ранжирования, поисковые системы работают и над другими возможностями увеличения релевантности выдачи. В частности, одним из показателей удовлетворенности пользователя является возможность получить информацию не покидая страниц поисковой системы. Т.е. если запрос пользователя подразумевает получение информации о ценах на определенный товар, то оптимальным вариантом будет предоставление таких сведений прямо в результатах выдачи. Для достижения этих целей поисковые системы внедряют собственные сервисы сбора и предоставления классифицированной информации. Некоторые из них имеют специализированные надстройки, за счет которых сайты передают информацию уже в отформатированном для ранжирования виде. Например, сервис Яндекс.Услуги производит поиск кредитов и вкладов на основании информации предоставленной самими банковскими организациями, через передачу специализированных XML-описаний. В результате пользователь, может узнать банковские ставки не покидая Яндекс. С точки зрения SEO-специалистов, такие возможности являются важным инструментом взаимодействия с поисковой системой и хотя, владельцы сайтов теряют часть своей аудитории за счет удовлетворения потребностей пользователя в самом поисковике, конечная цель – привлечение внимания потребителей товаров и услуг к источникам их получения достигается. Увеличения влияния строковых сервисов является важным трендом в развитии поисковых систем.
      Другой частью фиксации запросов пользователя результатами выдачи служит спектральный поиск, который представляет собой специализированный алгоритм, решающий задачу нечетких запросов без возможности регионального позиционирования. Именно за счет спектрального ранжирования поисковые системы научились показывать на первой странице выдачи различную по «спектру» информацию. Такое нововведение означает для SEO-оптимизаторов необходимость более широкого взгляда на поисковые запросы, анализ их сути и содержания. Кроме этого, спектральный поиск дополняется вертикальным, т.е. поиском информации не только по контенту, но и по картинкам, видео, картам и т.д. В итоге первые места в выдаче могут занять не классические ссылки на сайты со сниппетами, а другая информация, отранжированная специализированными алгоритмами. С течением времени, спектральное и вертикальное ранжирование усовершенствуется поисковыми системами. Тренд в сторону развития данного направления концентрирует внимание владельцев сайтов на необходимости расширения линейки предоставляемой информации, если это позволяет тематика и другие ограничения проекта.

    4. Понятие естественности внутренних и внешних факторов, учет поведенческой активности. Одновременно с улучшением качества выдачи поисковые системы применяют все более совершенные методы борьбы с накрутками и поисковым спамом. В частности Яндекс, в начале 2011 года заявил о делении ссылок на SEO и рекламные [13]. Так по заявлениям представителей компании, ссылки, простановка которых обусловлена лишь необходимостью влияния на ранжирование в поисковых системах будут фильтроваться, с ними Яндекс намерен «бороться», в то время как «естественные» рекламные статьи будут восприниматься как часть PR компании сайта. Аналогичные движения наблюдаются и в области внутренних факторов ранжирования. Если раньше поисковые системы с большим трудом находили размноженные за счет рерайта тексты, то сейчас, как показал эксперимент seo-аналитика Константина Засурского [11], дубли и оригиналы определяются гораздо четче. Растет влияние поведенческих факторов, точный алгоритм работы которых на данный момент SEO-оптимизаторам не известен, но, по словам Александра Садовского [15], руководителя поисковой службы Яндекса, поведенческая статистика уже сейчас играет значительную роль в ранжировании сайтов. Такой тренд развития означает для оптимизаторов конец эпохи количественной работы над внешними и внутренними факторами, гораздо большую роль приобретает комплексный и качественный подход.


    2.3. Анализ допоисковых факторов продвижения


    Анализ допоисковых факторов, таких как корпоративная среда, область функционирования бизнеса служит для определения целей и задач компании, её возможностей, ограничений, преимуществ и недостатков с точки зрения SEO.

    Эрик Энж, Стефан Спенсер, Рэнд Фишкин и Джесси Стрикчиолла [10] выделяют следующие направления допоиского анализа:

    1. Модель доходов бизнеса. Определение источников получения прибыли компанией и ее он-лайн представительств.

    2. Характеристика целевых клиентов бизнеса. Возрастная группа, гендерная, региональная принадлежность, прочие характеристики целевой аудитории.

    3. Приемы поиска товаров потенциальными клиентами. Представление структуры поиска, используемой клиентами для получения информации о товарах заказчика.

    4. Особенности бизнеса. Достоинства и недостатки компании, бизнес-процессы внутри компании. Данная информация служит опорой для составления юзабилити-стратегии и формирования маркетингового контента.

    5. Особенности конкурентной борьбы. Выделение 5-10 существенных описаний среды.

    6. Ресурсы и возможности для поиского продвижения бизнеса. Оценка зависимости бизнеса от маркетинга в интернете, оценка кадровых и финансовых возможностей.

    Российские специалисты в области seo-анализа И. Ашманов и А. Иванов в большей степени уделяют внимание аудиту и количественному измерению показателей функционирования бизнеса [2]:

    1. Определение целей заказчика в рекламной и маркетинговой стратегии. Оценка задач бизнеса относительно возможностей интернет-маркетинга и рекламы, подбор оптимальных средств продвижения.

    2. Аудит клиентских служб заказчика. Количественная и качественная оценка обработки заказчиком обращений потенциальных клиентов через коммуникационные каналы. Формирование рекомендаций по устранению недостатков и совершенствованию подходов в обслуживании.

    3. Анализ целевой аудитории. Изменение объема потенциальной аудитории, половозрастных характеристик, материального благосостояния, формирование целостного маркетингового портрета потребителя.

    4. Анализ бизнес-процессов и информационных потоков заказчика. Изучение принципов функционирования бизнеса, работы основных подразделений заказчика, оценка скорости обработки информационных потоков.



    По мнению автора, наибольший положительный эффект дает совмещение обоих методик:

    1. Формирование модели доходов бизнеса (Энж, Спенсер, Фишкин, Стрикчиолла). Модель доходов является важным элементом допоискового анализа для сегментированных площадок. Отраслевые интернет-порталы используют больше десятка способов получения дохода: медийная реклама, сервисные услуги, размещение платной информации, лиды, seo-конент, партнерские отношения с интернет-площадками, контекстная реклама и д.р. Способы монетизации интернет площадок напрямую влияют на особенности поисквого продвижения: для медийной рекламы в первую очередь требуется трафиковое продвижение, для генерации лидов – работа над юзабилити, оценка стоимости конверсии, продвижение по коммерческим запросам, для продажи seo-контента хорошие показатели ТИЦ и PR. Правильное формирование модели доходов бизнеса позволяет выработать правильную стратегию продвижения.

    2. Разбор особенностей клиентопотока (Энж, Спенсер, Фишкин и Стрикчиолла - оценка поведения клиента, Ашманов и Иванов – портрет клиента и статистические показатели аудитории). По мнению автора, наибольшую пользу дает сбор максимального количества информации о клиентопотоке заказчика. Если изучение аудитории затруднено из-за невозможности проведения полномасштабных маркетинговых исследований, то стоит прибегнуть к получению информации через сбор отраслевой статистики.

    3. Оценка бизнеса заказчика (Энж, Спенсер, Фишкин и Стрикчиолла - рекомендации по использованию полученной информации о бизнесе для формирования юзабилити-стратегии и контента, Ашманов и Иванов – формализованная описания и оценки бизнес-процессов). Методики отечественных и зарубежных seo-специалистов относительно оценки бизнеса заказчика, по мнению автора, хорошо дополняют друг-друга. Рекомендации по оценке зарубежных специалистов, не всегда применимы для российской среды, например сбор информации через CRM заказчика на данный момент осуществим далеко не во всех компаниях, но в части последующей работы над полученными материалами рекомендации Энжи, Спенсера, Фишкина и Стрикчиоллы опережают развитие российского опыта и дают целый ряд полезных систем оценки данных. Ашманов и Иванов – приводят развернутое описание анализа бизнес-процессов клиента, применимое именно для отечественных компаний, сбор статистики в их методике опирается на открытые источники информации, использование внешних аудиторов. Таким образом, автор считает, что для достижения наилучшего эффекта следует применять сбор информации по методике Ашманова и Иванова, а ее обработку дополнять практиками западных специалистов.

    4. Аудит клиентских служб заказчика (Ашманов и Иванов – стратегия аудита и оценки клиентских служб заказчика). Недостаточно высокое качество обслуживания клиентов характерно для российских компаний. Об аудите клиентских служб в западных методиках говорится мало, нет описания и примеров проведенных оценок. Ашманов и Иванов приводят свою стратегию аудита. По мнению автора, она является наиболее полным и развернутым описанием реальных практик оценки клиентских служб.

    5. Ресурсы и возможности бизнеса, цели интернет-маркетинга (Ашманов и Иванов – горизонтальный анализ средств интернет-маркетинга, Энж, Спенсер, Фишкин и Стрикчиолла – оценка целей бизнеса, кадровых и финансовых возможностей). Зарубежные и отечественные авторы методик во многом дают схожее описание анализа ресурсов, возможностей, целей бизнеса, есть отличия в хронологии проведения действий и подробности разбора тех или иных нюансов. В общем и целом, автор исследования считает горизонтальный анализ средств интернет-маркетинга более удачным у Ашманова и Иванова, а оценку целей бизнеса, кадровых и финансовых возможностей у западных специалистов.



      1. Семантическое ядро и целевые запросы.


    Теоретические основы формирования поисковых запросов

    Осуществляя поиск информации в интернете, пользователи пытаются решить определенные задачи. Исследования в области поисковой статистики (Гусев, 2010), говорят о том, что, несмотря на серьезные различия в запросах пользователей, условно их цели можно поделить на четыре группы:

    1. Навигационные запросы – служат для поиска определенного места в Сети. При формировании таких запросов пользователи уже имеют достаточное представление о предмете поиска (услуге, сайте, компании), поисковая система помогает им вспомнить точный адрес страницы или сайта. Примерами навигационных запросов являются названия брендов, государственных учреждений и т.д. С точки зрения поискового продвижения ценность навигационных запросов, как правило, невелика.

    2. Информационные запросы – служат для поиска сведений, информации в Сети. Запросы подобного рода очень разнообразны и являются наиболее многочисленными из всех представленных. Примерами информационных запросов являются: поиск телефонов организаций, поиск руководств и справочников, поиск исторических фактов и т.д. Для SEO-оптимизаторов информационные запросы представляют интерес, когда в стратегии сайта сделана ставка на показ большого количества уникального контента для монетизации через медийную или контекстную рекламу.

    3. Транзакционные запросы – служат для поиска транзакции или действия в сети. Большинство транзакционных запросов является коммерческими, т.е. представляет интерес для коммерческих структур, как правило, за транзакционными запросами скрывается поиск товаров и услуг. За высокие позиции по транзакционным запросам обычно наблюдается большая конкуренция, превышающая размер ТОПа поисковой системы.

    4. Нечеткие или смешанные запросы. Поиск по нечетким запросам нельзя однозначно отнести к одной из трех категорий, представленных выше. Релевантность нечеткого запроса пользователь держит «в уме». К смешанным запросам относятся общие слова типа «холодильник», «телевизор», «СВЧ» и д.р. С точки зрения поискового продвижения нечеткие запросы имеют высокую посещаемость, но обычно крайне конкурентны, аудитория таких запросов неоднородна. Продвижение по смешанным запросам осуществляются в основном с целью повышения узнаваемости бренда, увеличения общей аудитории ресурса, закрепления показателей трафика и конверсии.

    Дополнительно к типизации запросов SEO-аналитики (Ашманов, Иванов, 2010; Яковлев 2010) в качестве теоретического базиса формирования семантического ядра используют схему стереотипного поведения пользователя при поиске товаров и услуг в Интернете. В общем виде она выглядит следующим образом:

    1. Осознание проблемы. Пользователь понимает какой товар или услуга ему необходимы, но еще не определился с окончательным выбором.

    2. Конкретизация запроса. На основании полученных данных пользователь вносит правки в формулировку своего запроса для получения более точных результатов поиска.

    3. Сравнение характеристик, условий, отзывов и д.р. В случае, если общая информация по товару или услуге получена, пользователь приступает к выбору наилучшего из возможных вариантов удовлетворения своей потребностей. На этом этапе ему требуются дополнительные характеристики изучаемого объекта.

    4. Осуществление транзации или заказа. После определения наилучшего варианта пользователь переходит к этапу получения услуги или товара.

    5. Участие в социальном обсуждении, формирование мнения других пользователей. Данный этап является факультативным, по статистике ScanAlert [15], лишь 20% пользователей делятся своим мнением в сети относительно использованных товаров и услуг.

    Понимание стереотипов поведения пользователей в сети помогает соблюсти баланс семантического ядра сайта. Если уделить слишком большое внимание запросам общего характера, используемым на первом этапе поиска информации, то можно упустить потенциального клиента в последующем, когда он переедет к изучению мнений и отзывов. Правильный баланс запросов – служит опорой для конверсии посетителей в покупателей.

    Есть и другие теоретические основы формирования семантического ядра, по мнению автора, наиболее актуальными из них являются следующие:

    1. Усилия по продвижению нецелевых запросов не окупаются (Ашманов, Иванов, 2010).

    2. 30% онлайновых транзакций происходит более чем через 24 часа после начала поиска (Яковлев, 2010).

    3. При общих равных условиях, низкочастотные запросы экономически более эффективны, чем нечеткие высокочастотные (Ашманов, Иванов, 2010).

    Теоретические основы формирования семантического ядра не имеют прямого воплощения в аналитических системах анализа ключевых слов, их использование проходит в рамках ручного анализа самого SEO-специалиста, однако незнание или нарушение этих основ может привести к серьезным просчетам в стратегии продвижения интернет-ресурса.
    Практические основы формирования и оценки семантического ядра сайта.

    При формировании семантического ядра SEO-специалист решает комплекс задач по анализу статистических и финансовых показателей целевых запросов. Общая методика работы с семантическим ядром имеет следующий вид:

      1. Определить первоначальный набор ключевых слов для парсинга статистики или обработки баз данных ключевых слов.

      2. Расширить первоначальный список с помощью сервисов статистики.

      3. Получить информацию о популярности слов: частотность, сезонную частотность, дифференцированную частотность и д.р.

      4. Провести анализ списка ключевых слов на предмет выявления лишних, ошибочных запросов.

      5. Собрать данные о конкуренции по ключевым словам.

      6. Сформировать окончательный список для последующей работы над контентом и внешними факторами.

    Первоначальное формирование списка ключевых слов осуществляется вручную на основании экспертизы доменов и анализа контента сайтов, обобщая подходы российских (Иванов, Ашманов, 2010; Дари, Сирович 2010; Гусев, 2010) и западных (Энж, Спенсер, Фишкин, Стрикчиола, 2011; Ледфорд, 2011; Уолл, 2009) SEO-специалистов можно выделить следующие способы работы над базовым набором семантического ядра:

    1. Перебор вариантов названий товара и услуги, включая синонимы, переводы, транслитерации.

    2. Перебор сленговых, профессиональных, сокращенных и ошибочные вариантов названий.

    3. Перебор вариантов названий составных частей товара или услуги.

    4. Перебор вариантов названий наиболее крупных потребительских решений на основе товара или услуги.

    5. Анализ задачи и проблемы покупателя, которые решают предлагаемые товары или услуги.

    6. Подбор эпитетов качества, привлекательности товара или услуги.

    7. Систематизация области работы сайта методом гипонимов, составление тезауруса.

    8. Анализ сайтов отраслевых объединений и средств массовой информации на предмет использования терминологии в исследуемой области.

    Расширение списка ключевых слов происходит с помощью сервисов статистики, к которым относятся: Wordstat Yandex, Rambler Adstat, Adwords Keyword Google, LiveInternet, Яндекс Метрика и д.р. Как правило, ручной сбор статистики неудобен из-за необходимости большого числа рутинных операций по обобщению информаций. Хотя некоторые SEO-специалисты продолжают использовать ручной метод, обычно, это ведет к снижению эффективности работы и ухудшению качества общего результата по подбору ключевых слов. На сегодняшний день, на рынке SEO-инструментария присутствует больше десятка различных аналитических информационных систем для упрощения работы со статистикой семантического ядра. Самые известные их них: Semonitor, Allsubmitter, Yazzle – имеют парсеры основных сервисов статистики и инструментарий по сортировке/обработке ключевых слов.

    Дальнейший анализ расширенного списка ключевых слов перемещается в плоскость оценки геозависимости, затрат и бюджетирования. Для этих целей SEO-специалисты используют сервисы Moremoto, Seopult, Rookee, WebEffector и др., которые, в первую очередь, являются агрегаторами внешних ссылок и помогают получить расширенный анализ семантического ядра, с описанием бюджетов конкурирующих за ТОП площадок, а так же определить региональную зависимость.

    Последний этап – отсев и формирование окончательного списка ключевых слов производится SEO-специалистом вручную на основании множества факторов, включая допоисковых анализ бизнеса клиента, теоретические основы формирования семантического ядра и т.д.

    Описанный выше подход является классическим, в той или иной мере присуствует в специальной литературе западных и российских методистов, однако, с точки зрения автора, имеет серьезные недостатки при работе над большими объемами данных, формировании списка низкочастотных запросов, проработке показателей сематнически-связанных страниц, которые как раз характерны для отраслевых интернет-порталов.

    Недостатки классической схемы:

    1. Большое количество рутинных ручных операций по агрегированию данных, что повышает трудоемкость работы и возможность совершения ошибок.

    2. Отсутствие работы с сервисами подсказок поисковых систем.

    3. Сложность сбора данных по сезонной и дифференцированной частотности.

    4. Сложность расчета обобщенного показателя эффективности ключевого слова.

    Т.е. классическая методика работы с ключевыми словами не дает возможности полностью автоматизировать весь процесс работы над списком ключевых слов и усложняет анализ факторов отсева.

    Решить возникшую проблему позволяет появившаяся относительно недавно аналитическая информационная система Key Collector. По мнению автора исследования, Key Collector – наилучший инструмент для формирования семантического ядра отраслевых интернет-порталов. Система решает обозначенные выше проблемы и дает дополнительные возможности в виде работы с релевантными страницами и съемом позиций.

    Особенность Key Collector состоит в том, что она включает в себя все сервисы используемые в классической методике по отдельности. В Key Collector присуствует возможность парсинга статистики и автоматического продолжения работы над ключевыми словами в плоскости определения эффективности ключевых средств через он-лайн сервисы, полученную информацию можно дополнить данными о подсказках поисковых систем, региональности, рассчитать все виды частотности, и, как конечный итог, получить значение показателя KEI – универсального индекса полезности ключевого слова.

    Автор работы, на основании исследований семантического ядра более десятка проектов, сформировал свою методику анализа ключевых слов для отраслевых интернет порталов. Краткое описание методики:

    1. Формирование первоначального списка семантического ядра по классической схеме, дополнение списка ключевых слов базой Пастухова (использование базы Пастухова позволяет учесть ключевые слова с минимальным уровнем цитируемости в поисковых системах, что дает преимущество при продвижении по низкочастотным запросам).

    2. Загрузка получившихся данных в АИС Key Collector.

    3. Парсинг статистики Wordstat Yandex, Rambler Adstat, Adwords Keyword Google, LiveInternet.

    4. Парсинг сезонной и дифференцированной частотности. На основании полученных данных, а так же допоискового анализа, фильтрация списка ключевых слов, корректировка порядка следования слов в выражениях (этап сокращает количество ключевых слов на 30-50% процентов, облегчает последующий анализ региональности и стоимости ссылок).

    5. Парсинг навигационных меток Яндекса, дополнение списка ключевых слов подсказками поисковых систем.

    6. Анализ подсказок на сезонность и влияние автоматических парсеров выдачи, удаление неэффективных запросов.

    7. Парсинг сервисов-агрегаторов Seopult, Rookee, WebEffector, MegaIndex. Расчет максимального и среднего бюджета для имеющихся ключевых фраз.

    8. При наличии донора статистики – парсинг данных Яндекс.Метрики.

    9. Визуальный анализ получившегося семантического ядра, в случае возникновения сложностей по оценке запросов – парсинг данных Яндекс.Директ и Begun.

    10. Расчет показателя KEI.

    11. Выгрузка получившихся данных в excel-файл, анализ итоговой информации через призму допоисковых факторов продвижения и теоретических базисов формирования семантического ядра.

    Общий хронометраж оценки семанического ядра сайта с
    помощью Key Collector составляет порядка 20 рабочих часов и 5-15 часов автоматизированного анализа. Получившиеся данные так же применимы для контент-анализа и распределения ключевых слов по страницам. В таблице 2.1 представлены сравнительная характеристика подбора семанического ядра по методике автора с использованием Key Collector и по классической схеме с использованием Semonitor.

    Таблица 2.1

    Сравнение авторской методики Key Collector и классической Semonitor

    Параметры анализа

    Классическая методика, Semonitor

    Авторская методика, Key Collector

    Парсинг сервисов статистики, отсев по частотности, отсев по навигационным меткам Яндекса.

    Среднее время парсинга сервисов статистики 2 ч./1000 ключевых фраз;
    Количество сервисов статистки – 4;
    Парсинг подсказок в ручном режиме 5 ч./100 ключевых фраз; Невозможность осуществления глубокого парсинга подсказок из-за необходимости ручной обработки данных.

    Среднее время парсинга сервисов статистки 1,8 ч/1000 ключевых фраз; Количество сервисов статистики – 7;
    Парсинг подсказок в автоматическом режиме 2ч/500 ключевых фраз.

    Парсинг сервисов-агрегаторов, определение бюджетов, геозависимости

    Парсинг сервисов-агрегаторов в ручном режиме, количество сервисов – 3 (Seopult, Rookee, WebEffector); Общее время на сбор и агрегирование данных 1000 запросов – 7 часов.

    Парсинг сервисов-агрегаторов в автоматическом режиме, количество сервисов – 4 (Seopult, Rookee, WebEffector, MegaIndex), автоматический подсчет средних и максимальных показателей; Общее время на сбор данных по 1000 запросам 2 часа.


    Продолжение таблицы 2.1

    Получение дополнительных данных (Яндекс.Метрика, Бегун, Яндекс.Директ, Вконтакте)

    Ручной сбор данных, реализация затруднительна из-за большого количества рутинных операций.

    Автоматический сбор данных


    Согласно данным таблицы 2.1 авторская методика превосходит классический метод подбора семантического ядра как по скорости работы, так и по полноте, качеству получаемых данных.


      1. Внутренние факторы ранжирования



    На конец, 2010 года ведущие поисковые системы учитывали около 50-70 внутренних факторов ранжирования [10, с. 245]. По данным исследдований SEO-специалистов их количество увеличилось более чем в 3 раза за последние два года (Ашманов, Иванов 2010). Однако, несмотря на возросшее разнообразие факторов, SEO-аналитики, принявшие участие в опросе портала SEOmoz [11], выделили семь наиболее важных из них:

    • объем текстовой информации;

    • число, плотность и расположение ключевых слов на странице;

    • стилистическое оформление текста;

    • тег ; <br /><li><br />тег <alt> графических материалов;<br /><li><br />возраст домена;<br /><li><br />структура внутренних ссылок;<br /><li><br />«Stop» факторы. <br /></ul> <br /><b><span id='Оценка_внутренних_факторов_ранжирования.'>Оценка внутренних факторов ранжирования.</span></b><br /><h3><u>Объем текста на странице</u></h3> <br />Влияние фактора: уникальный контент сайта, обладающий подходящей структурой навигации, увеличивает общую эффективность поведенческих факторов более чем на 40% (Колисниченко, 2009); наличие на сайте 2-2 тыс. страниц со средним объемом текста 2000 символов на странице повышает трастовое доверие и способствует комплексному воздействию на формулу релевантности поисковых систем (Ашманов, Иванов 2010); при больших объемах текстовой информации страницы приобретают словосочетания низкочастотных запросов, которые без влияния внешних факторов становятся источником поискового трафика (Яковлев, 2010). Оптимальными считаются страницы, содержащие 500-3000 слов или 2-20 кб., т.е. от 2 до 20 тыс. символов (Ашманов, Иванов 2010). <br /><h3><u>Число, плотность и расположение ключевых слов </u> </h3> <br />Ключевые фразы не имеют четких характеристик факторного ранжирования. Что в свою очередь связано с введением алгоритмов машинного обучения. Показатели использования ключевых слов необходимо исследовать непосредственно с помощью анализа поисковой выдачи по каждому запросу в отдельности. Однако общие зависимости, выведенные практическими исследованиями SEO-специалистов дают представление о распределении весов на странице:<br /><br />- Плотность ключевых слов на странице не должна быть больше 8% по показателю Ti (Колисниченко, 2009).<br /><br />-Чем ближе к началу страницы находятся ключевые слова, тем больше их вес в ранжировании (Ашманов, Иванов 2010).<br /><br />- Употребление ключевых слов следует проводить с учетом понятия «естественности» факторов ранжирования, т.е. с соблюдением, смысловых, семантических, грамматических, пунктуационных и орфографических правил (Яковлев, 2010)<br /><h3><u>Заголовок страницы (<title>)</u></h3> <h3>Информация тега <title> отображается как ссылка на страницу сайта в поисковой выдаче, что обуславливает высокое влияние содержания тега на ранжирование. Титул страницы необходимо делать, используя не больше 80-100 символов, контент тега должно быть максимально информативным (Ледфорд 2010). Последние обсуждения вопроса оформления тега <title> в сообществе SEO-специалистов выявили [15] прямую зависимость веса слова от общего количества слов в заголовке, исходя из чего, наиболее правильной стратегией была признана методика формирования максимально коротких (не более семи слов), но насыщенных смыслом заголовков. </h3> <h3><u>Стилистическое оформление текста</u></h3> <br />Исследования вебмастеров в области стилического оформления текстов [15] показали весомый рост влияния разметки веб-страниц на работу поисковых систем. Согласно полученным данным [15], поисковые системы учитывают: <br /><br />-Теги
      1   2   3   4   5   6


    написать администратору сайта