Определение ценности ссылки

SEO

Организация компании по сбору ссылок обычно начинается с изучения того, какие сайты могли бы сделать ссылки на сайт издателя. Затем определяется относительная ценность каждого потенциального линкера. Несмотря на то, что для оценки ссылки существует множество показателей (о чем мы только что говорили), сборщику ссылок определить эти элементы данных очень сложно (например, в случае, если ссылка была впервые добавлена на сайт).

Необходимо обрисовать некий подход, который вы сможете использовать сегодня (и почти без применения специализированных инструментов). Вот те факторы, которые вы можете рассмотреть.

Рейтинг PageRank начальной страницы того сайта, который дает ссылку.
Обратите внимание, что Google не публикует рейтинги PageRank для сайтов, а только рейтинги PageRank для отдельных страниц. Среди специалистов по оптимизации принято использовать начальную страницу сайта как полномочного представителя общего рейтинга PageRank всего сайта (поскольку начальная страница сайта обычно накапливает максимальное количество ссылок). Вы можете также использовать рейтинг Domain mozRank инструмента Linkscape сайта SEOmoz, чтобы получить стороннюю оценку рейтинга PageRank домена.

Воспринимаемый авторитет сайта.
Несмотря на то, что существует связь между авторитетом и рейтингом PageRank, это не связь 1:1. Авторитет — это то, как на сайты данного рыночного пространства выдаются ссылки с других важных сайтов того же рыночного пространства. PageRank измеряет суммарную ценность ссылок (безотносительно рыночного пространства). Сайты с более высоким авторитетом обычно имеют более высокий PageRank, но это не обязательно так.

Рейтинг PageRank ссылающейся страницы. Воспринимаемый авторитет ссылающейся страницы. Количество исходящих ссылок на ссылающейся странице.

Это важно, поскольку ссылающаяся страница может голосовать своим передаваемым рейтингом PageRank за те страницы, на которые она ссылается, но каждая страница, на которую она усылается, потребляет часть этого PageRank (уменьшая рейтинг, передаваемый другим страницам).

Это можно выразить математически следующим образом:
Передаваемый PageRank = п/ г для страницы с передаваемым рейтингом PageRank равным п иг исходящих ссылок.

Это грубая формула, но суть состоит в том, что чем больше исходящих ссылок имеет страница, тем менее ценной будет ссылка с этой страницы.

Релевантность ссылающейся страницы и сайта.
Все эти сведения нужно обязательно оформить в виде электронной таблицы, либо постоянно помнить об этих факторах при планировании компании по сбору ссылок. Для многих организаций компания по сбору ссылок дает тысячи возможностей.

Добавлено: 25 Июля 2018 08:00:57 Добавил: Андрей Ковальчук

Метатег robots

SEO

Метатег robots имеет три компонента: cache, index и follow. Компонент cache дает указание поисковому движку о том, может ли он хранить в публичном индексе движка страницу, доступ к которой осуществляется через ссылку cached snapshot в результатах поиска.
Второй компонент index говорит движку о том, разрешается ли просматривать эту страницу и сохранять ее в каком-либо виде. Помеченная как Noindex страница будет полностью исключена поисковыми движками. По умолчанию это значение равно index, что говорит поисковым движкам: "Да, просматривайте, пожалуйста, эту страницу и включите ее в ваш индекс". Таким образом, размещать эту директиву на каждой странице не нужно.

Робот по странице все равно будет ползать, и страница может по-прежнему аккумулировать и передавать "сок ссылок" другим страницам, но она не появится в индексах поисковых движков.

Последняя инструкция, которая имеется в метатеге robots, — это follow. Эта команда (подобно index) имеет по умолчанию значение yes ("ползать по ссылкам на данной странице и передавать "сок ссылок" между ними"). Применение NoFollow говорит поисковому движку о том, что ссылки на данной странице не должны передавать стоимость ссылок или подвергаться просмотру. В общем и целом неразумно использовать эту директиву как способ предотвращения перемещения по ссылкам. Поскольку люди все равно смогут попадать на эти страницы и смогут сделать ссылки на них с других сайтов, то NoFollow (в метатеге robots) мало что дает в смысле ограничения просмотра или доступа пауков. Единственное его назначение — предотвращение распыления "сока ссылок", что имеет весьма ограниченное применение, поскольку в 2005 г. был введен атрибут rel="nofoliow" (который мы уже обсуждали), позволяющий размещать эту директиву в отдельных ссылках.

Когда вы применяете метатег NoFollow на странице, то поисковый движок все равно просмотрит страницу и поместит ее в свой индекс. Однако все ссылки (и внутренние, и внешние) этой страницы не смогут передавать "сок ссылок" другим страницам.

Хорошим применением для Noindex является размещение этого тега на HTML-странице с картой сайта. Эта страница создана для навигационной помощи пользователям и паукам поисковых движков, чтобы они могли эффективно обнаруживать контент вашего сайта. И, несмотря на то, что на некоторых сайтах эти страницы вряд ли могут получить хоть какой-то заметный рейтинг в поисковых движках, вы все равно хотите, чтобы они передавали "сок ссылок" тем страницам, на которые они ссылаются. Размещение на этих страницах Noindex не позволяет включать эти HTML-карты в индексы (и проблема таким образом решается). Убедитесь в том, что вы не применяете метатег NoFollow на этих страницах или атрибут NoFollow в ссылках на эти страницы, поскольку это не позволит страницам передавать "сок ссылок".

Добавлено: 25 Июля 2018 07:58:06 Добавил: Андрей Ковальчук

Выявление нарушений авторских прав и работа с этой проблемой

Один из самых лучших способов отслеживания дублирования вашего сайта — это использование сайта CopyScape.com, который позволяет моментально увидеть те страницы в Интернете, которые входят в ваш контент. Не волнуйтесь, если страницы этих сайтов находятся во вспомогательном индексе или имеют значительно более низкий рейтинг, чем ваши. Если бы какой-то большой, авторитетный и богатый контентом домен попытался бороться со всеми копиями его материалов в Интернете, то ему потребовались бы, по крайней мере, два человека на полную рабочую неделю. К счастью, поисковые движки доверяют таким сайтам и поэтому признают их оригинальными источниками.

С другой стороны, если у вас есть относительно новый сайт или сайт с небольшим количеством входящих ссылок, а плагиаторы постоянно стоят в рейтинге выше вас (или вашу работу крадет какой-то мощный сайт), то вы можете кое-что предпринять. Один из вариантов— отправить запрос о нарушении авторских прав (DMCA) в Google, Yahoo! и Bing (этот же запрос вам следует отправить и той компании, у которой размещен сайт).

Второй вариант— возбудить дело в суде против сайта-нарушителя (или пригрозить это сделать). Если публикующий ваши работы сайт имеет владельца в вашей стране, то этот вариант, вероятно, является самым разумным первым шагом. Вы можете начать с более неформального общения и попросить удалить контент (еще до того, как посылать официальное письмо от адвоката), поскольку до вступления в силу ваших действий в области DMCA могут пройти месяцы. Но если вам не отвечают, то у вас нет никаких причин откладывать более серьезные действия.

Добавлено: 25 Июля 2018 07:56:46 Добавил: Андрей Ковальчук

Последствия дублированного контента

Предположим, что ваш дублированный контент является результатом безобидного недосмотра со стороны ваших разработчиков. Тогда поисковый движок, скорее всего, отфильтрует все дублированные страницы (кроме одной), поскольку он хочет показать в SERP только одну версию данного контента. В некоторых случаях поисковый движок может отфильтровать результаты до включения их в индекс, а в других случаях движок может допустить страницу в индекс и отфильтровать ее при подготовке SERP в ответ на конкретный запрос. В этом последнем случае страница может быть отфильтрована в ответ на некоторые определенные запросы и не отфильтрована для других.

Пользователи хотят видеть в результатах разнообразие (а не одни и те же результаты снова и снова). Поэтому поисковые движки стараются отфильтровывать дублированный контент и это имеет следующие последствия:

- робот поискового движка приходит на сайт с определенной сметой просмотра, выражающейся в количестве страниц, которые он планирует просмотреть в каждом конкретном сеансе. Каждый раз, когда он попадает на дублированную страницу, которая просто должна быть отфильтрована из результатов поиска, вы позволяете роботу потратить впустую некоторую часть его сметы на просмотр. Это означает, что будет просмотрено меньше ваших "хороших" страниц и приведет к тому, что меньше ваших страниц будет включено в индекс поискового движка;

- ссылки на страницы дублированного контента приводят к потере "сока ссылок". Дублированные страницы могут получить рейтинг PageRank или "сок ссылок", а поскольку он не помогает им в рейтинге, то этот "сок" теряется впустую;

- ни один из поисковых движков не дал четкого объяснения, как его алгоритм выбирает ту версию страницы, которую показывает. Иначе говоря, если он обнаруживает три копии одного и того же контента, то какие две из них он отфильтрует? Какую покажет? Зависит ли это от поискового запроса? В итоге поисковый движок может показать не ту версию, которая вам нужна.

Несмотря на то, что отдельные специалисты по оптимизации могут поспорить с некоторыми из вышеприведенных положений, общая структура практически ни у кого не вызывает возражений. Однако по границам этой модели имеется несколько проблем.

Например, на вашем сайте есть группа товарных страниц, а также версии этих страниц для распечатывания. Поисковый движок может выбрать для показа в своих результатах именно версию для печати. Такое иногда случается, причем это может произойти даже тогда, когда страница для распечатывания имеет меньше "сока ссылок" и более низкий рейтинг, чем основная страница товара.

Для исправления такого положения надо применить тег canonical ко всем версиям страницы, чтобы указать оригинальную версию.

Второй вариант может появиться тогда, когда вы синдицируете контент сторонним организациям. Проблема состоит в том, что поисковый движок может выкинуть из результатов поиска вашу копию и предпочесть ей версию, используемую тем человеком, который перепечатывает вашу статью. Лучшим средством исправления такой ситуации (кроме пометки тегом Noindex той копии, которую использует ваш партнер) является реализация партнером обратной ссылки на оригинальную страницу на вашем сайте. Поисковые движки практически всегда интерпретируют это правильно и выделяют вашу версию контента.

Добавлено: 25 Июля 2018 07:56:20 Добавил: Андрей Ковальчук

Уникальность и глубина контента

Никто не станет оспаривать ту ценность, которую поисковые движки придают надежному и уникальному контенту. В частности, Google уже провела несколько компаний по "вытряхиванию" сайтов с контентом низкого качества из своих индексов, причем другие движки также последовали ее примеру.

Первое, чего следует избегать, — это "тонкий контент". Этим словосочетанием обозначают такой контент, который поисковые движки считают дающим недостаточное количество уникального материала (и поэтому его не показывают в результатах поиска). Критерии никогда не обнародывались официально, но многие обсуждения с инженерами и представителями поисковых движков позволяют включить в этот список следующее:

- наличие от 30 до 50 уникальных слов, формирующих уникальные предложения, которых нет на других сайтах/страницах;

- уникальный контент в виде HTML-текста, отличающийся от других страниц сайта более чем только заменой ключевых глаголов и существительных. Те сайты, которые используя одну страницу, меняя в ней название города и штата и при этом думая, что эти страницы уникальны, жестоко ошибаются;

- уникальные заголовки и элементы метаописаний. Если вы не можете написать уникальные метаописания, то просто исключите их. Алгоритмы могут исключить страницы из индекса просто за почти одинаковые метатеги;

- уникальный контент в виде видео/аудио/изображений. Движки стали умнее при выявлении и индексировании страниц для вертикального поиска, которые раньше не могли бы пройти проверку на уникальность.

Добавлено: 25 Июля 2018 07:55:34 Добавил: Андрей Ковальчук

Текст документа

HTML-текст страницы раньше был центром работы по оптимизации под ключевые слова. Для измерения идеального уровня использования ключевых слов на странице применялись такие показатели, как плотность ключевых слов и насыщенность ключевыми словами. Однако для поисковых движков текст документа (в частности, частота использования конкретных терминов или фраз) очень мало влияет на то, насколько доволен будет этой страницей пользователь.

Фактически такая страница, которая перегружена многократным повторением ключевых слов (чтобы понравиться поисковым движкам), производит очень плохое впечатление на пользователя. В настоящее время некоторые специалисты по оптимизации призывают обращать внимание на "вес термина" (математическое уравнение, берущее свое начало в науке об информационном поиске) или на другие (еще более "модные") методы использования ключевых слов. Однако на практике почти всю оптимизацию можно выполнить очень просто.

Лучший способ обеспечить максимальный уровень целевого употребления в вашем тексте конкретного термина (или фразы) — это использовать его в теге title, в одном или нескольких заголовках разделов (в пределах разумного) и в самой web-странице. Важно также применять в теле страницы и другие родственные фразы (чтобы усилить контекст и релевантность вашей главной фразы для данной страницы).

Несмотря на то, что повторное использование ключевой фразы на странице может несколько повысить ее рейтинг, с повышением количества таких вхождений эффект падает. Кроме того, это может испортить удобочитаемость некоторых документов, что, в свою очередь, может отрицательно сказаться на способности накапливать ссылки на ваш сайт. Более того, тестирование показало, что использование ключевых слов в тексте документа является для большинства поисковых движков таким слабым фактором, что даже одной ссылки очень низкого качества достаточно, чтобы страница с прекрасной оптимизацией ключевых слов уступила (от 2 дою 10 раз, в зависимости от длины) странице с естественным вхождением целевой фразы.

Однако все это вовсе не означает, что размещение ключевых слов на страницах бесполезно. Всегда следует стремиться к тому, чтобы включить нужное вам целевое слово, по крайней мере, несколько раз (в зависимости от длины документа). Хотя чрезмерное стремление к максимальной оптимизации каждой страницы для каждого термина является избыточным и в значительной степени ненужным.

Добавлено: 25 Июля 2018 07:54:47 Добавил: Андрей Ковальчук

Теги заголовков (Н1, Н2 и НЗ)

SEO

Теги заголовков (hi, Н2, нз и т. д.) языка HTML предназначены для обозначения иерархии заголовков документа. Таким образом, тег hi можно считать заголовком страницы в целом, теги Н2 будут служить подзаголовками, а нз— заголовками третьего уровня (и т. д.). Поисковые движки демонстрируют некоторое предпочтение для ключевых слов, появляющихся в тегах заголовков, особенно в теге hi (который и является из них самым важным).

В некоторых случаях вы можете использовать тег title страницы (содержащий важные ключевые слова) в качестве тега hi. Однако если тег title длинный, то возможно вы захотите использовать более короткий тег заголовка (с применением самых важных ключевых слов из тега title). Когда пользователь кликает по результату поиска, усиливая только что введенный им поисковый термин выбором заметного заголовка, то это означает, что он попал именно на нужную страницу (с нужным контентом).

Многие издатели полагают, что силу тега Hi увеличивает размер шрифта, которым он отображается. По большей части стиль тегов заголовков не учитывается в том весе, который имеет для оптимизации тег заголовка. Вы можете придать тегу любой желаемый вами стиль, при условии, что не будете впадать в крайности (например, не сделаете его слишком маленьким для чтения).

Добавлено: 25 Июля 2018 07:54:22 Добавил: Андрей Ковальчук

Метатеги описания

Метаописания используются в следующих целях:

- чтобы дать точное и краткое описание контента страницы;

- чтобы служить кратким текстовым "анонсом" ваших страниц в результатах поиска;

- чтобы показать ключевые слова не для ранжирования, а для указания содержимого страницы для пользователей.

Хорошие метаописания (подобно хорошим рекламным объявлениям) может быть написать непросто, но для нацеленных на ключевые слова страниц (особенно в конкурентных результатах поиска) они являются важнейшей составляющей частью привлечения трафика из поисковых движков на ваши страницы. Их важность гораздо выше для тех поисковых терминов, где намерение пользователя неясно (либо пользователи имеют различную мотивацию). Вот семь хороших правил для метаописаний.

Говорите правду.
Всегда честно описывайте свой контент. Если он не настолько привлекателен, как вам бы того хотелось, добавьте ему остроты; не заманивайте и не "заводите" пользователей, иначе у них будут плохие ассоциации с вашим брендом.

Будьте лаконичны.
Учитывайте ограничения по количеству символов. В настоящее время Google показывает до 160 символов, Yahoo! — до 165 символов, a Bing— до 200 с лишним (в некоторых случаях до 300). Придерживайтесь самого меньшего количества (как в Google) и следите за тем, чтобы эти описания не превышали 160 символов (включая пробелы).

Создавайте описание рекламного уровня.
Пишите как можно ярче, но сохраняйте описательность, поскольку хорошее ме-таописание подобно хорошему рекламному объявлению — оно убедительно и информативно.

Тестируйте, очищайте, промывайте и повторяйте.
Подобно рекламным объявлениям, вы можете протестировать метаописания результатами поиска, но при этом нужно быть внимательными. Вам нужно будет купить рекламу с оплатой за клики, чтобы узнать, какой тираж показов имели критические ключевые слова за определенный промежуток времени. Затем вы сможете использовать аналитику, чтобы увидеть, сколько кликов получено по этим ключевым словам, а также вычислить свой показатель кпикабельности.

Анализируйте психологию.
В отличие от рекламного объявления, мотивация для клика в результатах естественного поиска часто существенно отличается от той, которая имеется у пользователей, кликающих по платным результатам. Кликающие по платным рекламным объявлениям пользователи могут быть очень конкретно сосредоточены на покупке, а пользователи, кликающие по естественным результатам поиска, могут быть больше заинтересованы в изучении товара (или вашей компании). Не рассчитывайте, что удачный текст платного рекламного объявления будет хорошим метаописанием (или наоборот).

Включайте релевантные ключевые слова.
Исключительно важно иметь в метатеге описания ваши ключевые слова. Выделение их жирным шрифтом в поисковых движках может существенно изменить видимость и показатель кпикабельности. Кроме того, если поисковый термин пользователя отсутствует в метаописании, то уменьшается вероятность использования метаописания в качестве описания в страницах SERP.

Не применяйте метаописания везде.
Метаописание нужно писать не всегда. Здравый смысл подсказывает, что лучше самому написать хорошее метаописание (чтобы максимизировать вероятность его показа в SERP), чем позволить поисковому движку создать Tajcoe описание из контента вашей страницы. Однако это не всегда верно. Если страница нацелена на один, два или три термина, часто используемых в поиске, то создавайте метаописание для тех пользователей, которые делают такой поиск.

Однако если вы нацелены (при помощи сотен статей или записей в блогах, а также при помощи огромного каталога товаров) на трафик длинного хвоста, то иногда лучше дать поисковым движкам самим извлечь релевантный текст. Причина проста: поисковые движки всегда показывают ключевые слова, которые искал пользователь (и окружающие их фразы). Если вы навяжете метаописание, то можете снизить ту релевантность, которую определят движки. В некоторых случаях они все равно возьмут верх над вашим метаописанием, но поскольку вы не можете надеяться на такое их поведение, то лучше будет не применять метаописания (а для больших сайтов это может сэкономить сотни и тысячи чело-веко-часов).

Добавлено: 25 Июля 2018 07:53:56 Добавил: Андрей Ковальчук

Целевое использование ключевых слов

Поисковые движки сталкиваются с трудной задачей: по нескольким словам запроса (а иногда вообще по одному слову) они должны выдать список релевантных результатов, упорядочить их по показателям важности и надеяться на то, что пользователь будет удовлетворен. Как создатель web-сайта и издатель web-контента, вы можете серьезно упростить для поисковых движков этот процесс и, в свою очередь, получить выгоду от огромного трафика, который они посылают. Для этого вы должны использовать разыскиваемые пользователем термины на самых заметных местах ваших страниц.

Такой прием в течение долгого времени был основной составляющей поисковой оптимизации и, несмотря на то, что другие показатели (такие, как ссылки) приобрели большую ценность для поисковых рейтингов, использование ключевых слов по-прежнему является основой нацеливания поискового трафика.

Первый шаг процесса целевого использования ключевых слов — это выявление популярных терминов и фраз, которые регулярно применяются пользователями для поиска контента, товаров и услуг (предлагаемых вашим сайтом). Этот процесс является сплавом науки и искусства, но он неизменно начинается со списка ключевых слов.

Когда у вас появится этот список, то нужно будет включить эти слова в ваши страницы. В начальный период развития оптимизации этими ключевыми словами последовательно "фаршировали" каждый HTML-тег. В настоящее время релевантность ключевых слов в гораздо большей степени ориентирована на удобство пользования страницей с точки зрения человека.

Поскольку ссылки и прочие факторы составляют значительную часть алгоритмов поисковых движков, то теперь движки не ставят в рейтингах страницу с 61 упоминанием слов free credit report выше страницы с 60 такими упоминаниями. На самом деле, "фаршировка" ключевыми словами (как это называется в мире оптимизации) может привести к падению ваших страниц в рейтингах (из-за накладываемых поисковыми движками штрафов). Движки не любят, когда с ними жульничают, они считают фаршировку ключевыми словами нечестной тактикой.

Ключевые слова используются в заголовках и контенте, чтобы при их появлении в результатах поиска привлечь пользователей (и получить клики), а также увеличить релевантность для повышения рейтингов.

Для создания дружественного к поиску сайта необходимо, чтобы ключевые слова, применяемые пользователями для поиска контента, располагались на видных местах. Рассмотрим некоторые из наиболее заметных мест, где издатель может разместить эти ключевые слова.

Добавлено: 25 Июля 2018 07:53:24 Добавил: Андрей Ковальчук

XML Sitemap

Компании Google, Yahoo! и Microsoft поддерживают протокол, известный как XML Sitemap. Google первой объявила его в 2005 г., а затем Yahoo! и Microsoft в 2006 г. согласились поддержать этот протокол. При помощи протокола Sitemap вы можете снабдить поисковые движки списком всех URL, которые вы бы хотели проиндексировать.

Добавление URL в файл Sitemap вовсе не является гарантией того, что этот URL будет просмотрен пауком или проиндексирован. Однако с его помощью можно просмотреть и проиндексировать те страницы, которые иначе не обнаруживаются и не индексируются. Кроме того, Sitemap помогает тем страницам, которые были переведены во вспомогательный индекс Google, вернуться обратно в главный индекс.

Эта программа является дополнением (а не заменой) обычного просмотра поискового движка по ссылкам. Преимущества Sitemap в следующем:

- для страниц, о которых поисковые движки уже знают вследствие регулярного их просмотра, используются предоставляемые вами метаданные, такие как дата последней модификации контента (lastmod date), частота изменений страницы (changefreq);

- для страниц, о которых движки не знают, используются предоставляемые вами дополнительные URL (для улучшения охвата просмотром);

- для тех URL, которые, возможно, имеют дубликаты, движки могут использовать данные Sitemap для выбора канонической версии;

- верификация/регистрация карт Sitemap может означать позитивный сигнал доверия/авторитета;

- эффект Sitemap в смысле просмотра/включения может оказывать позитивное воздействие второго порядка, как, например, улучшение рейтингов или повышенная популярность внутренних ссылок.

Инженер компании Google, который в форумах фигурирует как GoogleGuy (известный также как Matt Cutts, руководитель команды Google по web-спаму), объяснил протокол Sitemap компании Google следующим образом:

"Представьте себе, что на вашем сайте есть страницы А, В и С. Мы находим страницы А и В при помощи нормального просмотра по вашим ссылкам. Затем вы строите Sitemap и перечисляете в списке страницы В и С. Теперь появляется шанс, что мы просмотрим и страницу С, но мы этого не обещаем. Мы не выбросим страницу Л только потому, что вы не включили ее в список вашей Sitemap. И само включение в список страницы, о которой мы не знали, не гарантирует Того, что мы просмотрим ее. Но если по какой-то причине мы не видим никаких ссылок на С, либо мы знаем о странице С, но URL был отвергнут из-за слишком большого количества параметров или по другой причине, то появляется шанс, что мы просмотрим страницу С".

Sitemap использует простой формат XML, о котором вы можете прочитать по адресу http://www.sitemaps.org. Sitemap — это полезный, а в некоторых случаях просто необходимый инструмент для вашего web-сайта. В частности, если у вас есть причина думать, что сайт не проиндексирован полностью, то Sitemap может помочь вам увеличить количество проиндексированных страниц. По мере того, как сайты растут в размерах, ценность файлов Sitemap существенно увеличивается (поскольку на новые включенные в них URL поступает дополнительный трафик).

Добавлено: 25 Июля 2018 07:50:50 Добавил: Андрей Ковальчук

Структуры ссылок, по которым могут ползать пауки

SEO

Поисковые движки используют ссылки, расположенные на web-страницах, чтобы найти другие web-страницы и web-сайты. По этой причине разработчикам web-сайтов следует потратить время и построить такую структуру ссылок, по которой легко сможет проползти паук. Многие сайты делают критическую ошибку — они прячут или затемняют свою навигацию такими способами, которые затрудняют работу пауков, тем самым не позволяя им включать эти страницы в индексы движков поиска. Посмотрите рис. 6.1, на котором показано, как может возникнуть эта проблема.

Паук движка Google достиг страницы А и видит ссылки на страницы В и Е. Однако несмотря на то, что страницы С и D могут быть весьма важными, у паука нет способа добраться до них (и даже узнать о том, что они существуют), поскольку на эти страницы не указывает ни одна прямая ссылка, по которой можно было бы проползти.

Для Google эти страницы не существуют вовсе. Отличный контент, хорошее целевое использование ключевых слов и умный маркетинг совершенно не имеют значения, если паук не может даже добраться до этих страниц.

Чтобы напомнить вам состоявшееся в главе 2 обсуждение, мы приведем основные причины того, почему страницы могут быть недосягаемыми.

Ссылки в виде форм.
Поисковые пауки не будут даже пытаться заполнять формы, поэтому весь контент (или ссылки), который доступен только через форму, является невидимым для пауков. Это справедливо даже по отношению к простым формам (таким, как регистрация пользователей, поля поиска, некоторые типы выпадающих списков).

Ссылки в неподдающемся разбору коде JavaScript.
Если вы используете для ссылок JavaScript, то увидите, что поисковые движки либо не просматривают встроенные в них ссылки, либо дают этим ссылкам очень маленький вес.

Ссылки внутри Flash, Java и других дополнительных модулей.
Встроенные в Java и дополнительные модули ссылки поисковым движкам невидимы. Поисковые движки делают успехи в области обнаружения ссылок внутри Flash, но не слишком на это надейтесь.

Ссылки в файлах PowerPoint и PDF.
Файлы PowerPoint и PDF ничем не отличаются от Flash, Java и дополнительных модулей. Поисковые движки иногда сообщают о ссылках внутри файлов PowerPoint и PDF, но какой вес они получают, узнать нелегко.

Ссылки на страницы, блокированные при помощи метатега Robots, rei="NoFoiiow", или файла robots.txt.
Файл robots.txt представляет собой очень простое средство для предотвращения просмотра пауками страниц вашего сайта. Использование атрибута NoFoilow для ссылки или размещение на странице с ссылкой тега Robots является указанием для поискового движка не передавать ссылочный "сок" по этой ссылке.

Ссылки на страницах со многими сотнями и тысячами ссылок.
Компания Google предложила использовать не более 100 ссылок на странице, поскольку паук может прекратить просмотр остальных ссылок этой страницы. Этот "предел" имеет некоторую гибкость и особенно важные страницы могут иметь до 150 и даже 200 отслеживаемых ссылок. Однако в общем случае будет разумно ограничить количество ссылок на странице до 100, в противном случае вы рискуете потерять возможность просмотра пауками всех тех страниц, которые выходят за это предельное значение.

Ссылки в фреймах или i-фреймах.
Технически ссылки во фреймах и i-фреймах просмотреть можно, но они представляют собой структурные проблемы для движков поиска в плане организации и отслеживания. Если вы не являетесь квалифицированным пользователем, который хорошо понимает, как поисковые движки индексируют и двигаются по ссылкам во фреймах, то лучше не использовать их в качестве места размещения ссылок для просмотра.

Добавлено: 25 Июля 2018 07:50:23 Добавил: Андрей Ковальчук

Сделайте конкурентный анализ

Ваши конкуренты сталкиваются с теми же самыми проблемами. Они тоже изобретательны и способны на творческий подход. Вы вполне можете рассчитывать на то, что они вложили определенные усилия в изучение мышления своих клиентов и продумали наилучшие способы их привлечения. Поэтому вы можете добавить в свой процесс следующие шаги:

1. Проанализируйте web-сайты ваших конкурентов и посмотрите, какие ключевые

фразы они используют для своих товаров и услуг (конкурирующих с вашими).

2. Запишите те термины, которые они используют для своего бизнеса.

3. Прочитайте все статьи, которые они написали и опубликовали на других сайтах.

4. Обратите внимание на то, что о них говорили в средствах массовой информации.

Сложите все ваши исследования вместе и получите удивительно хороший набор ключевых слов, который можно будет использовать в качестве начальной точки.

Вы можете спросить — зачем эти хлопоты? Разве специальные инструменты для ключевых слов не сделают все это за вас?

Есть две причины, почему эти дополнительные усилия так важны:

- ваша команда имеет большой объем таких знаний, каких не имеют инструменты для ключевых слов. Они знают, с чего начать. Инструменты для ключевых слов требуют начального ввода информации, а качество выдаваемых ими данных зависит от качества заданных вами начальных значений;

- обсуждение этой проблемы позволяет акционерам вашей организации лучше понять рынок и имеющиеся возможности.

После выполнения этих шагов у вас в руках окажется богатый набор терминов. Следующий шаг — это расширение диапазона собранных терминов при помощи инструментов изучения ключевых слов.

Добавлено: 25 Июля 2018 07:47:58 Добавил: Андрей Ковальчук

Традиционные подходы: экспертиза доменов, анализ контента сайтов

SEO

Одна из самых умных вещей, которую вы можете сделать, начиная изучать ключевые слова, — это использовать автоматизированные инструменты при обсуждении оригинальных идей с участниками вашего бизнеса. Это может быть удивительно эффективным средством для получения множества критических ключевых слов.

Начните с создания списка терминов и фраз, которые релевантны для вашей отрасли промышленности и имеют отношение к вашему сайту или вашим бизнес-предложениям. Фаза обсуждения должна в идеале дать список от нескольких десятков и до нескольких сотен (или более) ключевых слов, которые приведут на ваш сайт релевантных и квалифицированных посетителей.

Чтобы начать этот процесс, нужно собрать всю вашу команду в конференц-зале и выполнить следующие шаги:

1. Составить список ключевых фраз (состоящих из одного-трех слов), которые описывают ваши товары/услуги.

2. Потратить время на поиск синонимов, которые могут использоваться вашими потенциальными клиентами для этих товаров и услуг. Используйте для этой цели словарь.

3. Систематизировать все области вашей отрасли. Представьте себе, что вы создаете каталог для всех людей, проектов, идей и компаний, связанных с вашим сайтом. Вы можете также посмотреть те сайты, которые являются лидерами вашей отрасли, и изучить их иерархию (чтобы получить представление о систематике).

4. Расширить ваш список. Продумайте термины более высокого уровня, подмножеством которых являются ваши товары или услуги.

5. Проанализировать ваш существующий сайт и позаимствовать из него все то, что может служить ключевыми фразами.

6. Проанализировать сайты отраслевых объединений и средств массовой информации, посмотреть, какие фразы они используют для обсуждения вашей тематической области.

7. Составить список всех своих брендов.

8. Составить список всех своих товаров. Если ваш сайт содержит очень большое количество товаров, то отступите назад на один или два уровня и составьте список категорий и подкатегорий.

9. Встать на позицию потребителя. Пусть члены вашей команды представят себя потенциальными клиентами. Спросите их, что они ввели бы в поисковый движок, если бы искали что-то похожее на ваши товары или услуги.

10. Спросить непричастных к вашему бизнесу людей о том, что искали бы они (желательно тех людей, которые не связаны с вашей компанией напрямую).

11. Использовать инструменты web-аналитики с целью увидеть, какие термины люди уже применяют, чтобы попасть на ваш сайт.

Сбор информации такого типа— это то, что делал обычный маркетолог перед запуском маркетинговой компании еще в те времена, когда Интернета не было. И конечно же, если какие-либо из этих данных вы можете получить из других отделов вашей компании, то обязательно включите их в ваше исследование.

Добавлено: 25 Июля 2018 07:47:32 Добавил: Андрей Ковальчук

Важность анализа ключевых слов

Еще один важный компонент аудита архитектуры — это анализ ключевых слов. Он включает в себя 4 основных шага.

Шаг 1 — изучение ключевых слов.
Чрезвычайно важно сделать это как можно раньше. Ключевые слова являются движущей силой оптимизации страниц, поэтому вам нужно знать, какие именно использовать.

Шаг 2 — архитектура сайта.
Создание архитектуры сайта может быть очень сложным. На данной стадии вам нужно посмотреть на результаты изучения ключевых слов и на уже существующий сайт, чтобы производить как можно меньше изменений. Представьте себе этот процесс как карту вашего сайта. Вам нужна такая иерархия, которая ведет ко всем вашим "денежным страницам" (т. е. к тем страницам, на которых происходят конвертации). Понятно, что хорошая иерархия сайта позволяет родителям ваших "денежных страниц" иметь рейтинг по релевантным ключевым словам (которые, скорее всего, низкочастотные).

Большинство товаров имеют совершенно очевидную иерархию, в которую они укладываются, но когда вы начинаете говорить о том, что имеет несколько естественных иерархий, то все становится невероятно сложно. По нашему мнению, самые сложные иерархии получаются тогда, когда в них участвует местоположение. В одном только Лондоне, например, есть районы города, муниципальные районы, станции подземки, а также почтовые коды. Лондон даже имеет в своем составе отдельную центральную часть (Лондон-сити).

В идеальном случае вы должны прийти к простой иерархии, которая будет естественной для ваших пользователей и будет максимально соответствовать вашим ключевым словам. Когда люди могут искать продукт множеством способов, создание иерархии становится сложным.

Шаг 3 — соответствие ключевым словам.
После того как вы получите список ключевых слов и хорошее представление об общей архитектуре, начинайте устанавливать соответствие между основными релевантными ключевыми словами и URL (а не наоборот). В таком случае будет достаточно легко найти такие места, которые вы не считали нацеленными на ключевые слова, и что более важно, найти такие ключевые слова, которые не имеют страницы.

Необходимо отметить, что между шагами 2 и 3 вы должны будете удалить все бесполезные страницы.

Если на этой стадии возникнут проблемы, то повторите шаг 2. Архитектура вашего сайта должна естественным образом привести к такому соответствию, чтобы его (сайт) было легко использовать и чтобы он содержал ваши ключевые фразы.

Шаг 4 — анализ сайта.
После того как вы получите соответствие ключевым словам, остальная часть анализа сайга становится гораздо легче. И теперь, когда вы посмотрите на теги названий и заголовки, то сможете обратиться к соответствию ключевых слов и не только увидеть, есть ли заголовок в теге h1, но также увидеть, содержит ли он правильные ключевые слова.

Добавлено: 25 Июля 2018 07:44:55 Добавил: Андрей Ковальчук

Описание процесса разработки сайта и его участников

SEO

Прежде чем начать работать над проектом оптимизации, вам нужно знать три вещи:
- кто является вашей целевой аудиторией;
- в чем состоит ваша идея;
- почему ваша идея важна.

Не существует таких инструментов для web-дизайна или языков программирования, которые могли бы рассказать вам эти вещи. Для успешного проекта по оптимизации нужна командная работа.

Ваша команда по оптимизации должна быть многофункциональной и состоять из менеджера команды, технической команды, креативной команды, а также из представителей основных заинтересованных сторон (из отделов связей с общественностью, маркетинга и рекламы). В небольших организациях вам, возможно, придется выполнять все эти обязанности самому.

Руководитель команды хочет знать, кто является целевой аудиторией. Что знает о ней отдел маркетинга? Как ее найти? Какие показатели мы используем для их выявления? Все это ключевая информация, которая будет иметь влияние на техническую реализацию проекта.

Для рекламы нужно заранее хорошо продумать и подготовить ее идеи. Реклама служит многим целям, но самая фундаментальная ее цель — убедить людей выполнить определенное действие.

Отдел по связям с общественностью должен донести вашу концепцию до средств массовой информации и заинтересовать их, чтобы те начали писать и говорить о ней.

Техническая и креативная команды отвечают за реализацию проекта. Они получают указания от отделов по связям с общественностью, маркетинга и рекламы (относительно всех тех потребностей, которые должны быть удовлетворены), но именно они должны уложить после этого все кусочки мозаики на свои места. По мере развертывания проекта отдел маркетинга должен сообщать, удается ли достичь контакта с целевой аудиторией. Отдел рекламы должен сообщать о другом — понятна ли идея.

Постоянная обратная связь очень важна, поскольку успех вашего проекта определяется исключительно тем, достигаете ли вы своих целей. Успешная команда оптимизации понимает все эти взаимосвязи, где каждый член команды делает свое дело. Важно наладить между членами команды хорошее взаимодействие.

И даже если вся ваша команда состоит из одного человека, вам все равно нужно понимать все эти шаги. Для успеха проекта оптимизации необходимо работать со всеми аспектами маркетинговой проблемы.

Добавлено: 25 Июля 2018 07:44:03 Добавил: Андрей Ковальчук