SEO

Как Сразу Получить ТИЦ10 На Сайт!

Очень просто – нужно лишь взять свободный/освобождающийся домен и построить сайт на нем. Домены с ТИЦ каждый ценит по своему. Кто-то регулярно ищет домены с показателями и выставляет на аукционы, кто-то строит сеть собственных проектов на них.

Где взять домены с ТИЦ бесплатно и будет рассказано в этом посте:

Смысл прост, для получения домена с ТИЦ 10-30 нам нужно пройти всего 5 шагов:

  1. Найти подходящий домен в списке освобождающихся доменов
  2. Проверить ТИЦ и PR домена
  3. Проверить домен на занятость
  4. Проверить домен на склейку (Важно!)
  5. Зарегистрировать домен

Подробнее по пунктам.

1. Найти подходящие домены можно на следующих сайтах:

Для ru доменов:

  • http://expire.ru-monitor.ru/archive.html
  • http://www.webnames.ru/scripts/ru_stat_rereg.pl
  • http://freename.com.ua/
  • http://www.reg.ru/newdomain/freeing_domains

Для com, net, info и прочих:

  • http://expire.biz/
  • http://www.justdropped.com/
  • Прочие, стоит лишь набрать в гугле что то вроде: “expired domains”

Берем эти списки и отправляем на проверку ТИЦ и PR

2.  Проверить показатели ТИЦ и PR можно на следующих сайтах:

  • http://www.raskruty.ru/tools/cy/ —  Главное, убрать галочку с “показывать ТИЦ картинкой”
  • http://pr-cy.ru/mass_stat – Тормозит при больших списках

Выбираем подходящие нам домены и переходим к следующему пункту.

3. Проверка доменов на занятость по whois:

Наверное самый важный пункт из списка. Обычно на этом этапе домены либо бывают еще заняты (Если мы смотрим списки доменов, которые должны скоро освободится), либо уже заняты (ведь не только мы за доменами охотимся).

  • http://www.seonight.ru/analysis/massdom.php

4. Проверка доменов на склейку:

Тоже важно. Ведь можно выложить деньги за регистрацию и на следующем же апе остаться ни с чем, хотя всего то нужно было выполнить 2 действия.

Для Google нужно в поисковой строке ввести запрос вида “info:www.postquickly.com” (подставляете свой домен). Если домены совпадают – все в порядке. Пример на скриншоте:

Как сразу получить тиц10 на сайт

Для Яндекса проверяем через яндекс каталог, который проверяет ТИЦ ресурса. По ссылке: http://search.yaca.yandex.ru/yca/cy/ch/www.postquickly.com/ (В конце подставляем собственный URL). Опять же, если домены совпадают – все в порядке.

Несложные вобщем то проверки способны избавить вас от лишних трат.

5. Регистрация домена

Ну а теперь переходим к главному пункту, ради которого все и затевалось. По результатам поиска освобожденных доменов, проверки тиц и pr этих доменов, проверки на занятость и проверки на склейку у вас должен получиться списочек из нескольких доменов. А может и не получится. День на день не приходится.

Но в целом, в удачные дни, хоть парочку доменов с ТИЦ найти вполне реально.

В нашем случае к регистрации требование одно – она должна быть быстрой :-)

Перехват доменов в зоне org осуществляется с 18:00 по МСК, перехват доменов в зонах net, com с 22:00 по МСК.

Для рунета в качестве регистратора многие используют Reg.ru

Главное – обязательно зарегистрироваться и заполнить паспортные данные до того, как вы начнете искать домен, чтобы потом не терять драгоценные минуты на заполнение информации, а просто ввести название домена и кликнуть на “зарегистрировать”

Для доменов в зоне com, net, org и т.д. обычно используют Godaddy.com

Принцип тот же  – желательно заранее зарегистрироваться и заполнить данные. У godaddy есть одно очень большое преимущество – при регистрации никто не будет требовать высылать сканы паспортных данных и прочее… Наоборот, в случае продажи вашего саттелита вы сможете воспользоваться функцией push и передать домен другому человеку буквально за несколько часов без бумажной волокиты.

В общем и целом шаги я перечислил. В статье не рассматриваются различные скрипты, облегчающие жизнь пользователя и парсящие освобождающиеся/освобожденные домены. Если есть упорство, терпение, а главное – свободное время, тогда можно попробовать поработать руками по этой инструкции :)

301 редирект

Редирект 301 (301 Permanent Redirect) используется в нескольких случаях: при смене домена, при переносе страницы сайта, для склейки имени сайта с www и без него. Это важно для передачи Page Rank (PR) и сохранения поискового трафика.

Сам я столкнулся с его необходимостью, когда после переезда своего портала из зоны com, в ru обнаружил, что Google, Яндекс и другие поисковые системы, естественно не «забывают» старого сайта (отчасти еще и из-за того, что у меня была некорректно установлена своя страница, для обработки 404 ошибки, которая возвращала код ответа 200 OK). Более того, Google за полгода оставил для нового сайта PR=0, хотя для старого он сохранился PR=4.

Тема 301 редиректа постоянно обсуждается в различных SEO-форумах, да и каждая поисковая система в своей системе помощи имеет специальные разделы. Пока разбирался я нашел перечисленные ниже варианты организации редиректа, часть из которых опробовал у себя.

301 редирект это наилучший метод сохранения ваших позиций в поисковых системах, когда вы переносите страницу или сайт. Код «301» интерпретируется как постоянное перемещение («moved permanently»).

  1. Простой редирект (в файле .htaccess или httpd.conf для Apache):

    Redirect 301 / http://www.you.com/new.htm
    где:
    Redirect 301 — это инструкция, говорящая что страница перемещена
    / — означает, что все с верхнего уровня сайта, включая все подкаталоги, будет переадресовано
    http://www.you.com/new.htm — новая страница или сайт (не забывайте поставить последний «/», если переадресация идет на сайт).Чтобы переадресовать только страницу, сохранив PR старой страницы:
    Redirect 301 /old/old.htm http://www.you.com/new.htm
    где:
    /old/old.htm — путь и имя старой страницы

    Аналогичный синтаксис для переадресации сайта:
    RedirectPermanent / http://www.you.com/

    Пример переадресации каталога:
    RedirectPermanent /old-directory http://www.domain.com/new-directory/Например, зашедших в test переадресуем на www.test.com, остальных на enter.test.com (порядок следования записей важен):

    Redirect permanent /test    http://www.test.com/
    Redirect permanent /        http://enter.test.com/

    Примечание: для моих целей (изменение домена) хватило первого варианта простого 301 редиректа.

  2. Использование mod_rewrite (прописывается в файле .htaccess):

    Ставшая классической задача слияния имена сайта с www и без него, решается так:

    Options +FollowSymLinks
    RewriteEngine on
    RewriteCond %{HTTP_HOST} ^yoursite.com
    RewriteRule ^(.*)$ http://www.yoursite.com/$1 [R=permanent,L] .

    или альтернативный синтаксис:

    Options +FollowSymLinks
    RewriteEngine On
    RewriteCond %{HTTP_HOST} ^domain.com$ [NC]
    RewriteRule ^(.*)$ http://www.domain.com/$1 [R=301,L]

    Обозначение [R=301,L] означает: перенаправить клиента и отправить ему код статуса 301 (R=301) и сделать это правило последним (L).

    Редирект старого домена на новый:

    Options +FollowSymLinks
    RewriteEngine on
    RewriteRule (.*) http://www.newdomain.com/$1 [R=301,L]

    Например, если необходимо чтобы вместо rewrite.htm загружался файл rewrite.html, добавьте в .htaccess:

    RewriteEngine   on
    RewriteBase     /
    RewriteRule     ^rewrite.htm$  rewrite.html [R=permanent]

    Для замены всех .htm файлов .html файлами:

    RewriteEngine  on
    RewriteBase     /
    RewriteRule     ^(.*).htm$  $1.html [R=permanent]
  3. Редирект на PHP:

    <?php
    header("HTTP/1.1 301 Moved Permanently");
    header("Location: http://www.newdomain.ru/newdir/newpage.htm");
    exit();
    ?>

    Лучше указать HTTP/1.1, так как более старые не поддерживают виртуальный хостинг. Не забудьте, что до вызова header, ничего не должно выводиться (например, echo или print). Поэтому этот код лучше ставить в начало php-скрипта. Более полный вариант php редиректа с сохранением передаваемой страницы и параметров вызова:

    <?
    $ref=$_SERVER['QUERY_STRING'];
    if ($ref!='') $ref='?'.$ref;
    header('HTTP/1.1 301 Moved Permanently');
    header('Location: http://newdomain.com/'.$ref);
    exit();
    ?>
  4. Редирект на ASP

    <%@ Language=VBScript %>
    <% 
    Response.Status="301 Moved Permanently"
    Response.AddHeader "Location", "http://www.new-url.com"
    response.end
    %>
  5. Редирект на ASP.NET

    <script runat="server">
    private void Page_Load(object sender, System.EventArgs e)
    {
    Response.Status = "301 Moved Permanently";
    Response.AddHeader("Location","http://www.new-url.com");
    }
    </script>
  6. Редирект на ColdFusion

    <.cfheader statuscode="301" statustext="Moved permanently">
    <.cfheader name="Location" value="http://www.new-url.com">
  7. Редирект с помощью meta refresh

    <meta http-equiv='refresh' content='0; url=http://newdomain.com'>

    где 0 — задержка переадресации в секундах, newdomain.com -страница, куда переадресуем. Некоторые старые браузеры не поддерживают meta refresh со значением 0, для совместимости можно установить ненулевой значение, хотя, на мой взгляд это уже не актуально. Такой редирект не сможет склеить ваши сайты (с www и без) и передать PR, так как игнорируется поисковыми системами. Он возвращает код 200 OK, что соответствует обычной странице. Эта техника популярна у спамеров, поэтому ее стоит применять только для страниц, которые не будут индексироваться.

  8. Редирект с помощью JavaScript

    Варианты переадресации на JavaScript чаще реализуются с использованием функции setTimeout(‘функция’, задержка).

    Например, автоматически сделать Click на кнопке «Submit» формы «searchform» через 0.1 сек после загрузки кода:

    setTimeout(‘document.forms[«searchform»].Submit.click()’, 100);

    На кнопку «Submit» можно повесить любое действие, например, открыть новый url в этом окне. Кстати такое редиректы чаще встречаются при организации Дорвеев (DorWay) — браузер Пользователя будет переадресован на другую страницу, а поисковый робот, который «не понимает» JavaScript, будет индексировать эту страницу, недоступную пользователю. На ней дорвейщики размещают текст, напичканный «нужными» ключевыми словами.

    Чтобы просто переадресовать на другую страницу можно вставить после один из вариантов кода на JavaScript:

    • location=»http://www.newdomain.com»;
    • document.location.href=»http://www.newdomain.com»;
    • window.location.reload(«http://www.newdomain.com»);
    • document.location.replace(«http://www.newdomain.com»);

    В последнем случае уже нельзя будет вернуться на страницу выполнившую переадресацию, так как ее адрес стирается из history, что нередко и нужною. Если нужна задержка по времени, можно оформить location=»http://www.newdomain.com»; в виде функции и вставить ее в setTimeout(‘функция()’, задержка_в_мсек); Редирект на JavaScrupt не является 301 редиректом и не передаст PR страницы, не сможет обеспечить ее склейку.

Отметим дополнительно некоторые особенности редиректов:

  • Методы редиректа с .htaccess работают только на Linux серверах, имеющих Apache с включенным модулем Mod-Rewrite.
  • Использование .htaccess создает дополнительную нагрузку на сервер Apache, более эффективно прописывать те же команды в его конфигурационном файле hpptd.conf, но, как правило, к нему нет доступа у вебмастера.
  • 301 редирект, позволяет сберечь трафик и передать PR страницы для поисковых систем (для Google точно).
  • процесс склейки и передачи PR занимает длительное времени — до нескольких месяцев и также зависит от поисковой системы, поэтому не удаляйте старую страницу или сайт, пока не произойдет окончательный перенос.
  • некоторые поисковые системы требуют для склейки сайтов дополнительных настроек, например, для Яндекса нужно дополнительно прописывать robots.txt

Заключение. Безопасный способ редиректа старых страниц на новые или старого сайта на новый адрес, с сохранением позиций в поисковых системах, заключается в использование 301 редиректа, который также позволит вам передать старый Page Rank страницы на новый сайт.

Более подробно про mod_rewrite можно прочитать на:
http://www.engelschall.com/pw/apache/rewriteguide/
http://www.apache.org./docs/mod/mod_rewrite.html

Проверить корректность редиректа и других возвращаемых заголовков, можно, например, здесь:
http://www.rexswain.com/httpview.html

Техническая оптимизация сайта, чек-лист

Если дизайн сайта и его наполнение можно хоть как-то оценить, то узнать, насколько сайт технически оптимизирован – уже для многих составляет большие трудности. А ведь от этого напрямую зависит корректная работа ресурса и видимость его в поисковых системах.

Скорость загрузки каждой страницы сайта в пределах от 2 до 5 секунд
Скорость загрузки учитывается поисковыми системами при ранжировании сайтов. Также скорость важна и для самих пользователей – не каждый станет ждать даже 10 секунд, чтобы посмотреть ваш сайт. Проверить этот параметр у своего сайта можно с помощью бесплатного онлайн сервиса от Google https://developers.google.com/speed/pagespeed/insights. Сервис еще хорош тем, что предлагает конкретные советы по улучшению этого показателя.

Ресурс корректно работает на всех платформах (планшетник, смартфон, ноутбук и др.)
Более 40% пользователей Интернета заходят на сайты с различных устройств (с телефонов, ipad, планшетов и даже с телевизоров) и с каждым днем цифра эта только растет. Протестируйте свой сайт на разных платформах. Проверьте, что сайт корректно работает как с ipad, так и с любого смартфона. Обязательно протестируйте всё: от внешнего вида до оформления заказа.

На сайте использована семантическая разметка Schema.org
Все больше и больше завоевывает популярность разметка Schema.org и постепенно ее наличие становится показателем хорошего сайта. Такая разметка помогает поисковым системам считывать информацию с сайта и корректно представлять информацию о сайте в результатах поисковой выдачи. Подробнее о семантической разметке можно прочитать на сайте schema.org.

Сайт стабильно работает
Как бы это банально ни звучало, не все сайты стабильно работают. Проверить стабильность работы поможет, например, Яндекс.метрика, раздел Мониторинг-Результаты проверки. Покажет, когда сайт был недоступен и по какой причине.

Наличие карты сайта, sitemap
Правильно составленная карта сайта помогает пользователю легко найти нужную ему информацию. А поисковые роботы чаще посещают такие сайты и лучше их индексируют. Проверьте, что в файле Robots.txt указан путь к вашей карте.

Настроен 301 редирект с www на без www
У многих даже опытных вебмастеров до сих пор не настроен 301-редирект с www на без www (или наоборот) сайта. Из-за этого выдача может формироваться некорректно. Редирект 301 позволяет склеить адреса сайта, при этом все пользователи и даже роботы поисковиков попадают сразу на главный домен. Показатели тИЦ, PR и другие данные также передаются главному домену.В файле Robots.txt в директиве Host обязательно должно быть в данном случае указано главное зеркало сайта.

Большинство пунктов отметили? Значит, основные технические моменты по сайту учтены.
Оставшиеся проблемные места лучше доработать.
Если будут сложности – пишите, возможно, мы сможем вам в этом помочь.

Что изменить в вашей контекстной рекламе, чтобы стало больше покупателей?

9 идей для рекламного заголовка

Клод Хопкинс, известный американский рекламист, как-то сказал: «Мы выбираем то, что хотим прочитать, по заголовкам». И это действительно так. От того, насколько будет привлекательным заголовок, зависит, станут читать ваш текст или нет.
Несколько идей работающих заголовков, проверенных нами на практике.

Идея 1. Заголовок в форме интригующего вопроса
Ничто не привлекает большего внимания, чем интрига в вопросе. Примеры таких вопросов: «Какой кофе считается лучшим в Бразилии?», «Что принимает от зубной боли стоматолог?», «Какой автомобиль считается самым дорогим в мире?», «Почему взрослые дикие кошки не умеют мяукать?»

Идея 2. Заголовок, содержащий причины
Озвучивая причины, Вы сразу говорите о преимуществах сотрудничества с Вами. «10 причин, почему поломоечные машины Кarcher считаются лучшими в Европе», «5 самых непростительных ошибок вебмастера», «30 важных советов молодой
мамочке», «9 признаков беременности».

Идея 3. Заголовок, ориентированный на потенциальных клиентов
Не ходите вокруг и около – обратитесь к целевой аудитории: «Родители, будьте аккуратны», «Специальное предложение для курящих», «Беременным читать обязательно». Лишние уйдут, а потенциальные клиенты обязательно обратят
внимание.

Идея 4. Заголовок, сообщающий факт или новость
Сообщите интересный факт или новость: «Теперь безразборный ремонт двигателя – не сказка», «Мы знаем, как платить за электроэнергию в 2 раза меньше», «Я подрался с соседом. И это здорово».

Идея 5. Обратитесь к проблеме клиента
Определите основную проблему, которую помогает решить ваш товар или услуга, и сыграйте на этом. «Болит спина?», «Не знаете, где купить дрель ночью?», «Нужны дешевые парики из натурального волоса?», «Высокое давление?», «Сложности со сдачей налоговой отчетности?».

Идея 6. Запретите читать Ваш текст.
Как только человеку что-то запрещают, первая мысль, которая возникает – сделать все наоборот. Примеры таких заголовков: «Беременным не читать!», «Если вы впечатлительны – не читайте текст дальше, он может шокировать», «Внимание! Следующие 3 абзаца предназначены только для мужчин!».

Идея 7. Используйте волшебные слова
Добавьте в заголовки волшебные слова «бесплатно», «выгодное предложение», «вся правда о…», «представьте,…», «все знают, что..» и другие. Великие копирайтеры советуют включать эти слова в заголовки для увеличения эффективности.

Идея 8. Придумайте провокацию
Известный копирайтер Дэвид Огилви использовал этот прием для своего любимого заголовка: «Пришлите нам доллар, и мы вылечим Ваш геморрой. Или оставайтесь со своим долларом и геморроем».

Еще несколько примеров провокационных заголовков: «Помогите, меня считают идиотом», «Всего 1 минута наедине с ним кардинально изменила мою жизнь».

Идея 9. Балансируйте на грани
Все необычное и экстраординарное, как правило, очень сильно привлекает к себе внимание. Попробуйте использовать юмор в заголовках, необычные сочетания слов, непривычные ассоциации: «Сдаются копирайтеры в аренду, дорого», «Volkswagen Touareg, 2001 г.в. ищет папу», «Вы хотели бы почувствовать эффект белой обезьяны?».

Нужно быть осторожным и тщательно тестировать подобные заголовки – будут они работать или нет.
И небольшой совет напоследок: цель заголовка в том, чтобы начали читать Ваш текст. Концентрируйтесь на этом при создании заголовка и не забывайте тестировать разные варианты.

75 вопросов и ответов по Google

Пост был написана под впечатлением от статьи Seo2z-ав которой он умудрился ответить более чем на 200 вопросов по SEO.

Мануал получился просто отличным и будет актуален еще очень и очень долго. Как я раньше до этого не додумался?

Вопросов было задано достаточно много. Старался отвечать развернуто, но в то де самое время, не лить воду, которая иногда сильно раздражает. Нашел или нет золотую середину — судить вам. Начну с краткого содержания и перечисления вопросов.

СОДЕРЖАНИЕ:
Ранжирование в Google.
Различия в продвижении в Google и Яндекс.
Внутренняя оптимизация под Google.
Общие вопросы о продвижении в Google.
Фильтры Google.
Вопросы о PR (Google PageRank).

РАНЖИРОВАНИЕ В GOOGLE.
1). Основные факторы, которые влияют на ранжирование в Google, и описание каждого из них.
2). Внешние факторы, влияющие на ранжирование.
3). Внутренние факторы, влияющие на ранжирование.
4). Поведенческие факторы, влияющие на ранжирование.
5). Зачем ПС вообще ввели поведенческие/пользовательские факторы ранжирования?
6). Можно ли улучшить (накрутить) пользовательские (поведенческие) факторы для улучшения позиций самостоятельно?
7). Приведите пример пересечения внешних и поведенческих факторов.
8). Какова общая значимость поведенческих факторов, если говорить конкретно о ПС Google?
9). Как влияют внешние (исходящие) ссылки с сайта на ранжирование его в Google? Только отрицательно?

РАЗЛИЧИЯ В ПРОДВИЖЕНИИ В GOOGLE И ЯНДЕКС.

ВНУТРЕННЯЯ ОПТИМИЗАЦИЯ ПОД GOOGLE.
10) Правильное заполнение и значение Title.
11). Влияние тегов H, Strong.
12). Оптимальное количество ключевых слов на странице.
13). Влияние тега description.
14). Копипаст и Google — совместимо или нет?
15). Уникальность шаблона — как влияет на ранжирование?
16). Как влияет на ранжирование в Google уникальность картинок?
17). Как влияет на ранжирование в Google наличие «плохих» слов (мат и т.д.)?
18). Можно ли переборщить с внутренней перелинковкой (мы все знаем, что Google ее очень любит, но где предел)?
19). Планирую удалить старые страницы с некачественным текстом, который плохо ранжировался, однако мне посоветовали оставить страницы, но изменить или полностью поменять на таких страницах контент. Как поступить?
20). Скорость загрузки страницы влияет на ранжирование в Google?
21). У меня сайт на WP. Нашла плагин Hyper Cache — стоит ли его использовать?
22). Влияние надежности сервера/хостинга?
23). Я прописал в robots.txt правильное зеркало без www, но Google все равно выдает некоторые запросы с www.
24). Для Яндекса существует тег noindex, чтобы скрывать любую информацию от Яндекса. В Google же присутствует тег nofollow, который используется только для ссылок. Но на сайте могут быть партнерские программы, с которых могут на каждой странице сайта оставаться нетематические слова, в моем случае это слово «закачек». Слово так часто используется, что Google его считает одним из основных ключевых слов. Тему поднимал уже на форуме, но никто не может найти решения. Вот, надеюсь на вас.
25). Можно ли продвигать сайт с картинками?
26). Один сайт постоянно ворует мой уникальный авторский контент. Могу ли я отправить в Google жалобу, и если могу, то куда?
27). Имеет ли значение CMS с продвигаемого сайта? И если да, то какие лучше выбрать?
28). Сайт №1 имеет 50 страниц, а сайт №2 — 5000 страниц. Будет ли иметь сайт №2 какое-либо преимущество в глазах Google?
29). Подскажите оптимальное количество символов на среднестатистической странице.

ОБЩИЕ ВОПРОСЫ О ПРОДВИЖЕНИИ В GOOGLE.
30). Стоит ли продвигать сайты в Google? Либо продвигать их в Яндексе?
31). Имеет ли значение доменная зона для продвижения!?
32). Есть ли у Google понятие геозависимый и геонезависимый ресурс (Россия)?
33). Влияет ли на продвижение сайта IP хостинга? Например, IP хостера российский, а я хочу продвигать сайт во Франции/Украине/Америке?
34). Помогает при продвижении в регионе Украина использование ключей регионов, например: Украина, название городов, название областей, районов?
35). Как указать Google подходящий мне регион?
36). Как ускорить индексацию страниц?
37). Как рассчитать сроки продвижения под Google коммерческих (да и обычных) НЧ, СЧ и ВЧ запросов?
38). Как узнать возможное количество переходов?
39). Как определить уровень конкуренции в Google, хотя бы приблизительно?

ПОКУПКА ССЫЛОК ПОД GOOGLE.
40). Влияет ли при продвижении в Google схожесть тематик сайтов, при продвижении ссылками?
41). Я купил несколько ссылок. Когда они начинают работать и когда они начинают работать в полную силу?
42) Учитывает ли Google динамику прироста ссылок?
43). Есть ли разница, с каких страниц покупать ссылки для Google (главная, уровень 2, уровень 3 и так далее)?
44). Полубомж, напиши что-нибудь интересное про покупку ссылок.
45). Слышал, что некоторые покупают ссылки, ведущие на карту сайта (xml/ html), дабы улучшить и ускорить индексацию. Это и правда работает?
46). Как находить доноров для размещения ссылок на свой сайт?
47). Какое должно быть прямое/непрямое вхождение ключа в анкор?
48). Лучше продвигать один запрос или несколько?
49). Ссылки со страниц PR=0 стоят в несколько раз дешевле, чем PR=1 PR=2 PR=3 и т.д. Неужели для продвижения в Google нужно покупать дорогие PR-стые ссылки?
50). Как стоит продвигать молодой сайт? Сайту, допустим, 1 месяц. Запросов 60 тысяч в месяц. Какие ссылки покупать? Как быстрее достичь результата?
51). Покупать или не покупать ссылки с сайтов, имеющих доменное имя 3-го уровня?
52). Как подвигать сайт, например, в Казахстане и какие ссылки необходимо покупать для продвижения?

НЕМНОГО О ФИЛЬТРАХ GOOGLE.
53). Как может сочетаться «Песочница» и «Бонус новичка», ведь они взаимоисключающие? Google же не может правой рукой занижать, а левой повышать в поиске новые сайты?
54). Что такое Supplemental, или основная и дополнительная выдача?
55). Как вывести страницы из Supplemental?
56). Как определить, какие страницы находятся в Supplemental?
57). Как узнать, попал сайт под фильтр или нет?
58). Если попал под фильтры Google. Методы его вывода.
59). Среднее время выхода из-под фильтра.
60). Можно ли попасть под фильтр из-за «сквозняков» и как из-под него выйти?
61). Есть ли какие-нибудь новые фильтры Google?

ВОПРОСЫ О PR (GOOGLE PageRank).
62). Волнует только одно — могут ли ссылки поднять PR?
63). Правда ли, что PR можно получить без внешних ссылок, и какие это будут значения?
64). Действенные способы увеличения PR страницы.
65). За счет каких факторов падает PR страницы?
66). Продавцы так называемых «трастовых баз» указывают напротив каждого из них их PR. Получается — купив такую базу, я получу 100 ссылок с общим PR ~ 400?
67). Хочу посмотреть PR всех страниц сайта, но не хочу вводить их руками по одной штуке.
68). Кстати, еще очень хотелось бы узнать, каким образом рассчитывается PR?
69). Какое значение при ранжировании имеет PageRank в наши дни?
70). ТИЦ Яндекса — это то же самое, что PR у Google?
71). PageRank как фактор ранжирования использует только Google?
72). Продавал ссылки, и Google обрезал PR с PR=4 до PR=0. Теперь сайт перестанет быть трастовым и позиции понизятся?
73). Промежутки между значениями PR от 1 до 10 имеют равную длину? Формулируя вопрос по-другому: одинаковое ли нужно количество ссылок (условно равных по качеству), чтобы преодолеть путь между PR=2 и PR=3, и путь между PR=8 и PR=9?
74). Влияют ли исходящие ссылки с моего сайта на траст и авторитетность сайта в глазах Google?
75). Теряется ли PR, если ссылаться на другие ресурсы?

————————————————————————————-

РАНЖИРОВАНИЕ В GOOGLE

1). Основные факторы, которые влияют на ранжирование в Google, и описание каждого из них.
Давайте сразу разберемся — что такое ранжирование в поисковых системах (ПС). У любой ПС есть своя собственная база сайтов (страничек, документов). Когда пользователь что-то ищет, ПС выдает ему наиболее подходящие к данному конкретному запросу результаты. Причем выстраивает их в определенном порядке. От наиболее ревалентного (подходящего, соответствующего, адекватного) к наименее ревалентному. Это и называется ранжированием, или выстраиванием списка в порядке ревалентности.

Факторы ранжирования в ПС Google схожи с факторами ранжирования других популярных ПС. Расписывать их можно невероятно долго, но я и не собираюсь (и, кстати, чтобы точно знать абсолютно все факторы, нужно как минимум работать в Google). Помните, каждый из них может состоять еще из десятка более мелких факторов, а те, в свою очередь, из еще более мелких. Просто грубо разделю их на 3 основных группы: внешние, внутренние и пользовательские (поведенческие). Наиболее ревалентная страница имеет большую сумму всех трех факторов. А мы помним из школьного курса, что сумма чисел может быть как положительной, так и отрицательной. Лишь сумма отрицательных чисел всегдаотрицательна (хотя по математике у меня в школе была твердая тройка).

После того как робот Google ознакомился с вашим сайтом (проиндексировал), он должен понять, что ваш сайт представляет из себя, и насколько он ревалентен тем или иным запросам. Принципы ранжирования сайта вступают в силу после ознакомления с ним. А затем меняются в ту или иную сторону в зависимости от того, как меняются внешние, внутренние и пользовательские (поведенческие) факторы относительно вашего Интернет-ресурса. Проще говоря — машина делает расчеты, а их итогом будет место, которое сайт — либо страница — будет занимать в поиске.

2). Внешние факторы, влияющие на ранжирование.
Это несложно. Внешний = наружный = вне чего-либо. В данном случае — вне сайта. В большинстве случаев внешними факторами для вашего сайта или страницы называют ссылки (ссылочное, ссылочная масса), которые ведут на ваш сайт или страницу (сознательно упрощаю). Следуя данной теории — чем больше ссылок имеет конкретная страница, тем важнее эта страница, и тем больший вес она имеет.

Еще в 1996 году основатели Google Ларри Пейдж и Сергей Брин приняли решение, согласно которому внешние факторы являлись приоритетными для алгоритма ранжирования. А основной единицей важности страницы стал PageRank. С течением времени прямое влияние PageRank на ранжирование падало, как и влияние внешних факторов. Но отдельно о PageRank и его влиянии мы поговорим чуть позже.

3). Внутренние факторы, влияющие на ранжирование.
Те факторы, на которые можете влиять только вы. Плотность (процентное соотношение и расположение) ключевых слов — оптимизация конкретной страницы под конкретный запрос. Количество и качество контента. Уровни вложенности страниц. Теги, метатеги и структура сайта. Частота обновления, удобство навигации. Возраст и доменная зона. Количество страниц. Url и Title. Чистота кода. Присутствие или отсутствие скриптов. Тематика сайта. Движок и хостинг. Это вкратце. Подробнее о внутренних факторах — ниже, в специальном разделе.

4). Поведенческие факторы, влияющие на ранжирование.
а). Закладки. Поисковая машина «мыслит» следующим образом. Человек (пользователь) зашел на сайт, сайт ему понравился, показался интересным и полезным, пользователь занес сайт в закладки, чтобы вернуться на него снова. Следовательно, сайт полезен для людей. Следовательно, чем больше пользователей (и в процентном и в количественном отношении) попадают на сайт из своих закладок, тем сайт качественнее. Следовательно, он должен ранжироваться выше.

б). Время, проведенное на сайте. Логично предположить, что если среднее время, которое человек проводит на сайте №1, равняется 5-и минутам, а среднее время, которое человек проводит на сайте №2, равняется 5-и секундам, то сайт №1 более полезен для пользователя. А значит, он должен ранжироваться выше.

в). Количество просмотров страниц на посетителя или соотношение хостов к хитам.

г). Количество переходов с тематических форумов и социальных сетей (как бы по рекомендации).

д). Сниппет. Кликабельность сниппета стоит отнести к пользовательским/поведенческим факторам (и к внутренним тоже). Как правило, ПС подставляет наиболее ревалентный, по ее мнению, участок текста с ключами. Также в качестве сниппета может выводиться description или, если сайт в DMOZ, его описание в этом каталоге.

е). Внешний вид сайта или страницы. При разных разрешениях монитора сайт может выглядеть по-разному. Если пользователи с разрешением 1024*768 проводят достаточное количество времени на сайте и заносят его в закладки, а пользователи с разрешением 640*480 мгновенно покидают его, то это говорит о том, что сайт неудобен для последних. Получается, оптимизирован не до конца, значит, недостаточно хорош для всех пользователей. Хотя я считаю этот фактор крайне малозначимым. Возможно, его значимость вырастет, предсказать не берусь.

Описанные поведенческие факторы имеют множество нюансов. Возьмем подпункт «б» — время, проведенное на сайте. Машина должна понимать — далеко не все сайты или страницы можно оценивать по этому критерию. Приведу пример. Человек ищет цены на туристические туры и находит их за несколько секунд, так как вся информация расположена удобно. Время, проведенное на странице, будет мизерным (увидел цены, телефон и пошел звонить), но такую страницу следует признать качественной и удобной.

Возьмем подпункт «в». Количество просмотров страниц одним пользователем может свидетельствовать о полезности сайта. Но может и не свидетельствовать. Что если человек нашел всю нужную ему информацию на первой же странице? Информация представлена четко и емко и на то, чтобы получить желаемое, ему не нужно смотреть другие страницы? Это ведь, наоборот, говорит об удобстве.

С другой стороны, если пользователь просмотрел 10 страниц одного сайта, это может говорить о том, что бедолага просто пытался найти нужную информацию, щелкая на все подряд, но так и не нашел, несмотря на большое количество просмотров.

Еще один пример. Предположим, человек что-то искал и в процессе поиска посетил 6 сайтов. Считается, что ПС будет считать наиболее важными первый и последний клик (относится в равной степени и к Яндексу и к Google). В первый раз пользователь кликнул по самому информативному и привлекательному сниппету, а на шестом сайте нашел всю интересующую его информацию и прекратил поиск. Но это в теории. А если первый клик состоялся лишь по причине того, что сайт был на первой позиции (заслуженно или незаслуженно), а шестой стал последним только по той причине, что пользователь элементарно устал и ушел искать куда-нибудь в Bing?

Именно поэтому одни факторы ранжирования нельзя рассматривать отдельно от других. Только совокупность таких факторов дает более или менее целостную картину. Конечно, все это в очень и очень упрощенном виде. Кроме того, именно поэтому Google необходимо максимально точно и быстро определять тематику и направленность сайта.

5). Зачем ПС вообще ввели поведенческие/пользовательские факторы ранжирования?
Для улучшения качества поиска, ведь раньше, чтобы занять первые места в «ТОПе», достаточно было лишь купить ссылок больше, чем остальные. У кого денег больше — тот и на первых позициях.

6). Можно ли улучшить (накрутить) пользовательские (поведенческие) факторы для улучшения позиций самостоятельно?
Первое, что приходит в голову — http://userator.ru/ Отзывы самые разные, от восторженных до негативных.

7). Приведите пример пересечения внешних и поведенческих факторов.
Постараюсь ответить коротко и попроще. Для манипулирования внешними факторами мы покупаем ссылки, которые оказывают видимый эффект на конечные результаты ранжирования. Однако зачастую на эти ссылки никто не кликает (да они и не для этого, строго говоря). Есть мнение, согласно которому красиво оформленные продажные ссылки, на которые кликают пользователи, могут принести бонус в виде улучшения поведенческих характеристик. К примеру, биржа TrustLink. Ссылки, которые они выкупают, похожи на блоки контекстной рекламы, тем самым, оптимизатор не только увеличивает ссылочную массу, но и получает целевых посетителей, а значит, улучшаются и поведенческие факторы. Я озвучил теоретическую составляющую. Если интересно мое мнение, то я не придаю этому фактору какого-либо особого значения. Да и с биржей этой не работал

8). Какова общая значимость поведенческих факторов, если говорить конкретно о ПС Google?
На данный момент — между низкой и средней значимостью. Не приоритетно. Если на глазок, ~ 10%-15%.

9). Как влияют внешние (исходящие) ссылки с сайта на ранжирование его в Google? Только отрицательно?
Наверное, удивлю. Влиять-то влияют, но не все так просто. Они могут влиять как положительно, так и отрицательно. Большинство вебмастеров всегда заявляют — внешние ссылки с сайта могут влиятьтолько отрицательно. Это аргумент школоты (школоты — в плане развития мозга, а не в плане возраста), готовой убить (удавиться, изойти слюной, схватить инфаркт) за одну-единственную бесплатную ссылочку со своего драгоценного УГ детища (а потом удивляются — почему все такие плохие и никто не ставит ссылки на мои сайты?). В качестве аргументов указываются: перетекание веса, перетекание PR, перетекание какого-то мнимого траста и т.д. Короче, все, что угодно, кроме собственного жлобства и жадности.

Это не совсем так. На самом деле, внешние ссылки — это инструмент, который можно использовать для своей пользы. «Хорошие» внешние ссылки (ведущие на трастовые, белые ресурсы) в ряде случаевповышают сайт или страницы при ранжировании. Почему? Потому что косвенно это говорит, что вы не жадный, на странице, скорее всего, нет продажных ссылок. К «хорошим» ресурсам можно отнестиGoogleВикипедиюЯндекс и т.д. Возьмем эту статью. На ней более 20-и внешних ссылок, открытых для индексации Google. И ничего плохого мне за это не будет. А жадная школота так и останется жадной (и бедной) школотой.

Могу порекомендовать небольшую, но интересную и познавательную статью об изменениях ранжирования в Google на протяжении нескольких лет:

Как изменялся алгоритм ранжирования сайтов в Google.
Обратите внимание на картинку с графиками. Весьма информативно.

————————————————————————————-

РАЗЛИЧИЯ В ПРОДВИЖЕНИИ В GOOGLE И ЯНДЕКС

а). В настоящее время Яндекс все больше и больше придает значение поведенческим факторам, а Google — по-прежнему внешним. По крайней мере, Яндекс так утверждает и, видимо, действительно к этому стремится. Получится ли — покажет только время.

б). В большинстве случаев Google намного быстрее индексирует новые страницы. Не всегда, конечно, но обычно разница может составлять нескольких дней. Ссылочное в таких условиях быстрее срабатывает в Google, где уже через 3-5-10 дней можно видеть изменения позиций (прямо пропорционально количеству и качеству купленных ссылок).

в). На одной странице поиска, скажем, в ТОП-10, Google может показывать 2,3,4 результата с одного сайта, а Яндекс только 1. Почитайте про аффилированные сайты.

г). Яндекс гораздо чаще и радикальнее меняет свои алгоритмы. А Google, если и меняет, то это происходит мягче и реже. Естественно, приспосабливаться каждый раз к новым алгоритмам тяжелее, чем работать по проверенным, действенным методам.

д). Яндекс более человечен. Если возникает проблема, можно отписать в службу поддержки Яндекса и, если вопрос поставлен правильно (вспоминаем про школоту), то вам быстро придет ответ с рекомендациями.

е). При закупке ссылок в Яндексе нужно тщательнее разбавлять ключевые слова (чередовать точные вхождения с разбавленными, склонять ключи). Google не так привередлив. И к большему проценту прямых вхождений ключа в анкоре относится терпимее, но и здесь важно знать меру.

ж). Плотность ключевых слов в %. Большинство оптимизаторов, проводивших эксперименты, сходятся во мнении, что плотность ключевых слов в тексте для Яндекса должна составлять ~ 5%, а для текстов, оптимизированных под Google, ~ 10%. На самом деле, это не столь существенный фактор: 4%, 6% или 12%. Высчитывать не нужно. Важнее естественность, а естественность — это равномерное распределение ключей.

з). Обычно Google предпочитает большие тексты, а Яндекс — поменьше. Подробнее о количестве символов и размерах текста — вопрос №29.

и). В Рунете сложилось мнение, что коммерческие запросы лучше продвигать в Яндексе. В плане финансовой отдачи.

к). Google, как правило, индексирует все, что только можно: служебные страницы, теги и т.д. И далеко не всегда обращает внимание на запрет в robots.txt. Такой вот непослушный.
Рекомендую. Все о файле robots.txt по-русски.

л). Любая ПС, будь то Google или Яндекс, любит уникальные тексты. Ведь дубли только засоряют выдачу. Да, частенько копипаст живет, а порой — живет годами. Но при прочих равных уникальный текст будет ранжироваться выше. Google борется с копипастом, опуская его в выдаче, а Яндекс — просто исключает. То есть, вначале индексирует, а затем «выплевывает». Вот и вся разница. Яндекс строже, Google лояльнее. Смотрите вопрос №14.

м). Вопрос по картинкам. Влияние title и alt.
Рекомендую. Роль атрибутов ALT и TITLE у изображений.

н). Google придает большое значение внутренним ссылкам. Говоря другими словами, внутренняя перелинковка важнее в Google, чем в Яндексе. Насколько важнее в процентном соотношении, не проверял. Если кто-то проверял — отпишите.

о). Оптимальная и максимальная длина Title у Google и Яндекса. Google — 60-70 символов. Или первые 12-14 слов. По Яндексу можно прочесть здесь:
Классический эксперимент по определению длины тега Title в Яндексе.
SEO-эксперимент с проверкой длины title закончился.

п). Title страницы более важен при продвижении под Google. Для Яндекса Title менее важен, поэтому иногда Яндекс считает более ревалентной не ту страницу, которую вы собираетесь продвигать, несмотря на точное вхождение ключа (случалось неоднократно).

р). Для продвижения под Google часто используют «сквозняки» (ссылка/и на ваш сайт со всех страниц сайта-донора). Яндекс не придает «сквознякам» какого-либо существенного значения.

с). Неоднократно замечено. Google отдает предпочтение тем сайтам, которые чаще обновляются. Владельцы которых чаще добавляют новый контент. Яндекс придает этому фактору меньшее значение. Исходя из этого, можно сделать вывод — Яндекс больше любит статические сайты, а Google — динамические (в который уже раз упрощаю).

т). По поводу чистоты выдачи. Лично я ищу и в Google, и в Яндексе. По одним запросам более ревалентные результаты выдает один поисковик, а по другим — второй. Как-то наткнулся на одну занятную статейку небезызвестного Арбайтена. Понимаю, личность противоречивая, так же как и отношение к этому человеку. Одни называют его отличным дорвещиком, тогда как другие — редкостным кретином (я отношусь нейтрально, так как общих дел с ним не вел). Так вот, Арбайтен утверждает — Яндекс сумел победить дорвеи и улучшить чистоту выдачи, в то время как Google одолеть их не смог.
Рекомендую. Яндекс и Гугл – чьи алгоритмы сильней. (и комментарии тоже). Выводы делайте сами.

у). О Геозависимости. Геозависимость, геозависимые и геонезависимые запросы, региональный поиск в Google и Яндексе — это не совсем одно и то же. Яндекс подошел к этому вопросу серьезнее и тщательнее. А у Google геозависимость, скорее, частичная. В первую очередь — по странам, а потом уже по регионам (городам), и то далеко не всегда весь ТОП-10 (понятно, что в ТОП Google.com пробиться в разы труднее, чем в Google.ru). Подробнее смотрите вопрос №32.

ф). Инструменты подбора ключевых слов: в Яндексе это Wordstat, а в Google — Adwords. Первый проще, второй сложнее, но интереснее.
Рекомендую. Подбор эффективных запросов в Google AdWords.

х). Яндекс немного лучше знает русский язык (как ни странно).

————————————————————————————-

ВНУТРЕННЯЯ ОПТИМИЗАЦИЯ ПОД GOOGLE

10) Правильное заполнение и значение Title.
Один из наиболее значимых факторов ранжирования. О рекомендуемой длине Title смотрите чуть выше. Одинаковый Title на разных страницах одного и того же сайта является одним из факторов, способных негативно отразиться на ранжировании.

11). Влияние тегов H, Strong.
Сейчас, как и раньше, H и Strong являются одними из самых значимых факторов внутренней оптимизации. Что касается извечного вопроса — что главнее: «bold» или «strong», — то отвечу так: для меня разницы нет, хотя большинство проголосуют за бOльшую значимость «strong». По поводу возможной конструкции «b strong ключ /strong /b» — это явный переспам. Ничего хорошего из этого не выйдет, а вот получить санкции — легко.

12). Оптимальное количество ключевых слов на странице.
Некоторые путают понятия «количество» и «плотность» (процентное соотношение) ключевых слов на странице. По процентному соотношению — точного рецепта нет. Если хотите знать приблизительный процент, то смотрите пункт «Ж», в разделе «Различия в продвижении в Google и Яндекс».

Насчет общего количества ключей на отдельно взятой странице. Слышал разные мнения (2-3 ключа, 10-15 ключей), но взгляните на сайт ниже.

Myjane.ru/diets/. Страница находится в ТОП-10 Google.ru по такому запросы как «Диета» (9 место). Запрос очень даже неплохой. А знаете, сколько раз ключевик «диета» употребляется на одной странице? 274 раза (!). Смотрел через SeoQuake. Вот и верьте после этого статистике.

13). Влияние тега description.
Description никак не используется при ранжировании. Просто никак. Вообще, скорее всего, тот факт, что в качестве сниппета ПС выводит description, может говорить о некачественно проведенной внутренней оптимизации. Т.е., если вебмастер хотел видеть в сниппете одно, а получил description, значит, не смог должным образом провести внутреннюю оптимизацию и заточить страницу под нужный запрос (конечно, это утверждение верно не всегда). В то же самое время, сам Google утверждает, что метатег дает поисковой системе краткое описание содержимого страницы. Однако этим фактором слишком легко манипулировать для того, чтобы воспринимать его всерьез.

Одинаковые метатеги description на разных страницах одного и того же сайта являются одним из факторов, способных негативно отразиться на ранжировании.

14). Копипаст и Google — совместимо или нет?
В разделе «Различия в продвижении в Google и Яндекс» (пункт «М») я уже писал, что Google терпимее относится к копипасту и обычно не выкидывает его из поиска, а опускает на самое дно. С другой стороны, Google понимает, что сайты бывают разные. К примеру, новостные порталы, онлайн-кинотеатры или варезники — где уникальный текст величайшая редкость — прочно сидят в выдаче. Однако мое мнение однозначно — уникальный, подробный, интересный текст всегда лучше, чем копипаст. Экспериментировал с этими вопросами неоднократно.

Кстати, и Мэтт Каттс в конце января 2011 года заявил о том, что Google намерен всерьез бороться с неуникальным контентом. Если верить его словам, сайты с уникальным контентом получат дополнительные бонусы и доверие поисковика, нежели сайты с дублированным контентом. И это не только слова. Обновленный алгоритм уже затронул около 2% запросов, (очень много, учитывая общую базу Google).
Рекомендую. Ссылка на первоисточник.

15). Уникальность шаблона — как влияет на ранжирование?
Давайте подумаем. Уникальный шаблон, как правило, не заказывают для сайтов-однодневок (накладно выходит и трудоемко). Уникальный шаблон обычно делают для сайтов, которые будут долго жить — качественных сайтов. Из собственного опыта могу сказать — для молодого сайта уникальный шаблон это большой плюс, таким образом, вы как будто говорите, что делаете сайт надолго и для людей.

Вердикт. Уникальность шаблона имеет низкое влияние на ранжирование сайта. Для новых Интернет-ресурсов положительное влияние более заметно, а для средних и возрастных — практически нет (на первый план выходят другие факторы).

16). Как влияет на ранжирование в Google уникальность картинок?
Если и влияет, то не особо.

17). Как влияет на ранжирование в Google наличие «плохих» слов (мат и т.д.)?
Повторюсь. Если и влияет, то не особо. Я бы не стал использовать такой набор слов только из уважения к пользователям, среди которых могут быть дети. Ругайтесь дома, когда этого никто не слышит, а не в публичных местах.

18). Можно ли переборщить с внутренней перелинковкой (мы все знаем, что Google ее очень любит, но где предел)?
Крупные, старые, солидные и постоянно обновляющиеся сайты не могут состоять из блока меню, в котором всего 3-4 ссылки на внутренние страницы. Это, скорее, недостаток. Тут и 200 внутренних ссылок в меню не всегда хватает. Google относится к этому нормально.

Что касается ссылок, оставляемых в новых статьях на старые (хаотично или упорядоченно), то что в этом плохого? Вставляйте их грамотно, по смыслу, по тексту. Какой вред могут нанести 3-4 внутренние ссылки, разбросанные по тексту (или не разбросанные) для удобства того же самого пользователя?

19). Планирую удалить старые страницы с некачественным текстом, который плохо ранжировался, однако мне посоветовали оставить страницы, но изменить или полностью поменять на таких страницах контент. Как поступить?
Вам посоветовали правильно. Поменяйте текст на более качественный, с вашей точки зрения (и с точки зрения Google). Ведь бытует мнение, которое, несомненно, имеет право на жизнь — старые проиндексированные страницы двигать легче, чем недавно созданные.

20). Скорость загрузки страницы влияет на ранжирование в Google?
Скорость загрузки страницы имеет большое значение. И напрямую влияет на ранжирование. Из индекса не выкинет, но несколько позиций в выдаче можно легко потерять (зависит от остальных параметров). В принципе, мы знали это и раньше, но официально представители поисковика объявили об этом только в апреле 2010 года. С другой стороны, есть сайты, в которых страницы очень долго грузятся но, тем не менее, плотно сидят на высоких позициях по довольно конкурентным запросам. Здесь уже играет роль возраст, авторитет и внешние факторы.
Рекомендую. Краткое руководство по Google Page Speed.

21). У меня сайт на WP. Нашла плагин Hyper Cache — стоит ли его использовать?
Много раз слышал лестные отзывы об этом плагине, тем более что WP чувствителен к наплыву посетителей, и его скорость нагрузки на сервер может заметно увеличиться. Принцип работы плагина Hyper Cache очень прост. Нужная страница кэшируется один раз, при следующем обращении к ней ее не нужно генерировать заново, как результат — снижается нагрузка на сервер, а значит, ускоряется работа сайта (это если в двух словах). Желаемый результат достигнут.

22). Влияние надежности сервера/хостинга?
На этот вопрос можно ответить совершенно однозначно. Если сайт часто недоступен, значит ему не место в ТОПе.

24). Для Яндекса существует тег noindex, чтобы скрывать любую информацию от Яндекса. В Google же присутствует тег nofollow, который используется только для ссылок. Но на сайте могут быть партнерские программы, с которых могут на каждой странице сайта оставаться нетематические слова, в моем случае это слово «закачек». Слово так часто используется, что Google его считает одним из основных ключевых слов. Тему поднимал уже на форуме, но никто не может найти решения. Вот, надеюсь на вас.
Близко с таким не сталкивался, но нашел интересную статью, надеюсь, поможет:
Спрятать текст от Google.
Немного не в тему, но все же:
В тысяный раз прячем внешнее.
Как скрыть ссылки от Гугл.

25). Оптимизация картинок?
Обязательно прописывайте «Alt» и ревалентный ему текст возле изображения. Робот ориентируется при ранжировании картинок именно на текст в «Alt» и текст, окружающий картинку.

26). Один сайт постоянно ворует мой уникальный авторский контент. Могу ли я отправить в Google жалобу, и если могу, то куда?
Попробуйте написать сюда:
Сообщить о правовом нарушении.

27). Имеет ли значение CMS с продвигаемого сайта? И если да, то какие лучше выбрать?
Строго говоря, не имеет. Иначе бы все опытные веб-мастера уже давно использовали «самую лучшую» CMS, забив на все остальные. Но без пояснения некоторых нюансов ответ был бы неполным.

а). Каждая CMS заточена под определенные нужды. Одни прекрасно подходят для «варезника», а другие — идеальное решение для Интернет-магазина. Сделав правильный выбор, вы значительно облегчите свою жизнь в будущем. Поэтому CMS важна для тематики вашего ресурса.

б). Если вы читали вопрос №20, то понимаете, что скорость загрузки сайта является довольно значимым фактором ранжирования. Следовательно, и CMS нужно подбирать такую, чтобы со скоростью проблем не возникало. В этом смысле CMS также имеет важное значение.

в). Одни CMS постоянно поддерживаются создателями, все время выпускаются различные плагины/дополнения, облегчающие жизнь веб-мастерам/оптимизаторам/продвиженцам. Другие же, не имеют такой серьезной поддержки. Подумайте об этом и почитайте отзывы, прежде чем остановиться на каком-либо движке.

28). Сайт №1 имеет 50 страниц, а сайт №2 — 5000 страниц. Будет ли иметь сайт №2 какое-либо преимущество в глазах Google?
Строго говоря — нет. Мое мнение — чем больше уникального, интересного, качественного контента, тем лучше (не забываем про НЧ, хотя речь и не об этом). Но, посудите сами, откуда взять на сайт-визитку 5000 страниц? Если это понимаем мы, то понимает и Google. А вот Интернет-энциклопедия с 50-ю страницами — неестественно, непонятно и несолидно.

29). Подскажите оптимальное количество символов на среднестатистической странице.
Если 100 статей имеют по 1000-1200 символов каждая, то это выглядит слишком неестественно. Не по-человечески, если хотите. Пусть на одной странице будет ~ 500 символов, а на другой ~ 3000, это естественно и по-человечески. Придраться не к чему. Опять же, все это сильно зависит от тематики сайта. Интернет-магазин и блог «блондинки» — слишком разные вещи. Кроме того, нельзя отрывать данный показатель от других факторов ранжирования. В блог, прокачанный внешними ссылками, можно писать по паре предложений в пост (без фанатизма), и он будет быстро индексироваться и занимать высокие позиции. Короче говоря — совокупность всех факторов рулит.

И напоследок. За счет внутренней перелинковки, грамотного применения тегов и ключевых слов можно подняться до определенного уровня (СЧ/СК) вообще без материальных затрат. Внешние факторы можно подключить уже позже. Проще говоря — добить ссылочным. Зачем тратить кучу лишних денег на то, чего вполне реально добиться бесплатно?

30). Стоит ли продвигать сайты в Google? Либо продвигать их в Яндексе?
Подумайте. Доля Google в российском поиске (потенциально 140 миллионов человек), по разным оценкам, составляет от 20% до 30%. Это огромные цифры. Кроме того, нельзя сбрасывать со счетов Украину — 60%-70% (потенциально 46 миллионов человек). Казахстан — 50% (потенциально 16 миллионов человек). Беларусь — 55% (потенциально 10 миллионов человек). А также другие страны с большим процентом русскоговорящего населения. Не забывайте и про тех, кто живет за рубежом, а таких немало. Их долю трудно оценить, но пренебрегать ею точно не стоит. Обратите внимание на пункты «Б» «В» «Г» и «Е» в разделе «Различия в продвижении в Google и Яндекс».

31). Имеет ли значение доменная зона для продвижения!?
Да, и значение большое. С другой стороны, все из нас, когда заглядывали в статистику Li, видели переходы с итальянского, немецкого, французского Google. Поэтому веб-ресурс с любым доменным именем может продвинуться. Но доменная зона, вне всякого сомнения, важна. Считаю одним из ключевых факторов.

Несмотря на это, домен ru может прекрасно «сидеть» в украинской выдаче, а домен ua или com.ua — в белорусской или казахстанской. Общеизвестный факт. Правда, чем выше конкуренция, тем будет сложнее.

32). Есть ли у Google понятие геозависимый и геонезависимый ресурс (Россия)?
О том, что Google ищет по странам, я писал в разделе «Различия в продвижении в Google и Яндекс» (пункт «Ф»). В России это google.ru, а в Казахстане — google.kz.

Теперь подробнее. Насколько я помню, в конце 2009 и начале 2010 года выдача по России стала меняться и, в зависимости от города или области пользователя, ему стали показываться местные/региональные сайты в ТОП-10. Не все 10 позиций, а по 3-5-6 штук. При этом поисковик ориентируется на IP пользователя. Осенью прошлого года стало известно — Google будет и дальше работать над региональным поиском (не путать с поиском по странам), и в ближайших планах поисковика расширить его на все города, численность населения которых превышает 100 тысяч жителей. Таких городов в России 164 штуки (от Москвы до Новотроицка), а значит, будет где разгуляться вебмастерам.
Рекомендую. Владимир Офицеров «Качество поиска в Google: задачи и решения».

33). Влияет ли на продвижение сайта IP хостинга? Например, IP хостера российский, а я хочу продвигать сайт во Франции/Украине/Америке?
Вебмастера неоднократно проводили подобные эксперименты. Выводы во всех случаях одинаковые: если IP хостера находится в той же стране, в которой продвигается сайт, то продвигать проще. Однозначно влияет. Для России лучше использовать российский хостинг, а для Украины — украинский. Хотя, если продвигать среднеконкурентные НЧ и СЧ, то на подобное можно закрыть глаза. Важность — между средней и низкой.

34). Помогает при продвижении в регионе Украина использование ключей регионов, например: Украина, название городов, название областей, районов?
Само по себе использование ключей регионов я считаю отличным средством направить пользователя именно туда, куда вы хотите. Продвигать по запросу «работа», даже если Google понимает, какой регион вы имеете в виду, все равно будет сложнее, чем продвигать запрос «работа в Киеве/Донецке/Харькове/Одессе/Севастополе». Налицо экономия денег.

Да и сниппет будет более кликабельным (вспоминаем о поведенческих факторах). Улучшение информативности еще, вроде, никому не мешало.

35). Как указать Google подходящий мне регион?
https://www.google.com/webmasters/tools/home Сайт — конфигурация сайта — настройки — географические цели. Не забывайте, это работает лишь для нейтральных доменов (net/com/biz). А домены ru, de или kz изначально связаны с определенной страной. Кроме этого, смотрите вопросы №32 и №33, №34 и №35.

Если интересует локальный поиск (привязанный к одному из городов), то рекомендую:
Локальный поиск в Google.
Интересный и подробный мануал.

36). Как ускорить индексацию страниц?
Для Google прекрасно работают ссылки с Twitter. Кроме того, на постоянно обновляющемся сайте (хотя бы раз в неделю) робот Google будет «жить» и присутствовать постоянно.

37). Как рассчитать сроки продвижения под Google коммерческих (да и обычных) НЧ, СЧ и ВЧ запросов?
Предположим, что семантическое ядро есть. Внутренняя работа над сайтом завершена. Все страницы оптимизированы под нужные запросы. Как правило, для низкоконкурентных НЧ внутренней оптимизации достаточно. Иногда для выхода в ТОП хватает и нескольких дней. Ведь мы говорим о Goggle, где результат проявляется в разы быстрее.

По среднеконкурентным и среднечастотным запросам (а тем более по ВЧ/ВК) сложнее. В большинстве случаев нужно подталкивать запросы наверх внешними факторами (ссылочным).

Другой немаловажный фактор — метод наращивания ссылочного. Продвигать можно «вечными» ссылками или ссылками, за которые нужно платить ежемесячно. Как правило, в первом случае окупаемость (с поправкой на тематику, уровень конкуренции и количество продвигаемых запросов) составляет от 3-х до 12-и месяцев. Если использовать Sape, то результат достигается быстрее (с поправкой на бюджет), но если перестать платить за ссылки, то продвигаемые запросы резко просядут, иногда даже глубже, чем были в самом начале.

Добавлю, что я бы не стал лезть в ТОП по ВЧ/ВК с сайтом, возраст которого менее года. Подтягивал бы запросы, начиная от менее конкурентных к более конкурентным, увеличивая тем самым общую ссылочную массу. Другими словами — убивая одним выстрелом двух зайцев. А уже через 10-12 месяцев можно попытаться отхватить кусок побольше, опираясь на ранее накопленное ссылочное (не относящееся к продвигаемому вопросу, но относящееся к тому же самому сайту).

Рассчитать примерную стоимость можно с помощью таких сервисов как:
Seobudget.ru.
Budget.webeffector.ru.
Seopult.ru.
Точные сроки продвижения вам не скажет никто. Лишь приблизительные. Собственный опыт рулит однозначно.

38). Как узнать возможное количество переходов?
Практически любой из ссылочных агрегаторов.
Рекомендую. Прогнозирование будущего трафика.

39). Как определить уровень конкуренции в Google, хотя бы приблизительно?
Так или иначе, мы уже касались этого вопроса выше, но если он поставлен именно так, как поставлен, то могу порекомендовать совокупность мер + обсуждение:
Правильно ли я определяю силу конкуренции?

————————————————————————————-

ПОКУПКА ССЫЛОК ПОД GOOGLE

40). Влияет ли при продвижении в Google схожесть тематик сайтов, при продвижении ссылками?
Конечно, влияет, вообще этот фактор один из самых значимых. Уже много раз была доказана действенность тематических ссылок. Если тематику неплохо определяют даже средненькие сервисы, то для Google с его колоссальными мощностями это плевое дело.

41). Я купил несколько ссылок. Когда они начинают работать и когда они начинают работать в полную силу?
Как только Google проиндексирует ссылки (5 часов, 2 дня, неделя), они начинают передавать вес. Приблизительно через 40 дней они начинают работать на полную мощность. Однако бытует мнение (и я его поддерживаю), что с возрастом ссылок (6 месяцев, 1 год, 2 года) передаваемый вес все еще увеличивается, незначительно, но увеличивается. Короче говоря, чем старше ссылка (чем дольше определенная страница на вас ссылается), тем лучше. Но тут надо понимать и другое. Сайт-донор, спустя год, может стать в глазах Google менее авторитетным, а значит, и ссылка будет иметь меньшее значение. Возможна и обратная ситуация.

42) Учитывает ли Google динамику прироста ссылок?
Вы вылезли в ТОП-1 и перестали закупать ссылки. В ТОП-20 мгновенно вы не улетите. Позиции просядут только при ВЧ/ВК запросах. В зависимости от степени конкурентности запроса, закупаться несколькими ссылочками время от времени нужно, но это, скорее, превентивная мера. Не забрасывать продвигаемые запросы надолго. В большинстве случаев скинуть вас с первых мест могут только активизировавшиеся конкуренты, решившие перебить ваши позиции более качественным и количественным ссылочным. Повторюсь, если запрос не сверхконкурентный и если конкуренты не мониторят позиции ежеминутно.

43). Есть ли разница, с каких страниц покупать ссылки для Google (главная, уровень 2, уровень 3 и так далее)?
В основном, это скорость индексации. Чем ближе к главной странице (чем меньше уровень вложения), тем быстрее ссылка будет проиндексирована. Лично для меня не столь важен уровень вложения. Продвигаю в основном «вечными» ссылками и понимаю, что они рано или поздно будут уходить все глубже (не всегда). Считаю более важным возраст ссылки (сколько времени донор на вас ссылается). Смотрите вопрос № 41.

44). Полубомж, напиши что-нибудь интересное про покупку ссылок.
Пока что теория. Читал одно интересное предположение. Если вкратце, то есть прямая связь между количеством посещений сайта и общим весом внешних ссылок.

У вас есть сайт о редком виде крыс, и этот вид никому не интересен. Соответственно и посещалка 10 хостов в сутки. Вы покупаете 5 ссылок с «морд», PR которых равен 8. Будет это естественным? Нет, не будет. Каким бы старым ни был ваш сайт.

А теперь представьте, что вы создаете нечто, наподобие WikiLeaks. Пусть сайту будет месяц или 2 месяца от роду, но количество хостов будет исчисляться сотнями тысяч в сутки. Согласно теории, в данном случае, такому проекту, даже в младенческом возрасте нисколько не навредит огромное количество PR-стых ссылок.

Что я хочу сказать? По всей видимости, существует прямая зависимость между посещаемостью Интернет-ресурса и количеством допустимых трастовых/жирных/авторитетных ссылок, которые будут выглядеть в глазах Goggle естественно. Как использовать этот фактор и как им манипулировать — додумайте сами. Хотя тут и додумывать-то особо нечего.

45). Слышал, что некоторые покупают ссылки, ведущие на карту сайта (xml/ html), дабы улучшить и ускорить индексацию. Это и правда работает?
Нет, не работает. Google и сам все проиндексирует, а такими методами процесс индексации вы не ускорите.

46). Как находить доноров для размещения ссылок на свой сайт?Моя формула. Тематические форумы + РОТАПОСТ + ГГЛ (оба). В первом случае — перекрестный или прямой обмен, во втором и в третьем — покупка. Блогун не использую. Считаю проект Димка перспективнее. Единственное что напрягает — нельзя сразу посмотреть, есть ли донор в ЯК или DMOZ. Однако сам Димок пообещал в скором времени поправить ситуацию.

ЯК и DMOZ в Ротапост
47). Какое должно быть прямое/непрямое вхождение ключа в анкор?
Мнений много. Выскажу свое. Предположим, мы продвигаем «морду» по запросу «Казахстан». Лично я покупаю ~ 40% ссылок с чистым ключом в анкоре («Казахстан»), ~ 30% ссылок с разбавленным ключом («поездка в Казахстан», «Казахстан цены»), и ~ 30% ссылок имеют морфологические вариации чистого ключа и морфологические вариации разбавленного ключа («сайт о Казахстане», «Казахстана», «Казахстанский сайт»). Ссылки с анкором типа «тут», «здесь», «там» не использую, ибо все это предрассудки. Собственная схема еще ни разу не подводила.

48). Лучше продвигать один запрос или несколько?
Лучше несколько, например НЧ/СК и СЧ/СК. Это кажется более естественным.

49). Ссылки со страниц PR=0 стоят в несколько раз дешевле, чем PR=1 PR=2 PR=3 и т.д. Неужели для продвижения в Google нужно покупать дорогие PR-стые ссылки?
Никогда не придавал этому значения. 95 из 100 купленных ссылок ведут со страниц с PR=0. Не знаю как с ВЧ/ВК в зоне com, но для СЧ/СК «пиаристые» ссылки не нужны. Слишком большая переплата. Иногда такие ссылки покупают те, чья цель не продвижение, а наращивание собственного PR для продажи ссылок в биржах типа Sape (а почему не «сквозняки»?).

50). Как стоит продвигать молодой сайт? Сайту, допустим, 1 месяц. Запросов 60 тысяч в месяц. Какие ссылки покупать? Как быстрее достичь результата?
Смотрите вопросы №37, №38, №41, №42, №43, №44 и №45.

Для начала следует оптимизировать сайт изнутри. Затем оценить конкурентность запроса. Начнем с того, какие ссылки не нужно покупать. С этими рекомендациями можно спорить, приводить свои примеры и т.д., но они все равно будут лишь исключением из правил. Короче, рецепт от Алматинского полубомжа. Кому-то он покажется слишком осторожным, но порой лучше недопить, чем перепить. Ведь так?

а). Начинаем более или менее активно закупаться ссылками только со 2-го месяца жизни сайта. В 1-й месяц — штук 5 ссылок со средних блогов, несколько ссылок с Twitter и штук 15 ссылок с закладок/форумов (для лучшей индексации). Ссылки должны вести на разные страницы, разной глубины вложенности. Просто постепенно и без скачков наполняйте сайт уникальным контентом. Пусть роботы Google видят, что вы никуда не спешите и не делаете резких движений, а действительно постоянно работаете над ресурсом.

Как я уже писал, целенаправленно не покупаю ссылки со страниц, PR которых выше 0, но если вы считаете иначе, то вот вам еще несколько советов.

б). Ссылки со страниц PR=4 следует покупать не ранее 4-го месяца жизни сайта.

в). Ссылки со страниц PR=5 и выше следует покупать не ранее 10-го месяца жизни сайта.

г). Ссылки со страниц PR=6 и выше следует покупать не ранее 1-1,5 года жизни сайта.

Повторю. Исключительно мое, ИМХО (не люблю это слово), основанное на нескольких личных примерах и десятках примеров других веб-мастеров.

51). Покупать или не покупать ссылки с сайтов, имеющих доменное имя 3-го уровня?
Покупать. Домен 3-го уровня не указывает напрямую на то, что донор некачественный. Кроме того, на этом можно сэкономить.

52). Как подвигать сайт, например, в Казахстане и какие ссылки необходимо покупать для продвижения?
Давайте исходить из того, что в данном случае, по умолчанию, пользователи из Казахстана будут искать по Google.kz (сомневаюсь, что среднестатистический пользователь будет что-то там настраивать у себя в браузере).

а). Покупаем доменное имя .kz.

б). Используем хостинг с казахстанским IP адресом.

в). Используем ключевые слова с указанием регионов.

г). Неплохо бы использовать в Title регион («покупка Nokia в Казахстане»).

д). Доля ссылок с Интернет-ресурсов .kz (желательно) должна превышать, по крайней мере, 50%.

Каждый из этих пунктов сам по себе совсем не обязателен, но это как стена, которая состоит из кирпичей, и каждый кирпич вносит свой вклад в успешность конструкции.

И еще несколько вопросов касательно покупки ссылок под Google. В планах написать об этом отдельный пост. Совсем недавно хотел выложить на Plati.ru свою стратегию/тактику продвижения с помощью «вечных» ссылок. Очень подробную стратегию, со множеством скринов, примеров и т.д. Затем передумал. Зачем продавать то, чем можно поделиться с людьми бесплатно? Вот и буду писать об этом постепенно в своем блоге. Всех денег не заработаешь, да и уважение людей гораздо важнее.

————————————————————————————-

НЕМНОГО О ФИЛЬТРАХ GOOGLE

Я не рерайтер и не люблю переписывать своими словами то, что люди уже писали до меня.
Рекомендую. Фильтры Google и способы борьбы против них.
Хотя инфа порядком устарела, почитать все равно стоит.

Поэтому остановлюсь лишь на самых интересных фактах и на том, что до меня еще не писали. А может, и писали, но просто не видел.

53). Как может сочетаться «Песочница» и «Бонус новичка», ведь они взаимоисключающие? Google же не может правой рукой занижать, а левой повышать в поиске новые сайты?
Согласен. «Песочница» подразумевает, что сайт, которому менее 12 месяцев (приблизительно) имеет меньшую степень доверия, и пробиваться вверх по ВЧ и некоторым СЧ ему будет очень и очень сложно. Это не совсем так. Не все сайты попадают в «Песочницу». Сайты, которые развиваются естественно, без резкого, неправдоподобного роста ссылочной массы или увеличения страниц сайта на несколько сотен в день, скорее всего, в «Песочницу» не попадут. Ну а «Бонус новичка» это, скорее, миф, чем реальность. Человек создает сайт с качественным контентом, так почему Google должен его занижать в выдаче? Он и не занижает. А попадание в «Песочницу» как раз часто и путают с прекращением эффекта «Бонуса новичка».

54). Что такое Supplemental, или основная и дополнительная выдача?
Давайте начнем с самого определения Supplemental (в простонародье — «сопли»). У Google 2 вида выдачи: основная и дополнительная. Поиск идет по основной, а в дополнительную попадают опущенные результаты. Чаще всего это страницы с дублированным контентом или контентом, который ПС ошибочно приняла за некачественный/маловажный. На некоторых сайтах очень много текста в меню, навигационных блоках и т.д. А если на страничке всего 200-300 символов текста, то она просто растворяется, и ее содержимое становится похожим на дубль. Смотрите вопрос № 29.

Интересно, что работники Google никак не комментируют наличие, либо отсутствие данного фильтра. Многие веб-мастера излишне переживают по этому поводу. Ведь считается, что в дополнительную выдачу попадают страницы, не представляющие никакой ценности в глазах поисковой системы. Лично я не придаю «Supplemental» особой важности. Не обращаю внимания.

55). Как вывести страницы из Supplemental?
Я бы вообще не трогал, но если настаиваете… Лечится просто. Перелинковка + покупка дешевых внешних ссылок на такие страницы.
Рекомендую. Эксперимент по выводу страниц из Google Supplemental Index.

56). Как определить, какие страницы находятся в Supplemental?
http://supplemental.name/

Не стоит относиться к этому сервису серьезно. К тому же, он еще раз доказывает, что в «Supplemental» нет ничего страшного. Вбейте туда Блог Маула.
И что мы видим? Цитата:
Качество сайта maulnet.ru 2%
Google уверен, что данный сайт сателлит, и совсем его не ценит.
Смешно, правда?

57). Как узнать, попал сайт под фильтр или нет?
а). Резкое уменьшение трафика с Google.

б). Неконкурентоспособность сайта. Иначе говоря, вы не можете выйти в ТОП 10, даже если его занимают молодые сайты с небольшой ссылочной массой, даже по СЧ/СК. И это при том, что вы проанализировали конкурентов, у вас точно такая же плотность ключевых слов и т.д.

в). Копируем большой кусок уникального текста с сайта (10 и более слов). Вбиваем в Google. Если даже так ПС выдает ваш сайт не на первом месте, то с ним явно что-то не так.

г). Абсолютно все запросы слетели на несколько десятков позиций вниз.

58). Если попал под фильтры Google. Методы его вывода.
Обычно нужно время. Главное — не бросаться из крайности в крайность, например, не снимать 10 000 ссылок или жирные «сквозняки» (см. вопрос №50 и вопрос №60). Помогает частичная замена или рерайт контента. Не вешайте на сайт пустые страницы без контента. Не выделяйте целые куски текста strong-ом. Уберите текст, сливающийся с фоном. Старайтесь, чтобы текста было больше, чем слов в навигации. Не делайте простыни из текста, без логических абзацев (разбивайте текст на несколько частей). Не меняйте Title без крайней необходимости. Раскидывайте ключевики по разным местам, а не в одном единственном абзаце.

59). Среднее время выхода из-под фильтра.
От 2-3 дней до 8-и месяцев.

60). Можно ли попасть под фильтр из-за «сквозняков» и как из-под него выйти?
Опасность, грозящая молодым сайтам (6-7 месяцев). Многие сразу же бросаются снимать «сквозняки». Лучше этого не делать. Ведь такой прием и говорит Google о том, что ссылки были неестественными, да и тряска нам ни к чему. В большинстве случаев после резкого понижения позиций в результате простановки жирного «сквозняка» помогает следующее:

а). Оставляем все, как есть.

б). Разбавляем ссылочную массу, полученную от «сквозняков», несколькими десятками ссылок с разным анкором на разные страницы вашего сайта (исключительно НЧ).

Обычно этого достаточно. Через какое-то время (1-2 месяца) позиции сначала возвращаются, а потом начинают активно пробиваться наверх ТОПа. И волки сыты и овцы целы.

61). Есть ли какие-нибудь новые фильтры Google?
Из новенького. С начала 2011 года резко ужесточилась борьба со спамом и контентом низкого качества (сгенерированный контент, не уникальный контент). Фильтруется лишь часть сайта, а конкретно — страницы, на которых и был обнаружен некачественный, по мнению поисковика, контент.
Рекоменую. SEO-дайджест: январь 2011 г.

————————————————————————————-

ВОПРОСЫ О PR (GOOGLE PageRank)

62). Волнует только одно — могут ли ссылки поднять PR?
Более того, только ссылки поднимают PR и ничего, кроме ссылок.

63). Правда ли, что PR можно получить без внешних ссылок, и какие это будут значения?
Конечно, по крайней мере, до 3-х — легко.

Из собственного опыта. 10-30 внутренних нулевых ссылок на страницу дают PR ~ 1. 100-200 внутренних нулевых ссылок на страницу дают PR ~ 2. 500 внутренних нулевых ссылок на страницу дают PR ~3.

64). Действенные способы увеличения PR страницы.
а). Внутренние ссылки на страницу.

б). Внешние ссылки на страницу.

65). За счет каких факторов падает PR страницы?
а). Уменьшение количества внутренних ссылок на данную страницу.

б). Уменьшение количества внешних ссылок на данную страницу.

в). Google обнулил или уменьшил PR из-за торговли ссылками (частое явление).

66). Продавцы так называемых «трастовых баз» указывают напротив каждого из них их PR. Получается — купив такую базу, я получу 100 ссылок с общим PR ~ 400?
Нет, это приманка для новичков (ибо даже совсем немного натренированный оптимизатор понимает, что «морда» и страница с вашей ссылкой — разные вещи). Ведь вы проставляете ссылки (как правило) со страниц профилей, а такие страницы изначально имеют PR=0. Они даже не проиндексированы, так как созданы только что. Вы получите намного меньше, чем рассчитываете.

67). Хочу посмотреть PR всех страниц сайта, но не хочу вводить их руками по одной штуке.
http://www.my-seotools.ru/pr_sitemap.php#m_m
Только вбивайте не адрес сайта, а адрес карты сайта типа mysite.ru/sitemap.xml

Как вариант:
http://www.cy-pr.com/tools/pr/

68). Кстати, еще очень хотелось бы узнать, каким образом рассчитывается PR?
Обсуждалось тысячу раз, зачем повторять и рерайтить одно и то же? Господин Садовский 10 лет назад перевел и дополнил зарубежную статью:
Растолкованный PageRank.
С тех пор многое изменилось, но суть осталась прежней.

69). Какое значение при ранжировании имеет PageRank в наши дни?
PageRank показывает важность страницы в глазах Google. Однако повторю то, что вы и без меня уже слышали сотни раз: помимо PageRank у Google есть как минимум 200 факторов ранжирования, и PageRank только 1 из 200. Что касается важности, то я бы определил ее как среднюю. А, возможно, и как низкую. Смотрите вопрос №9, а точнее пройдите по ссылке в конце ответа на вопрос.

70). ТИЦ Яндекса — это то же самое, что PR у Google?
Нет, это абсолютно разные вещи, введенные для разных нужд. Сходство ТИЦ и PR в том, что и то, и другое увеличивается в зависимости от количества и качества внешних ссылок. Ну и косвенно, высокий ТИЦ и PR свидетельствуют об авторитетности страницы либо сайта. Если ТИЦ можно заполучить, только манипулируя внешними факторами, то PR передается и внутренними. На PR больше похож ВИЦ (Взвешенный Индекс Цитирования). Формулы расчета ВИЦ и PR очень похожи, но ВИЦ точнее.

71). PageRank как фактор ранжирования использует только Google?
Возможно, вы будете удивлены, но PR как фактором ранжирования пользуется еще и Bing.com (правда, в меньшей степени), а также второй по популярности поисковик планеты — Yahoo.com (правда, в еще меньшей степени).
Рекомендую. The Science of Ranking Correlations: How Does PageRank Perform?

72). Продавал ссылки, и Google обрезал PR с PR=4 до PR=0. Теперь сайт перестанет быть трастовым и позиции понизятся?
Нет. Это миф. При условии, что доноры не перестали на вас ссылаться. Были подобные случаи. Трафик не упадет.

73). Промежутки между значениями PR от 1 до 10 имеют равную длину? Формулируя вопрос по-другому: одинаковое ли нужно количество ссылок (условно равных по качеству), чтобы преодолеть путь между PR=2 и PR=3, и путь между PR=8 и PR=9?
Разница между PR=1 и PR=2 незначительна. Разница между PR=8 и PR=9 колоссальна (вспоминается школьный курс, а конкретно — арифметическая и геометрическая прогрессии).

74). Влияют ли исходящие ссылки с моего сайта на траст и авторитетность сайта в глазах Google?
Данный вопрос очень похож на вопрос №9. Это один из самых распространенных мифов. На самом деле исходящие ссылки на качественные, с точки зрения Google, сайты никак не влияют на ранжирование вашего сайта или отдельной его страницы. Главное то — на кого вы ссылаетесь. Количество исходящих также не приносит никакого вреда. И не важно, сколько ссылок ведет с вашего ресурса на другие: 10 или 1000. Позиции вы не потеряете. Бывает наоборот — Google поощряет подобные сайты, которым «не жалко» ссылок на «хорошие» ресурсы.

75). Теряется ли PR, если ссылаться на другие ресурсы? И вообще, он перетекает или не перетекает?
Вопрос, который волнует всех и вся постоянно. Частично я ответил на него чуть выше. И в этом случае мой ответ однозначен. Нет, не теряет. И вообще, это еще один из главных мифов о PR, которому почему-то до сих пор верят даже опытные продвиженцы на seo-форумах. 2 страницы, ссылающиеся друг на друга — это не сообщающиеся сосуды. Ничего и никуда не переливается.

Предположим, у нас есть страница с PR=5. Через некоторое время на этой странице появляется 50 внешних ссылок на другие сайты, но PR не изменится. Как был 5, так и останется 5. Да, да, знаю, что Алексей Терехов считает по-другому (http://www.terehoff.com/five-reasons-put-outlinks.html — мелким шрифтом). Правда, он не против внешних как таковых, но сейчас мы говорим о перетекании PR (которого не существует). Авторитетность страницы останется прежней. Страница, являющаяся донором, не теряет вес. Она лишь голосует, но не отдает свой собственный вес.
Рекомендую. Что такое PageRank Google.

автор — http://polu-bomj.ru/load/google_i_jandeks/75_otvetov_i_voprosov_po_google_chast_2/21-1-0-47

Как я регистрировался на webmasters.ru

http://webmasters.ru/Бороздя по просторам интернета наткнулся на удивительный форум,  webmasters.ru все мне в нем нравилось, очень много полезного, НО … при регистрации потребовал Инвайт. На выбор три возможности: написать модераторам, написать пользователем, или написать статью. Перво наперво я ввел поиск по Google «Инвайт на webmasters.ru», очень много ссылок, половина из них не рабочая. В некоторых случаях приходилось ждать неделями. Вторым вариантом было написание статьи, но какой с меня писатель? И наконец я решил пойти в лоб и написал в службу техподдержки, где честно расписал зачем мне Инвайт, сколько я занимаюсь времени SEO, свои увлечения и хобби, и самое главное зачем мне сайт.

Моему удивлению не было предела, когда утром следующего дня я увидел у себя в ящике драгоценный инвайт). Не бойтесь просить, и не ищите сложных путей господа.

Правильные сайты по раскрутке

http://cospi.ru/

Правильная настройка Robots.txt

Robots.txt — это текстовый файл, который располагается в корне сайта —http://site.ru/robots.txt. Главное его предназначение — это задавать определённые директивы поисковым системам — что и когда делать на сайте.

 

Содержание:

 

Самый простой Robots.txt

Самый простой robots.txt, который всем поисковым системам, разрешает всё индексировать, выглядит вот так:

User-agent: *
Disallow:

 

Если у директивы Disallow не стоит наклонный слеш в конце, то разрешены все страницы для индексации.

Такая директива полностью запрещает сайт к индексации:

User-agent: *
Disallow: /

User-agent — обозначает для кого предназначены директивы, звёздочка обозначает что для всех ПС, для Яндекса указывают User-agent: Yandex.

В справке Яндекса написано, что его поисковые роботы обрабатывают User-agent: *, но если присутствует User-agent: YandexUser-agent: * игнорируется.

Директивы Disallow и Allow

Существуют две основные директивы:

Disallow – запретить

Allow – разрешить

Пример: На блоге мы запретили индексировать папку /wp-content/ где находятся файлы плагинов, шаблон и.т.п. Но так же там находятся изображения, которые должны быть проиндексированы ПС, для участия в поиске по картинкам. Для этого надо использовать такую схему:

User-agent: *
Allow: /wp-content/uploads/ # Разрешаем индексацию картинок в папке uploads
Disallow: /wp-content/

Порядок использования директив  имеет значение для Яндекса, если они распространяются на одни страницы или папки. Если вы укажите вот так:

User-agent: *
Disallow: /wp-content/
Allow: /wp-content/uploads/

Изображения не будут скачиваться роботом Яндекса с каталога /uploads/, потому что исполняется первая директива, которая запрещает весь доступ к папке wp-content.

Google относится проще и выполняет все директивы файла robots.txt, вне зависимости от их расположения.

Так же, не стоит забывать, что директивы со слешем и без, выполняют разную роль:

Disallow: /about  Запретит доступ ко всему каталогу site.ru/about/, так же не будут индексироваться страницы которые содержат about — site.ru/about.html,site.ru/aboutlive.html и.т.п.

Disallow: /about/ Запретит индексацию роботам страниц в каталогеsite.ru/about/, а страницы по типу site.ru/about.html и.т.п. будут доступны к индексации.

Регулярные выражения в robots.txt

Поддерживается два символа, это:

* — подразумевает любой порядок символов.

Пример:

Disallow: /about* запретит доступ ко всем страницам, которые содержат about, в принципе и без звёздочки такая директива будет так же работать. Но в некоторых случаях это выражение не заменимо. Например, в одной категории имеются страницы с .html на конце и без, чтобы закрыть от индексации все страницы которые содержат html, прописываем вот такую директиву:

Disallow: /about/*.html

Теперь страницы site.ru/about/live.html закрыта от индексации, а страницаsite.ru/about/live открыта.

Ещё пример по аналогии:

User-agent: Yandex
Allow: /about/*.html #разрешаем индексировать
Disallow: /about/

Все страницы будут закрыты, кроме страниц которые заканчиваются на .html

$ — обрезает оставшуюся часть и обозначает конец строки.

Пример:

Disallow: /about — Эта директива robots.txt запрещает индексировать все страницы, которые начинаются с about, так же идёт запрет на страницы в каталоге/about/.

Добавив в конце символ доллара — Disallow: /about$ мы сообщим роботам, что нельзя индексировать только страницу /about, а каталог /about/, страницы/aboutlive и.т.п. можно индексировать.

Директива Sitemap

В этой директиве указывается путь к Карте сайта, в таком виде:

Sitemap: http://site.ru/sitemap.xml

Директива Host

Она предназначена только для Яндекса, потому что он с помощью неё определяет главные зеркала сайта и склеивает их по ней. Про склейку сайтов, в обеих поисковых системах, читайте в моём посте — Как я склеивал сайт в Яндексе и Google.

Указывается в таком виде:

Host: site.ru

Без http://, наклонных слешей и тому подобных вещей. Если у вас главное зеркало сайта с www, то пишите:

Host: www.site.ru

Пример robots.txt для WordPress

После того, когда были добавлены все нужные директивы, которые описаны выше. Вы должны получить примерно вот такой файл robots:

 

Скрытый текст

Это так сказать базовый вариант robots.txt для wordpress. Здесь присутствует дваUser-agent-a – один для всех и второй для Яндекса, где указывается директиваHost.

Мета-теги robots

Существует возможность закрыть от индексации страницу или сайт не только файлом robots.txt, это можно сделать при помощи мета-тега.

<meta name=»robots» content=»noindex,nofollow»>

Прописывать его надо в теге <head> и этот мета тег запретит индексировать сайт. В WordPress существуют плагины, которые позволяют выставлять такие мета теги, например – Platinum Seo Pack. С помощью него можно закрыть от индексации любую страницу, он использует мета-теги.

Директива Crawl-delay

С помощью этой директивы можно задать время, на которое должен прерываться поисковый бот, между скачиванием страниц сайта.

User-agent: *
Crawl-delay: 5

Таймаут между загрузкой двух страниц будет равен 5 секундам. Чтобы уменьшить нагрузку на сервер, обычно выставляют 15-20 секунд. Это директива нужны для больших, часто обновляемых сайтов, на которых поисковые боты просто «живут».

Для обычных сайтов/блогов эта директива не нужна, но можно таким образом ограничить поведение других не актуальных поисковых роботов (Rambler, Yahoo, Bing) и.т.п. Ведь они тоже заходят на сайт и индексируют его, создавая тем самым нагрузку на сервер.

Проверить robots.txt

Чтобы проверить robots.txt для Google, надо зайти в панель вебмастер:

robots

 

Конфигурация сайта -> Доступ для сканера -> Проверить robots.txt

Тут вы сможете проверять все директивы на работоспособность и экспериментировать с ними.

Проверить robots.txt для Яндекса можно тоже в его Панели Вебмастер, перейдя вот по этой ссылки.

Так же существуют сервисы генераторы robots.txt, которые помогут вас сделать базовые настройки, вот некоторые из них:

1. Seobook

генераторы роботса

2. 4seo.biz

генераторы роботса

На этом всё, спасибо за внимание и не забываем подписываться на обновление блога.


Всегда актуальная тема, про Заработок на блоге. Для вас будет полезно, несомненно.

SEO-шпионаж

 SEO-шпионаж

Работа оптимизатора не так однообразна, как может показаться на первый взгляд — часто приходится решать нетривиальные задачи: например, шпионить.

Для чего нужен анализ конкурентов
Работая над продвижением сайта, сложно добиться успеха без подробного анализа сайтов конкурентов. Именно они помогают выбрать наиболее выгодную стратегию продвижения, так как задача оптимизатора состоит в том, чтобы обойти всех в SERP, а не просто сделать сайт, отвечающий требованиям поисковика.

Зная слабые места конкурентов, можно сильно сократить бюджет продвижения. Ваш соперник потратил много денег на вывод трех-четырех высокочастотных слов? Нет смысла пытаться его обогнать именно по ним, используйте другие ключевики, которые могут в совокупности дать больший трафик и обойдутся в разы дешевле.

Даже опытные оптимизаторы совершают ошибки. Обнаружив их у конкурентов, можно поучиться на чужом опыте, не допустить их в своем проекте и в итоге обойти сайты соперников. Дело остается за малым — добыть эти «секретные материалы», которые помогут выиграть гонку позиций.

LiveInternet
Один из самых простых способов получить ценные сведения о конкурентах — воспользоваться информацией одного из самых популярных счетчиков посещаемости рунета LiveInternet. Это поможет выбрать эффективную стратегию продвижения: скорректировать семантическое ядро, распределить бюджет, отредактировать контент и многое другое.

 

pic18.png

Для этого необходимо лишь выбрать сайт для анализа, ввести его URL и открыть страницу подробной статистики — вам будет доступен огромный набор данных, который расскажет практически все о сайте. Но, как известно практически любому оптимизатору, сейчас многие делают свою статистику приватной. Что делать в этом случае? Можно воспользоваться рейтингом LiveInternet: найти сайты с открытым доступом, просто сопоставить факты и получить примерную картину в вашем сегменте.

Если статистика закрыта и установлен бесплатный счетчик, то есть простой способ посмотреть данные посещаемости сайта. Для этого необходимо ввести в адресную строку ссылку http://counter.yadro.ru/values?site=site.ru, где вместо «site.ru» нужно указать URL интересующего вас сайта. Откроются следующие данные, по которым можно составить общую картину посещаемости:

 

 

pic09.png

Top.mail.ru
Много полезных сведений при анализе сайтов конкурентов могут дать рейтинги Mail.ru. Аналогично предыдущей системе доступ к статистике сайтов может быть «подзамочным», но здесь больше ресурсов, данные которых открыты.

pic17.png

Что же полезного могут дать рейтинги Mail.ru? Достаточно выбрать интересующую вас категорию, открыть статистику нужного сайта, кликнув по соответствующей пиктограмме, и перед вами появятся все данные. В левом столбце меню есть пункт «Поисковые запросы». Открыв этот раздел, вы увидите все ключевые слова и трафик по ним.

pic07.png

Ценные сведения для оптимизатора, не правда ли? Более того, можно сделать анализ целой ниши сайтов. Для этого необходимо кликнуть ссылку «Статистика категории»:

pic08.png

Практически в любой категории владельцы сайтов смогут найти те самые слова, которые могут принести максимальный результат.

Openstat
Счетчик Openstat — редкий вид в мире статистики, но и его данные могут оказаться весьма кстати при работе над продвижением сайта. Например, с помощью этой системы можно увидеть список наиболее посещаемых страниц сайта. Для этого достаточно выбрать нужную категорию, открыть рейтинг сайтов и рядом с интересующим кликнуть по числу посещений в крайней правой колонке.

pic04.png

Откроется список наиболее популярных страниц сайта, которые без труда уже можно будет проанализировать. Этот метод дает не так много информации, но имеет право на жизнь.

SeoPult
Система SeoPult изначально предназначена для продвижения сайтов, поэтому аналитическая работа при составлении семантического ядра в ней наиболее удобна. Достаточно завести аккаунт и создать проект или, если вы уже пользуетесь Системой, выбрать нужный сайт и перейти на вкладку «Слова». Выбрав в автоматическом подборщике «Близкие к ТОПу», можно увидеть те слова, которые наиболее перспективны для продвижения.

pic19.png

Эти ключевые запросы Система подбирает как раз на основе анализа ТОПа (конкурентов) и выдает готовый список, избавляя от рутинной самостоятельной работы. Кроме того, здесь можно увидеть крайне полезные сведения: прогноз стоимости и количества переходов.

pic13.png

Другие специализированные сервисы
Какими еще способами можно шпионить за конкурентами? Для этого существуют специализированные сервисы, которые любимы многими сеошниками. Они просты в использовании, не отнимают много времени и дают большое количество полезной информации.

Сервис Ahrefs.com представляет собой сложную систему, которая позволяет получить большое количество данных статистики любого сайта. Пользоваться этим и подобными сервисами довольно просто — необходимо лишь ввести URL сайта, далее будет выведена статистика, в которой помимо обычных показателей можно даже найти информацию об обратных ссылках.

pic03.png

Близкий по возможностям сервис MajesticSEO.com позволяет получить примерно такой же набор данных, включая информацию о бэклинках:

pic11.png
ВыводыПеред запуском продвижения сайта для достижения максимальной эффективности необходимо проводить достаточно серьезную аналитическую работу. Действуя вслепую, без оглядки на конкурентов, сложно адекватно оптимизировать сайт и правильно рассчитать бюджет. Не ленитесь собирать данные с помощью описанных выше сервисов — это сэкономит вам немало денег и времени.

< --!noindex-->Данная статья была взята с рассылки seopult.ru.< --!/noindex-->

Вверх