♦ Работа над уникальностью контента на сайте
♦ Оптимизация в стратосфере Рунета
♦ Икроножное SEO: оптимизаторские финты для интернет-изданий
♦ SeoPult: приборы, карты, фигуры пилотажа
♦ Трастовость сайта
♦ АГС, горе от ума и парадоксы современного SEO
♦ Особенности продвижения интернет-магазина
♦ Поведенческие факторы ранжирования
♦ Оптимизация сниппетов
♦ Продвижение в «Яндекс.Картинках»
♦ Продвижение через поисковые подсказки
♦ Выбор домена и хостинга
♦ Проверка уникальности контента методом шинглов
♦ Семантическая разметка страниц
♦ Трафиковое продвижение
♦ Зеркала и склейка
♦ Особенности продвижения молодого сайта
♦ Региональное продвижение: места силы
♦ Аффилиаты: сидя на двух стульях
♦ Продвижение аффилированных интернет-магазинов
♦ Создание эффективной посадочной страницы
♦ Возможности HTML5 при оптимизации
♦ Особенности мобильных версий сайтов
Оригинальный авторский контент на сайте – одна из первостепенных метрик, обуславливающих качество, трастовость площадки. Представители поисковых систем не устают повторять, что нет никакого резона добиваться высоких позиций сайта в выдаче за счет полулегальных ухищрений, а тем более откровенно нечестных методов. Зато проведенная с умом внутренняя оптимизация и внятное содержимое сайта – это путевка в топ.
Перефразируя поговорку, подтверждаем: кто понял Веб, на контент не скупится. Многие блогеры и владельцы сайтов берут тексты буквально из головы, переводя мысли в буквы по многу часов ежедневно. Кто-то формирует целую редакцию, которая выдает на-гора десятки и сотни статей в месяц. Чаще эту задачу поручают копирайтерам. Производство авторского контента трудозатратно, что отталкивает тех, кто ищет легких путей всегда и везде. Бич Интернета в целом и SEO в частности – воровство контента: зашел к конкуренту на сайт, скопировал текст и загнал в CMS своего сайта в первозданном виде или с вариациями. К счастью, в наше время существуют способы защиты интеллектуальной собственности в Интернете от посягательств. Автор контента имеет возможность подтвердить свои права на него, а сайту в результате нехитрых операций можно присвоить статус первоисточника текста (если он действительно является первоисточником).
Уникальный контент нравится и пользователям, и поисковым машинам. Гораздо приятнее и продуктивнее открывать в топе по какому-либо запросу сайт за сайтом и изучать различные точки зрения, а не натыкаться на один и тот же текст где ни попадя. Поисковые системы стараются не допустить высокого ранжирования сайтов с чужим контентом. Успехов в борьбе с такими площадками позволили достичь введенные Google алгоритмы Panda и Penguin. Борется с плагиатом и «Яндекс», исключая из выдачи по ключевым запросам страницы с дублированным контентом.
Все бы хорошо, и «нарушители конвенции» вправду заслуживают наказания. Но часто эти алгоритмы обрушиваются, как ни странно, на самих авторов, признавая их тексты неуникальными и налагая на них суровые санкции. Вопиющая несправедливость, однако пока таков статус-кво. Как же все-таки защитить свой контент от воровства и при этом сделать его первоисточником с точки зрения «Яндекса» или Google?
Прежде чем рассмотреть способы защиты контента, разберемся с тем, какими путями нечистые на руку веб-мастера добывают чужие тексты. Если злоумышленник – новичок, то он обычно переходит с сайта на сайт и без затей копирует текст вручную. Поднаторевшие плагиаторы автоматизируют свой «труд» программами-парсерами, которые считывают и собирают всю необходимую информацию воедино. Таким же манером «умыкают» содержимое RSS-лент.
Способов защиты от воровства предостаточно. Самые простые – запрет копирования текста средствами JavaScript и наложение прозрачного GIF на картинку. Но эти приемы выбьют почву из-под ног разве что у малоопытных «копипастеров». Более продвинутые индивиды обойдут такую защиту в два притопа, в три прихлопа и в четыре клика. Не повредит также «включить дипломатию»: обнаружив на чужом сайте свои тексты, картинки, элементы дизайна, куски кода и т. д., обратитесь к его владельцу с настоятельной просьбой удалить все, что он у вас «подрезал». В девяноста пяти случаях из ста ответом вам будет тишина, но попытка не пытка. Иногда можно добиться своего, написав хостинг-провайдеру жалобу на нарушителя с призывом повлиять на него или закрыть площадку. Однако желательно позаботиться о защите своего контента еще до того, как он будет украден. Это наиболее верная тактика, которая сбережет ваши время и нервы.
Сравнительно недавно и Google и «Яндекс» осознали масштабы плагиата в Сети и сделали первый серьезный шаг навстречу сайтовладельцам, желающим предотвратить «угон» своего контента. Механизм защиты Google основан на привязке контента к аккаунту пользователя в Google+. На странице сайта ставится ссылка на профиль автора посредством атрибута
rel="author"
, который говорит Google: «Вот первоисточник». Кроме того, в качестве маркера, удостоверяющего авторство, может выступать электронный адрес, расположенный на том же домене, что и сам сайт. В профиле участника Google+ указывается адрес электронной почты. Например, домен сайта – somesite.ru, значит, адрес должен иметь вид somename@somesite.ru. Он отображается в разделе «Мои публикации». Ради защиты приватности можно запретить показывать электронный адрес всем пользователям. Таким образом, ставя под своими статьями подпись с адресом электронной почты, привязанной к профилю Google+, вы декларируете свое авторство перед лицом Google.
У «Яндекса» защита контента строится по иной схеме. Автору предоставляется возможность сообщить о новом материале и защитить его еще до того, как он будет впервые опубликован. На панели сервиса «Яндекс.Вебмастер» есть форма, через которую можно заявить об авторстве. Туда вводится адрес сайта и текст объемом 2-32 тыс. символов. Пассаж проходит проверку на уникальность, и, если таковая подтверждается, указанному сайту присваивается статус первоисточника. Одно «но»: сервисом могут воспользоваться лишь сайты с тИЦ[4] больше десяти.
Заодно никто не мешает прибегнуть к старому доброму методу, который изобрели оптимизаторы: покупается несколько ссылок с анкорами[5], содержащими фрагменты текста, который подлежит защите. Такие ссылки с цитатами из статей наводят поисковые системы на первоисточник и помогают исключить возникновение проблем с копированием контента и установлением его авторства.
Иногда требуется произвести проверку текстов на уникальность. Например, копирайтер прислал заказанную ему статью, но вдруг он обманщик и выдает плоды чьего-то труда за свой материал?
Инструментов для проверки контента на уникальность много. Одни работают в режиме онлайн, другие требуется скачать в виде приложения и установить на компьютер. Перечислим наиболее известные и распространенные интернет-сервисы первой категории: Copyscape Premium, Antiplagiat.ru, Istio.com, Miratools.ru. Обратите внимание и на программы второй категории: Advego Plagiatus, DCFinder, Praide Unique Content Analyzer.
Помните, что своевременная проверка текстов на уникальность позволяет избежать больших неприятностей. Ведь, к примеру, приняв от фрилансера сворованный текст, вы невольно оказываетесь его пособником, ну а поисковику безразлично, почему именно на вашем сайте было опубликовано описание товара, составленное для другого интернет-магазина.
Требования к текстам зависят от тематики и специфики сайта. Например, для интернет-магазина бытовой техники описания товаров составляют, опираясь на их характеристики. В таком случае услуги копирайтера нужны нечасто: гораздо проще воспользоваться специальными шаблонами. А вот для туристического портала с описанием стран и курортов необходимы интересные авторские статьи, обзоры, заметки.
Копирайтинг, или написание текстов с нуля, – это наиболее дорогой способ получения оригинального контента. Статьи заказываются, как правило, у фрилансеров или на специализированных биржах. Не всегда копирайтер так уж необходим: качественно изложить смысл чужого текста с добавлением авторской изюминки сумеет и добросовестный рерайтер, чей труд несколько дешевле. Рерайт в большей степени актуален для новостных сайтов.
Другой источник контента – публикации на иностранных языках. Интернет в целом априори богаче контентом, чем один из его сегментов – российский. Знаете английский, немецкий, испанский языки? Отлично. Переводите профильный для вас материал и публикуете его на своей площадке, в соответствии с правилами хорошего тона снабдив статью указанием источника информации. Правда, такой способ нельзя назвать быстрым и недорогим. В любом случае вы потратите либо свое время, либо деньги, если привлечете к делу переводчика.
Сделаем неожиданный поворот: не обязательно искать контент в Интернете. Вы себе не представляете, сколько ценной информации у вас прямо перед носом в офлайне. Нужны подробные статьи о научных исследованиях в области космоса в 1990-е? Залезьте в Google, но только чтобы выяснить маршрут до ближайшей районной библиотеки. Там вы найдете архивные подшивки журналов и газет, выходившие малыми тиражами книги, статьи из которых вряд ли проникли в Глобальную сеть. Кроме того, бездонным источником контента являются аудио– и видеозаписи. Расшифровывать такие записи какое-то время назад догадались сообразительные веб-мастера: получающиеся на выходе тексты после редактуры отлично подходят, например, для информационных порталов.
Размещение контента на страницах сайта – это преимущественно работа его владельца, и неважно, как он будет ее выполнять: своими силами или руками нанятых контент-менеджеров. Но единожды наполнить ресурс мало. Для достижения хороших результатов в продвижении и для удержания занятых позиций необходимо постоянно обновлять контент. Сайт должен быть «живым», развиваться и пополняться свежими материалами. В случае с интернет-магазинами отличным выходом из ситуации будут комментарии и отзывы пользователей о товарах. Двойная польза: хорошие поведенческие характеристики по версии поисковиков и дополнительный уникальный контент. Причем абсолютно бесплатно.
По-настоящему серьезных проблем с созданием уникального контента не бывает. Бывают проблемы с внутренним лежачим камнем и внутренней жабой. Полностью бесплатным качественный контент быть не может, но, исходя из своих потребностей, владелец сайта по зрелом размышлении найдет наименее затратный способ добыть его. Помните, что любой текст, попавший в ваши руки, пусть даже это отсканированная страница из малоизвестной книги, необходимо проверить на уникальность. Это будет своего рода страховкой от проблем с поисковыми системами. А главное, с трудом полученный контент нужно беречь как зеницу ока и защищать свои права на него. Выполняйте эти условия – и ваш сайт гарантированно удостоится доверия со стороны поисковиков и заслужит лояльность пользователей.
Автор: Анар Бабаев, руководитель Setup.ru
В кулуарах отраслевых конференций неофиты осаждают гуру поисковой оптимизации, обычно задавая им в корне ошибочный вопрос: «Что сегодня работает в SEO?» Они пребывают в плену заблуждения, будто миром правит информация, как по-прежнему толкуют бизнес-тренеры с визитками, распечатанными на струйном принтере. Согласны с ними? Пощекочите себе неокортекс. Мы живем в постинформационной среде, где к долгосрочному успеху ведет способность процеживать потоки информации, а не зачерпывать ее ладонями. Узнав один-два рецепта – для простоты вообразим, что на текущий момент они эффективны, – вы трагически ограничиваете себя, да так, что метод тыка грозит оказаться вернее вашего. Опережать конкурентов нужно не на полкорпуса, ибо оптимизаторский бизнес не ипподром: SEO-жокеи мнят, что управляют ставками, тогда как в реальности ставки управляют ими. Обогнать дышащих тебе в спину на несколько световых лет – вот цель, достойная SEO-пилота. А достичь ее помогает здравый смысл, и только он. В SEO сегодня работает не ссылочная масса, не поведенческие факторы, не сигналы соцмедиа, не умащение третьестепенных сотрудников «Яндекса» в надежде урвать инсайт. В SEO работает ваша голова.
Системы автоматизации интернет-рекламы, ссылочные биржи, агрегаторы мало того что сделали великое дело – упростили доступ к технологиям и демистифицировали SEO. Они уравняли посредственностей и дали шанс вырваться из их круга тем, кто готов думать наперед. Набирать и регулировать ссылочную массу под низкочастотные запросы худо-бедно умеет каждый веб-мастер. Вместе с тем большинство (вам на радость; почему – вы поймете дальше) забывает о том, что SeoPult и ему подобные сервисы являются лишь инструментом. Умным и избавляющим от лишних забот, но инструментом, а не скатертью-самобранкой. Ну а SEO – это, смейся не смейся, творчество, а не потребительская утопия из русских народных сказок. Скажем жестче: оптимизаторское большинство боится или не знает, как выйти за пределы теплой атмосферы со знакомыми методами, интерфейсами, профессиональными шутками, наконец. Да только существует и стратосфера, и открытый космос. В них холодно, они находятся пугающе далеко от границ вашей зоны комфорта, зато именно туда запускают спутники, которые транслируют сигналы на весь мир.
Чтобы не быть голословным, поведаю вам историю успеха, свидетелями которой были я и еще два автора книги. Описываемые события начались пять лет назад, однако механизмы, придуманные героем рассказа, безотказно работают до сих пор, хотя мало кем эксплуатируются.
Жил да был, живет и ныне припеваючи умный интернет-предприниматель, а тогда еще просто оптимизатор. Трудился он в 2007–2008 годах не на последней должности в веб-студии средней руки. Старожилы помнят эти годы как пору становления ссылочных бирж и массового «линк-шопинга». Не пренебрегал автоматизацией и наш герой. Преуспев в ней, он в силу природного любопытства начал, по Стругацким, «желать странного» – расширить свой исполнительский диапазон. Он предчувствовал, что ультрановые на тот момент технологии вскоре станут общедоступными и будут обязательными к использованию, обеспечивая в лучшем случае тактическое, но не стратегическое преимущество над самыми мудрыми из конкурентов. По иронии судьбы умный оптимизатор – назовем его для сохранения инкогнито Георгием – рассуждал в тех же терминах, в которые облекает на сегодняшний день свою политику «Яндекс»: «Хорошая ссылка должна быть поставлена “по любви”, хорошая ссылка с точки зрения SEO – та, что размещена по делу, в нужном месте, будучи доступной людям, и важно, чтобы с нее были хоть какие-то переходы…» Нам с вами эти принципы сегодня ясны как божий день, однако в предкризисный год даже не самые растяпистые оптимизаторы закупали линки тоннами без разбору, ведя себя как Хрущев в период «интенсификации» сельского хозяйства.
Уже в те времена ссылки потихоньку дорожали, а механизмам их отбора было, мягко говоря, далеко до идеала. Прижимистый и сообразительный Георгий, руководствуясь голой логикой, рассуждал: «Зачем мне каждый месяц платить за какие-то ссылки, когда я – хотя бы гипотетически! – могу их получать бесплатно или поставить их единожды по сдельной цене на долгие годы?» Мысль Гоши, выпускника МЭИ, стремительно раскручивалась по линии оптимизации процессов: зачем покупать ссылки ради ссылок? Лучше, чтобы с них шел трафик, а то и чтобы они приносили клиентов.
Георгий слыл в профессиональной среде человеком начитанным и ироничным, и немудрено, что он горячо любил Ильфа и Петрова. Суть придуманного им метода как нельзя лучше иллюстрирует манера поведения отца Федора из «Двенадцати стульев», который, влезая в окно к инженеру Брунсу, цыганил у того злосчастный гарнитур: «Не корысти ради, а токмо волею пославшей мя жены…» – добиваясь в конечном счете желаемого вопреки воле советского служащего. Безобидный в жизни, на онлайновых полях Гоша хищно искал себе жертв – посещаемые «человеческие» сайты, где ему, по его расчетам, необходимо было присутствие в виде нескольких ссылок. В сумме – около 30–40 площадок в месяц. Но насколько же изобретательно он их обрабатывал! Задумка была в том, чтобы найти ключик к каждому ресурсу в отдельности, не отступая перед трудностями и используя все нестандартные приемы, какие только удастся изобрести.
Нацелился, к примеру, наш охотник на популярный строительный портал. Звонит в его офис и спрашивает с детской непосредственностью, заранее зная ответ: «У вас SEO-ссылки продаются?» Ему, презрительно: «Нет! Ни-ко-гда». Он с довольной ухмылкой кладет трубку. Через три дня перезванивает и говорит:
– Здравствуйте. Я увидел у вас в разделе «Пресс-релизы», что можно пресс-релизы на строительную тему вам присылать?
– Да, можно.
– А какая цена?
– Полторы тысячи рублей.
– А можно я туда три ссылки поставлю?
– Да на здоровье! Хоть четыре, хоть пять. Это ж пресс-релиз.
Он берет текст, упаковывает в него ссылки, отсылает – и вуаля, пресс-релиз с линками невозбранно красуется где его душе было угодно.
Иногда стороннему наблюдателю Георгий мог показаться не отцом Федором, а Остапом Бендером. Верите или нет, были случаи, когда девушку, отвечавшую за контент на авторитетной площадке, он приглашал на свидание. Ради амурных радостей. И, как вы уже догадываетесь, ради ссылок. Моральный аспект его поведения мы вольны обсуждать сколько угодно, однако важен сам принцип: он прилагал немыслимые для большинства оптимизаторов типового образца усилия к тому, чтобы добиться своего. Втирался в доверие, начинал дружить, рвал дистанцию – и получал-таки ссылки с заранее намеченных сайтов. В высококонкурентных тематиках его конкуренты – не школьники, заметим, а отраслевые авторитеты – тратили в начале 2008 года тысячи долларов, он же умудрялся обеспечить себе 40–50 ссылок с ресурсов класса «Коммерсанта», Forbes, CNews, закономерно попадая в топ по любому коммерческому запросу. А самым обидным для его безынициативных в массе своей критиков было то, что он все – все! – заработанные таким образом деньги клал себе в карман. Для них его приемы были непостижимы и невидимы. Так стоящий на пригорке пастух не способен различить, как высоко над облаками спутник передает сигнал на территорию в тысячи квадратных километров.
Вышеописанная методика тиражируется настолько, насколько дозволяет ваша фантазия. Публикуют на сайте дельные пресс-релизы? Будет ему пресс-релиз. Онлайн-СМИ хочет статью? Нащупайте его потребность, угадайте ее, пусть в качестве интервьюера выступит ваш спикер, и с его слов будут вести, совершенно верно, необходимые ссылки. Владелец сайта контактен и сметлив? Да здравствует бартер: ты – мне, я – тебе. Облизываетесь на «жирненькое» комьюнити – какой-нибудь форум риелторов? Подкупаем администратора, чтобы не вы влезли со своей ссылкой в калашный ряд, а лицо, облеченное локальной властью. Между прочим, «подкуп» не равно «взятка». Подкупает обаяние. Подкупают перспективы дальнейшего сотрудничества. Площадка за площадкой. Каждый день. Без шаблонов, но и без лишних расходов.
«Да как же попасть в солидное СМИ мне, сеошнику от сохи?» – самокритично спросит иной читатель с сомнением. Это возможно. Не дунул-плюнул, но возможно. Например, отыскиваете в своей компании звезду по меркам профессионального сообщества и обращаетесь в нужное интернет-издание, с которым налажен предварительный, ни к чему не обязывающий контакт: «Вы знаете, наш генеральный директор известен в нашей сфере очень хорошо, и он готов потратить время на то, чтобы вести у вас колонку, отвечать на какие-то вопросы, с удовольствием даст интервью». Возьмем в качестве примера обожаемый IT-специалистами сайт «Хабрахабр». Пытаться пропихнуть «джинсу» на эту площадку – дело гиблое. В девяти случаях из десяти заказной пост будет мигом выявлен, заклеймен позором и закрыт. Но один из выходов – сыграть на образовательном компоненте проекта, дав его посетителям всамделишную добавленную ценность. Вы размещаете в обители гиков не вам одному нужный маловразумительный текст, начиненный ссылками, а материал, полезный для аудитории «Хабрахабра». Усадите за клавиатуру вашего технического директора, убедите его написать умную статью о хитрых нюансах, вскрывшихся при программировании какого-то из ваших проектов. В итоге вы получите на правильном ресурсе ссылки с правильным текстовым окружением, по которым будут переходить живые люди.
Методика «индивидуального приручения» не исключает ссылочного продвижения. Наоборот, их комбинация и дает синергию, которая для многих оптимизаторов недостижима, точно Грааль. Нужна эта точечная техника в первую очередь для высокочастотных, сложных запросов. В случае с низкочастотными уместны чисто технические приемы наподобие сквозных ссылок, каковые в настоящее время прекрасно работают в Google. Если по изложенной нами методике вам удастся договориться с сильным, трастовым донором и разместить на его страницах сквозную ссылку, это способно положительно повлиять на позиции продвигаемого вами сайта в SERP второй по популярности поисковой системы Рунета.
Описанная нами механика продвижения энергозатратна, ее не так просто воспроизвести, зато она обеспечивает колоссальный долгосрочный эффект. Вдумайтесь, каково это – переиграть целую армию оптимизаторов, отказавшись от их правил и шор.
Что же Георгий? Негоже забывать героя. Его история продолжается. О хеппиэнде говорить рано, но жизненные чекпойнты он проходит на удивление удачно, всякий раз поднимая планку. Сайты, которые он продвигал в 2007–2008 годах вышеописанным методом, кормят его по сей день. Они до сих пор словно гвоздями прибиты в топе.
Существует возможность зайти в ту же нишу с другого края. А именно, создавать собственные сети сайтов-доноров. Как открывая собственные ресурсы, так и скупая за умеренную плату чужие. Что характерно, при горизонте планирования в несколько лет эта стратегия финансово выгоднее, чем разовая покупка SEO-ссылок на тех же площадках.
Пример из жизни. Был в российском Интернете «самостийный» неофициальный форум у факультета одного из крупнейших вузов страны. Умный оптимизатор (не Георгий, так что пусть ему больше не икается) однажды набрел на него, оценил объем накопленного на площадке контента и активность на ней и предложил веселым студентам: «Ребята, а давайте я вам буду за хостинг платить. Вы себе резвитесь, развлекайтесь, а я вашу площадку выкуплю под свои нужды». На текущий момент затраты на сайт окупились многократно: размещением ссылок в целях самого оптимизатора, продажей контекстной рекламы, использованием для продвижения клиентских сайтов. Когда таких ресурсов под вашим началом скопится два-три десятка, вы почувствуете, что потенциал вашего SEO-арсенала возрос нелинейно.
Разобранная нами стратегия подходит не только для частного оптимизатора-надомника, но и для среднестатистической SEO-компании со стабильным оборотом. Когда ей удается выручить сверх обычного миллион рублей или два, моментально встает вопрос, на что их израсходовать. Можно по накатанной закупить биржевые ссылки «на все». Но построить свою сеть – выгоднее. Конечно, при условии, что учредитель компании рассчитывает на постепенное честное развитие, а не на приобретение Infiniti FX50 с последующим отъездом в Венесуэлу, прочь от одураченных клиентов. Для тех же, кто предпочитает созидать, развертывание собственной сети – превосходный способ диверсифицировать доходы и потихоньку слезть со «ссылочной иглы».
Едва ли мы откроем большой секрет, упомянув о том, что почти все сколько-нибудь крупные SEO-агентства России располагают собственными широчайшими сетями сайтов. Вынуждены признать, немало образований такого сорта сформировано из откровенных ГС[6]. Однако наряду с ними живут и процветают конгломераты дельных, приятных глазу и богатых контентом ресурсов по 10–15 порталов. По сравнительно скромной оценке, если в данный момент выставить их на продажу, то каждый из таких «ухоженных» ресурсов будет стоить приблизительно 5-10 млн руб.
Но что, если вы не руководитель большого агентства, а независимый оптимизатор, чей кошелек пока не отягощен миллионами? При 20 клиентах и обороте миллион рублей в месяц шибко не разгуляешься. Ткать такую сеть своими силами вам будет трудно. Решение – в кооперации: создавайте консорциум из себе подобных, продвинутых SEO-талантов. Собирайте с каждого по чуть-чуть и покупайте сайты на паях по 100–200 тыс. руб. за штуку. Весь доход с ресурсов – от контекстной рекламы, ссылок и т. д. – делите поровну и используйте для своих нужд, без суеты наращивая мышцы. Даже космический корабль, как показала мировая практика, может построить не только госкорпорация. Кстати, если вдуматься, примеры в наших рекомендациях гораздо больше напоминают добившиеся успеха гаражные стартапы «старой школы», чем то, что мы удручающе часто видим на венчурных смотринах и конференциях.
Вокруг нет приличных сайтов? Сделайте их сами. Ссылочных бирж вам стало мало? Разместите ссылки на площадках, о которых думаете с замиранием сердца. Все просто. Почему? Потому что мы пилоты. Только не теряйте пространственно-финансовую координацию из-за головокружения от первых успехов.
Автор: Анар Бабаев, руководитель Setup.ru
Посещаемость сетевых массмедиа, включая спортивные, зависит от событийного фона, колебания которого отражаются на трафике, приходящем к ним из поисковых систем. Интерес народонаселения ко всему громкому и яркому «немного предсказуем»: не нужно быть семи пядей во лбу, чтобы сообразить, что Чемпионат Европы по футболу – 2012 прикует к себе внимание миллионов. Однако спрогнозировать возникновение таких пиков – дело нехитрое. Протянув руку в будущее, можно нащупать и менее очевидные точки роста аудитории.
Дотошный веб-мастер, пестующий новостной сайт или блог спортивной тематики, должен выступать не только в качестве тренера, которому поручено держать проект в форме. Ему надо уметь превращаться в букмекера, способного видеть как в ближней, так и в дальней перспективе фаворитов публики – в образном смысле: людей, явления, события, обещающие с течением времени оказаться в центре внимания общественности. Архиважная способность – ставить себя на место владельца клуба, который делает инвестиции в команду (площадку) на годы вперед. Эти советы смотрелись бы в нашей книге по меньшей мере странно, когда бы у значительного количества успешных интернет-изданий 60–80 % трафика не приходилось на SEO. Логично, что и решаются такие задачи SEO-методами.
Судьба онлайн-СМИ всецело в руках стратега, чья миссия – решать, в каком направлении развивать площадку. На что же ему опираться в своих изысканиях? На ежедневный анализ конкурентной среды и собственные ноу-хау. Фигуры высшего SEO-пилотажа нам часто показывают именно спортивные издания, так что значительная часть рассказа отведена под описание их приемов.
Как было сказано вначале, администрация спортивных сайтов первого и второго эшелона приспособилась реагировать на спрос, которого еще нет. Зная о времени проведения знакового соревнования, мы пытаемся установить, что и по каким запросам, связанным с ним, будут искать тысячи людей в «Яндексе» и Google в означенный временной интервал. Покамест по таким запросам конкуренции фактически нет, а значит, есть все шансы занять по ним места в топе, чтобы за три-четыре дня до начала событий получить гигантский трафик. Возьмем в качестве примера ту же Олимпиаду в Сочи. Попробуем предугадать, что народ примется искать за несколько месяцев и недель до нее, как будет распределяться спрос. Билеты на то или иное состязания, расписание выступлений, состав команд в коллективных видах спорта, информацию по отдельным атлетам, гостиницы возле Сочи как минимум. По каждой нише мы составляем семантическое мини-ядро и заранее проводим по нему работы. Получается кулак, сжатый заранее и готовый ударить в строго выбранный момент. Когда чемпионат начинается, действующие по старинке СМИ часто не поспевают за предусмотрительными конкурентами и получают вершки, а корешки достаются тем, кто создал себе фору заблаговременно, загнав сайт в индекс по нужным запросам.
Более широкое применение снискала стратегия «раздувания контента», согласно которой мы, откровенно говоря, пытаемся высосать из пальца максимум поискового трафика, не опускаясь при этом до шулерства. Подобным чаще грешат не СМИ, а информационные порталы, открывающие разделы исключительно для того, чтобы ловить аудиторию из поисковиков, «намывать» трафик. Так, популярнейший сайт Рунета о путешествиях давным-давно взял эту методику на вооружение. Поначалу он составлял многочисленные описания отелей, потом добавил отзывы – и эта база данных на сегодняшний день является единственным его конкурентным преимуществом. За год повторить то, что было им сделано, физически невозможно. Усадить несколько сотен редакторов за «контент-арбайт[7]»? Нерентабельно. Муравьиным трудом наш портал с шестибуквенным доменом соорудил механизм, позволяющий ему никого больше не пускать на свою теплую солнечную полянку. Своруют у него тексты? В суд.
Удачный и не просто белый, а белоснежный, на наш взгляд, образчик «UGC[8]-наддува» – Sports.ru со своей «Трибуной». Блоги читателей, тусовка, общение приумножают контент портала многократно, и, как следствие, трафик прирастает пропорционально объемам пользовательских материалов.
Сбору поддается и трафик не с основного поиска, в том числе видеоконтент. Предположим, Аршавин забивает гол за «Арсенал», Погребняк – за «Рединг». Мы знаем, что десятки тысяч болельщиков и любопытствующих неотступно следят за нашими легионерами. Куда они забираются первым делом в поиске видео с острейшими моментами игры? На крупные видеохостинги. Да только на YouTube им ничего не светит, потому что Премьер-лига следит за тем, чтобы ее контент вовремя оттуда удалялся. Зато существуют видеоблоги на Wordpress с посещаемостью в десятки тысяч человек, содержащие только ролики с голами Премьер-лиги. Контент полупиратский, соглашений с правообладателем нет, но вдумайтесь, какие цифры. А ведь нарушать закон не обязательно: вышеописанное лишь одна из фантазий на тему, воплощенная в жизнь.
Сходные приемы применяются в манипуляциях новостным трафиком, со скидкой на специфику жанра. Побеждает в новостном трафике тот, кто первым выпускает заметку. На многих порталах редакция заранее пишет три версии материала: условно говоря, «Сборная России проиграла», «Сборная России выиграла», «Сборная России сыграла вничью». В админку сайта вбиты все три варианта, каждый из которых публикуется нажатием одной кнопки. Финальный свисток – и СМИ, которое раньше других тиснет заметку о матче, снимет все сливки с трафика: текст попадает в новостной агрегатор в считаные секунды, и последовавшие за удачливым «первопроходцем» СМИ волей-неволей оказываются в положении цитирующих его. Заблаговременно пишутся и некрологи на знаменитостей. Смерть настигает селебрити, и редакторы онлайн-СМИ наперегонки отдают дань его памяти, по-видимому ошеломляя скоростью реакции старуху с косой.
В оборот идет даже непрофильный для портала трафик – на грани фола. Лет пять-шесть назад из-за риска крушения совершил аварийную посадку самолет. Пресса взорвалась: «В аэропорту таком-то аварийно сел такой-то самолет, пострадавших нет». Однако событие рейтинговое на все сто, и оно естественным образом занимает верхние строчки в «Яндекс.Новостях». Вскрывается деталь: на борту было три болельщика «Спартака». Что делает одно влиятельное спортивное интернет-СМИ? Оно выкатывает на титульную страницу заголовок: «Болельщики “Спартака” чуть не разбились в авиакатастрофе». Бум, добрых 10 тыс. человек перетекают на портал с новостного агрегатора. Если сайт делает 10–15 рейтинговых новостей такого рода в день, его трафик с «Яндекс.Новостей» нередко превышает основной поисковый. Каким насосом нагнетают интерес к своим материалам те, кто не брезгует спекулировать на острых темах? Задачу решает круглосуточная работа распределенной редакции, которая включает редакторов и переводчиков, рассредоточенных по всем часовым поясам и знающих самые разные языки, с тем чтобы обеспечивать моментальный перевод новостей из любого уголка мира. Хлопотно, но и возможности для монетизации необозримые.
В случае с непредвиденными событиями новостные ленты задействуют ранее упомянутый UGC, поскольку ближе всех к месту события его очевидцы. Если удачливые наблюдатели знают, что снятое ими видео удобно и престижно загрузить на сайт СМИ, то оно срывает куш. Пожалуй, это тот случай, когда с LifeNews можно брать пример. Если, не дай бог, фанаты «Спартака» учинят побоище с турецкими болельщиками «Фенербахче», первые свидетельства драки с высокой степенью вероятности появятся на LifeNews.
Чтобы добывать пользовательский контент раньше конкурентов, сайт должен убедить широкие массы в том, что случайно снятый эксклюзив соберет зашкаливающе много просмотров именно здесь. Впрочем, чаще тот, кто запечатлел экстраординарное событие, загружает ролик на YouTube, RuTube и им подобные видеохостинги. Раз гора не идет к Магомеду, то Магомед идет к горе. Значит, необходимо, чтобы эти площадки мониторились со стороны портала особыми агентами на предмет записей уникальных событий.
Характерный случай. В Санкт-Петербурге проходил матч «Зенит» – «Спартак». Между фанатами команд завязалась драка стенка на стенку. Мимо проезжала «Чайка» с видеорегистратором, который зафиксировал потасовку. Водитель не понял, кто с кем сцепился, но выложил ролик на YouTube, честно сознавшись в своем неведении. Журналист из «желтого» интернет-издания наткнулся на видео вскоре после его публикации, бросился читать «Гостевые» на сайтах клубов, благодаря чему, сопоставив факты и комментарии, понял, что при численном равенстве сторон победили «зенитовцы». В какие-то минуты он выпек новость: в Питере зафиксированы беспорядки, болельщики «Спартака» подрались с «зенитовцами», через девять минут прибыл ОМОН. Это рейтинговое событие, которое соберет 5-10 тыс. человек и удостоится великого множества просмотров. Нельзя забывать, наконец, и о возможности собрать трафик с видеохостинга.
Инвестиции в SEO у интернет-СМИ бывают и кратко-, и средне-, и долгосрочными. Однако глубинный смысл заключается в том, чтобы поисковый трафик был не иглой, слезть с которой означает развеять аудиторию, а трамплином к новым высотам. Собственно, даже в таких хитростях SEO предстает неотъемлемой частью интернет-маркетинга: оно изучает спрос текущий и потенциальный, пытаясь всесторонне удовлетворить его.
Автор: Николай Коноплянников,
руководитель службы технической поддержки SeoPult
Смысл SeoPult как сервиса заключен в его имени. Это пульт, с которого удобно управлять каналами продвижения в Интернете, меняя картинку несколькими нажатиями. С той лишь разницей, что пульт телевизионный (ПДУ) в шутку, но справедливо называют «лентяйкой», тогда как к SeoPult это определение не подходит. Эргономичный, как ПДУ, по назначению он скорее напоминает приборную панель аэробуса, к которой лентяя не подпустили бы и на пушечный выстрел. Система понятна на интуитивном уровне, «кнопки» и «рычажки» в ней недвусмысленно подписаны – бери да нажимай, рули рекламной кампанией. Однако пассивно заливать в SeoPult тысячи и десятки тысяч рублей – подход варварский. Самолету нужно топливо, но стараниями одного лишь заправщика он не оторвется от земли. Чтобы подняться ввысь и лечь на курс, ему необходим пилот, который, держа положительный тангаж и гася крены, делая скидку на погодные условия и характеристики судна, сообразно советам диспетчера ступенчато преобразует простое желание – «Хочу долететь до теплого моря!» – в команды для сложной машинерии. А научиться управлять ею нельзя без знаний о конструкции самолета, его механизмах, его умной начинке. В порядке оперативного инструктажа я опишу малую толику возможностей SeoPult, часть его официальных и недокументированных функций, зная которые вы будете способны самостоятельно повышать виртуозность управления системой и не допустите досадных просчетов в планировании рекламных маршрутов. Разъяснение будет вдвойне актуально в свете того, что наш сервис, в отличие от самолета, доступен каждому, притом что наломать в нем дров сложно, но можно.
Что же представляет собой SeoPult? Вкратце – автоматизированную рекламную систему, которая обеспечивает продвижение сайтов SEO-методами в тесной связке с контекстной рекламой. Она освобождает руки оптимизатору или целой команде, так как аналитические модули SeoPult годятся для решения широкого спектра задач в сфере поискового продвижения. В том числе, само собой, для набора и регулирования ссылочной массы. Как вы наверняка знаете (см. раздел «SeoPult: математика под капотом» главы «SEO для специалиста»), в состав SeoPult входят интеллектуальные, математически выверенные алгоритмы подбора доноров, но, гордые за них, мы ими не хвастаемся: все равно как конструктор кичился бы тем, что его самолет умеет в считаные секунды набирать высоту. Умеет, но что дальше? Стабильны ли системы безопасности, не трясет ли пассажиров, не забьется ли в элероны лед при прохождении облачного слоя, точна ли навигация? Наряду со средствами ссылочного продвижения SeoPult дает инструменты для решения целого круга SEO-задач, включая сохранение уникальности контента, продвижение в регионах, работу над внутренними факторами. Те, кто считает все перечисленное бонусными опциями, жестоко заблуждаются. Предлагаю им в порядке эксперимента зарегистрироваться в SeoPult, создать проект, закупить ссылок наобум и ждать… – какая у нас следующая дата конца света после 22 декабря 2012 года, которым кончается календарь майя? Вот до нее, по-видимому, и придется. Чтобы вывести сегодня сайт в топ по желаемым запросам, требуется порядком потрудиться над ним самим. В системе предусмотрен инвентарь для таких работ, однако пользователи, особенно новички, часто из лени или из-за спешки закрывают глаза на ее рекомендации и принимаются лепить ссылочное окружение с детским восторгом: «А ну как сделаю самый большой снежок!» Вот только и снег бывает грязным да неклейким (читай: доноры негодные), и недруги метят в беспечно подставленную спину (недооценка конкурентной среды), и вообще поди поуворачивайся от чужих снарядов с таким здоровенным шаром в руках (ошибки в расчете бюджета). А лучше было бы, например, найти укрытие, наделать снежков разного калибра впрок и выждать. Говоря языком интернет-маркетинга, не полагаться на одну метрику, а оперировать стратегическими KPI.
Фундаментальное преимущество SeoPult – синергия поискового продвижения сайтов и контекстной рекламы. Эти два канала включаются как вместе, так и по отдельности. В некоторых случаях спасительна контекстная реклама «соло». Обычно для достижения позиций по средне– и низкочастотным запросам требуется от двух до восьми недель, в случае с высокочастотными запросами сроки еще больше. Что делать, к примеру, если отдача нужна была «вчера»? Подпитать площадку контекстной рекламой. Со дня запуска проекта получать переходы на нее, гарантировав себе энное количество продаж или определенную посещаемость. Как только сайту удается попасть в желанный топ, показ контекстной рекламы по умолчанию автоматически приостанавливается и деньги на счете тратятся отныне только на ссылки, благо в большинстве случаев SEO дешевле контекста. Сценарий стандартный, но тот факт, что он заложен в базис сервиса, гарантирует сокращение расходов на рекламную кампанию.
С чего начинается SEO-маршрут? С подбора семантического ядра. В глазах малоопытного оптимизатора добыча «словесной руды» – измождающая рутина. Однако даже здесь, на низком старте, SeoPult предусматривает не один, а несколько способов решения задачи.
Молодой сайт, если он не проиндексирован поисковыми системами, не может подобрать близкие к топу запросы, потому что сайта как части конкурентной среды фактически нет. Без бумажки ты букашка, а без индекса – бактерия. Конечно, помимо всего прочего, система умеет собирать запросы из счетчика на площадке, но если заходов на сайт пока не было, выбрать тоже не из чего. Тогда добро пожаловать в простейший режим, в котором, анализируя титульную страницу, сервис подбирает для нее запросы из Wordstat.yandex.ru (http://wordstat.yandex.ru/), после чего владельцу сайта остается удалить непрофильные и слишком дорогие.
Но что, если бы вы знали, по каким запросам продвигаются ваши конкуренты? Можно было бы отсечь те, по которым попасть наверх выдачи было бы слишком дорого, посмотреть, какие «вражьи» запросы вам все-таки подойдут, и начать их продвигать. Делать своими силами подобное – сизифов труд. Мало кто знает, что в SeoPult это достижимо. Система разрешает создавать (не вести, а именно создавать) проекты под любые URL. Дело пяти минут – добавить сайт конкурента в систему на свой аккаунт и пройти первый этап, а именно «Подбор ключевых запросов». Ведь ваш конкурент наверняка занимается поисковым продвижением, он вырвался на некие позиции. Выбираете «Топ-1…50», ведется поиск ключевых запросов, и вы получаете целую охапку таковых, пригодных для использования в вашем проекте. Оговорюсь, метод не безукоризненно честный, нами не одобряемый, однако напрямую правилами сервиса не запрещен. Зато он наглядно демонстрирует гибкость системы.
В SeoPult внедрен и функционал автоматического – мы ведь сервис автоматизации, верно? – подбора ключевых запросов. На основе данных из Google AdWords (http://adwords.google.com) и Wordstat.yandex.ru системой формируется семантическое ядро для продвижения с учетом анализа главной страницы сайта, возраста домена и иных факторов. Берутся ровно те запросы, которые пригодны для конкретного ресурса, и ничего лишнего. Добавьте сюда пул «расширительных» запросов, также генерируемых системой.
На составлении семантического ядра умственный труд оптимизатора в SeoPult не заканчивается. Ключевики заправлены в систему, горючее в рублевом эквиваленте залито в баки. Вроде бы трафику – быть. Но вот куда ему притекать? «На сайт» – ответ плохой, бесполезный в своей абстрактности. Правильный ответ: «На посадочные страницы». А как он туда будет поступать, если оптимизатор о них не задумался? Конечно, SeoPult призван выпекать позиции в топе, да только, чтобы обжигать в нашей печке горшки, надо придать им форму. Иначе на выходе получится отлично схватившийся, крепкий, но бесформенный кусок глины. Всецело отдавать системе на откуп подбор страниц, релевантных тем или иным запросам, беспечно и расточительно. Как она поступит в общем случае? Стандартным поисковым запросом обратится к «Яндексу» и заберет самую первую страницу, которую тот считает релевантной. Но всегда ли это решение верно? Нет. Перед нами вновь встает проблема молодого сайта: у него может быть проиндексирована либо одна, главная страница, либо часть страниц, которые только что попали в индекс, или он вообще из рук вон плохо оптимизирован. Удручающе распространенный случай – на одну продвигаемую страницу приходится добрая сотня запросов. Оптимизировать контент такой страницы – невыполнимая миссия. Вспомним закон буквы F в интернет-маркетинге: все посетители смотрят первый экран, особенно в его верхний левый угол, и только часть из них прокручивает колесико мышки (чтобы увидеть, что находится чуть ниже), если они не находят в самом начале нужную информацию. Удастся ли на первом экране одной-единственной страницы разместить ключевые слова под сотню запросов, да так, чтобы текст оставался читаемым и не побуждал закрыть текущее окно в браузере? Конечно, нет. Для того-то и необходимы посадочные страницы, где пользователя подталкивают к тому или иному шагу (не к двадцати и не к ста). Человек приходит из поисковой выдачи, видит карточку товара, сопутствующие товары и большую кнопку «Купить». Он точно знает, куда он попал и зачем. Его путь к нужному вам действию – кратчайший.
Анализируйте контент своего сайта, подбирая непосредственно те landing pages (в статьях англоязычных экспертов вы встретите именно это словосочетание, обозначающее посадочные станицы), которые хочет пользователь. Намного проще оптимизировать страницу и впоследствии ссылочной массой «продавить» ее релевантность. Предположим, по некоему запросу большинство ссылок ведет не на ту страницу, которую сам «Яндекс» считает наиболее точно соответствующей ему. Естественно, поисковый робот проверит и проанализирует эту «неожиданную» для него страницу, поймет, что она действительно содержит более релевантный контент, и сделает ее релевантной, обеспечив ей должное место в выдаче.
Золотое правило: для одного запроса – одна посадочная страница. Примечание к золотому правилу: как вариант, одна посадочная страница – для группы близкородственных запросов. Но холодильник Indesit и холодильник Bosch, продающиеся на одной и той же странице, не комильфо и нецелевое расходование средств. Единые в смысловом отношении запросы уместно продвигать в виде вставок и дополнительных предложений на странице. Например: «У нас также искали». Разумеется, «холодильник Bosch цена» и «холодильник Bosch купить» – это запросы, легко уживающиеся на одной странице. Единственное, если у «холодильник Bosch купить» окажется еще под сотню сопутствующих запросов, продвигать их на одной странице будет категорически нельзя. Значит, потребуется развести покупку холодильника Bosch и описание ценообразования по двум разным страницам. Вот где скрывается средоточие поисковой аналитики – в «расслаивании» запросов, в выявлении того, какие сочетаются в одной точке входа на площадку, а какие необходимо дробить и дифференцировать далее.
Не бойтесь погрязнуть в мелочах. Со всеми по-настоящему скучными и не требующими вашего внимания аспектами SEO система справится самостоятельно. Прочие – ваша забота. В частности, не пренебрегайте анализом НЧ-запросов (низкочастотных), одноцентовым продвижением. Некую фразу вбивают в поисковую строку три человека в месяц? Маловато, зато все три – из вашей целевой аудитории, они нужны вам. Напротив, бойтесь бескрайней широты. Взять хотя бы запрос «игрушки». Какие они бывают? Ведь не только детские: для взрослых, для животных, компьютерные и т. д. Так правильно ли продвигаться по запросу «игрушки»? Едва ли. Другой кейс: вы продаете ортопедические подушки. Сделать ставку на запрос «купить подушки» – значит обмануть ожидания тех, кто, ища пуховые подушки, попал в интернет-магазин «про здоровье». Эти люди (единицы, десятки, сотни), поморщившись, будут мгновенно закрывать вашу с любовью сверстанную страничку с уникальным-преуникальным контентом, что, вне всякого сомнения, ударит по поведенческим метрикам сайта. Стало быть, вне зависимости от тематики площадки мы берем кайло и лупу – дробим статистику и смотрим на низкочастотники через увеличительное стекло.
Как поступить в том случае, если предлагаемый вами продукт новый, даже революционный, однако именно в силу новизны его никто еще не ищет в Сети? Не злоупотреблять подвязыванием его сайта к общим, «аморфным» запросам. Внедрять такой ресурс в естественный топ следует не раньше чем через полгода, а то и через год после того, как будет начата всесторонняя работа с целью повысить его узнаваемость. Ни контекстная реклама, ни SEO на начальной стадии вам не помощники, ваши инструменты – вирусный маркетинг, сарафанное радио, но никак не ссылочное продвижение.
Итак, вы подобрали посадочные страницы, которые, на ваш взгляд, будут интересны посетителю. Пора браться за оптимизацию. SeoPult, а вместе с ним и другие рекламные системы и современный SEO-софт дают рекомендации по внутренней оптимизации сайта. И вновь наша опора – конкурентная среда. Обобщенно – примерно так: вы анализируете 10–20 сайтов конкурентов, смотрите их среднее вхождение ключевых запросов и примерно подсчитываете, сколько раз на странице вашего сайта должно встречаться то или иное ключевое слово. Однако обязательная часть процесса – визуально-структурный анализ конкурирующих сайтов: грубо говоря, следует посмотреть, что и в каких блоках находится на таких площадках.
Невзирая на многочисленные советы по внутренним факторам, не переводятся нерадивые оптимизаторы, которые пренебрегают элементарной SEO-«гигиеной». Наделать ссылок в «подвале» сайта, обеспечить вхождение ключевых слов в ссылки, и только в них (тогда как обязательны вхождения непосредственно в тексте, который описывает услугу или продукт) – по-прежнему ошибки из серии самых распространенных. Да и к выполнению рекомендаций по внедрению тегов разметки –
,
(жирное начертание, «болд») и ,
(курсив) – многие относятся халатно. Что, в таком теге выделения должно находиться хотя бы одно из пяти вхождений? Делают «болдом» все пять. А ведь, казалось бы, «хотя бы одно» не равно «все». Нужно и курсивом сделать? Еще пять вхождений загоняют в …
. Закономерно, что контент на странице оказывается плохо читаемым. Ее быстро покидают даже те, кто днем с огнем не мог ранее найти продаваемый на ней товар. Поведенческие метрики опускаются ниже ватерлинии. Да и асессоры «Яндекса» улавливают закономерность, ставя таким страницам низкие баллы, ввиду чего столь примитивная перестраховка со стороны веб-мастеров, скорее всего, вскоре окажется бесполезной и даже вредной. А ведь решение на поверхности: выделять тегом имеет смысл то вхождение, на котором нужно сфокусировать внимание посетителя.
Интуиции, чувства меры и здравого смысла в SEO иногда бывает мало даже оптимизаторам со стажем. В функциональность SeoPult входит анализ страницы в целом, с выкладками не только по нахождению тех или иных тегов на ней, не только по количеству внешних и внутренних ссылок, но и, в частности, по тому, какие из них открыты для индексации, а какие нет. Система проводит также анализ основных ошибок, зондирует страницу на наличие скриптов, ошибок в индексации, скрытых блоков, скрытых ссылок, давая владельцу сайта всю эту информацию в емком и ясном виде.
Следующий шаг после комплексной подготовки к продвижению – изучение ценообразования и манипуляции с ним. А именно: сколько вы будете платить за конкретный запрос? При расчете бюджетов следует ориентироваться на тех, кто находится в «Топ-10», анализировать их ссылочную массу, смотреть, какое количество ссылок обеспечивает вожделенные позиции, искать среднюю цену такой ссылки. Как и в большинстве других случаев, SeoPult умеет это делать за пользователя: два клика – и перед вами рекомендованный бюджет для продвижения того или иного запроса. Безусловно, желательно использовать весь бюджет, который предлагает система, будь то молодой или старый сайт, потому что SeoPult априори учитывает подобные факторы и покупает ссылочную массу так, чтобы не спровоцировать санкций со стороны поисковых систем. Если сайт молодой, то сервис будет набирать ссылочную массу, стараясь не вызвать «ссылочного взрыва» или других эксцессов.
Если вы вдруг не достигнете поставленных целей, ничто не помешает вам поднять бюджет. Равно как и снизить, например убрав непроиндексированные ссылки после попадания в топ. Но впрыскивать в кампанию 10 % от рекомендованного бюджета крайне неправильно. Разве только ваша цель – попасть из «Топ-200» в «Топ-150».
Разведка подчас приносит данные о ссылочной массе конкурентов, которые можно в дальнейшем использовать при работе в ручных режимах. Впрочем, автоматический в большинстве случаев предпочтителен. Для кого? Даже не для SeoPult, а для самого пользователя. Система оперирует каскадами фильтров, которые разнятся в зависимости от задач. Они на регулярной основе перепроверяются штатными аналитиками и беспрерывно модифицируются. Любитель «старой школы», гордясь своими золотыми руками, нередко создает один-единственный фильтр и ждет у моря погоды. Между тем ручные режимы следует использовать только для точечной борьбы. Нужно безанкорное продвижение? Ручной фильтр. Требуется поработать с регионами? Часть бюджета пускается на автоматический режим, часть – на ручную доводку. Нужно закрепить уникальность контента, сделав свой сайт первоисточником? Да, ручной режим. Но не более того. При комплексном продвижении запросов единичные рукодельные фильтры скорее вредны.
Неувязки с сокращением бюджетов – обычное дело, но причиной им служит лишь невнимательность. Наша служба техподдержки регулярно получает вопросы вида: «Я снял бюджет, а ссылки не снимаются». В SeoPult предусмотрено два способа съема ссылок при уменьшении бюджетов – «снимать плавно» и «снимать сразу». Плавный съем осуществляет избавление только от нерабочей ссылочной массы: так, убирать какую-то ее часть в случае превышения бюджета нужно именно постепенно. Это оптимальный режим, поскольку любой отток влияет на ссылочную массу в целом. Не исключено, что при снятии ссылок по запросу «пластиковые окна» просядет запрос «пластиковые окна в Бутово». Однако применительно к определенным запросам, например сезонным, правильно будет «снимать сразу» (если точнее, в течение пяти дней). Вряд ли вы возразите мне, если я замечу, что в мае мало кому нужны новогодние игрушки или пуховики. Начав продвигать их в сентябре, вы, дай бог, достигнете известных результатов в декабре. Но спустя какой-то месяц ваш товар перестанет быть востребованным. Следовательно, потребуется урезание бюджета в кратчайшие сроки. Впрочем, нельзя снимать всю ссылочную массу в одночасье: было 1000 руб. – оставили 100 руб. Даже при выборе варианта «снимать сразу» имеет смысл ужимать бюджет постепенно. Сначала – до 900 руб. Далее на протяжении одного-двух апдейтов нужно скрупулезно отслеживать, не сказались ли проделанные манипуляции на позициях сайта. При отсутствии отрицательной динамики возможно дальнейшее уменьшение трат. Эта часть процесса автоматизируется с трудом и тоже требует вашего внимания и вашей головы.
Система обладает и средствами, позволяющими веб-мастеру или оптимизатору следить за тем, на каком свете ресурс и все ли с ним благополучно. При создании проекта в его профиле возникают настройки статистики и аналитики, куда необходимо ввести данные от одного из трех счетчиков, после чего система начнет забирать сведения из него и показывать пользователю в простом виде, сколько человек перешло на сайт, кто по каким запросам, словоформам и т. д. Благодаря тому что статистика посещаемости интегрирована с инструментами продвижения, возникает возможность оценить, сколько было вложено в SEO и какова отдача от него. Предположим, из отчета явствует, что ссылок было куплено на 100 руб., а за месяц на сайт перешло 20 человек. Значит, привлечение каждого обошлось в 5 руб. Если система прогнозировала показатель 7 руб., очевиден выигрыш. Если же предполагалось 2 руб., нужно искать, где был допущен просчет, чему и способствует внутренняя аналитика сервиса.
Существуют наиболее вероятные места «пробуксовки». Немного об одном из них. На что, по-вашему, в первую очередь смотрит человек в естественной поисковой выдаче? Ясное дело, на сниппет сайта. Он оценивает его качество, красоту, заголовок и текст. Эти блоки автоматически генерируются поисковиком из контента сайта, и влиять на их состав веб-мастер способен лишь ограниченно, косвенно. В SeoPult наличествует подмодуль, который изо дня в день проверяет сниппеты. Благодаря ему владелец сайта может провести ретроспективный анализ, посмотрев, как выглядел сниппет месяц или два назад, выдвинуть гипотезу, на что опирались алгоритмы поисковика в его составлении, и, предприняв обходные маневры, подкорректировать данный элемент. В заголовок сниппета, как известно, выносится содержимое тега
title
. С текстом дело обстоит сложнее. Если в случае с Google необходимо оперировать метатегом description
, то для «Яндекса» обычна ситуация, в которой для части запросов в сниппете отображается содержимое description
, для другой же части описание черпается из контента сайта. Как быть в таком случае? Изучите вычлененный поисковиком кусок текста, и, если вы считаете, что он не является продающим, если он не способен привлечь внимание посетителя, попытайтесь его творчески переработать. Посмотрите, взял ли его «Яндекс» на вооружение. Если тот выбрал другой фрагмент, значит, редактируйте его. Взаимодействие с «Яндексом» – это все равно игра в черный ящик. Зато благодаря SeoPult эта игра проходит хотя бы не в черной комнате, где не видно, что и когда из ящика было вынуто.
Я не раз касался того, как SeoPult извлекает пользу из анализа конкурентной среды. Возможен и прямой анализ – в форме сравнения. Небольшой пример. Дан список из 50 поисковых запросов и десяток конкурентов. В отчетах SeoPult можно получить сравнение сайта с конкурирующими и постоянно быть в курсе, выше или ниже его они находятся в выдаче. Такой мониторинг дает вам возможность заблаговременно принять решение об увеличении бюджета или, наоборот, успокоить нервы зримым подтверждением своей незыблемости в топе. Система показывает, насколько быстро набирает очки тот или иной сайт. В конце концов, алгоритмы поисковиков меняются едва ли не каждый день. Хотя глобальные изменения совершаются не чаще чем раз в полгода, нелишним будет прогнозировать, исходя из реальной статистики, в какую сторону грозит качнуться выдача и где подстелить соломку, чтобы не было больно падать по позициям.
Нельзя умолчать о такой функции, как гостевой доступ. Изначально он создавался для того, чтобы у человека, который таким образом заходит в систему, не было возможности редактировать данные в проекте. Режим допускает как «белое», так и «сероватое» применение. Честные оптимизаторы через такое «окошко» могут показывать своему клиенту в понятном и приятном интерфейсе, какие позиции занимает его сайт и сколько расходуется на продвижение, и не засорять ему почту письмами с многочисленными отчетами. В свою очередь, оптимизаторы, нечистые на руку, используют гостевой вход с «коэффициентом накрутки». Дело в том, что при настройке урезанного доступа владелец аккаунта вправе выбрать, какие данные предоставлять гостю. Можно показать ему только ключевые запросы и позиции, можно продемонстрировать увеличенный коэффициент цены ссылочной массы, а следовательно, и бюджета в целом. Этически такой прием часто сомнителен, однако вполне правомерен, когда клиент договаривается с SEO-агентством о некоей наценке за сервис и знает о ней.
Мне удалось бегло описать лишь несколько функций SeoPult. Правда, надеюсь, моих примеров достаточно, чтобы вы убедились в степени гибкости системы. Естественно, за манипуляции во вред сервису его администрация вынуждена налагать бан, о чем честно предупреждает на своих страницах большими буквами. Однако штатной и полуофициальной функциональности системы хватает с головой практически для любых случаев без привлечения сторонних инструментов. Подобно тому как, в отличие от автовладельцев, владельцы и пилоты самолетов редко бывают одержимы их «апгрейдом», предпочитая совершенствоваться в искусстве маневра и в управлении, то же самое можно сказать и о продвижении своими силами и через автоматизированные сервисы. Стараться нужно в обоих случаях. Но вообще – земля и небо.
В число важнейших факторов ранжирования входит такой показатель сайта, как трастовость, именуемый также TrustRank, или просто траст. Представители поисковых систем настаивают на том, что траст – понятие относительное и не выражается количественно для каждого отдельно взятого сайта. Нам же как практикам важно одно: траст существует, он более чем реален и участвует в ранжировании. А значит, было бы непростительной ошибкой закрывать на него глаза в процессе поискового продвижения. Суслика никто не видит, но он действительно есть, и огромный.
Первое упоминание о трасте датируется 2004 годом. Это понятие фигурировало в совместном труде сотрудников Стэнфордского университета и компании Yahoo! под названием «Борьба с веб-спамом с помощью TrustRank». Согласно содержанию работы, TrustRank отводится важная роль в искоренении искусственной накрутки авторитетности ресурсов. Ключевые моменты влияния траста на качество выдачи таковы.
1. Наличие лишь одного метода определения авторитетности сайта, а именно PageRank, на руку любителям «черной» оптимизации. Один из их методов базируется на создании множества грамотных перелинковок между сайтами с нулевым весом, которые образуют сетку сателлитов. Благодаря накрутке реципиент получает приличный вес и вместе с ним статус авторитетного ресурса.
2. Во избежание глобальной несправедливости и ради устранения спама из выдачи и вводится TrustRank. Таким образом, при передаче PageRank от донора к реципиенту посредством обратных ссылок учитывается некий «особый вес», исходящий только от качественных, крупных, известных, прошедших ручную проверку ресурсов. Трастовый сайт не станет ссылаться на низкосортный ресурс с псевдоуникальным контентом. Это обстоятельство призвано подтолкнуть оптимизаторов и разработчиков к созданию предназначенных для людей сайтов с интересным контентом.
В сущности, траст напоминает переменную, без которой невозможно решить уравнение. Значение траста нельзя зафиксировать, но без него у сайта падают шансы на долговременное попадание в топ по высококонкурентным запросам. Вместе с тем все ресурсы Сети не могут обладать большим TrustRank. Это привело бы к хаосу в поисковой выдаче, так как определить сайты, наиболее релевантные запросу, было бы проблематично.
Благодаря трасту сайт котируется поисковыми системами выше, чем если бы не имел его, но залогом успеха в продвижении по-прежнему остаются уникальный тематический контент, безупречная внутренняя оптимизация и максимально приближенная к естественной внешняя ссылочная масса, стабильная и разнородная.
TrustRank присваивается домену в целом по аналогии с тИЦ, и делается это двумя способами. Во-первых, посредством ручной проверки сайта асессорами, во-вторых, в автоматическом режиме на основании ряда факторов, отражающих качество ресурса. Оценки в первом и втором случаях могут не совпадать: порой при незначительном трасте, определенном автоматически, выставленный вручную балл оказывается на порядок выше.
Наряду с поднятием «пузомерок» (в частности, PR и тИЦ) увеличение траста сайта – ежедневная забота оптимизатора. Пусть траст – величина, не поддающаяся измерению, но ее можно преумножить. Получение даже небольшого TrustRank серьезно повышает шансы ресурса на то, чтобы продвинуться в топ по ключевым запросам. Процесс приобретения траста имеет две составляющие.
1. Работа над внутренней оптимизацией сайта. Качество внутренней оптимизации явным образом влияет на присвоение траста.
2. Приобретение ссылок с трастовых ресурсов. Наличие у площадки даже небольшого количества покупных ссылок с авторитетных ресурсов повышает эффективность ссылочного продвижения в целом.
Оптимизаторы носили бы на руках того, кто предоставил бы им подробный достоверный список факторов, которые принимает во внимание поисковая система при назначении уровня траста ресурсу. Также тайной за семью печатями остаются алгоритмы вычисления траста, которые вдобавок регулярно меняются. В частности, «Яндекс», поставив себе на службу систему машинного обучения MatrixNet, ускорил внедрение изменений.
Опытным путем SEO-эксперты все же составили перечень наиболее важных факторов, влияющих на получение TrustRank. Легко заметить, что многие из них схожи с критериями выставления тИЦ, вИЦ («взвешенный индекс цитирования» в терминологии «Яндекса») и PR. Перечислим наиболее важные.
1. Необходим качественный контент – уникальный и тематический. Сайту с заимствованным контентом странно рассчитывать на доверие поисковиков. Все тексты должны быть объединены общей тематикой, или, по-умному, обязательно присутствие сквозного семантического кластера. Сайту о ремонте жилых помещений с дельными статьями легче заслужить доверие, чем псевдоэнциклопедии, страницы которой забиты всякой всячиной, мало интересующей пользователей.
Немаловажны с точки зрения присвоения траста страницы с контактными данными, информацией о компании. Очевидно, что эти сведения должны быть реальными. В противном случае оценка асессоров будет заведомо отрицательной.
2. Возраст домена и сайта напрямую влияют на присвоение траста. Молодой сайт лишен шансов быстро удостоиться TrustRank. Поисковики прибегают к таким ограничениям ради борьбы с сателлитами и дорвеями, которые с первых дней жизни способны засорить поисковую выдачу. Стоит отметить, что возраст сайта для поисковика отсчитывается не с даты регистрации домена, а с момента первой индексации его поисковым роботом.
3. Качество хостинга играет не последнюю роль в оценке сайта. Учитывается бесперебойная работа сервера, отсутствие ошибок в его настройке, скорость загрузки страниц сайта, история IP-адреса. Если на IP ранее был размещен вредоносный ресурс, нарушавший правила поисковых систем, вероятно понижение траста у продвигаемого ресурса.
4. Дизайн сайта, претендующего на хороший траст, не должен быть шаблонным. Если в коде встречаются фрагменты, которые используются и на других сайтах, они могут быть идентифицированы как дублированный контент. Да и асессоры оценят шаблонный дизайн невысоко.
5. Вредоносный код несовместим с трастом. Следует тщательно проверить сайт и убедиться в отсутствии вирусов на нем.
6. Спам на сайте недопустим. Необходимо проверять комментарии, сообщения форума и своевременно удалять все похожее на спам.
7. Стабильный трафик свидетельствует о востребованности сайта. Регулярная посещаемость и естественный, постепенный прирост аудитории – прямой путь к набору траста. Резкие скачки или падение трафика с высокой степенью вероятности приведут к понижению TrustRank.
8. Кликабельность сниппетов демонстрирует интерес пользователей к продвигаемому ресурсу. Привлекательный сниппет приближает сайт к получению заветного траста.
9. Время нахождения на площадке – один из поведенческих факторов, которые также влияют на доверие к ней со стороны поисковых систем. Данные о длительности пребывания пользователей на сайте «Яндекс», в частности, получает посредством установленного на сайте счетчика «Яндекс.Метрика». Слишком быстрый переход посетителей со страниц свидетельствует о низком качестве контента.
10. Присутствие в крупных «белых» каталогах, а именно в «Яндекс.Каталоге» и DMOZ, повышает траст сайта в «Яндексе» и Google.
11. Использование ключевых слов в домене в некоторой степени также работает на присвоение траста. По возможности домен должен быть лаконичным и характеризовать тематику ресурса. Слишком длинные домены с нагромождением ключевых запросов в URL характерны для спам-сайтов. Им поисковики не доверяют и принимают против них защитные меры.
12. Количество страниц в индексе также учитывается при оценке ресурса. Поисковики больше доверяют крупным сайтам, у которых в индекс попало большое количество страниц с качественным контентом. Маленькие площадки имеют право на существование и способны попасть в топ, однако траста им достанется гораздо меньше.
13. Сайт тем больше нравится поисковикам, чем чаще обновляется его содержание. Не обязательно каждый день добавлять уникальные статьи, достаточно систематически проводить работу с контентом, тем самым показывая, что сайт живет и развивается. Полезно использовать такие фишки, как RSS-ленты и XML-sitemap.
Этот внушительный список отражает требования к внутренним факторам сайта. Не менее важны и внешние.
Покупка ссылок с целью «подкачки» траста требует бдительности, так как доноры должны быть исключительно трастовыми площадками и передавать большой вес.
В SeoPult реализована такая функция, как закупка сугубо трастовых ссылок. Система самостоятельно определяет, нужно ли сайту поднять TrustRank, и автоматически подключает к используемому каскаду фильтры закупки трастовых ссылок.
Прибегая к традиционным ручным методам закупки ссылок, необходимо помнить о нескольких факторах, на которые следует обращать особое внимание при отборе доноров.
1. Качество исходящих ссылок продвигаемого ресурса. Прежде чем начать поиск доноров, проверьте собственные исходящие ссылки. Если они ведут на ресурсы сомнительного качества, это может грозить передачей в обратном направлении «отрицательно заряженного» траста. Необходим и контроль количества исходящих ссылок. Чем их меньше, тем лучше.
2. Входящие ссылки. «Надуть» траст покупными ссылками не так просто, но все же возможно. Поэтому при покупке трастовых входящих ссылок важно проверять возможных доноров с особой дотошностью. Подлинно трастовый ресурс запросит высокую плату за размещение ссылки и будет удовлетворять основным критериям площадки с большим TrustRank.
При необходимости можно каждого донора пристально изучать под лупой, но гораздо удобнее поручить эту задачу каскадам фильтров системы SeoPult. Источником качественных доноров для SeoPult является биржа трастовых ссылок TrustLink, где сайты проходят жесткий отбор и ручную модерацию. Это гарантирует, что ссылки, приобретенные в TrustLink, положительно повлияют на авторитетность и трастовость продвигаемого ресурса.
Рекомендуется при покупке ссылок разбавлять общую внешнюю ссылочную массу с помощью безанкорного продвижения. В среднем 5-10 % от бюджета на продвигаемую страницу следует выделять на закупку ссылок с анкорами вида «тут», «здесь», «на сайте» и т. д. Также для придания большей естественности можно купить несколько ссылок на страницы, которые непосредственно не участвуют в продвижении.
3. Входящие естественные ссылки. Покупка ссылок – дело нехитрое, особенно если под рукой удобный инструмент. Но хотя SeoPult при грамотном использовании выводит сайты в «Топ-10» поисковой выдачи, параллельно имеет смысл провести работу над внутренними факторами. Владелец качественного сайта способен добиться того, чтобы ссылки на его материалы бесплатно размещались в известных блогах, на крупных тематических сайтах. Интересный и востребованный ресурс сам по себе запускает механизм наращивания естественной ссылочной массы. Необходимо дать пользователям то, что им нужно: знания, сервисы, развлечения, исследования. Получив популярность в широких кругах, сайт вправе рассчитывать на достойный траст. А трастовым ресурсам проще как забраться на высшие ступени поисковой выдачи, так и удерживать завоеванные позиции.
Резюмируя все вышеизложенное, мы повторим, что, как это ни тривиально, качество сайта – тот фундамент, на котором строится его продвижение.
В процессе присвоения уровня траста ресурсу поисковые системы учитывают тысячи разных параметров, но все они коррелируют с качеством сайта и его полезностью для интернет-аудитории.
«Мой сайт попал под АГС[9]!» – обронить такую фразу на форуме оптимизаторов – значит вызвать такой же всплеск сочувствия пополам со злорадством, какой возник бы, если бы некая дама написала в комьюнити о фитнесе: «Я сидела на диете полторы недели, но за два дня набрала все, что сбросила». Как в том, так и в другом случае жалобщиков избавило бы от проблем знание ряда фундаментальных законов: в первом – «сеошно-математических», во втором – физиологических и биохимических. О том, чем в большинстве случаев оказывается мнимое «попадание под АГС», какую пользу сметливый оптимизатор извлечет из теории игр, комбинаторики и иных страшных в своей полезности дисциплин, расскажет известный SEO-эксперт Андрей Шипилов.
Насколько актуален АГС сегодня?
Андрей Шипилов: АГС свою задачу выполнил. Потому что он был направлен против массы ГС, автоматически ваяемых школьниками. Их больше нет, поэтому сайты продолжают наказываться совсем по другим основаниям. Конечно, если вы сваяли кучу говносайтов, то у вас сайт попадает под АГС, пять страниц в индексе осталось – и вы рвете волосы. Но если у вас нормальный сайт, в развитие которого вложено 5–6 млн руб., да пусть даже 500 тыс., и у вас вдруг остается десять страниц в индексе, а вы бегаете кричите, что у вас АГС, то, простите, у вас не АГС – у вас глупость! В теории игр есть такое положение: не надо искать заговор там, где все можно объяснить простейшей глупостью.
Разве АГС сегодня не работает?
А. Ш.: Он продолжает работать. Вот пришел Коля Иванов: «Ах, я сейчас пойду зарабатывать на Sape[10]!» Сделал 100 сайтов, и 100 сайтов у Коли Иванова ушли под АГС. Такое случается. Когда приходит человек, у которого сайт приносил на нормальной рекламе, на контексте или еще на чем-то 60 тыс. руб. в месяц, когда у него была посещаемость 20 тыс. в месяц, когда на сайте бурлила жизнь и вдруг у него либо трафик падает в 50 раз, либо вылетают все страницы из индекса, то это не АГС, а, повторюсь, глупость.
Действительно хороший сайт не может в принципе попасть под АГС?
А. Ш.: Как правило, человек, желая сделать свой сайт лучше и наслушавшись советов SEO-специалистов, загнал его в такие условия, что он, с точки зрения «Яндекса», стал очень плохим. Я придумал термин – «парадокс Марьи-искусницы». Знаете, когда в старом фильме выходит мальчик и колдун предъявляет ему 20 абсолютно равнозначных копий его мамы – выбирай, какая настоящая. Сейчас любой в нашей отрасли находится в положении такого мальчика, выбирающего между десятками «Марий-искусниц», потому что на рынке SEO сейчас информации нет. Есть информационный белый шум, и среди него гуляет один-единственный нужный вам ответ, но вы его не увидите, поскольку у вас нет методики, как его вытащить. Простейший эксперимент. Я иду в «Помощь» «Яндекса», читаю о синтаксисе
robots.txt
, захожу на форум под видом новичка и спрашиваю: «Ребята, каков правильный синтаксис строки Crawl-delay
? Как мне ее правильно написать в robots.txt
?» Получаю восемь, десять, пятнадцать ответов. Взаимоисключающих. Логика подсказывает, что среди ответов в лучшем случае только один верный.
Другой парадокс – «парадокс монетки»: принимая решение по принципу «орел или решка», я получу более точный ответ, чем задав вопрос на форуме. Говорят, что на форумы не надо ходить, но форумы – это отражение сообщества. Человек, который владеет информацией, будет на ней зарабатывать, он ею делиться не станет. И даже если некто владеет информацией, маленьким кристалликом истины, тот все равно будет поглощен информационным шумом. Темы быстро «сгорают». Положим, вы нашли способ заработать на SEO. Вы сумеете на нем зарабатывать два-три года, не больше, а скорее меньше. Возникает куча сервисов, разного рода программ SEO, которые что-то делают. В основе их функционирования лежит тот же информационный шум, который гуляет по SEO-рынку. Но человек, получая информационный шум опосредованно, через программу, зачастую не видит того, что творится на форумах, он хочет быть выше их суеты: «Пускай школьники болтают, а вот программа дала мне результаты, я на них и буду ориентироваться». Посмотрите по терминологии, зайдите на форумы Sape, на SearchEngines. Приходит человек: «У меня трастовые показатели сайта – 15, показатели вхождения – 18, все круто, а сайт падает. Почему?» А что такое «трастовые показатели – 15»? Ему программа это сказала. Еще конкретный пример: «У моего сайта выпала первая страница из индекса. Все остались, а первая выпала. Почему?» Да потому, что ему какой-то сервис сказал, что выпала первая страница. Когда человек хочет улучшить свой сайт, он волей-неволей оказывается жертвой информационного шума.
В заблуждение впадают те, кто слишком доверяет как истинным, так и самозваным SEO-специалистам, это болезнь неофитов?
А. Ш.: Классический пример. Сидит народ на серьезной конференции и рассуждает о влиянии поведенческих факторов на ранжирование сайтов, на их позиции в «Яндексе». Дескать, надобно увеличить время просмотра страницы на столько-то, а глубину просмотра – на столько-то, а показатель отказов – на столько-то. Обратите внимание: употребляя эти термины, каждый под ними понимает свое. А в соседнем зале рассказывают, как «Яндекс» наказал MegaIndex или еще кого-то за накрутку поведенческих факторов. Что такое поведенческие факторы? Никто не знает. Раз никто не знает, будем принимать за поведенческие факторы статистику. Почему? Потому что статистика показывает, как пользователь ведет себя на нашем сайте. Коль скоро она показывает, как пользователь ведет себя на нашем сайте, значит, статистика и есть поведенческий фактор. Следовательно, надо улучшить статистику сайта. А как я буду улучшать? Уменьшая процент отказов, увеличивая глубину просмотра, увеличивая время нахождения на сайте.
Очень серьезная контора, очень грамотные специалисты. Компания занимается онлайн-обучением. Хороший инвестор, действительно умелые технические специалисты и преподаватели, бизнес-команда прекрасная. Они принимают совершенно верные тактические решения, проводят маркетинговые исследования. Однажды делают вывод: «Если мы разместим на сайте видеоролики, то тем самым повысим усвояемость материала, сделаем его более интересным». Приходит грамотный технический специалист и говорит: «Вы что, сдурели – видеоролики класть на своем сервере! Есть же видеохостинг. Заведите аккаунт, положите все видеоролики там, а здесь сделайте iframe или еще что-нибудь и показывайте на здоровье». Посетитель заходит, смотрит видеоролик «Как собрать детектор для пыли в домашних условиях». Как принято на видеохостингах, ему сразу же подсовываются значки более интересных записей на ту же тему, он щелкает, смотрит их 15 минут, не уходя со страницы. Все радуются: проведенное на сайте время – 15 минут, глубина просмотра – неимоверная, и уж, наверное, чудесные поведенческие характеристики. В какой-то момент у сайта оказывается ноль страниц в индексе. Причина проста: поисковая машина лишена эмоций и ей понятен тот факт, что на сайте с 5 тыс. страниц каждая ссылается на один и тот же хостинговый аккаунт и народ ходит туда, только чтобы через эти страницы смотреть видеоролики на стороннем хостинге. Что увидел «Яндекс»? Дорвей. Сайт забанен.
А как понять причину «возмездия»?
А. Ш.: Причина наказания качественного сайта может быть до такой степени неочевидной, что даже три-четыре аудитора, садясь вместе, очень долго будут копаться. Сам я сейчас, когда занимаюсь аудитом сайтов, действую очень просто: я прежде всего стараюсь понять, что именно было вытащено из информационного шума. Я вижу, по какой ниточке из информационного шума они пошли, и всегда отыщется уязвимая точка, где сделано не то. Только так. Если тупо сидеть и искать, вы ничего не найдете.
Другой аспект. Везде, на сайтах разработчиков CMS, на сайтах специалистов по безопасности, в очень многих серьезных источниках по SEO, выложены чек-листы по 20–30 пунктов, описано, чего не надо делать, какие технические погрешности на вашем сайте могут привести к наказанию со стороны поисковых машин. В 90 % случаев именно нарушение чисто технических требований и приводит к наказанию сайта, несмотря на то что разработчики сайта все это читали и вроде бы понимают: не нужно плодить дубли, надо закрывать от поисковых роботов все технические страницы, результаты сортировки, профили – все то, что не несет информации, релевантной содержанию сайта.
Беда в том, что если вы все перечисленное без задней мысли проделаете, то потеряете четыре пятых трафика, который у вас идет на эти паразитные страницы. Снова бросаемся с головой в информационный шум, выныриваем оттуда вот с такими глазами, с полной уверенностью в том, что чем больше у нас проиндексированных страниц на сайте, тем лучше он проиндексирован, чем больше трафик на сайт льется, тем круче. Да, если ваш сайт – СМИ и вы с трафика продаете рекламу, без вопросов. А если вы торгуете шинами или бриллиантами и добились того, что на ваш сайт в поисках бриллиантов заходит 50 тыс. человек в день? Чтобы радоваться этому – извините, господа, – надо быть полным глупцом! Потому что бриллиант и даже автомобильные шины – это не тот товар, который можно продать 50 тыс. покупателям. Значит, у вас столпится такая куча народа, что вы его не продадите.
Еще раз: не плодим дубли, категорически закрываем от индексации все технические страницы, в строгом соответствии с рекомендациями в «Яндексе» и Google составляем
robots.txt
. На 95 % сайтов, аудит которых я проводил, robots.txt
был написан с синтаксическими (что не страшно, в общем-то) или фактическими ошибками. За последние два года мне три раза приходилось сталкиваться с тем, что сайт вылетал из индекса, поскольку веб-мастер нечаянно запретил индексацию сайта в файле robots.txt, просто написав строку Allow
без параметров, подумав, что она разрешает индексировать на сайте.
Смотрим, чтобы было с
robots.txt
. В обязательном порядке проверяем, что выдает наш сервер в ответ на запрос браузера. Если ваш сервер отвечает – типичная ситуация, – что срок валидности опубликованного материала истек 1 января 1980 года, то ни о каком регулярном и системном посещении вашего сайта поисковыми роботами и речи нет. Вы можете прописать в sitemap
все параметры как положено, однако, если робот увидит эту запись в коде ответа сервера, он ваш sitemap
проигнорирует. Пустячок, но я сам был свидетелем того, как новостной сайт нормально не индексировался. После того как в полях, касающихся модификации публикаций, появились валидные даты, возникла валидная дата истечения cookie, сайт взлетел просто за счет того, что робот стал заходить практически секунда в секунду с публикуемым материалом. Грубо говоря, вы делаете технически правильный сайт и потом не платите мне 30 тыс. за то, чтобы я вам сказал: «Исправьте эту строчку в robots.txt
или закройте с помощью noindex
технические страницы».
К слову о
noindex
. Он позволяет закрыть часть страницы от индексации. Проглядываю сайт, и каждое второе предложение – в noindex
. Спрашиваю у владельца сайта:
– Что это такое у тебя?
– А это я придумал такой очень хороший способ уникализации текста!
– Как так?
– Вот «Яндекс» это предложение читает, это предложение читает, это предложение, и вроде как текст уникальный.
– Да «Яндекс» у тебя все прочитает, понимаешь?
Noindex
– это «не помещать в индекс», это не значит «нельзя читать, нельзя анализировать». Это значит «прочти, проанализируй, но не помещай в индекс». На сайте «Яндекса» четко все написано в «Помощи», двоякие толкования исключены.
Очень серьезная контора, имеющая десятки сайтов по всему бывшему СССР Специфика компании вынуждает одни и те же позиции товара по 50, по 100 раз на одной странице приводить. В какой-то момент сайт перестает нормально индексироваться, все рушится, из индекса тоже много вылетает. Когда я проверяю сайт, в первую очередь смотрю
robots.txt
, потом код страницы. Открываю совсем небольшую страничку – там 150 раз noindex
.
– А что это, господа?
– Понимаете, у нас слово «насос» встречается 150 раз, и мы подумали, что «Яндекс» это сочтет спамом. Только один «насос» оставили, а все остальные забрали в
noindex
, чтобы поисковик их не прочитал.
Во-первых, «Яндекс» никогда прайс-лист, табличку не сочтет спамом. Он не дурак и распознает, где у вас прайс-лист, а где текст, насыщенный спамом. Он это начал понимать лет десять назад. Во-вторых, если на сайте 50 тыс. страниц и на каждой надо обработать тег по 150 раз, это же какие вычислительные мощности потребуются. В конце концов, либо роботу самому «надоело», либо человек зашел, увидел 150
noindex
, у него глаза из орбит вылезли, он – чпок! – нажал кнопку.
Повторюсь, когда я слышу: «Помогите, мой сайт попал под АГС!» – то, если это достаточно серьезная площадка, почти наверняка она попала не под АГС, а под информационный белый шум в Интернете, помноженный на глупость владельца.
Если не АГС, то что может грозить хорошему сайту и за что именно?
А. Ш.: Да простит меня поисковая система «Яндекс», но у нее очень часто случаются разного рода ошибки и глюки. В большинстве случаев они некритические и остались бы незамеченными, кабы владельцы сайтов, «вооруженные» информационным шумом, не следили за позициями. Здравый смысл подсказывает, что важно следить за трафиком сайта. А информационный шум говорит: «Мониторь позиции». Вдруг владелец сайта видит, что у него позиции начинают скакать. Когда подобное происходит, у меня первая мысль: «А не глюк ли это “Яндекса”?» Ведь мне известно, что с моим сайтом все нормально и ни с того ни с сего он прыгать в выдаче не начнет. А у человека, который живет в белом шуме, иная реакция: «А какой фильтр на меня наложили?» Он делает лихорадочные шаги в поисках мнимого фильтра и надеется устранить проблему, мечась от одного предположения к другому: «Ах, может быть, у меня переспам? А давай на 1 % меньше ключевых слов на всех страницах сделаем? Ах, может быть, я слишком много ссылок закупил? Дай-ка я от части откажусь, закуплю вместо них другие…» Сайт, в общем-то, стабильный и нормальный, но с ним в одночасье затевается чехарда: синхронно меняются тексты на всех страницах, ссылки скачут. Все, и никаких фильтров не надо. Просто потому, что тексты синхронно поменялись, позиции у вас упадут.
Технологии совершенствуются. Раньше – да: накупил ссылок – фильтр «Ты последний» (уж не знаю, существовал он на самом деле или нет), переспамил – фильтр «Ты спамный». Сейчас такого нет. Действуют очень сложные механизмы, которые стараются понапрасну не наказывать. На сегодняшний день «Яндекс» наказывает, только если его изрядно достать. Четкой статистики у меня нет, но частенько ко мне приходят люди с просьбой: «Ах, определите, какой у меня фильтр!» Нередко дело в региональной принадлежности оказывается. «Яндекс» все время что-то у регионов подкручивает. Господа, ваш сайт привязан к Перми. Поменяйте регион, и вы увидите, что эта чехарда только в конкретном регионе происходит, в других ее нет. У «Яндекса» написано чуть ли не аршинными буквами черным по белому на панели «Веб-мастер», что для каждого региона используются свои правила ранжирования. Следовательно, что-то с факторами ранжирования в вашем регионе происходит. Можно задать «Москву», зайти с зарубежного IP и убедиться, что на самом деле с сайтом все нормально. Я не знаю, как он внутри устроен, в моих глазах «Яндекс» – это «черный ящик» что на входе, что на выходе. Но очень часто по какой-то причине «Яндекс» перестает видеть часть страницы. Может, действительно какие-то проблемы с базой, а может, проблемы со считыванием. Тем не менее он индексирует страницу до половины, а оставшуюся часть не видит. Такие эксцессы, впрочем, кратковременны. Если вас «Яндекс» видит по одному заголовку, по тупому вхождению предложения целиком, а абзацем ниже – нет, то подождите немножко. При условии, что вы страницу в
noindex
не забирали, не бывает так, чтобы страница индексировалась кусочками, она всегда индексируется полностью.
Когда позиции скачут или нечто подобное происходит, как правило, это не фильтр?
А. Ш.: Я бы не сказал «как правило». Всегда можно проверить. Все боятся: «А ну как у меня на сайте какой-то криминал, и если я напишу в техподдержку “Яндекса”, то меня накажут еще сильнее». На самом деле написал и получил ответ: «Извините, с вашим сайтом все в порядке, у нас была ошибка. Подождите немного, ваш сайт начнет ранжироваться нормально». Уверяю вас, когда я обращаюсь по поводу нормального сайта, я в 90 % случаев получаю именно такой ответ. Так и пишут: «Проблемы с нашей стороны. Подождите, ваш сайт начнет нормально ранжироваться». Спросите! Нет, я буду уменьшать количество вхождений на сайте. Нет, я буду менять структуру: кто-то мне подсказал, что у меня неправильный
sitemap
. Я нагенерю sitemap
, куда для надежности включу все технические страницы, которые «Яндекс» никогда бы не нашел самостоятельно. Итог печален.
Говносайты, MFA-сайты[11] (между прочим, хорошие MFA-сайты очень тяжело отличить от обычных качественных сайтов, это практически одно и то же), сайты под Sape, под продажу ссылок, для арбитража всегда видно сразу. Если сайт нормальный, приличный, на нем несымитированная людская активность, но он оказывается наказанным, это не АГС. У АГС нет конкретной причины. АГС – это сложный механизм, который берет совокупность огромного количества параметров. Когда сайт наказывают за что-то конкретное, это не АГС, а в 90 % случаев глупость владельца.
Если что-то случается с позициями, до ответа от «Яндекса» лучше не делать «резких движений»?
А. Ш.: Да. Конечно, если ваш сайт плохой и наказан за то, что он плохой, вам так и скажут честно: «Развивайте ваш сайт. Наши алгоритмы приняли решение». Если ваш сайт до сих пор был нормальным, то глупо опасаться, что на основании письма его отнесут к плохим. Может быть, такая вероятность есть, но она намного ниже, чем шансы на то, что вы сами испортите свой сайт необдуманными действиями. Для того и существует диалог. Можно даже написать: «Был такой-то запрос, по нему у меня сайт был на пятой позиции, а сейчас на пятнадцатой. Что случилось?»
Клиент стесняется написать. А я всегда пишу, даже если клиент меня просит не писать – уж открою секрет. Потом отвечаю клиенту, что его сайт вернется в индекс через два-три апдейта, и с чистой совестью беру с него деньги за письмо, написанное в «Яндекс». Если он не хочет платить, ради бога, пусть напишет сам, но если он хочет мне заплатить за то, чтобы я написал, я сделаю это.
За что все-таки могут наказать качественный, сделанный для людей сайт? Ведь, кроме АГС, существуют и другие фильтры.
А. Ш.: Могут наказать за технические проблемы, особенно если ваши конкуренты подсуетятся. Если ваш сайт тяжело индексировать, то есть на нем 200 страниц, а на его индексацию надо потратить ресурсов как на сайт с 200 тыс. страниц, его могут наказать, пусть даже с точки зрения наполнения контентом он совершенно нормальный. Положим, робот ждет, пока сайт ответит, по пять секунд на страницу, или у вас на каждую страницу с полезной информацией приходится десять с бесполезной. Или архитектура сайта до такой степени запутана, что робот, проходя по графам, по 50 раз зайдет на одну и ту же страницу, считая, что он попадает на новую.
Могут ошибочно наказывать за поведенческие факторы или за неверную раскрутку сайта. Например, если в какой-то момент вы решили всерьез продвинуться по SEO и получилось так, что у вас 95 % входящего трафика составляет SEO-трафик, причем большой, то есть если на ваш сайт только с поисковиков заходит 20 тыс. человек в день, составляющие абсолютное большинство его посетителей, то определенные механизмы позволят «Яндексу» заподозрить, что у вас MFA-сайт, созданный исключительно для того, чтобы сливать куда-то трафик по более высокой цене, чем та, по которой вы его привлекаете. И если, не ровен час, на вашем сайте найдутся тому подтверждения – необоснованно большое количество тизерок и прочего, – то вас однозначно накажут, и довольно жестоко, притом что наказание будет снять очень тяжело. Или у вас нормальный сайт, но вы решили продвинуться сомнительным способом. К вам пришел новый веб-мастер и обмолвился, что знает, где взять трафик по 10–20 коп. за человека. Такие источники действительно есть, и вы гоните себе 50 тыс. человек в день. Между тем у вас никакого другого входящего трафика нет. Так не только у «Яндекса». Все роботы сразу делают стойку: «А, мы имеем дело с арбитражем!» Не дай бог, у вас на сайте где-нибудь мелькнут слова «пошли SMS»: он будет наказан. Хотя, казалось бы, это совершенно невинные вещи.
Сайт рискует попасть под фильтр только потому, что у него слишком большой процент трафика поступает из поисковиков, хотя на самой площадке все идеально?
А. Ш.: Да. Что такое идеальный сайт с точки зрения поисковой машины? Никто не знает. Приведу еще один пример. Сайт компании в сфере недвижимости, и на нем огромные базы – десятки тысяч страниц. На нем реализован механизм – то ли AJAX, то ли что-то другое, – благодаря которому человек заходит на сайт, просматривает один объект недвижимости, щелкает на другом, тот подгружается, притом висит один и тот же URL. С точки зрения робота, человек находился на одной странице с неизменным URL. Сайт работает, посетители выполняют нужные им действия, все сделано для людей. Что видит поисковая машина? То, что изо дня в день сотни человек ходят на одну и ту же страницу сайта, а на остальные страницы не заглядывают. Закономерный вопрос: а зачем эти страницы в индексе?
Но ведь «Яндекс» декларирует, что с некоторых пор прекрасно понимает AJAX?
А. Ш.: Не берусь судить, AJAX там или не AJAX. Да, мне говорили, что и JavaScript понимает, и Flash подгружает. Но факт: как только была дана рекомендация использовать тупой GET-запрос, чтобы каждая страничка имела свой адрес, сайт начал очень хорошо индексироваться, вошел в индекс заново. Правда, по-моему, после письма Платону Щукину[12], где ситуация была объяснена.
А как быть в таком случае, когда действительно, казалось бы, невинная, с точки зрения владельца сайта, мелочь приводит к попаданию под фильтр? Например, то же самое использование тизерок, избыток рекламы.
А. Ш.: По-моему, у «Яндекса» это даже где-то написано. Даже если нет, у «Бегуна»[13] четко продекларировано. Если вы прочтете пользовательское соглашение «Бегуна» и будете его неукоснительно выполнять, шансы попасть под фильтр за арбитраж трафика, за слив трафика в сети контекстной рекламы у вас будут минимальными. Например, тот же самый «Бегун» никогда не примет ваш сайт в свою систему, если у вас «моновходящий» трафик. Допустим, на 90 % – с тизерок. Ваш сайт даже не рассматривают, одного упомянутого факта хватит, чтобы сайт не был принят в «Бегун». Так почему же политика поисковиков должна быть иной?
Один из хороших способов уйти от информационного шума – черпать знания не из SEO-источников, а из других, близких: документации поисковиков, документации систем контекстной рекламы. Profit-Partner[14] дает, например, очень хорошую инструкцию. У меня был случай, когда я сам не мог понять, в чем дело, но, поскольку сайт участвовал в «Яндекс»-«вертушке», я просто позвонил знакомому специалисту из Profit-Partner, и тот мне объяснил на пальцах, как именно структура трафика повлияла на ситуацию.
Мы вновь возвращаемся к поведенческим факторам. Почему я говорю, что поведенческие факторы не равны статистике? Еще и потому, что значительная часть поведенческих факторов вообще лежит за пределами вашего сайта. До того как человек к вам пришел, он отслеживается. Человек в поиске кликнул на одном сайте – ушел, на другом сайте – ушел, заглянул на ваш – остался. Вам плюс. Где, на чем он кликает до вашего сайта, вы не в силах проконтролировать. Мало того, вы это естественно и сымитировать не сумеете. Человек провел на вашем сайте три минуты – вроде как много. Дальше он ушел на другой сайт той же тематики, провел там 15 минут, заполнил форму, сделал заказ. Это все отслеживается. Хотя у вас, казалось бы, нормальная глубина просмотра, но у вас будет плохая поведенческая характеристика, а у владельца конкурирующего проекта – хорошая.
Способ избежать наказания – делать сайт интересным для людей. Попробую сформулировать правила.
Во-первых, попробуйте вылезти из информационного белого шума. Когда вы видите, что перед вами двадцать «Марий-искусниц», не выбирайте между ними, идите и ищите другой источник знаний. В сказке мальчик вышел за дверь, и ему девочка шепнула, что от настоящей мамы теплом повеет. Лучше выйдите за дверь, и найдете место, где вам шепнут правильно.
Во-вторых, возьмите на вооружение то, о чем «Яндекс» говорит, хотя никто никогда его не слушает: делайте ваш сайт интересным людям, развивайте его. Маленький секрет. Если у вас хороший трафик с поисковых машин, есть трафик из контекста, на вас ссылаются форумы, к вам переходит тьма народа с ссылок, значит, у вас нормальный входной «мультитрафик», ваш сайт очень хорошо отслеживается поисковыми машинами. Но если ваш сайт притом не заносится в «Закладки», вы заметите, что трафик начинает потихонечку падать просто потому, что раз сайт действительно нравится людям, то хоть один из ста человек его к себе в «Закладки» да внесет. Не заносят? Стало быть, сайт не нравится людям, плохой он. Это тоже поведенческий фактор, и все именно так и происходит. Одно время было поветрие: существовали всякие хитрые механизмы, которые заносили сайт в «Закладки», либо побуждали занести сайт в «Закладку», либо заносили его без ведома пользователя. Потом эти методики завяли. Механизмы имитации очень быстро раскалываются.
Не надо забывать, что математика – это наука, а поисковики делаются математиками. Я несколько лет назад потратил деньги и хорошенько изучил теорию игр, и я осознал, каким был идиотом до той поры, не понимая простейших вещей, очевидных в рамках математических моделей. Они противоречат интуиции, но верны. Многие решения на SEO-рынке принимаются на интуитивном уровне, на уровне догадок, а с той стороны – точная наука, которую не обманешь.
Ежедневно в Рунете делаются десятки тысяч запросов с целью поиска товаров или заказа услуг. Преимущественно через «Яндекс», который является главным поставщиком клиентов для большинства локальных коммерческих площадок. Немудрено, что успех бизнеса в Сети зависит от того, какую позицию в поисковой выдаче занимает интернет-магазин. У продвижения таких сайтов есть нуждающиеся в разъяснении нюансы, а кроме того, в SEO выработались специфические приемы для вывода сайтов категории e-commerce в топ «Яндекса».
Позиция вверху SERP гарантирует площадке поток целевых посетителей, но не каждому проекту имеет смысл тратить бюджет на продвижение с целью занять первые места в поисковой выдаче. Каким же сайтам нет резона метить в топ и почему?
1. Только что «сошедший со стапелей» коммерческий сайт имеет минимум шансов попасть в топ. Поисковики проявляют осторожность по отношению к молодым ресурсам и не спешат им доверять. Даже если сайт прошел безупречную внутреннюю оптимизацию, потребуются месяцы, прежде чем ему можно будет «разевать рот» на траст «Яндекса» и выход на высокие позиции в выдаче по основным запросам.
Правильнее начинать продвижение новой площадки с запуска кампании по контекстной рекламе и с присоединения к «Яндекс.Маркету». Параллельно следует осуществлять продвижение по НЧ-запросам, избегая резкого прироста ссылочной массы. Через год впору будет бороться за высокие места в выдаче по СЧ– и ВЧ-запросам (средне– и высокочастотным).
2. Многие категории товаров затруднительно продавать дистанционно. Так, не каждый пользователь решится приобрести джинсы без примерки. Поэтому маленьким интернет-магазинам с ассортиментом такого рода невыгодно удерживаться в топе ввиду крайне низкой конверсии, в отличие от крупных проектов типа Wildberries.ru и Sapato.ru, чья аудитория несопоставимо больше.
3. Нерентабельно заниматься в Интернете продажей очень дешевых и притом неуникальных товаров. Потребуются большие, приближенные к опту объемы заказов, чтобы работать не в убыток себе. Да и редкий житель России согласится заплатить за доставку почти столько, сколько стоит сам товар. Поэтому конверсия «ширпотребных» площадок оставляет желать лучшего.
На первом этапе организации собственного бизнеса в e-commerce необходимо провести серьезный анализ выбранной ниши, изучить конкурентов, понять, стоит ли дальше двигаться в эту сторону, а следовательно, прибегать к продвижению торговой площадки с помощью SEO.
Главным козырем в продвижении интернет-магазина будут низкочастотные запросы. Дело в том, что высокочастотники требуют больших расходов, к тому же нередко бьют из пушки по воробьям. Не всегда тот, кто ищет «паркет», хочет его купить. С высокой долей вероятности пользователя интересует способ укладки напольного покрытия, но он не ввел в состав запроса уточнений. Иначе говоря, трафик по ВЧ-запросам не всегда является целевым.
После того как большинство посадочных страниц попало в топ по НЧ-запросам, для укрепления позиций можно начать подключать СЧ– и ВЧ-запросы. Но страницы для такого продвижения (главную, каталоги и прочие) необходимо оптимизировать заранее.
Для каждого низкочастотника из огромного списка необходимо подготовить и оптимизировать отдельную страницу. Каждая посадочная страница должна отвечать на один запрос. Это угодно «Яндексу» и рационально с точки зрения конверсии. Чем точнее landing page соответствует запросу, тем выше вероятность того, что посетитель совершит на ней желаемое действие.
Составление семантического ядра – задача несложная, но кропотливая и рутинная. Альтернативой ручному подбору запросов для семантического ядра в сервисе Wordstat «Яндекса» служит более удобная, с нашей точки зрения, функциональность SeoPult. На этапе подбора ключевых слов и словосочетаний система автоматически генерирует список ключевиков, исходя из анализа контента страниц. Стоит пойти дальше и прибегнуть также к помощи дополняющего подборщика, которые добавляет ключевые слова к введенным вручную, оценивая их частотность. Таким образом, система предлагает лишь те слова, по которым на сайт придут реальные посетители. Например, статистика «Яндекса» свидетельствует о том, что определенное словосочетание имеет частотность 150, а, по данным SeoPult, на практике оно принесет лишь десять посетителей в месяц. Эти данные бесплатны, и в других источниках их найти затруднительно. Кроме прогноза посещаемости по ключевым запросам, система выполняет расчет оптимального бюджета на их продвижение.
Полученный список НЧ-запросов подлежит дальнейшему анализу, на сей раз с помощью вашего собственного мыслительного аппарата. Из массива слов нужно выделить те, которые в большей степени подходят для продвижения коммерческого проекта. Уточним, что все запросы делятся на навигационные, информационные и транзакционные. Владельца интернет-магазина интересуют преимущественно транзакционные, нацеленные на поиск конкретного товара с перспективой покупки, каждый из которых будет релевантен той или иной посадочной странице
План выведения интернет-магазина в топ включает в себя перечисленные ниже пункты:
• подбор запросов, составление семантического ядра;
• размещение ключевых запросов на релевантных страницах, создание недостающих страниц под другие запросы;
• внутренняя оптимизация страниц;
• запуск SEO-кампании по НЧ-запросам;
• постепенное подключение к продвижению СЧ-запросов;
• распределение бюджета в пользу СЧ-запросов;
• ввод в стратегию ВЧ-запросов с целью получения максимального трафика.
Перед запуском SEO-кампании следует проверить техническую сторону сайта. На это может уйти немало времени и средств, так как коммерческий ресурс содержит великое множество страниц, каждая из которых должна функционировать безупречно. Технический аудит заключается в проверке работы сервера, тестировании площадки на устойчивость к высоким нагрузкам, корректной настройке CMS с точки зрения SEO, проверке валидности кода. Огрехи и недоработки обязательно должны быть устранены, прежде чем состоится первое «знакомство» сайта с поисковиком.
Наличие траста не менее важно для хорошего интернет-магазина, чем для любого другого качественного ресурса. Чтобы получить несколько «жирных» трастовых ссылок, владельцу ресурса предстоит обратиться не к чистому SEO, а скорее к комплексному интернет-маркетингу. Вот что стоит предпринять для завоевания звания авторитетного сайта:
• добиться статуса официального торгового представителя некоей марки и получить обратную ссылку с сайта производителя;
• провести работу с ведущими блогерами в своей отрасли и договориться о размещении ссылок у них;
• регулярно заявлять о себе статьями и пресс-релизами на крупных профильных порталах;
• будоражить общественность и создавать инфоповоды, чтобы получать естественные ссылки с тематических новостных ресурсов;
• коммуницировать с целевой аудиторией на форумах, давать консультации, предлагать интересные обзоры товаров.
Значительный вес будет передаваться по безанкорным ссылкам, которые наиболее близки к естественным. Люди, ссылаясь на тот или иной сайт, редко делают это с указанием ключевых запросов. Так что безанкорные ссылки в почете у поисковых систем. Отметим, что с помощью SeoPult также можно нарастить траст, поскольку одним из источников доноров системы является биржа трастовых ссылок TrustLink.
Поисковой системе «приятнее» такая страница интернет-магазина, которая структурирована и сверстана по блочному типу. Предпочтительно делить контентную область страницы на несколько составляющих: заголовок, краткое описание, полное описание, блок с изображением, кнопка заказа и т. д. Обязательно наличие следующих правильно оптимизированных элементов: метатегов, одного заголовка первого уровня, описания, цены, изображений, ссылок на другие страницы (например, на карточки сопутствующих товаров или инструкции), блока отзывов. Дополнительным плюсом будет качественный видеоролик о товаре.
Грамотная настройка CMS в значительной степени облегчает труд оптимизатора. С помощью системы управления контентом можно при создании карточки товара автоматически вносить нужные ключевые слова в метатеги и тег
title
, генерируя уникальные описания. Настраивается также и занесение ключевого запроса (названия товара) в заголовок H1
.
Дополнительные ссылки в карточке товара рекомендуется закрывать от индексации. Имейте в виду, что для индексации роботу нужно отдавать только уникальный контент с каждой страницы. Повторяющаяся сквозная информация при попадании в индекс может восприниматься поисковиком как дубли, что приведет к склейке и выпадению из индекса важных целевых страниц.
Базовые правила касаемо контента незыблемы и не зависят от типа сайта. Три слова: качественный, тематический, уникальный. В случае со многими товарами есть возможность отойти от сухого изложения характеристик и внести долю творчества в информацию о продукте, чтобы итоговый контент отличался от того, который описывает тот же товар на сайте конкурента.
Сложнее дело обстоит со специфической продукцией, например медикаментами, когда описанием является прилагаемая к лекарству инструкция – информация для пациента. В таком случае на странице желательно размещать дополнительные тексты: отзывы пациентов, аннотацию специалиста и т. д.
Картинки в карточках товара в идеале также должны быть уникальными и сопровождаться атрибутом
alt
с занесенными в него ключевыми словами. Желательно не размещать на площадке те же изображения, что и на десятке сайтов-конкурентов, а выделить пусть даже скромный бюджет на фотосессию и подготовить собственный графический материал.
В тексте на каждой посадочной странице должно быть оптимальное количество вхождений ключевых слов. Но чтобы определить, какое из них сколько раз надлежит употребить, необходимо изучить сайты конкурентов в топе, оценив тысячи страниц. Такой анализ в считаные секунды проводит SeoPult. При выборе целевой страницы одним кликом запускается механизм анализа успешных схожих проектов, и по его итогам выводится количество рекомендованных вхождений ключевого слова в текст на странице.
Оптимизируя сайт под НЧ-запросы, важно сделать правильную внутреннюю перелинковку, причем ссылки должны содержать уникальные анкоры. Схема перелинковки страниц в продвижении по низкочастотке завязана на передачу веса с главной на внутренние страницы, а именно:
• ссылки с главной страницы ведут на страницы второго уровня, обратные ссылки на главную не размещаются;
• страницы второго уровня ссылаются на страницы третьего уровня (страницы с описанием товаров);
• страницы товаров перелинкованы по кольцу и получают также попутный вес с внешних ссылок.
Одно только «но»: вышеописанная схема способствует эффективному продвижению посадочных страниц с товарами по НЧ-запросам, однако затрудняет продвижение главной страницы по СЧ– и ВЧ-запросам. В случае острой необходимости перелинковку впоследствии можно будет переделать на иной лад.
Анализировать поведение посетителей на сайте крайне важно. Ведь нужно иметь представление о том, откуда приходит трафик и каков он, окупаются ли вложения в продвижение, какой процент посетителей проходит конверсионный сценарий полностью и почему происходят отказы. Чем выше конверсия и ниже цена привлечения одного покупателя, тем эффективнее продвижение.
Наблюдение за аудиторией обеспечивают счетчики. Самые распространенные – «Яндекс.Метрика», Google Analytics, LiveInternet. Они собирают и дают информацию по многим жизненно важным аспектам активности на сайте: по количеству посетителей, стоимости их привлечения, в том числе детальные данные по каждому ключевому запросу. Самостоятельно вычислить стоимость привлечения посетителя проблематично, но с помощью SeoPult это сделать довольно просто. Достаточно «скормить» SeoPult пароль и логин для счетчика LiveInternet, чтобы получить подробный отчет и рекомендации по внесению изменений в список ключевых запросов. Кроме того, в сводке можно будет проследить зависимость между позицией сайта в определенный период и тем, сколько посетителей в заданный отрезок времени наблюдалось на площадке.
Высокая конкуренция в электронной коммерции не должна препятствовать открытию вашего бизнеса в Сети. «Право на топ» есть у каждого, но в фаворитах у поисковых систем все-таки остаются качественные оптимизированные сайты. Ну а поскольку интернет-магазин предусматривает выполнение множества рутинных операций, в его продвижении незаменимы современные удобные инструменты, автоматизирующие SEO.
При ранжировании ресурсов в выдаче поисковая система, в частности «Яндекс», стремится исходить из интересов пользователей, пытаясь оценить сайт так, как это сделал бы его посетитель. Ранжирования с точки зрения человеческого поведения «Яндекс» добивается двумя методами. Первый – это обучение MatrixNet силами асессоров, которые подробно изучают каждую страницу по многочисленным критериям и выносят свой вердикт относительно нее. Второй зиждется на поведенческих факторах, или на интерпретации действий реальных пользователей поисковой машиной.
В совокупности эти две технологии определяют уровень качества ресурса и решают вопрос его места в выдаче. Так или иначе, мнение модераторов преобладает над оценкой поведенческих факторов. Какой бы высокой ни была кликабельность сниппета, если ручная проверка выявит нарушения, например несоответствие контента поисковым запросам, допущенное с целью привлечения большого трафика, путь в топ площадке будет закрыт.
Откуда «Яндекс» получает данные о поведении пользователей? Официальной информации нет. Ответ надежно спрятан в том же «черном ящике», где собраны остальные тайны алгоритмов ранжирования.
Но путем детального анализа и многочисленных наблюдений все же удалось выделить три основных источника.
1. Поисковая выдача. Из поисковой выдачи собираются данные о кликабельности сниппетов. Наиболее выигрышный и релевантный запросу сниппет привлекает к себе больше внимания и обеспечивает больше переходов на сайт. Если пользователи чаще делают клик не на первой, а, к примеру, на пятой строке выдачи, поисковик получает сигнал, что, возможно, замыкающий «Топ-5» сайт заслуживает более высоких позиций.
Информация также поступает из браузера. Высокая частота отказов от просмотра сайта кликом на кнопке «Назад» в браузере свидетельствует о его недостаточном соответствии ожиданиям пользователей. В большей степени удовлетворяющим запросу будет считаться такой ресурс, на котором посетитель задерживается, прекращая поиск в выдаче.
2. Счетчик «Яндекс.Метрика». С одной стороны, он представляет собой удобный инструмент для владельца ресурса, позволяющий получать детализированную статистику о посетителях и эффективности продвижения. С другой – было бы глупо самому «Яндексу» не брать в расчет те данные, которые владелец сайта приносит ему на блюдечке с голубой каемочкой. Обо всем, что происходит на сайте, хорошем и не очень, поисковик знает и учитывает эти сведения при ранжировании.
3. Надстройка для браузера «Яндекс.Бар». Это еще один «шпион» «Яндекса», собирающий информацию о поведенческих характеристиках пользователей. Браузерный плагин «Яндекс.Бар» является информационной панелью некоторых служб поисковой системы («Погода», «Пробки» и пр.) с формой быстрого поиска. Предоставляя пользователям многофункциональный удобный инструмент, поисковик преследует и корыстные цели – отследить их действия, проанализировать информацию и сделать выводы о степени релевантности того или иного сайта запросу.
Как видно из примеров, поисковому гиганту Рунета не составляет труда получить все необходимые данные о поведении пользователей и включить их в общий механизм ранжирования.
Базовыми считаются следующие поведенческие факторы ранжирования «Яндекса».
1. Глубина просмотра. Количество просмотренных пользователем страниц сайта.
2. Время нахождения на сайте. Другая важная метрика, отражающая длительность пребывания посетителя на сайте.
3. Показатель отказов (bounce rate). Под отказом понимают ситуацию, в которой пользователь, просмотрев лишь одну страницу, прекращает пребывание на сайте (закрывает окно, вкладку браузера, переходит на страницу выдачи). Чем выше показатель отказов, тем весомее предположение о низком качестве сайта и его нерелевантности запросу. Но есть исключения, которые учитывают в общей формуле ранжирования представители поисковой системы. Специфика многих сайтов подразумевает предоставление ответа на запрос пользователя на первой открытой им странице. Например, человек, страдающий от зубной боли, ищет ближайшую к нему стоматологическую клинику, набирает поисковый запрос «стоматология марьино», кликает на первом сниппете в выдаче и видит контактный телефон. Ему оказалось достаточно информации, чтобы записаться на прием, не совершая переходов на другие страницы сайта.
Стоит учитывать тот факт, что поисковая машина при построении SERP не суммирует механически значения разрозненных факторов, а на основе их анализа составляет общую картину, которая позволяет судить о качестве ресурса сравнительно объективно.
4. Клики в выдаче. По мнению поисковика, сайты, на которых были сделаны первый и последний клики, при условии что посетитель открыл сразу несколько сайтов из выдачи, говорят о большей релевантности ресурса.
Кроме приведенных выше поведенческих факторов, существует еще один, но его правильнее назвать косвенным или предваряющим. Это наличие на сайте комплекса, или кластера, страниц, оптимизированных по дополняющим запросам. Если на сайте имеются страницы по дополняющим запросам из Wordstat. yandex.ru, у «Яндекса» есть повод полагать, что ресурс стремится обеспечить хорошие показатели поведенческих факторов, например длительное пребывание на сайте, большое количество просмотренных страниц и т. д.
Дополняющие запросы рекомендуется брать из «Статистики слов», а именно из колонки «Что еще искали люди». Эти слова являют собой переформулировки исходного запроса, сделанные после того, как пользователь просмотрел сайт и вернулся на страницу поисковой выдачи. Именно по частотности перефразирования они сортируются в вышеупомянутой колонке.
Владея информацией об основных поведенческих факторах, которые принимает в расчет «Яндекс», можно добиться положительной динамики в поведении пользователей. Что можно сделать, чтобы посетители ресурса выказывали ему больший пиетет?
Во-первых, добиваться привлекательности сниппета. Даже неудачно составленный поисковиком сниппет, в основу которого лег отрывок текста страницы, можно подкорректировать, и после следующей индексации он будет выглядеть совсем иначе.
Во-вторых, правильно определять посадочную страницу. Она должна целиком и полностью отвечать на поисковый запрос и быть релевантной ему на все сто.
В-третьих, составить кластер страниц по дополняющим запросам.
В-четвертых, поработать над качеством дизайна и юзабилити сайта. По-настоящему интересный, привлекательный и интуитивно понятный ресурс вряд ли оттолкнет посетителя.
В-пятых, если нет возможности быстро исправить огрехи, а ситуация с поведенческими факторами оставляет желать лучшего (показатель отказов выше 40 %, менее 2,5 просмотра за среднюю сессию), нужно просто убрать с сайта счетчик «Яндекс.Метрика». Тогда «Яндекс» перестанет нести круглосуточный дозор и можно будет воспользоваться «передышкой», чтобы привести дела в порядок.
Задача поисковой системы – показывать пользователям только качественные ресурсы. Чтобы понять, что привлекает, а что отталкивает человека от сайта, производится тщательный анализ его поведения. Данные о поведенческих факторах учитываются в общей формуле ранжирования. И очевидно, что если прилагать усилия к созданию хорошей площадки, то не придется опасаться потери аудитории и утраты лояльности со стороны поисковика.
Сниппет играет далеко не последнюю роль в привлечении целевой аудитории на площадку. К сожалению, многие оптимизаторы и владельцы сайтов недооценивают его значение. Между тем кликабельность сниппета относится к поведенческим факторам, которые, как известно, влияют на ранжирование ресурса в поисковой выдаче.
Сниппет представляет собой небольшое текстовое описание рядом со ссылкой на странице поисковой выдачи, релевантное поисковому запросу. Внятно составленный, а возможно, даже интригующий сниппет побуждает пользователя щелкнуть на ссылке в SERP. Чем информативнее и понятнее данный элемент пользователю, тем выше вероятность того, что благодаря сниппету будет совершен переход на сайт. Качественный сниппет не только порождает рост посещаемости площадки, но и влияет на ее позиции в топе, так как кликабельность сниппета – поведенческий фактор, каковые поисковая машина учитывает при ранжировании ресурса.
В прошлом, когда поисковая выдача строилась без жесткого вмешательства «Яндекса», владельцы ресурсов в полной мере могли влиять на вид сниппета: в тег
description
помещалось описание, транслировавшееся в сниппет. Однако из-за множества нарушений «Яндексу» пришлось принять меры и ограничить права веб-мастеров.
Сейчас сниппет генерируется автоматически, причем поисковик сам решает, из какого источника брать текстовую информацию, релевантную тому или иному поисковому запросу. Например, Google ориентируется на описание в теге
description
, что упрощает задачу владельцу ресурса и позволяет ему управлять формированием сниппета. «Яндекс» относится к этому блоку гораздо строже и обращается с ним менее предсказуемо: в сниппет может быть помещен отрезок текста из контента страницы или, к примеру, описание из «Яндекс.Каталога». Заголовок сниппета вычленяется из тега title
страницы.
Сниппет включает следующие части:
• заголовок-ссылку;
• краткое (две-три строки) описание;
• URL главной и релевантной страниц.
Кроме перечисленного минимального набора данных, в сниппет может войти и другая информация.
• Фавикон. Небольшой графический элемент, который виден в строке браузера при загрузке сайта. В сниппете он размещается слева от заголовка. Наличие фавикона приветствуется поисковиками, поэтому не стоит пренебрегать им, и это особенно касается коммерческих проектов. Большим плюсом будет отображение в фавиконе логотипа компании. Добиться появления этой картинки размером 16 х 16 пикселов в строке браузера и в сниппете можно следующим образом: создать в графическом редакторе файл
favicon.ico
, поместить его в корневую папку сайта и дополнительно в код всех страниц сайта вставить строку
.
• Контактные данные организации. Адрес со ссылкой на «Яндекс.Карты», телефон и другие данные, которые располагаются в нижней части сниппета под основным описанием. Все эти параметры размещаются в справочнике организаций «Яндекса» и прописываются в соответствующем разделе сервиса «Яндекс.Вебмастер».
• Регион. Указывается в сниппете справа от URL. Необходим для ориентации пользователей и общего продвижения ресурса. Задается в сервисе «Яндекс.Вебмастер».
• «Быстрые» ссылки. Иногда в сниппете под заголовком отображаются ссылки на основные разделы сайта. Важно знать, что размещение «быстрых» ссылок допускается не для всех сниппетов в выдаче, а лишь для лидеров топа, стоящих на первых трех-четырех позициях. Чтобы «быстрые» ссылки появились в сниппете, нужно выполнить пару рекомендаций:
– разместить ссылки на разделы на главной странице сайта;
– анкор ссылки сделать максимально коротким (одно-два слова), эти же слова продублировать в заголовке
h1
и теге title
релевантной страницы.
• Передача дополнительной информации о содержимом сайта. Осуществляется с помощью сервиса «Яндекс.Вебмастер». Отличная возможность более точно выразить тематическую направленность ресурса и донести важную информацию до «Яндекса». Поисковик размещает их как в сниппете, так и других сервисах и виджетах. Например, для пользователя будет крайне полезно, если по коммерческому НЧ-запросу «купить пылесос thomas twin t1 aquafilter» в сниппете напротив заголовка он сразу увидит цену искомого товара на сайте. Полный список тематик для передачи данных «Яндексу» находится на странице http://content.webmaster.yandex.ru.
Хотя сложно диктовать «Яндексу», какое описание в сниппете по тому или иному ключевому запросу должно появляться в поисковой выдаче, косвенно повлиять на это все же можно. Описание для сниппета заимствуется поисковиком из контента страниц и описания ресурса в «Яндекс.Каталоге», следовательно, в первую очередь необходимо поработать именно над этими источниками.
Во-первых, качественный оптимизированный контент на странице косвенно сделает сформированный на его основе сниппет привлекательным для пользователей.
Во-вторых, информативный, лаконичный и понятный пользователю текст в описании сайта для «Яндекс.Каталога» может стать основой для успешного и привлекательного сниппета.
В-третьих, для каждого ключевого запроса и релевантной страницы составляется отдельный сниппет. Необходимо время от времени проверять выдачу и просматривать сниппеты по всем продвигаемым запросам.
Зацикливаясь на позициях в топе, оптимизаторы зачастую упускают из виду возможность привлечь к продвижению дополнительную артиллерию. Как известно, пользователи поисковиков переходят на площадки не только из сниппетов со ссылками, но и из других блоков SERP, например с картинок.
Иллюстрации, размещенные на сайте, при правильной оптимизации могут появляться в выдаче по ключевым запросам и обеспечить приток трафика. «Яндекс» в ответ на запрос помещает на первую страницу с результатами поиска релевантные изображения из своего сервиса «Яндекс.Картинки». Располагаются они либо в верхней части страницы над основной выдачей, либо в середине SERP. В любом случае они привлекают внимание пользователей. А то простое обстоятельство, что конкуренция в выдаче по картинкам не слишком остра, открывает массу возможностей перед владельцем сайта.
В продвижении в «Яндекс.Картинках» есть и недостатки: во-первых, отсутствие статистики по частотности, что затрудняет прогнозирование трафика, а во-вторых, не совсем удобная реализация перехода с картинки на сайт, где та размещена. Но по большому счету на оба минуса можно закрыть глаза, так как продвижение через эту службу подчас демонстрирует прекрасные результаты.
Для того чтобы использовать картинки в продвижении, необходимо провести ряд работ на самом сайте.
1. Составление макета страницы. Страница должна быть структурирована так, чтобы картинки и окружающий текст гармонично вписывались в нее. Желательно разместить несколько изображений на одной странице для более подробного представления товара. И соблюсти ряд технических условий.
• Окружающий картинку текст необходимо поместить в тот же самый
или
, где находится она сама. Требования к тексту: уникальный, со вхождением ключевого запроса.
• В адрес страницы нужно внести ключевое слово в точном переводе на английский. Например, у страницы, посвященной массажной подушке Beurer, линк должен выглядеть следующим образом: www.site.ru/massagers/beurer-massagecushion-photo.html.
• В теге
title
на страницах необходимо вхождение ключевого запроса и слова «фото» или «фотография».
2. Подготовка картинок.
• Не стоит использовать чужие картинки, так как «Яндекс» способен их распознать и идентифицировать как дубликаты, даже если они были обработаны в графическом редакторе.
• Картинки должны быть представлены в высоком разрешении, но вместе с тем обладать малым весом.
• Приветствуется размещение на картинках «водяного знака» (watermark) с логотипом компании. Он должен быть аккуратным и не закрывать основную часть изображения. Для привлечения большего внимания к представленному на фото товару можно указывать на самой картинке его стоимость.
• Формат для сохранения картинки – JPG или GIF.
• Имя графического файла должно включать точный перевод ключевого слова на английский. Например, для запроса «массажная подушка beurer фото» название файла должно выглядеть следующим образом:
massagecushion-beurerBR-350.jpg
.
• Картинки нужно разместить в папке, которая соответствует товарной группе, например /massagers.
3. Размещение картинок на странице.
• Вывод картинки правильнее реализовать с помощью HTML. Технология типа JavaScript будет препятствовать индексации графики поисковиками.
• Прописывая HTML-код для вставки картинки, нужно обратить внимание на следующую особенность: в теги
alt
и title
требуется внести соответствующее текстовое описание. Оно служит для поисковика отправной точкой, по которой он определяет релевантность запросу. Пример кода:
.
4. Систематическое добавление новых картинок. Обновление контента, включая графический, повышает лояльность поисковиков к сайту и положительно влияет на его ранжирование.
5. Приобретение внешних ссылок. Рекомендуется купить недорогие ссылки в количестве не более двух с нужными анкорами (например, «фото массажной подушки Beurer»), ведущие как на страницу с продвигаемыми картинками, так и на сами картинки.
6. Распространение картинок на сторонних ресурсах. После того как картинки на сайте проиндексированы поисковиком и определены как первоисточник, можно использовать их в качестве вспомогательного инструмента для повышение траста со стороны «Яндекса».
Размещение картинки на большом количестве ресурсов говорит о ее популярности и дает поисковику повод полагать, что такое изображение достойно считаться авторитетным и ранжироваться выше. Можно «расклеить» картинки на других сайтах самостоятельно или позволить сделать это другим пользователям. При копировании изображения желательно не изменять имя файла, но стоит уменьшить его размер.
Эти меры вносят лепту в продвижение сайта, и не такую уж малую. При правильном выполнении всех рекомендаций довольно высок шанс добиться появления картинок с сайта в блоке «Яндекс.Картинки» на первых позициях и получить приятный бонус в виде дополнительного трафика.
Продвижение через поисковые подсказки
Технология поисковых подсказок впервые была внедрена поисковой системой Google. Впоследствии ее взял на вооружение и лидер поиска Рунета – «Яндекс». С 2008 года подсказки стали общедоступны в строке поиска «Яндекса», до того в течение года проводилось их тестирование на пользователях «Яндекс.Бара».
Формирование поисковых подсказок
Поисковые подсказки в «Яндексе» возникают в раскрывающемся списке при начале ввода запроса в строку поиска. В перечне до десяти строк все фразы начинаются с тех букв, которые пользователь успел написать, но заканчиваются по-разному. Например, набрав «оте», среди поисковых подсказок во второй строке мы увидели запрос «отечественная война 1812 года», в третьей – «отели турции». Поисковые подсказки – это наиболее популярные запросы. Такая «предупредительность» со стороны «Яндекса» удобна: если пользователю нужно то, что искали до него тысячи других, ему не придется набирать фразу целиком – достаточно кликнуть на ней в списке.
Поисковые подсказки «Яндекса» формируются по сложным алгоритмам, проходя десятки фильтров. В конечном счете остаются самые актуальные и наиболее популярные в последнее время. Список подсказок обновляется ежедневно, утрачивающие актуальность удаляются из него. На случай громких новостей и событий, о которых в короткий отрезок времени спрашивает огромное количество пользователей, существуют «быстрые» подсказки, их список пересматривается раз в полчаса.
Поисковые подсказки геозависимы. В ответ на запрос «куда сходить» находящемуся в московском регионе выдачи будут даны подсказки, ориентированные на жизнь в столице: «куда сходить в москве», «куда сходить в москве сегодня», «куда сходить с ребенком в москве» и т. д.
Не всегда наиболее часто задаваемый запрос (по общей статистике Wordstat. yandex.ru) находится вверху списка поисковых подсказок. Так, запрос «отели турции» имеет 300 тыс. показов в месяц, а «отечественная война 1812 года» – лишь 25–28 тыс. Но в сентябре 2012 года в связи с празднованием двухсотлетия победы России в войне 1812 года произошел всплеск интереса ко второму запросу, и «Яндекс» начал предлагать его в качестве завершения поисковой фразы хоть не в первую, но во вторую очередь.
Как попасть в поисковые подсказки
Чтобы выбиться в лидеры поисковых подсказок, нужно поднимать частоту запроса и поддерживать его актуальность. Для коммерческого проекта приоритетно продвижение его бренда, а значит, увеличение популярности и узнаваемости среди аудитории. Например, при наборе в строке поиска «магазин игрушек» в списке подсказок появляются магазины с конкретными названиями. Невольно пользователь понимает, что раз торговая площадка оказалась в списке часто запрашиваемых и, следовательно, популярных, то заслуживает большего доверия и не будет ошибкой перейти на нее.
Таким образом, попадание сайта компании в поисковые подсказки способствует увеличению трафика и повышению уровня лояльности посетителей. «Пролезть» туда коммерческому проекту естественным путем практически невозможно, если только он не лидер отрасли. Небольшим сайтам приходится «пробиваться локтями» и бороться за то, чтобы быть рекомендованными «Яндексом». Следует подчеркнуть, что крайние меры, такие как многократное введение запроса в строке поиска одним и тем же человеком, не приведут к росту частотности и актуальности запроса. Наоборот, поисковик распознает накрутку с одного IP-адреса и пресечет эти действия.
Для достижения результата нужно приложить гораздо большие усилия и прибегнуть к помощи других пользователей. Сделать это можно двумя способами.
1. Участие реальных пользователей. Предполагается, что нужно найти определенное количество людей, которые за вознаграждение будут вводить желаемые поисковые запросы. Такой метод требует навыков работы с фрилансерами и умения контролировать ход выполнения задачи. Другой вариант – обратиться за услугой в SMM-агентство. Но во втором случае, разумеется, и заплатить придется больше.