Раскрутка: секреты эффективного продвижения сайтов
Шрифт:
С. Л.: Если бы не было оптимизаторов, поисковикам жилось бы много проще. Не нужно было бы расходовать колоссальное количество энергии на противодействие попыткам манипулировать результатами поиска. Так что двигателем прогресса я бы SEO не назвал. Впрочем, SEO – это не что иное, как поиск экстремума той формулы, которую создают поисковики. И SEO в конечном счете способствует тому, чтобы оптимальное решение не выглядело уродливым. Хотя, по идее, поисковикам следовало бы об этом заботиться загодя, а не после того, как оптимизаторы наглядно продемонстрируют уродливость оптимального решения для текущей формулы. У меня складывается впечатление, что разработчики поисковых систем заранее практически не учитывают возможности
Ну и напоследок: нужно ли «пить водку с “яндексоидами”», чтобы успешно продвигать сайты?
С. Л.: Питие водки с «яндексоидами», к сожалению, не является фактором ранжирования.
Сгинь, нечистая! История и эволюция нечестных методов поисковой оптимизации
В беседе с авторами книги Сергей Цыплаков, создатель и руководитель биржи MainLink (h p://www.mainlink.ru), и Алексей Жуков, известный как burunduk, руководитель аналитического отдела UnMedia (h p://www.unmedia.ru), накопившие большой опыт в SEO с первых лет его существования в российском Интернете, углубились в историю «пограничных» методов поискового продвижения – историю безответственных авантюр и тонкой аналитики единовременно. Вместе с ними мы постарались понять, что заставляло и заставляет веб — мастеров либо нарушать гласные и негласные требования поисковых систем, либо искать не до конца регламентированные способы SEO, прежде всего с точки зрения ссылочного продвижения.
Что, условно говоря, легитимно, с точки зрения поисковиков, где пролегает эта граница сегодня и как она менялась?
Сергей Цыплаков: До того как возникло ссылочное ранжирование, в продвижении преобладали ключи. Как только владельцы сайтов принялись поголовно употреблять ключи, и к тому же помногу, «Яндекс» принял меры. Позднее, в 2002 – 2003 годах, актуальными оказались SEO — методы, связанные с текстами.
В 2004 году «Яндекс» заявил, что для того, чтобы нормально ранжировать сайты, он станет учитывать ссылки. Вначале были обменные сети, которые плодились как грибы после дождя. Один веб — мастер обменивался с другим ссылками, и выигрывали оба. Чуть позже расцвели автоматические системы обмена с разными схемами: использовались перекрестные ссылки, задействовалось огромное количество страниц на тьме — тьмущей сайтов. Тогда «Яндекс» за это не банил, метод был действенным. В BDBD (h p://www.bdbd.ru/) даже создали систему автопродвижения: в нее вводился сайт и на него мигом автоматически ставилось множество ссылок, и эта механика какое — то время оправдывала себя.
Постепенно обмен перестал быть обменом в классическом понимании. Возобладала коммерческая составляющая: люди стали платить за ссылку. Это было выгодно как вебмастеру, так и оптимизатору. Веб — мастер зарабатывал деньги, оптимизатор добивался желаемого эффекта. Как раз в ту пору создавалась биржа MainLink, поначалу не имевшая никакого интерфейса: одна страничка, где фиксировалось, кто кому и сколько должен заплатить.
В 2005 – 2006 годах работало ссылочное продвижение через главные страницы. Ссылки размещались на титульной странице, обычно внизу. «Яндекс» на это никакого внимания не обращал год — два. Клиенты были счастливы. Но и гигантского трафика с «Яндекса» на площадки не шло.
Так, сайт VIP — eatr.ru продвигался 30 ссылками с главных страниц по запросам «билеты в театр», «билеты в ленком», «билеты в большой театр». Он по всем ключевым словам был первым в топе около полутора лет. Затем открылся Sape, приобрели значение внутренние страницы. Хватало $80 — 200 на раскрутку. Тогда внутренние
Поисковики не реагировали на эти ухищрения?
С. Ц.: Поисковая система, особенно «Яндекс», крайне инертна и неповоротлива в своих решениях. Если Google на заре своего становления продекларировал: «За ссылки я вас буду банить, вы нарушаете наши законы» (Google американский, с российским иначе), то у нас, вместо того чтобы соблюдать рекомендации «Яндекса», пытались обжулить его с удвоенными усилиями. «Яндекс» упустил время. Ему нужно было ссылки разбомбить в 2006 году, когда Sape открылся. Возможно, в ту пору его действия увенчались бы успехом.
Алексей Жуков: Впоследствии, когда поисковики начали наказывать за массовую продажу ссылок, веб — мастера пытались прятать эти ссылки. Доходы никто терять не хотел. Было придумано много вариантов клоакинга. Сначала пробовали не показывать эти ссылки только «Яндексу». Были, да и сегодня встречаются индивидуумы, которые обманывают клоакингом саму биржу: ей показывается, будто ссылка есть, а остальным – что ее нет. Очень жесткая форма обмана, но, к счастью, она хотя бы выявляется, пусть даже с наибольшей надежностью лишь ручными методами. Только с наступлением эпохи агрегаторов – SeoPult, Rookee и пр. – ссылки начали автоматизированно проверять на всевозможные виды клоакинга.
Маленькое отступление: в 2006 – 2007 годах я нашел забавный способ объегорить биржу – ставить ссылку в стандартном HMTL — комментарии. Робот биржи понимал, что ссылка стоит, но она же закомментирована. На странице не отображалась, и поисковая система ее не видела. Достаточно долго биржа на это никак не реагировала.
(! –(a href="#")анкор ссылки(/a)–)
С. Ц.: В 2006 – 2007 годы, когда ссылки стали «клоачить», по Интернету даже гуляли базы IP «Яндекса» и Google, которые подставлялись, притом обновляясь, чтобы все (рекламодатель, веб — мастер, оптимизатор) видели ссылки, а «Яндекс» в упор не замечал.
А. Ж.: «Яндекс» потом сам открыл, как проверять его IP, – обратным запросом. Не так давно, когда проблемы с клоакингом приобрели нешуточный масштаб, в «Яндексе» была найдена уязвимость. Можно было посмотреть, зайдя с IP «Яндекса», как отображается ресурс. На данный момент она доступна только из браузера. Но хитрые веб — мастера нашли выход. В общем, если стоит запрет на отображение донора в данном сервисе, то, скорее всего, что — то нечисто.
Много ли сейчас таких сайтов? Как менялась обстановка после 2007 года?
С. Ц.: Около 5 % всех ссылок имеют так или иначе выраженные нарушения, либо осознанные, либо неосознанные. На сегодняшний день все способы сокрытия известны. Раньше что — то еще было в диковинку: noindex, nofollow, robots.txt. Очень много ошибок в robots.tx веб — мастера делают из — за неправильного составления написания, не придерживаются формата. Зачастую не учитывают, что robots. xt нужно создавать отдельно под «Яндекс» и под Google. А они делают один: мол, под «Яндекс» – значит «под все».