Как Google вычисляет "плохие" сайты

Каждый день в интернет появляются миллионы страниц со спамом и некачественным контентом. Чтобы они не мешали пользователям и не засоряли поиск, поисковики используют эффективные методы автоматической и ручной проверки сайтов.

Цель сайтов, содержащих спам - попасть как можно выше, в верхние строки результатов поиска с помощью таких мошеннических приемов, как многократно повторяющиеся ключевые слова, покупка ссылок, и т.д. Это снижает эффективность поиска, т.к. действительно полезные сайты оттесняются в конец списка результатов, и найти нужные сведения становится труднее.

Но сегодня мир не так прост: современные алгоритмы позволяют идентифицировать подавляющее большинство разновидностей спама и автоматически понижать рейтинг сайтов, на которых они встречаются. 

Оставшихся нарушителей сотрудники поисковых систем отсеивают вручную, по жалобам посетителей (после проверки) и по другим признакам. Методов нахождения таких сайтов - огромное множество, и алгоритмы всё время совершенствуются.

Сайты, размещающие спам и плохой контект, бывают очень разными. Некоторые содержат бессмысленный, автоматически сгенерированный текст, который видно невооружённым глазом, он нечитабелен для людей; другие сайты используют более тонкие приёмы. Такие страницы (и даже сайты в целом) просто вылетают из поиска - их уже никто не найдёт.

Большинство видом спама сегодня обнаруживается автоматически, но в некоторых случаях проводится проверка вручную.

Меры, принятые против сайтов вручную, – это не навсегда. После удаления спама владелец сайта может отправить запрос на повторную проверку сайта.

Google обрабатываетвсе запросы на повторную проверку и сообщает владельцам сайтов о ходе проверки. И о принятом решении, результате.

Интересно, что на практике оказывается, что в отношении большинства сайтов, владельцы которых отправляют запросы на повторную проверку, вовсе не принимались какие-либо меры. Чаще всего проблемы с поисковой системой и выдачей связаны с естественными колебаниями трафика, изменением алгоритмов или техническими проблемами на серверах, из-за которых Google не может получить доступ к сайту. Такие проблемы устраняются автоматически со временем, они не требуют ручного вмешательства. Но если вы переживаете за свой сайт, всегда можно уточнить, что с ним.