Сайты с вирусами и ранжирование
Алгоритмы ранжирования сайтов у Яндекс и Google постоянно обновляются, и в последнее время появилось множество сайтов, переход на которые выводится с предупреждением. Если несколько месяцев назад предупреждение о «вредоносности» такого сайта можно было увидеть только при клике на поисковую выдачу, то сейчас предупреждение появляется уже на странице поисковой выдачи.
Взломанные сайты – это плохо, благодаря им злоумышленники получают доступы к конфиденциальной информации, используют внутренние резервы хостинга для спам рассылки, настраивают редиректы. Примеров множество, от кражи паролей, до перенаправления трафика на сторонние ресурсы. Естественно, первым делом страдают владельцы сайтов, снижая свой положительный рейтинг. Следом страдают пользователи – они могут стать жертвами мошенников. Вот поэтому алгоритмы поисковых систем постоянно модифицируются.
Сейчас вирус сканеры есть практически на любом уважающем себя хостинге, но это не даёт гарантию от взлома. Для защиты пользователей Яндекс оптимизировал алгоритмы поисковой выдачи, и сейчас можно наблюдать некоторые сайты с характерной предупреждающей надписью. При этом Яндекс так же предлагает посетить безопасную копию сайта (очевидно сохранённую в кэше).
Как это отражается на поисковой выдаче данных ресурсов – Яндекс, при определении факта вредоносности сайта будет понижать его в поисковой выдаче, то есть ранжировать ниже среди конкурентов. Поддержка Яндекс утверждает, что краткосрочное наличие вредоносного кода на сайте не повлияет на его ранжирование и не повлечёт к пессимизмами. Но при условно длительном нахождении вредоносного кода, будет налагаться пессимизируюший фильтр. При восстановлении безопасности сайта (удалении вирусного кода, либо редиректа) будет снят фильтр, и возможно будут восстановлены предыдущие позиции в поисковой выдаче. Но этот вопрос спорный, при нынешней конкуренции, для восстановления трафика потребуются дополнительные усилия. Поэтому, необходимо следить за безопасностью сайта и не допускать взлома, а при его обнаружении, оперативно восстанавливать безопасность.
Для определения вредоносного кода в Яндекс разработали свой алгоритм проверки. Для проверки сайтов специальный модуль поискового робота проводит постоянное сканирование сайтов. Так как сайтов в сети (по крайней мере в Рунете) порядком несколько десятков миллионов, очевидно не стоит ожидать что робот-антивирус будет заходить на все эти сайты один раз в день… Возможно, сайты с высоким трафиком и периодическим обновлением контента будут посещаться роботом ежедневно, а вот небольшие ресурсы, с редкими обновлениями, получат посещение робота-антивируса реже – но это только догадки…
Сейчас около 5% (цифра приблизительная) сайтов взломаны, и ещё процентов 30 потенциально доступны к взлому. Основные проблемы – это старые системы управления, и игнорирование требований к потенциально сложным паролям. Для примера, та же самая всем известная Joomla (Джумла) версии 1.5-1.6-1.7 имеет примерно 3-4 модуля, через которые можно получить полноценный доступ к сайту. Это только пример, в новой версии Джумла 3 и выше, большинство проблем устранены (хотя дополнительные модули их часто содержат). Но в сети ещё можно найти сотни тысяч сайтов с этой системой управления (со старой версий, хотя около 30% их уже взломаны). Раздолье для хакеров…
Следите за безопасностью ваших сайтов и не допускайте их взлома, а при его обнаружении обращайтесь за помощью к специалистам, если самостоятельно не можете решить этот вопрос.
Да, мы так же занимаемся очисткой сайтов от вирусов, даём рекомендации по безопасности и обновляем CMS до новых версий (в зависимости от рекомендаций и возможностей проблемной CMS).
Полезные статьи