Ellada-flowers.ru

Заработок и деньги
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Сайт не участвует в поиске

Почему сайта нет в поиске Яндекс

Привет, Друзья! Очень распространённый вопрос, который приходит часто ко мне на почту: «почему сайта нет в поиске Яндекс». Причин тому несколько, давайте с каждой разберемся детально.

Основные причины почему сайта нет в поиске Яндекс

Основных причин по которым сайт не отображается в выдаче Яндекса три. И мы начнем с самой простой и распространенной.

Сайта нет в индексе Яндекса так как он молодой

Обычно этой проблемой страдают молодые, только что созданные сайты. Как правило те, кто сайты создаёт, не утруждают себя привлечением для обхода сайта быстроробота. На самом деле этим должны заниматься те, кто в дальнейшем будет продвигать WEB проект.

Проще говоря, чтобы Яндекс узнал о рождении нового сайта, ему нужно об этом сообщить. Он конечно и сам способен со временем прийти на новый сайт и проиндексировать его, но для того чтобы этот процесс ускорить, нужно в ручном режиме загнать все страницы сайта в поисковый индекс. Делается это в Яндекс вебмастере, через сервис индексации и переобхода страниц.

Основной ошибкой большинства интернет магазинов, как раз и является то, что они выгружают ежедневно десятки, а то и сотни карточек товаров, но не заносят их в ручном режиме на переобход в вебмастер Яндекса. В результате, такой товар лежит на сайте и не работает до тех пор, пока Яндекс о нем не узнает.

На самостоятельную индексацию молодого сайта может уходить до двух месяцев. Вот поэтому сайта и нет в поиске Яндекса и не будет до тех пор, пока робот скроллер не узнает о его существовании.

О том, как часто индексируется сайт и как ускорить его индексацию, я написал очень подробный мануал. Ознакомиться с ним можно здесь.

Сайта нет в поиске Яндекс так как он под фильтром

Это более печальная ситуация. Зачастую с ней сталкиваются сайты, которые продвигают запрещенными методами. Как правило, хозяева таких ресурсов заставляют своих SEO оптимизаторов быстро загонять сайт на первые места поисковой выдачи Яндекс. Но единственный быстрый способ раскрутки это применение чёрного SEO. Отсюда и БАН.

Попав под фильтр, сайт либо частично, либо полностью вылетает из индекса и перестаёт отображаться в поиске. Владельцы таких сайтов это ощущают сразу, глядя на счетчик посещаемости, цифра которого уменьшается до нуля.

Определить под какой конкретно фильтр угодил сайт и за что на него наложил санкции Яндекс, можно, но не так то просто это сделать.

Самым распространённым фильтром из-за которого сайт перестаёт отображаться в поиске Яндекс, является фильтр Минусинск. Он банит сайты продвигающиеся за счет покупных ссылок.

Следующий фильтр называется «Баден-Баден«, он банит сайты за переоптимизацию текстов ключевыми словами. В свою очередь Баден-Баден делиться на два типа. хостовый фильтр, когда под санкции попадает URL целиком и постраничный, когда отдельные страницы вылетают из поисковой выдачи, либо понижаются ниже 50 мест. Есть и другие фильтры от Google и Яндекс, основные и самые опасные я описал тут.

Сайта нет в поиске из-за плохой оптимизации

Обратная проблема переоптимизации — недооптимизация. Если сайт переоптимизировать, то попадёшь в бан, а если недооптимизировать, то такой сайт обгонят конкуренты. Вот и приходиться всем оптимизаторам ходить по «лезвию бритвы».

Именно с такими сайтами на SEO консультациях я встречаюсь чаще всего. Их нет в поиске, так как метатеги на страницах таких ресурсов полностью отсутствуют. Без метатегов (H1-H6, Title, Description, Alt) поисковому роботу достаточно сложно определить, о чем идет речь на странице изучаемого сайта. Ну и в свою очередь, он понижает ранжирование таких WEB проектов.

Что такое метатеги и как их правильно прописывать, Вы можете прочитать здесь. Более глубоко о нюансах грамотной оптимизации метатегов я рассказываю на своих онлайн уроках.

Для тех, кто не хочет вникать во все тонкости SEO науки, но в тоже время хочет увидеть свой сайт в ТОП 10 выдачи Яндекс, я предлагаю свою услугу по продвижению сайтов. Если не хотите работать руками, то придётся платить деньги. Других вариантов просто нет. Но рекомендую очень серьезно подойти к выбору подрядчика на продвижение сайта. Последнее время количество мошенников в SEO сфере начало расти в геометрической прогрессии.

Обязательно ознакомьтесь с моей статьёй, как обманывают SEO оптимизаторы. Она поможет Вам исключить основные виды развода.

Обучение СЕО продвижению сайтов

Если вы хотите научиться выводить сайты в ТОП 10 поисковых систем Яндекс и Google, посетите мои онлайн-уроки по SEO-оптимизации (коротко о себе я рассказал в видео ниже). Все свои интернет-проекты я вывел на посещаемость более 1000 человек в сутки и могу научить этому Вас. В отличие от коллег я не продаю видео курсы, так как они не информативны, и просматривая их некому задавать вопросы. Я провожу обучение по скайпу индивидуально и во время урока отвечаю на все возникающие вопросы моих учеников. По времени SEO обучение длиться около 4 — 6 часов в зависимости от начальной подготовки ученика. Кому интересно обращайтесь!

На этом сегодня всё, всем удачи и до новых встреч!

Почему сайт просел в поиске: 9 фатальных ошибок, способных угробить любой сайт

Поисковая оптимизация – большая работа над множеством различных факторов. Дизайн, техническая составляющая, контент. Даже незначительные на первый взгляд детали очень важны для продвижения. О самых частых ошибках в дизайне сайта мы уже говорили. Сегодня разберем 9 фатальных SEO ошибок, способных «угробить» любой сайт.

    Фильтры и санкции поисковых систем

Как минимум, раз в неделю рекомендую заглядывать в вебмастера Яндекс и Google для проверки наличия санкций. В Яндексе это можно сделать в разделе Диагностика → Безопасность и нарушения. В Google – Поисковый трафик → Меры, принятые вручную.

Как показывает наша практика, чаще всего владельцы сайтов даже не догадываются о наложенных ограничениях. Недавний пример из нашей работы:

Читать еще:  Сайт не появляется в поиске

Большое количество чужих текстов на сайте и открытые исходящие ссылки. Результат на скриншоте.

До снятия всех ограничений дальнейшего смысла заниматься продвижением нет. Исправляем все ошибки, сообщаем поисковой системе и ждем снятия санкций.

Контент

Мы постоянно говорим о том, как важны тексты. Контент – это то, зачем пользователи заходят на сайты. Неуникальный и неинтересный контент никому не нужен. Поисковые системы занижают подобные ресурсы в выдаче, а клиенты устали читать одни и те же шаблонные тексты на сотне сайтов. Пруф того, что за контент можно вылететь с хороших позиций, тут.

Проверяйте уникальность текстов перед размещением на text.ru.

Как писать тексты, на какие страницы и в целом, о контенте, много написано в нашем блоге. Вот хорошая подборка статей от нашего копирайтера Дарьи.

Теги Title и Description, заголовки H1-H3

Основа SEO-продвижения – правильно подобранные ключевые слова. Это очень важный фактор в оценке релевантности вашего сайта поисковому запросу.

Чаще всего мы сталкиваемся с двумя ошибками. Полное отсутствие ключевых слов в тегах:

Тег Title должен быть заполнен в виде связного предложения с включением ключевых слов.

Либо переспам ключами в заголовках:

Важно найти золотую середину. Теги должны быть полезными не только для поисковых роботов, но и для обычных людей. Не забывайте об информативности. Как правильно писать теги title, description и заголовки H1, хорошо рассказывает наш копирайтер Екатерина в своей статье.

Переезд на https

C января 2017 года браузер Google Chrome (начиная с 56 версии) начал помечать все HTTP-сайты, содержащие любые формы, передающие личные данные пользователей (email, пароли, данные кредитных карт и т.п.) как «небезопасные». Также наличие SSL сертификата является небольшим импульсом в ранжировании в Google.

Всем интернет-магазинам в первую очередь следует перейти на протокол https. При этом очень важно соблюсти правильный алгоритм действий.

Самая частая ошибка – просто настроить 301-редирект со старой версии http на https после покупки SSL-сертификата. Владельцы сайтов забывают о файле robots.txt, директиве Host, настройке вебмастеров. Сайт с http выпадает из индекса, новый сайт на https еще не проиндексирован. Все позиции моментально улетают в трубу.

В нашем Блоге есть подробная инструкция, как правильно перенести сайт с http на https. Если останутся вопросы, пишите нам, обязательно поможем.

Файл robots.txt

Текстовый файл, размещенный на сайте и предназначенный для роботов поисковых систем. В этом файле следует указать параметры индексирования своего сайта для поисковых роботов.

Иногда файл robots.txt отсутствует вовсе.

Свежий пример из нашей работы. Интернет-магазин станков, работы проводились в рамках услуги поисковое продвижение сайта. Сайт был полностью открыт для индексации поисковым роботам и вовсе не имел файл robots.txt.

Настроили ему robots, теперь все в порядке:

Что конкретно мы сделали?

Закрыли от индексации админ панель сайта, служебные страницы 404 и 403, страницу поиска, корзину. Указали адрес карты сайта, настроили директиву Host.

Вместе с остальными работами по оптимизации это помогло достичь следующих результатов:

Еще одна серьезная ошибка – сайт полностью закрыт от индексации. За это отвечают директивы Disallow и Allow, которые запрещают или разрешают индексирование разделов, отдельных страниц сайта или файлов соответственно. Для проверки файла у поисковых систем есть специальные инструменты: Яндекс и Google.

Проверьте, что у вашего сайта имеется файл robots.txt и заполнен он корректно. От индексации следует закрывать все служебные страницы, страницы поиска и фильтров. Страницы дублей, регистрации, авторизации. Корзину и страницу оформления заказа для интернет-магазинов. Подробнее о robots.txt.

Дублирование контента (дубли страниц)

Дублированный контент или просто дубли – это страницы на вашем сайте, которые полностью (четкие дубли) или частично (нечеткие дубли) совпадают друг с другом, но каждая из них имеет свой URL.

Одна страница может иметь как один, так и несколько дублей:

Поисковые роботы отрицательно относятся к дублированному контенту и могут понизить позиции в выдаче из-за отсутствия уникальности, а следовательно, и полезности для клиента. Нет смысла читать одно и то же на разных страницах сайта.

Может измениться релевантная страница. Робот может выбрать для выдачи дублированную страницу, если посчитает ее содержание более релевантным запросу. Сайт потеряет позиции и просядет в выдаче. В 90% случаев дубли мешают продвижению, и после их устранения позиции сайта улучшаются.

Как найти и убрать дубли на сайте, рассказываем в данной статье.

Зеркала сайта

Зеркалами считаются сайты, являющиеся полными копиями друг друга, доступные по разным адресам. Все зеркала сайта важно склеить через 301 редирект.

Показатели тИЦ, вес внешних ссылок не должны растекаться, а они будут, т.к. поисковики считают разными ресурсами сайты, расположенные по разным адресам. Возможна подмена релевантной страницы в поисковой выдаче, дублирование контента. 100% мешает росту сайта в выдаче.

Сайт не должен открываться по разным адресам, с www и без www, просто site.ru и site.ru/index.php, по http и https и т.д.:

Чек-лист для проверки:

  • Сайт должен быть доступен только по одному протоколу http или https.
  • Выбрано главное зеркало сайта, с www или без www, указано в Вебмастере.
  • Настроен 301 редирект со всех зеркал.
  • Главная страница сайта доступна по одному адресу, без /index.php, /index.html и т.п.
  • Адаптивная верстка (версия сайта для мобильных устройств)

    100% Must-have для всех сайтов в 2017 году. Сегодня рост мобильного трафика опережает компьютерный. Число пользователей, использующих смартфоны для совершения покупок, в мире растет с каждым днем. Алгоритмы поисковых систем учитывают адаптивность при ранжировании сайта в мобильной выдаче.

    Google уже с 2015 года использует алгоритм Google mobile-friendly.

    Яндекс год назад запустил алгоритм Владивосток.

    Если ваш сайт все еще не адаптирован под мобильные устройства – каждый день вы теряете до половины своих клиентов. Подробнее о том, зачем нужна оптимизация.

    Читать еще:  Как установить логотип на сайт

    Скорость загрузки сайта

    Тут все просто. Пользователям не нравятся медленные сайты. Поисковые системы так же отдают предпочтение быстрым, оптимизированным сайтам. Проверить скорость загрузки своего сайта можно с помощью инструмента Google. Красный – медленно, важно срочно увеличивать скорость, желтый – нормально, но можно оптимизировать, зеленый – отлично.

    Разберем на конкретном примере

    Помните, в начале статьи мы упоминали интернет-магазин станков. Что мы исправили из фатальных ошибок:

    Написали хороший продающий, уникальный текст на главную страницу сайта.

    До проведения работ:

    • Ошибки оптимизации

    Скорректировали теги title и description, заголовки H1.

    До проведения работ:

    • Отсутствие файла robots.txt

    Создали и настроили файл robots.txt. Сейчас сайт правильно индексируется поисковыми системами. До этого, как писали выше, данного файла не было на сайте вовсе.

    • Наличие не склеенных зеркал

    Склеили зеркала сайта. Сайт был доступен по двум адресам с www и без.

    • Некорректный ответ сервера для несуществующих страниц

    Создали отдельную страницу 404 и настроили правильный ответ сервера для несуществующих страниц.

    До выполнения работ несуществующие страницы через 302 редирект перенаправляли пользователя на главную страницу сайта.

    Результаты:

    Положительная динамика роста посещаемости из поисковых систем:

    Трафик из Google вырос в два раза:

    Результат за 3 месяца:

    +8 запросов у Яндекса, +6 у Google в топ-5

    +19 запросов у Яндекса, +9 у Google в топ-10

    +25 запросов у Яндекса, +11 у Google в топ-20

    +14 запросов у Яндекса, +4 у Google в топ-50

    Хотите так же? Проверьте, может данные ошибки есть и на вашем сайте. Если нет времени и желания разбираться, заказывайте поисковое продвижение у нас, с радостью поможем.

    © 1PS.RU, при полном или частичном копировании материала ссылка на первоисточник обязательна.

    SEO-специалист сервиса 1PS.RU

    Понравилась статья?

    Спасибо, мы старались!

    Кстати, вы подписаны на нашу рассылку? Если нет, то самое время познакомиться с Катей.

    Сожалеем, что не оправдали ваши ожидания ((
    Возможно, вам понравятся другие статьи блога.

    Пошаговое руководство по самостоятельному продвижению сайта

    10 основных причин, по которым страница сайта может не находиться в индексе поисковых систем Яндекс или Google

    Причина номер 1. Новая страница или новый сайт

    Первая причина, это то, что поисковые роботы еще просто не нашли новую страницу вашего сайта. В зависимости от того, какой ваш сайт, переобход страниц может занимать от нескольких минут до нескольких недель.

    Чтобы узнать, находится ли в индексе страница Вам необходимо воспользоваться сервисами вебмастера Яндекс или Google Search Console.

    В Яндекс.Вебмастере это раздел «Индексирование» — «Проверить статус URL». Если робот обошел и проиндексировал страницу, вы увидите уведомление «Страница обходится роботом и находится в поиске».

    Если робот о странице еще не знает, вы увидите сообщение «Страница неизвестна роботу».

    В новой версии Google Search Console вам нужен инструмент «Проверка URL». Если робот обошел и проиндексировал страницу, вы увидите уведомление «URL есть в индексе Google».

    Если робот на странице еще не был, вы увидите сообщение «URL нет в индексе Google».

    Причина номер 2. Страница или сайт закрыты от индексации в файле robots.txt

    Существует специальный файл robots.txt, который позволяет указать роботам на то, какие страницы сайта должны быть в индексе поисковых систем, а какие страницы не должны быть включены.

    Соответственно, если в файле прописаны запрещающие правила, в индексе поисковых систем данную страницу вы не найдете.

    Как проверить, закрыта ли страница в robots.txt?

    В Яндекс.Вебмастере: заходим в «Инструменты — Анализ файла robots.txt». В окно «Разрешены ли URL» вносим адреса страниц, которые мы хотим проверить. После того, как мы нажмем на кнопку «Проверить», внизу появится список введенных адресов и их статус: разрешены они для индексации или нет. Если нет, будет указано, какое из правил запрещает обход для робота.

    В Google похожий инструмент находится на вкладке «Сканирование — Инструмент проверки файла robots.txt».

    Важно! На данный момент эта вкладка находится в старой версии вебмастера!

    Причина номер 3. Указан запрет в User-Agent

    У поисковых систем есть свои требования к тому, как должен строиться файл robots.txt. И начинается он с приветствия. Приветствие может быть обращено к роботу яндекс, либо гугл, либо к обеим поисковым системам.

    Часто для Яндекс и Google делают отдельные секции в файле robots.txt. А потом забывают вносить правки в эти секции. Из-за этого роботы потом некорректно начинают индексировать сайт.

    Проверяем наличие проблемы также, как и в предыдущем случае. Главное — это делать в вебмастере Яндекс, и в вебмастере Google.

    Причина номер 4. Запрет на индексацию страниц указан в мета-теге robots.

    Суть этого мета-тега такая же, как и у файла robots.txt, только если страница закрыта в robots.txt она все равно может быть проиндексирована поисковыми системами. Но если на странице используется noindex или none, страница не будет добавлена в индекс.

    1. Проверить использование данного мета-тега на странице можно в коде (сочетание клавиш Ctrl+U)

    2. С помощью дополнения для браузера, например seo meta

    3. С помощью вебмастеров.

    Причина номер 5. Некорректно настроенный атрибут rel=canonical.

    Каноникал — это еще один атрибут, помогающий управлять индексацией страниц.

    Если rel каноникал настроен на другую страницу, то вы говорите поисковому роботу о том, что она схожа с другой станицей и первую страницу не нужно добавлять в индекс поисковых систем.

    Проверить использование данного атрибута можно также в исходном коде, с помощью дополнения для браузера — rds бар или seo meta.

    Также это можно увидеть в вебмастере Яндекс («Страницы в поиске»- «Исключенные страницы». Проверять необходимо статус «неканонические»).

    Причина номер 6. Проблемы с ответом сервера

    Для того, чтобы страница индексировалась, ее код ответа сервера должен быть 200 ОК. Если страница отдает ответ сервера 404 или 301, в индекс поисковых систем данная страница не попадет.

    Читать еще:  Позиции ключевых запросов сайта

    Проверять код ответа лучше всего с помощью вебмастеров, они показывают наиболее точные данные. А вот визуальной проверкой лучше не ограничиваться, так как бывают случаи, когда страницы выглядят корректно, но код ответа сервера не 200.

    Причина номер 7. Проблемы с хостингом или сервером

    Представьте, вы приходите в магазин, а он не работает. Потом снова приходите в магазин, но он все равно не работает. Какова вероятность того, что вы вернетесь туда? Вероятнее всего очень маленькая.

    Тоже самое происходит и с поисковыми системами. Если он приходит на ваш сайт, а он не работает, то робот просто исключает страницы из индекса и не показывает их пользователям.

    Правильно, зачем пользователей приводить на неработающий сайт.

    Для того, чтобы отследить есть ли проблема, необходимо в вебмастерах проверять статус страниц. Если встречаются ошибки сервера 5хх (500, 503), а также если вам приходят уведомления из Яндекс.Метрики о том, что сайт не работает, необходимо решать данную проблему.

    Причина номер 8. Проблемы со скоростью загрузки страниц

    Скорость загрузки — важный показатель качества современного сайта. Если ваши страницы долго долго загружаются, роботы поисковых систем исключать такие страницы из индекса.

    Кроме того, скорость загрузки страниц — является фактором ранжирования в поисковых системах. Поэтому, если у вас с этим есть проблемы, срочно это исправляйте!

    Как проверить? Начните с инструмента PageSpeed Insights от Google. Дополнительно можете использовать сервисы Google Аналитика и Яндекс.Метрика.

    Совет! Важно проверять скорость загрузки для нескольких типов страниц и не останавливаться выполнив только одну проверку, т.е. выполнять данные работы периодически.

    Причина номер 9. Проблема с уникальностью и полезностью контента

    Поисковики уделяют большое внимание качеству контента, поэтому, если на странице расположен не полезный контент, либо же дублирующийся с другими страницами, такие страницы не добавляются в индекс поисковых систем.

    Как проверить, есть ли на сайте такие страницы — нужно зайти в вебмастер.

    В Яндексе — это отчет «Страницы в поиске» — «Исключенные страницы». Проверять нужно статусы «Дубль» и «Недостаточно качественная».

    В Google Search Console — это отчет «Покрытие» — «Страница является копией. Канонический вариант не выбран пользователем».

    Причина номер 10. Проблемы с AJAX

    Если ваш сайт выполнен на технологии AJAX очень важно правильно выполнить требования поисковых систем, для того чтобы поисковые роботы смогли проиндексировать страницы вашего сайта.

    Таким образом для каждой отдельной страницы должна быть своя HTML-версия.

    И напоследок, дадим вам несколько советов, как ускорить индексацию:

    • отправляйте страницы на переобход с помощью вебмастеров
    • используйте файл sitemap.xml
    • используйте новейшие возможности, которые предоставляют вам поисковики. Например, Яндекс Метрике появилась возможность связать Яндекс Вебмастер и Яндекс Метрику, для того чтобы отправлять страницы на переиндексацию.

    Также смотрите наш видеоролик https://youtu.be/HF-2dd4luQY с помощью которого вы сможете найти ошибки у себя на сайте и запланировать работы по их исправлению.

    Если вы хотите продвинуть свой сайт в ТОП поисковой выдачи, тогда записывайтесь на курс по SEO-продвижению

    Отсутствие сайта в поисковой выдаче Яндекс

    Яндекс играет большую роль в продвижение сайта, ведь обычно с него идет примерно в 2 раза больше трафика, чем с Google. Но так бывает не всегда. Отсутствие сайта в поисковой выдаче Яндекс озадачило меня.

    Я имею Джейлбрейк блог — JailWorld.ru, в котором публикую новости, обзоры и много другое, связанное с джейлбрейком. Пишу я довольно часто (2 поста в неделю точно), пишу для русскоязычных пользователей и по сути надеюсь на высокие места в Яндексе. Но тут есть одна проблема.

    Примерно пол года назад мой проект стал терять свои позиции в Яндексе и что премечательно — только в Яндексе. Из Индексации сначала начали выпадать страницы, потом они стали не индексировать и в итоге сейчас из Яндекса идет примерно 10 человек, хотя с Google в среднем 250 (статистика за 7 дней из liveinternet). Вот и таблица:

    Как вы видите, картина у Яндекса ужасна. С него идут столько же, сколько из «второсортных» поисковиков.

    Не долго думаю, я пошел к Платону (лицо тех поддержки Яндекс), задав ему вопрос типа: «Почему мой сайт плохо индексируется и не попадает в поисковую выдачу?», Платон мне отвечал: « В настоящее время мы не видим каких-то общих причин, по которым страницы данного сайта могут исключаться из поиска. Как я уже писал Вам ранее, если Вы наблюдаете проблемы с индексацией конкретных важных страниц Вашего сайта, пожалуйста, пришлите нам несколько примеров их адресов.». Ответ был стандартный, ведь я уже не первый раз задавал такой вопрос.

    Проходило время, я ждал обновления Яндекс баз (так мне в каком то письме советовал Платон, пол все поправится), но ничего не происходило, сайт так же не присутствовал в поисковой выдаче.

    Недавно я вновь задал вопрос, «почему нет сайта в поисковой выдаче?» и вот наша переписка:

    Переписка с Платоном

    Платон: Мы проверили, Ваш сайт представлен в поиске в соответствии с его релевантностью запросам пользователей. Результаты поиска – это не статическая информация и время от времени имеют свойство меняться. Вероятно, после внесения очередных изменений в наши алгоритмы, в результаты поиска по соответствующим запросам попали более качественные и интересные страницы и сайты. Мы стараемся ранжировать высоко сайты, соответствующие нашему пониманию качественных: https://help.yandex.ru/webmaster/yandex-indexing/quality-site.xml .

    Я: Но проблема то в том, что сайт не индексируется. Нам нем уникальный текст, который давно должен был быть проиндексирован.

    Платон: Здравствуйте, Николай!

    К сожалению, данная ситуация связана с ранее возникшими техническими проблемами с нашей стороны. В настоящий момент мы занимаемся их устранением, но на это требуется время.

    Приносим свои извинения за предоставленные неудобства.

    N1k0lay

    Автор блога, а так же его системный администратор и SEO оптимизатор Посмотреть все мои статьи →

  • Ссылка на основную публикацию
    Adblock
    detector