Context stringlengths 25 1.06k | Response stringlengths 222 3.73k |
|---|---|
1️⃣ Одна из самых частых проблем при кластеризации и принятии решения объединять или не объединять ВЧ и НЧ кластера:
1. Есть 3 кластера:
ВЧ - Купить грабли веерные
НЧ - Купить грабли веерные металлические
НЧ - Купить грабли веерные пластиковые
* пример взят для наглядности, сейчас в ТОПе ситуация могла измениться.
2️⃣ Связи между ними сильные 7 из 10 общих урлов.
2.1. Сильная связь обусловлена, что никто из конкурентов, не заморачивался с проработкой посадочных под НЧ спрос.
2.2 Или поисковые системы отдают предпочтение ВЧ кластеру «Купить грабли веерные» так, как на нем больше трафика, доверия, + присутствуют и металлические и пластиковые грабли (больше выбор для пользователя).
3️⃣ Но!!! Есть момент, если я ищу металлические, зачем мне просматривать пластиковые?
- но, если сделать 3 страницы, то рел. урл может «прыгать» с НЧ на ВЧ кластер (см.пункт 2.2.).
Как лучше поступить в данном случае? Объединять или не объединять кластера? | Мы считаем, что в вашей ситуации не стоит объединять запросы из разных кластеров на одну страницу. То, что они попали в разные кластеры, означает, что их стоит разделить на разные посадочные. Такая реализация, когда есть основная ВЧ-категория и НЧ-подкатегории довольно распространенная, например, в интернет-магазинах техники (конкретные бренды телефонов, телевизоров и т.д.).
👉 Низкочастотные запросы направлены на конкретный товар и правда, если интент пользователя “пластиковые грабли”, то общая страница с еще и металлическими может плохо ранжироваться за счет показателя отказов и пользовательского опыта. Пользователь, увидев общую страницу граблей, может попросту уйти с сайта, так как он искал определенный товар.
Текущая ситуация с высокой связанностью URL говорит о том, что поисковые системы воспринимают эти запросы, как семантически близкие. Однако доминирование ВЧ-кластера может быть временным явлением, связанным с тем, что, как вы указали, конкуренты не создают отдельные страницы под НЧ запросы. Нет страниц у конкурентов – нечему ранжироваться в ТОПе по таким запросам.
⚠️ Чтобы избежать проблемы "прыгающего" релевантного URL, важно правильно настроить техническую часть, особенно проработать контент страницы и использовать четкие заголовки и мета-теги. Страницы должны быть связаны между собой продуманной перелинковкой, которая поможет как пользователям, так и поисковым системам понять связь между материалами. На НЧ страницы нужно закупить ссылки, чтобы увеличить их релевантность по определенным запросам. Таким образом, пользователь будет получать по запросу именно ту страницу, которая ему нужна.
Когда вы грамотно работаете с ВЧ, СЧ и НЧ запросами, ваш сайт получает не просто “посещаемость ради посещаемости”, а именно ту аудиторию, которая в итоге становится вашими клиентами.
Помните: нет “плохих” запросов, всё зависит от стратегии и целей. |
Как можно выгрузить заголовки, метаданные у конкурентов из ТОПа Google по определённым запросам? | Чтобы получить именно такой результат, необходимо по нужным вам запросам получить ТОП Google, а потом осуществить сбор заголовков и метатегов такими способами:
▫️в ручном режиме;
▫️при помощи Google таблиц;
▫️с помощью сервисов.
1️⃣ Ручной режим
Имея на руках ТОП по запросам, вы просто открываете один за одним интересующие URL адреса, копируете заголовки и метаданные и заносите в таблицу.
2️⃣ Google таблицы
Этот способ упрощает сбор данных, особенно, если необходимо обработать огромный массив данных.
Для получения нужного результата необходимо использовать Xpath, в виде формул:
🔸Для title: =IMPORTXML(«https://site.com/»;»//title»);
🔸Для description: =IMPORTXML(«https://site.com/»;»//meta[@name=’description’]/@content»);
🔸Для Н1: =IMPORTXML(«https://site.com/»;»//h1″).
Прописав формулу для одного URL адреса и далее протянув ее для остальных адресов, вы быстро получите нужные данные.
3️⃣ Сервисы
Этот способ наиболее быстрый, так как позволяет выгрузить как конкурентов из ТОПа, так и необходимые данные по этим сайтам. К таким сервисам можно отнести, например, Ahrefs, Serpstat и другие подобные. |
У меня присутствует отдельная мобильная версия сайта. Раньше каноникал ставили на десктоп версию и показывали, что мобильная это альтернативная. А как лучше сейчас, если у меня 75% трафика через мобильную версию? | В вашей ситуации, скорее всего, лучше будет указать canonical на мобильную версию сайта. Однако, если есть возможность, рассмотрите переход на адаптивный дизайн, который является более современным и эффективным решением.
Раньше, когда мобильный трафик был меньше, canonical чаще всего указывал на десктопную версию сайта, а мобильная версия считалась альтернативной. Сейчас, когда мобильный трафик значительно вырос, такой подход может быть не самым эффективным. Google все больше ориентируется на мобильные устройства (Mobile-first indexing) и старается вовсе отойти от canonical (это все больше просто рекомендация для ботов).
Потому в идеале, лучше использовать адаптивный дизайн, когда сайт подстраивается под размер экрана пользователя. В этом случае canonical не нужен, так как у вас будет один URL для всех устройств. |
Как ускорить индексацию в Google? Карта сайта есть, перелинковка внутренняя, наполненность контентом (уник. около 70), ссылок немного уже тоже. 2,5 месяца сайт упорно не хочет индексироваться Google, только главную "съел". Что ещё предпринять? | Если у вас уже корректно настроены карта сайта sitemap.xml, внутренняя перелинковка и есть первичные внешние ссылки, но Google упорно не индексирует страницы (кроме главной), то для начала посмотрите отчеты “Покрытие” и “Страницы в индексе” и вы увидите, какие url обнаружены, но не проиндексированы, и возможные причины этого.
⚠️ Самые распространенные причины:
▫️ошибка сервера (5xx)
▫️ошибка переадресации
▫️доступ к URL заблокирован в файле robots.txt
▫️страница содержит директиву noindex
▫️ошибка (404)
▫️страница просканирована, но пока не проиндексирована (страницы низкого качества)
▫️обнаружена, не проиндексирована
▫️страница является копией
👉 Далее в зависимости от выявленных проблем, вы будете лучше понимать, что стоит предпринять в вашей ситуации. Среди стандартных мер рекомендуем следующее:
✅ Проверьте robots.txt на наличие случайных блокировок индексации (Disallow).
✅ Убедитесь, что meta robots на страницах установлен правильно (нет ли noindex или nofollow).
✅ Регулярно обновляйте контент сайта. Если вы делаете новые публикации и обновляете уже существующие, это стимулирует робота заходить чаще. Также отзывы на товары или услуги расценивается Google, как новый контент. Уникальность контента 70% не критически низко, но желательно повысить. Чем выше уникальность и глубина материала, тем охотнее Google индексирует.
✅ Несколько качественных ссылок с тематических ресурсов могут сильно ускорить индексацию, особенно если эти сайты сами хорошо индексируются.
✅ Добавьте сайт в тематические каталоги с хорошей репутацией.
✅ Социальные сети (Facebook, Twitter, LinkedIn, Instagramm и пр.) помогают привлечь роботов и пользователя на ваш сайт. Делайте анонсы новых статей, используйте ссылки на сайт.
✅ Проверьте адаптивность под мобильные устройства, проблемы в mobile-first индексации часто тормозят общий процесс.
А иногда, для нового сайта, самым действенным способом является просто ожидание. “Песочница” может продолжаться и 3-4 месяца. |
Подскажите, какие есть сайты или приложения, где можно посмотреть на нынешний трафик сайтов и 2-3 года назад? | Среди самых популярных сервисов для оценки истории трафика, которые показывают плюс-минус схожую с реальной картиной ситуацию по трафику на сайте – это Ahrefs и SimilarWeb. Но вам не стоит на 100% полагаться на эти сервисы, мы неоднократно проверяли через них сайты, к которым у нас есть непосредственный доступ и данные там кардинально отличались как в сторону увеличения, так и в сторону уменьшения. |
В выдаче появляется довольно много фишинговых сайтов, которые частично копируют дизайн и контент нашего сайта и затем от нашего имени разводят пользователей. Мы ищем такие сайты и пишем жалобы. Но их появляется довольно много, искать руками не всегда есть возможность. Подскажите, возможно есть сервисы, которые позволяют автоматизировать мониторинг выдачи и поиск таких сайтов? Ну и возможно дадите еще какие-то советы по этому поводу. | Мы знаем не так много сервисов, которые могут помочь автоматизировать мониторинг выдачи и поиск фишинговых сайтов, копирующих ваш контент.
✅ Copytrack - сервис специализируется на поиске копий контента в интернете. Он автоматически находит сайты, которые скопировали ваши изображения, и предоставляет отчеты.
✅ URLhaus – база данных, которая отслеживает и предоставляет информацию о фишинговых сайтах и других вредоносных веб-сайтах. Есть API.
✅ PhishTank API - позволяет получать актуальные данные о обнаруженных фишинговых сайтах.
✅ Сервис Brand24 (платный) – отслеживает появление новых сайтов с упоминанием вашего бренда.
Создание скрипта, который будет автоматически искать схожие сайты.
⚠️ Важно! Автоматические сервисы не всегда могут быть идеальными. Они могут пропускать некоторые фишинговые сайты или, наоборот, ошибочно принимать обычные сайты за фишинговые. |
В интернет магазине кроликов есть товары с названием: Кролик 1, Кролик 2, Кролик 3, Кролик 4 и т.д.
Как смотрите на то, чтобы в листингах категорий выводить эти товары как:
В категории "Кролики рыжие" выводить товары с названием: Кролик 1 рыжий, Кролик 2 рыжий, Кролик 3 рыжий, Кролик 4 рыжий.
В категории "Кролики ангорские" выводить товары с названиями: Кролик 1 ангорский, Кролик 2 ангорский, Кролик 3 ангорский, Кролик 4 ангорский
И так далее в зависимости от категории добавлять к названию подходящий текст.
Это все естественно при условии, что сам Кролик подходит к категории по своим параметрам.
Как на это посмотрят ПС? Не будет ли проблем? Будет ли от этого толк? | Ваш вопрос по сути заключается в том, а можно ли давать ссылки на товары из листингов под разными анкорами. Да, вы можете так сделать, прямого запрета от поисковых систем на такой формат размещения отсутствует. Да и вы не делаете ничего вводящего в заблуждение, если все товары будут соответствовать описанию листинга.
Проработайте также тот момент, чтобы в категории «Кролики рыжие» у всех товаров было свое уникальное описание, чтобы каждый товар не выглядел как простое склеивание ключевого слова с названием товара. Если все товары в этой категории будут иметь название «Рыжий кролик №1», «Рыжий кролик №2» и т.д. – это не будет выглядеть органически и может расцениваться поисковой системой, как действие, направленное на поисковые системы, а не на пользователей.
👉 Также подумайте над тем, чтобы изменить не просто анкоры товаров из категорий, а названия самих товаров. Если все они будут подходить под описание, то и само название товара можно уникализировать и сделать более тематическим, например: «Ангорский кролик среднего размера с рыжими ушками и белыми лапками». Уникализировав и сделав более человеко-ориентированными названия товаров, вам и не понадобиться принудительно менять их анкоры из категорий. |
Есть многоязычный сайт, постоянно наполняем на 19 языках. Встал вопрос о покупке ссылок. Влияет ли купленная ссылка на одну языковую версию на версии сайта на других языках? Например, если есть ссылка на it-версию, она повлияет на сайт в общем? | Если ваши языковые версии организованы через подпапки, то да, донорская ссылка на одну языковую версию может оказывать незначительное косвенное влияние на весь сайт. Например, если вашим донором является авторитетный ресурс - это может повысить общий авторитет вашего домена, что в свою очередь может положительно сказаться на ранжировании всех языковых версий сайта, но эффект будет менее выраженным, чем для страницы, на которую непосредственно ведет ссылка.
🔸 Само собой анкор на итальянском языке в первую очередь будет оказывать влияние на около-анкорные ключевые запросы на том же языке. И прямого влияния на другие языковые версии не будет.
🔸 Тоже самое и с региональным фактором: локальный донор из Италии будет важен в первую очередь для людей, которые будут им пользоваться в том же регионе. И влиять такой донор будет на страницы, ориентированные в первую очередь на ту же аудиторию.
🔸 Влияние ссылок также зависит от конкуренции в каждом регионе. Например, если итальянская версия получает сильные ссылки, это может улучшить её позиции, но не гарантирует аналогичный эффект для английской или немецкой версий.
В любом случае, для естественности ссылочного профиля и максимального эффекта лучше покупать ссылки для каждой языковой версии отдельно, особенно если важен трафик в конкретных странах. |
Какой самый простой способ определить дает ли результат у клиента PBN? | Эффективность работы PBN сетки отслеживается мониторингом видимости продвигаемого сайта в поисковых системах (ПС).
Если видимость растет, то соответственно, эффект от сети PBN на лицо. Если же роста нет, то варианта два:
🔸ссылки с сети сайтов еще не проиндексированы поисковыми системами и необходимо время, чтобы потенциальный эффект ссылок был учтен поисковиками;
🔸 ссылки учтены, но они не дают нужного эффекта.
⚠️ Важно учитывать нюанс времени, которое может понадобиться для получения видимого эффекта.
Так, например, те сайты, участвующие в сети, которые были восстановлены из вебархива и имеющие качественный контент, могут дать результат значительно быстрее, чем те сайты, которые выстраивались в сеть с нуля и не имеют никакой истории и авторитета в поисковых системах.
Если же ссылки учтены ПС, но роста видимости, трафика и т.д. нет, то необходимо проанализировать качество сайтов, участвующих в сети PBN и при возможности, прокачать их.
Иногда эффекта нет также и потому, что Google обнаруживает сеть и понимает, что сайты восстановлены исключительно для манипуляции выдачей. В редких случаях алгоритмы могут и наказать ваш сайт санкциями с негативными последствиями.
К сожалению, более точных методов определения эффективности сетки нет. |
Какое количество символов должно быть в метатеге тайтла и каково его значение для SEO? | Оптимальная длина тайтла обычно составляет от 50 до 60 символов и до 600 пикселей в ширину Ограничение в 600 пикселей связано с тем, как Google отображает заголовки в результатах поиска (SERP). Это технический лимит, основанный на ширине области отображения в поисковой выдаче. Разные символы имеют разную ширину. Именно поэтому иногда title длиной в 55 символов может обрезаться, а в 65 символов - отображаться полностью. Всё зависит от используемых символов. На мобильных устройствах это значение может быть меньше.
👉 Превышение длины Title не является грубой ошибкой, и иногда может быть полезно для SEO:
🔸Google индексируют весь title целиком, даже если он отображается не полностью.
🔸Это позволяет включить дополнительные ключевые слова и их вариации для расширения семантического ядра.
🔸Кроме того, иногда, Google может выводить именно ту часть Title, которая больше подходит конкретному запросу пользователя. |
Куда сейчас лучше выгружать видео для хорошей выдачи по ключевым словам? | В текущих реалиях наиболее эффективной платформой для видеоконтента с точки зрения поисковой оптимизации остается YouTube. Это обусловлено его мощной поисковой системой, тесной интеграцией с Google и возможностью оптимизировать контент под ключевые запросы через заголовки, описания, теги и субтитры.
💡 Почему YouTube?
1️⃣ YouTube является самой популярной платформой для поиска видеоконтента в интернете. Видео, оптимизированные под ключевые слова, отображаются не только внутри самой платформы, но и в результатах поиска Google. Вы можете использовать ключевые слова в заголовках, описаниях, тегах и субтитрах.
2️⃣ YouTube активно отслеживает, как пользователи взаимодействуют с вашим видео: лайки, комментарии, подписки после просмотра. Это напрямую влияет на ранжирование. Чем выше вовлеченность, тем чаще видео будет показываться в рекомендательных блоках.
3️⃣ Превью и заголовок играют такую же огромную роль в Youtube, как и в поисковой выдаче. Чем привлекательнее превью, тем чаще на него кликают и, соответственно, оно лучше ранжируется.
4️⃣ Алгоритм предпочитает каналы, которые регулярно выпускают видео в одной тематике. Поэтому ваши видео будут четко соответствовать вашей целевой аудитории.
В качестве альтернативы можно также рассмотреть Vimeo, где можно обеспечить хорошую видимость в специализированных нишах при правильной оптимизации видео.
Хотя YouTube доминирует в вопросах поисковой выдачи, для максимальной эффективности рекомендуется кросс-платформенное размещение с адаптацией контента и ключевых слов под особенности каждой площадки. Это позволяет охватить различные аудитории и увеличить общую видимость контента в поисковых системах.
👉 Такими площадками могут быть TikTok и Instagram Reels - это платформы для коротких видео с акцентом на тренды. Здесь важно использовать хэштеги, которые усиливают охват. Видео должны быть емкими, динамичными и ориентированными на удержание внимания с первых секунд. TikTok особенно хорошо работает для быстрого охвата новой аудитории. |
Сайт швейной фабрики по пошиву униформы. Есть каталог товаров, где есть блузки, футболки, брюки и т.д. Также есть отдельно другие категории: блузки для ресторанов, блузки для отелей, блузки для торговых сетей и прочее. Нужно ли в других категориях указывать canonical на основную категорию в каталоге? Товары одинаковые везде. | Прописывание canonical, например, с категории блузки для отелей на родительскую категорию блузки не очень правильное решение. За счет такой сегментации, вы расширяете семантическое ядро (при условии, что такие ключи есть и у них есть частотность). Что потенциально может оказать влияние на видимость сайта в поисковых системах (ПС) и возможный рост трафика (при надлежащей внутренней и внешней оптимизации). В такой сегментации нет ничего странного и подозрительного с точки зрения поисковых систем.
⚠️ Важно! Но, если у вас во всех категориях абсолютно одинаковый ассортимент, например, всего 5 блузок и все эти 5 блузок находятся во всех подкатегориях (Для отелей, Для ресторанов и т.д.), то это, действительно, может быть проблемой.
Если есть возможность, то стоит проработать ассортимент с точки зрения разнообразия. То есть, какие-то позиции отображать только в одной категории, какие-то только в другой.
Также, если есть возможность, то желательно расширить ассортимент, чтобы наполнить дочерние категории какими-то уникальными товарами и дать максимальное разнообразие потенциальному покупателю.
👉 Если же оставить как есть, то со временем это может сказаться негативно, так как ПС не будут понимать разницы между категориями из-за одинакового ассортимента, даже при наличии внутренней и внешней оптимизации.
В итоге, если разнообразить ассортимент не представляется возможным, то canonical будет оптимальным решением. Но, стоит помнить, что canonical лишь рекомендация и может не приниматься в расчет ПС. По этой причине могут возникать дубли страниц, с которыми придется бороться, например, закрывая их от индексации.
При таком раскладе (закрытие от индексации всех дублей-подкатегорий) стоит попробовать оптимизировать основную категорию под все запросы, которые ранее сегментировались на подкатегории. |
Можно ли использовал атрибут hreflang для регионального продвижения? Этот атрибут позволяет указывать роботу для какого региона показывать страницу? Как дополнительно можно присвоить региональность сайту? | Можно и нужно использовать атрибут hreflang для регионального продвижения. Атрибут помогает Google понять геопринадлежность страницы, чтобы предоставить пользователю нужную языковую версию в результатах поиска. С его помощью мы показываем роботам, что на сайте один и тот же контент доступен на разных языках. Благодаря этому атрибуту поисковики могут автоматически показывать корректную языковую версию, на основе географических и языковых данных. А также атрибут hreflang предотвращает склейку страниц, благодаря чему они лучше индексируются и ранжируются.
⚠️ Однако сам по себе hreflang не всегда помогает решить вопрос регионального продвижения, для этого используются дополнительные меры:
▫️Выбор домена верхнего уровня — .ua, .com.
▫️Геолокация IP.
▫️Настройка серверов в разных странах.
▫️Субдомены для разных стран: pl.site.com, fr.site.com и т.д.
▫️В Google Search Console можно указать, на какую страну вы ориентируетесь (если домен общего пользования: .com, .org, .net и т.д.).
▫️Упоминайте конкретный город/регион в заголовках, мета-тегах и тексте.
▫️Размещайте точные адреса, номера телефонов с местным кодом, схемы проезда.
▫️Регистрируйтесь в Google Бизнесе и местных онлайн-каталогах и указывайте реальную информацию о местоположении, контактах и графике работы. Поощряйте клиентов писать отзывы на Google картах.
▫️Добавьте микроразметку LocalBusiness.
💡 hreflang – полезный инструмент для корректного определения языковых и гео версий сайта, однако полноценное региональное продвижение строится, в том числе, на правильном выборе доменной зоны, указании региональной информации в настройках Google Search Console и наличии локального контента, соответствующего целевому региону. |
Хочу поднять свою сетку из 20 сайтов под статейное размещение, такой вопрос: обязателен ли уникальный контент на сайте или же можно публиковать копипаст? На сколько это сильно играет роль для качества самой сетки, и для потенциальных вебмастеров, которые будут размещаться на моей сетке сайтов? | Уникальный контент для сетки сайтов, которые будут предлагаться под размещение статей (гостевые посты, рекламные материалы и т.д.) не просто «желателен», а является одним из ключевых факторов и для SEO, и для интереса вебмастеров к вашим площадкам. В идеале все статьи должны быть либо уникальными, либо переработанными таким образом, чтобы не вызывать дублирование в поисковых системах. Только тогда ваша сетка сможет развиваться и приносить стабильный доход от размещений.
1️⃣ Вебмастера при выборе площадок для размещения своих материалов или ссылок, часто обращают внимание не только на показатели домена (трафик, DA/DR, беклинки и т.п.), но и на визуальное и содержательное качество сайта. Если контент полностью скопирован, сайт выглядит низкокачественным, и это может отпугнуть потенциальных рекламодателей или партнёров.
2️⃣ Поисковые системы (особенно Google) стараются ранжировать сайты с действительно уникальным и полезным контентом. Копипаст довольно часто приводит к тому, что страницы с дублированным контентом не попадают в индекс или значительно понижаются в выдаче. Это снижает трафик и ценность такого сайта для размещения гостевых публикаций.
Если же ваша сетка создается для PBN, то тоже имеет смысл вкладываться в уникальный контент хотя бы на уровне хороших переписанных статей, оптимизированных под ключевые запросы. Такая сетка будет более надёжно стоять «на ногах» и сможет передавать больше «веса» при ссылочном продвижении. |
Как повысить ранжирование статей, если они и так хорошо ранжировались? Но стоит задача поднять выше. Мы дополнили новой информацией и сделали рерайт того текста, который был, но суть осталась та же, но другими словами. | Чтобы поднять ранжирование страниц необходимо повысить их авторитет в глазах поисковых систем, а именно:
🔸улучшить внутреннюю перелинковку;
🔸закупить внешние ссылки;
🔸разместить посты в социальных сетях.
Также для этих страниц вы можете исходя из поведенческих метрик увидеть:
🔸процент отказов;
🔸CTR;
🔸время пребывания на странице/страницах;
🔸глубину просмотра.
На основе этих данных, возможно, вы сможете еще что-то привнести в текст, чтобы он еще полнее отвечал на вопрос пользователя.
Измените сниппет, сделайте его более привлекательным и интересным, чтобы повысить CTR. Этот показатель оказывает значительное влияние на ранжирование.
Постарайтесь свести к минимуму отказы и повысить время пребывания и глубину просмотра страниц.
Не менее важно проанализировать ТОП по тем запросам, по которым вы хотите поднять ранжирование страниц. Это позволит посмотреть на полноту раскрытия темы конкурентами и, возможно, дополнить свой материал информацией. Также стоит, по возможности, добавить в материал таблицы, графики, видео и т.д., чтобы статья стала еще более наглядной и полезной.
👉 Особое внимание необходимо уделить изображениям, которые сопровождают пользователя от самого начала, до самого завершения материала. В обязательном порядке добавляйте к изображениям подпись, которая позволит добавить еще больше наглядности и полезности материалу.
При этом полный рерайт текста не всегда хорошая идея, т.к. такое обновление может быть воспринято алгоритмами, как новая статья, которая не обязательно будет лучше прежней. |
Стоит ли в ТЗ копирайтерам указывать количество символов, точные вхождения ключа, синонимы или эти факторы давно считаются неактуальными? | Подход к ТЗ для копирайтеров сегодня стал более гибким и естественным, чем раньше. ПС Google сейчас больше ценит качественный, экспертный контент, который действительно решает задачи пользователей, чем тексты с идеальными техническими параметрами.
✅ Количество символов. Вместо жестких рамок лучше указывать примерный диапазон (например, 2000-2500 символов). Это позволит автору раскрыть тему естественно, не растягивая и не обрезая текст искусственно.
✅ Точные вхождения ключа. Этот параметр стал несколько менее актуальным. Поисковые алгоритмы стали намного умнее и понимают контекст, семантическую связь и намерение пользователя. Ряд точных вхождений можно оставить, но вместе с ними рекомендуем писать в ТЗ естественное использование ключевых фраз со склонениями и разрывами между слов там, где это уместно.
✅ Синонимы и вариации ключевых фраз полезны, потому что позволяют охватить больше смежных поисковых запросов и сделать текст разнообразнее. Но не нужно прописывать их все в ТЗ: достаточно перечислить основные варианты и дать копирайтеру свободу выбора. |
Какой sitemap делать для сайта с несколькими языковыми версиями в подпапках: один общий для всех или для каждой языковой версии нужен свой sitemap.xml? | Оба варианта имеют право быть, если корректно настроить hreflang. Мы рекомендуем руководствоваться следующим принципом:
Если сайт небольшой и вы хотите простоты — делаете общий sitemap.xml.
Если сайт крупный или вы хотите управлять версиями отдельно — отдельные sitemaps для каждого языка.
⚠️ Не забывайте, что в общей карте сайта также надо указывать hreflang. Пример:
<url>
<loc>https://example.com/</loc>
<xhtml:link rel="alternate" hreflang="en" href="https://example.com/en/" />
<xhtml:link rel="alternate" hreflang="fr" href="https://example.com/fr/" />
</url>
<url>
<loc>https://example.com/en/</loc>
<xhtml:link rel="alternate" hreflang="x-default" href="https://example.com/" />
<xhtml:link rel="alternate" hreflang="fr" href="https://example.com/fr/" />
</url>
<url>
<loc>https://example.com/fr/</loc>
<xhtml:link rel="alternate" hreflang="x-default" href="https://example.com/" />
<xhtml:link rel="alternate" hreflang="en" href="https://example.com/en/" />
</url>
👉 Если же будете использовать отдельные карты для каждой языковой версии, то рекомендуем сделать основной файл, в котором указываются ссылки на дочерние sitemaps:
<sitemap>
<loc>https://example.com/sitemap-default.xml</loc>
</sitemap>
<sitemap>
<loc>https://example.com/en/sitemap-en.xml</loc>
</sitemap>
<sitemap>
<loc>https://example.com/fr/sitemap-fr.xml</loc>
</sitemap> |
Насколько негативно могут влиять на позиции всплывающие окна на страницах, например, с предложением посетить страницу акции или товар, который пользователь уже смотрел на сайте? Интересно узнать про влияние в Google. | Всплывающие Pop-up-окна в целом рекомендуется сводить к минимуму. Очень много зависит от того, каким образом реализована всплывашка на сайте.
Так, например, навязчивые всплывающие окна, занимающие большую часть экрана и мешающие пользователю, могут повлиять негативно на позиции сайта в поисковых системах. Если же всплывающее окно небольшое, легко может быть закрыто пользователем, то оно, скорее всего, не окажет никакого влияния на позиции сайта, но при этом сможет в Вашем случае привести пользователя к выгодному товару по акции.
Безусловно, с точки зрения потенциальных конверсий всплывающее окно может дать положительный эффект прироста продаж и поэтому оно полезно с точки зрения бизнеса. Но не стоит перегибать палку и создавать надоедливые окна, которые будут раздражать пользователя.
💡 Ваша задача при помощи этого окна улучшить поведенческие метрики, а не ухудшить их. Если пользователь перейдет по ссылке в окне на другую страницу сайта, то это будет хорошим сигналом, если же пользователь будет практически сразу после появления окна закрывать сайт, то это будет плохим сигналом. При этом важно, чтобы всплывающее окно не появлялось на каждой странице сайта.
Обязательно стоит посмотреть на реализацию таких окон у конкурентов в ТОП. |
Каким сервисом можно пройтись по сайту и проверить его линки на домены, сроки которых закончился? | Как такого универсального сервиса не существует, который выдаст отчёт именно по таким доменам. Но есть схема как это решить с комбинацией нескольких инструментов:
1️⃣ Собираем любым краулером (или с помощью Ahrefs) исходящие ссылки с сайта и выгружаем в таблицу со всеми внешними доменами.
2️⃣ Берём выгруженный список доменов и используем сервисы для массовой проверки доступности доменов. Например, эти Name.com, Namecheap, Whois, в некоторых можно прямо списком загрузить домены для проверки.
Также возможно автоматизировать эту задачу скриптом, проверяющим домены на истечения срока. |
Нужно ли прописывать user_agent follow на сайте , или достаточно просто ничего не писать и user_agent Google будет правильно сканировать sitemap? | Для нормального индексирования страниц вашего сайта достаточно просто размещать страницы с качественным контентом, при этом не обязательно прописывать rel follow для каждой страницы, чтобы роботы по ней переходили.
Постарайтесь добавить в файл sitemap все страницы вашего сайта, которые отвечают на вопросы пользователей и которые, по вашему мнению, должны находиться в выдаче. Этого будет достаточно для того, чтобы поисковая система добавила их в свою поисковую базу и показала в выдаче по соответствующим запросам, если контент этих страниц действительно покрывает запрос пользователя.
⚠️ Также не забудьте добавить файлы карты сайта в консоль поисковой системы. |
Какой тип микро разметки делает большой расширенный сниппет в выдаче Google (например, содержит несколько ссылок на категории товаров или услуг)? И можно ли его настроить на меню сайта или это на странице должен быть блок соответствующий, с которого стоят ссылки на те страницы? | Такие расширенные сниппеты с содержанием ссылок на категории товаров или услуг обычно формируются Google для главной страницы автоматически, на основании анализа содержания контента. Для этого необходимо, чтобы в контентной части страницы был организован структурированный и понятный блок перелинковки по основным разделам сайта.
В редких случаях такие расширенные сниппеты могут формироваться и для страниц категорий сайта. Требования все те же, необходимо четко структурированный блок перелинковки в самом контенте страницы.
Меню сайта, конечно же, можно также разметить. Обычно для этого используют разметку SiteNavigationElement или ItemList для его элементов. Однако в нашей практике такая разметка если оказывала влияние на формирование расширенных сниппетов, то в очень редких случаях.
⚠️ Помните, микроразметка лишь дополняет информацию для поисковой системы, она не заменяет фактическое наличие контента. |
Как считаете, на сколько важно, чтобы донор имел трафик? (Трафик на домен, а также трафик на последние посты). И важна ли региональность донора, например, работаем под Португалию — ссылки покупать лучше с португальских сайтов, или подойдут другие страны и мультиязычные сайты? | При определении качества донора необходимо в обязательном порядке оценивать множество факторов, один из которых – трафик. И чем он, соответственно, больше, тем лучше. Наличие трафика на сайте говорит о том, что он востребован пользователями, а это, в свою очередь, повышает вероятность перехода по ссылке на сайт акцептор. Такое поведение добавляет качества самой ссылке и именно таковой, в идеале, должна быть цель получения каждой ссылки – переход пользователя.
👉 Что касается региональности, то ответ однозначный – да, она важна. Вероятность того, что сайты находящиеся в одном регионе будут ссылаться друг на друга значительно выше, чем сайт находящийся совершенно в другом регионе. Это выглядит логично в глазах поисковых систем.
👉 Что касается иностранных и мультиязычных сайтов, то самое важное – это качество самого донора. Поэтому, если есть возможность разместиться на каком-то очень трастовом доноре, то это также будет плюсом для вашего сайта.
Поэтому в первую очередь рекомендуем получать ссылки с португальских и других сайтов, которые имеют трафик, получили и получают обратные ссылки, совпадают или близки по тематике с вашим сайтом. Однако, если позволяет бюджет, то параллельно можно брать ссылки с других стран и мультиязычных сайтов, если это качественные и тематичные доноры. |
Есть домены, которые с большой долей вероятности считаются аффилированными (проверяли по схемам, все сходится). Если сделать новый сайт на новом домене, а затем поставить 301 редирект с одного из аффилиатов на этот новый сайт, фильтр тоже переедет? | При 301 редиректе с аффилированного домена фильтры не "переедут" на новый домен. Но если сайт снова будет иметь ту же схожесть с предыдущим или вообще будет идентичным со старым сайтом, то есть немаленький шанс снова получить аффилирование.
💡 Чтобы новый сайт не попал под фильтр-аффилиат необходимо использовать:
▫️другой физический адрес, номер телефона, адрес электронной почты
▫️другие регистрационные данные компании и платёжные реквизиты
▫️другие шаблоны и уникальный контент
▫️по возможности обновить структуру и дизайн
▫️другие отличающиеся группы в социальных сетях
▫️также по возможности отличающийся ассортимент и цены |
Могут ли быть последствия для сайта, если у него 90%+ dofollow-ссылок? И на какие показатели следует опираться? | Если ваш ссылочный профиль сайта состоит на 90%+ dofollow-ссылок, то это может выглядеть слишком неестественно и подозрительно с точки зрения Google. Алгоритмы могут расценить это, как попытку манипуляции результатами поиска. В большинстве случаев Google просто посчитает такую ситуацию, как ссылочный спам и будет игнорировать большую часть подозрительных ссылок. В худшем случае существует риск попадания под фильтр и сайт может потерять позиции в выдаче.
Мы рекомендуем тщательно проанализировать выдачу, изучить профиль Ваших конкурентов и определить для себя допустимый диапазон соотношения nofollow и dofollow-ссылок. Старайтесь наращивать все ваши виды ссылок в естественном соотношении.
💡 На какие показатели следует опираться при оценке ссылочного профиля:
1️⃣ Динамика роста ссылок. Естественный рост ссылок происходит постепенно. Резкие скачки могут вызвать подозрения.
2️⃣ Качество и тематика доноров. Авторитетные и тематические сайты имеют больший вес.
3️⃣ Разнообразие анкоров. Использование разных ключевых слов и фраз в анкорах ссылок выглядит более естественно.
4️⃣ География ссылок. Ссылки с Вашего региона продвижения, делают профиль сайта более естественным.
5️⃣ Тип ссылок. Помимо dofollow, существуют и другие типы ссылок (nofollow, sponsored и т.д.). Сбалансированный профиль содержит ссылки разных типов. Это нормально, когда люди делятся ссылками на Ваш сайт на разнообразных площадках.
⚠️ Важно понимать, что нет универсального рецепта для идеального ссылочного профиля. Каждый сайт уникален, и подход к его продвижению должен быть индивидуальным. |
Могут ли покупные ссылки выпадать из индекса со временем? Нужно ли мониторить время от времени индекс покупных ссылок и как это сделать? | Покупные ссылки со временем могут выпадать из индекса только в связи с ухудшением состояния сайта донора. Возможно, донором перестали заниматься, разместили слишком много арендных или вечных ссылок, начали публиковать материалы сомнительного качества, начали продавать ссылки для 18+ тематик, начали публиковать материалы 18+. Все эти факторы в совокупности могут негативно повлиять на сам сайт-донор и как следствие, некоторые его страницы начинают выпадать из индекса. На хороших сайтах страницы просто так из индекса не выпадают, они могут терять актуальность и ухудшать свои позиции в выдаче, и постепенно терять свой вес, но не выпадать из индекса.
Мониторить индексацию ссылок нужно только в момент покупки. Если страница достаточно быстро зашла в индекс – значит она отлично отработает. Если, на первый взгляд, на хорошем доноре ваша статья никак не может зайти в индекс – это показатель того, либо вы ошиблись с качеством донора, либо размещаемый материал недостаточно качественный, либо не подходит для тематики площадки.
👉 Индексация ссылок мониторится различными сервисами, либо программами для компьютера, это не слишком сложная задача. Сервисов предостаточно, можете найти в поиске подходящий по цене и функционалу. Также вы можете сами проверить индекс любой страницы, просто написав site: и адрес проверяемой страницы.
Подумайте еще над тем, а нужна ли вам ссылка с некачественного донора, которая выпала из индекса? Такая ссылка может отработать не в плюс, а в минус и, может быть, и хорошо, что она вообще выпала из индекса. |
Лягушка не сканирует метатеги и показывает, что страницы закрыты x-robots-tag, но в индексе, если проверять страницы через site: поисковики выдают эти страницы - почему так? | Сам факт того, что страницы видны через site: оператор не означает, что страницы доступны к индексации и на них нет тега. Это лишь индикатор того, что страницы физически находятся в индексе поисковой системы и, возможно, робот еще не успел их обойти, чтобы обновить статус.
👉 Чтобы понять, в чем именно причина такой проблемы, нужно проверить:
🔸 Как видит бот эти страницы с помощью Search Console. Если X-Robots-Tag есть, то консоль это покажет. Альтернативно можно использовать онлайн-сервисы проверки HTTP-заголовков.
🔸 Сетевые логи в браузере (Network tab в DevTools) при загрузке проблемных страниц - там тоже будут видны все заголовки ответа сервера.
Если по факту тега на страницах нет, но Лягушка показывает их как закрытые от индексации - это явный признак некорректной работы инструмента сканирования или неправильных настроек парсинга.
1️⃣ Различия в User-Agent:
Screaming Frog по умолчанию использует свой User-Agent. Может быть такое, что сервер может отдавать разные заголовки X-Robots-Tag в зависимости от агента. Поменяйте его на User-Agent Googlebot и проверьте результат.
2️⃣ Ошибки в конфигурации:
Неправильные правила в файле .htaccess или в конфигурации Nginx могут приводить к отправке неправильных заголовков X-Robots-Tag. Проверьте эти файлы на наличие ошибок и исправьте их, если необходимо.
3️⃣ Ошибки в Screaming Frog:
Хотя это и менее вероятно, возможны ошибки в самом Screaming Frog. Попробуйте обновить программу до последней версии.
4️⃣ Кэширование заголовков:
Может быть такое, что заголовки X-Robots-Tag закэшировались, из-за чего лягушка их видит, хотя по факту их нет. Попробуйте очистить кэш и пересканировать сайт.
Если проблема не устранится и после этих манипуляций, то попробуйте сканировать сайт с настройкой follow internal «nofollow». |
Когда работали с одним SEO агентством в свое время мы сделали вот что: в странице товара отметили канонической страницу категории. В этом вообще может быть какой-то смысл или лучше исправить и сделать страницу товара канонической? Справедливости ради скажу, что товар в отдельности ввиду специфики в поиске никогда не ищут, ищут именно категорию. | Такой подход, когда канонической для страницы товара указывается страница категории, может иметь определенный смысл только в очень специфических случаях. И то, скорее всего, не совсем корректный. В большинстве ситуаций мы не рекомендуем так делать.
1️⃣ Во-первых сам по себе canonical - это рекомендация, а не правило, и поисковые системы сами решают, стоит ли их придерживаться или игнорировать.
2️⃣ Во-вторых, основная цель канонических ссылок - сообщить поисковым системам, какая из нескольких похожих страниц является наиболее авторитетной и должна быть проиндексирована.
Важно понимать, что страница товара и страница категории - это разные сущности с разной целью и подаваемой информацией. Страница товара содержит уникальные характеристики конкретного продукта, а страница категории объединяет несколько товаров по определенному признаку. В большинстве случаев более логичным и эффективным будет сделать страницу товара канонической для самой себя. |
Какие сервисы посоветуете для отслеживания конкурентов (их ссылочного профиля например, трафика, позиций)? Если можно и платные и бесплатные. | Сервисов для отслеживания конкурентов достаточно много. Большинство сервисов предлагают примерно одинаковый функционал – отслеживание позиций, трафика, ссылочных данных. К таким сервисам относятся, например:
▫️Ahrefs;
▫️Serpstat;
▫️SemRush;
▫️SimilarWeb;
▫️Majestic;
▫️SERanking.
Все эти сервисы платные, но дают большое количество информации для анализа. При этом полагаться на них на сто процентов вряд ли получится, так как все эти сервисы используют собственные базы и многие данные могут быть неполными. Но получение приблизительных данных позволит проводить качественный анализ конкурентов и находить точки роста.
Также стоит отметить, что почти у всех сервисов из этого списка есть бесплатные пробные версии, чтобы потестировать результаты и разобраться с интерфейсом.
Среди бесплатных сервисов стоит выделить браузерное расширение SEOquake, которое позволит получить частичную информацию о любом сайте.
Необходимо повториться, что любой из сервисов, будь он платный или бесплатный, не даст однозначно точную информацию по сайту конкурента и поэтому стоит проводить максимально тщательный анализ, используя любые доступные способы. |
Для внутренних ссылок на сайте nofollow — хорошо или плохо? На моём сайте главная страница плохо ранжируется, а внутренние — лучше. Я посмотрел статистику анкоров внутренних ссылок — бОльшая часть ссылается на индекс как "Главная" — сквозные ссылки из навигации. Может такие ссылки имеет смысл сделать nofollow? Сквозные ссылки типа Terms of Use, Privacy Policy нужно закрывать nofollow? | Скрывать внутренние ссылки в nofollow не самая лучшая идея. Внутренняя перелинковка – отличный инструмент естественного распределения ссылочного веса для приоритетных страниц вашего сайта.
До 2016 года в Google был инструмент под названием PageRank, который показывал ссылочный вес страниц. Многие сайты получали свой естественный Rank только за счет внутренней оптимизации. Тот факт, что Google теперь не отображает этот показатель не означает, что поисковик отказался от алгоритма определения трастовости страниц на основе этого алгоритма.
👉 Причины, по которым ваши внутренние страницы лучше ранжируются, чем главная, могут быть не только в количестве внутренних ссылок на эти страницы. Пересмотрите контент страниц, подумайте над интентом запросов, убедитесь, что страницы не каннибализируют друг друга, проверьте внешнюю оптимизацию этих страниц, посмотрите на поведенческие показатели каждой страницы, проведите коммерческий аудит тематики. В конце концов – сравните свои страницы со страницами ближайших конкурентов. Возможно, ответ лежит на поверхности, вам нужно только его увидеть.
И помните, главная страница обычно оптимизируется под брендовые запросы.Уделите внимание брендовым анкорам при закупке внешних ссылок и во внутренней перелинковке из контента страниц. В хлебных крошках и в меню лучше, конечно же, оставить стандартные названия «Главная».
Сквозные ссылки типа Terms of Use, Privacy Policy также не рекомендуется закрывать в nofollow. |
Как правильно организовать страницу фильтра на продающем сайте, если наборов фильтров очень много, стоит ли делать канонические урлы для таких страниц, чтобы как-то уменьшить число вариаций и вообще как должны быть правильно реализованы подобного рода страницы? | В первую очередь стоит продумать организацию самих фильтров и определиться, нужны ли вам они в индексе для продвижения.
👉 Фильтры чаще всего создают двумя способами:
1️⃣ Фильтрация с помощью Ajax. При реализации такого фильтра, URL страницы не меняется и страница формируется без ее перезагрузки. Такой вариант хорош тем, что не создается множество страниц, которые могут быть малоценными или дублирующимися. Однако, если вам важно продвигать страницы фильтров, то такой способ для этого не подойдет, так как фильтры не будут индексироваться.
2️⃣ Фильтрация с помощью GET-параметров. URL в данном случае динамический и меняется за счет параметров (они как правило добавляются после знака вопроса в ссылке). Такая реализация как раз позволяет продвигать необходимые страницы фильтров в поисковых системах.
➡️ Теперь, определившись с этим, необходимо оптимизировать фильтры:
🔸 Те страницы фильтров, которые для вас не важны в плане продвижения - нужно закрыть от индексации с помощью rel="noindex" или robots.txt. Таким образом, те десятки страниц, которые сгенерировались, будут недоступны в выдаче и не смогут негативно повлиять на ранжирование вашего сайта. Метатеги в данном случае используются шаблонные в зависимости от параметра фильтра, который задан на странице.
🔸 Если же какие-то из фильтров важны для продвижения, то их стоит открыть к индексации, предварительно оптимизировав:
✅ Создание четкой структуры ЧПУ-URL для страниц фильтров. Основной формат может выглядеть как как последовательно (URL: /filter/filter2), так и объединяясь между собой (URL: /filter1-filter2). Важно убедиться, что при генерации таких страниц не создаются страницы-дубли (страницы с фильтрами в разном порядке).
✅ Страница фильтров должна содержать атрибут rel="canonical", ссылаясь на саму себя, а не на страницу категорий.
✅ Необходимо создать уникальные мета-теги для фильтров. Это включает в себя Title, Description, H1-заголовки. Часто для страниц фильтров прописывают шаблонные мета с изменением пары ключевых слов. То же касается текстовых блоков. Этого бывает недостаточно, особенно если оптимизация основной категории хромает. Рекомендуем уделить внимание текстовой оптимизации и уникальности контента на таких страницах.
✅ Уделите внимание наполненности таких листингов. Важно не только, чтобы запросы, по которым продвигается фильтр, были частотными, но и чтобы страница была проработана и полезна пользователю. Если листинг будет содержать 1-2 товара или будет вовсе пустым, то он никак не сможет принести пользы сайту, а может лишь ухудшить положение в выдаче.
✅ Не забывайте о внутренней перелинковке таких страниц, и о внешнем продвижении. Для таких страниц также необходимо закупать ссылки, чтобы увеличить ее ценность и вес для ранжирования в ПС.
Для особо популярных или частотных фильтров рекомендуем делать отдельные страницы. Условно для страницы фильтра с ключом «белая рубашка с коротким рукавом» лучше сделать отдельную страницу /belaya-rubashka-korotkiy-rukav. И при переключении фильтра, пользователя будет вести на такую страницу.
В своей практике, для больших сайтов (около-миллионников) мы обычно открываем к индексации все страницы фильтров с комбинацией из двух-трех переменных. Конечно, предварительно проверив, что они действительно имеют частотность. |
Если в выдаче ранжируется нерелевантная (нецелевая) страница, поможет ли настройка rel= canonical в данном случае ранжированию целевой? | Настройка rel= canonical может действительн, помочь в двух случаях:
1️⃣ Если нерелевантная страница действительно является дубликатом целевой страницы. То есть, на этих страницах содержится практически идентичный контент. В этом случае, установив rel=canonical на нерелевантной странице, вы указываете поисковым системам, что вся ценность должна быть передана на целевую страницу.
2️⃣ Если нерелевантная страница является вариантом целевой страницы. Например, страница с фильтрами или сортировкой. В таких случаях, rel=canonical также может помочь консолидировать авторитет и передать ценность на основную страницу.
Однако, если нерелевантная страница имеет совершенно другой контент или не имеет отношения к целевой странице, то rel=canonical не поможет. В этом случае проблема скорее связана с релевантностью контента и качеством оптимизации обеих страниц.
👉 Важно понимать, что rel="canonical" — это скорее рекомендация для поисковиков, а не строгая директива. Поисковик может принять ее во внимание, а может и нет. Что может помочь в данной ситуации:
✅ Проанализируйте контент обеих страниц и убедитесь, что целевая страница, действительно, более релевантна и качественна с точки зрения ключевых фраз. Иногда помогает добавление/исправление текстовой части контента.
✅ Проверьте техническую оптимизацию целевой страницы, возможно, есть проблема с ее скоростью загрузки. Посмотрите насколько целостно воспринимается ее контент ПС, возможно, часть страницы просто не индексируется.
✅ Поработайте над внутренней перелинковкой. Убедитесь, что внутренние ссылки, которые ведут на целевую страницу имеют анкоры с вхождением ключевых запросов целевой страницы. При этом нецелевая/нерелевантная страница не должна иметь подобные анкоры.
✅ Добавьте внешние ссылки на целевую страницу с соответствующими анкорами. |
Хочу выбрать CMS для интернет-магазина. Сейчас рассматриваю WP WooCommerce и OpenCart, но отзывы вызывают сомнения. Про WP говорят, что это больше платформа для блогов, а OpenCart имеет проблемы с дублированием страниц. Опять не могу определиться, может вы что-то посоветуете? | Любая CMS имеет свои проблемы, не только перечисленные вами и каждая из них будет требовать доработок. Но, в целом при выборе CMS, стоит отталкиваться от потенциального размера сайта. При прогнозируемом объеме сайта в 10-30 тыс. страниц можно выбрать любую из этих двух CMS, но WP с WooCommerce будет предпочтительнее, так как он проще и большинство базовых настроек можно сделать самостоятельно. Если же сайт планируется со значительно большим ассортиментом, то в этом случае предпочтение стоит отдать OpenCart.
WordPress, действительно, изначально создавался как блоговый движок, но популярность этой CMS настолько велика, что около 40% всех сайтов в мире созданы на WordPress.
Кроме того, благодаря своей гибкости и невероятной популярности, в репозитории плагинов представлено огромное количество расширений, помимо WooCommerce, которые помогут сделать качественный и SEO-friendly интернет-магазин, а также большое количество разработчиков предлагают свои услуги по "допиливанию" необходимого функционала.
👉 Что касается OpenCart, то он изначально создавался для интернет-магазинов и нужный функционал представлен сразу из коробки. Стоит отметить, что по скорости загрузки, например, OpenCart будет явно выигрывать. Но, "допиливание" функционала вам понадобится и в работе с этой CMS. Точно будет необходима настройка canonical, ЧПУ и многих других моментов, например, для создания Блога в OpenCart необходимо отдельное расширение. И работы с доработкой OpenCart обычно стоят дороже.
При правильном подходе можно создать качественный и SEO-friendly интернет-магазин на любой из этих двух CMS. Все упирается лишь в бюджет, который вы готовы инвестировать в доработки того или иного функционала. |
На сайте есть реклама, которая выходит спустя 5 секунд после захода. Это всплывающая реклама на весь экран. Её можно закрыть спустя 5 секунд. Не скажется ли негативно такой формат рекламы на поведенческих факторов и как следствие поисковой выдаче? Можно ли получить санкции от ПС за такой вид рекламы? | Такой формат рекламы имеет несколько серьезных негативных последствий для поведенческих факторов, соответственно, и для поисковой выдачи:
1️⃣ Во-первых отказы возрастают, высока вероятность немедленного закрытия сайта. Перекрытие контента в первые секунды существенно ухудшает первое впечатление о сайте.
2️⃣ Во-вторых снижается глубина просмотра страниц и времени на сайте. Пользователи не будут дальше ходить по сайту, если реклама мешает получить необходимую информацию.
Всплывающая реклама на весь экран сразу после входа на сайт однозначно вызывает раздражение у большинства пользователей.
⚠️ Google негативно оценивает сайты с агрессивной рекламой и расценивает, как попытка манипуляции пользовательским поведением. Санкций как таковых нет, но Google может понижать в выдаче сайты, которые используют всплывающие окна и полноэкранную рекламу.
👉 Подробнее в официальном источнике Google.
Исключением являются:
▫️ полноэкранные баннеры для подтверждения совершеннолетия пользователя или те, которые запрашивают разрешение на использование cookie;
▫️ формы для регистрации или отправки контактной информации владельцу сайта, содержимое которой не индексируется;
▫️ рекламные баннеры, которые перекрывают только часть страницы и их легко закрыть. |
Выбираем домен для продвижения, есть несколько вариантов в разных доменных зонах. При этом все домены новые, без истории. Нужно ли выбирать обязательно домен в региональной доменной зоне или можно выбрать нейтральные/общие/специальные зоны, типа .com, .info и т.д.? | Всё зависит от типа сайта, который вы планируете продвигать. Если это небольшой региональный бизнес без планов масштабирования – выберите региональную доменную зону, она будет указывать вашим клиентам на то, что вы работаете в определенном регионе, тем самым вы будете повышать уверенность пользователей в том, что нужно перейти именно на этот сайт.
Если это будет сайт компании без конкретной привязки к региону – выберите зону .com, её используют для таких целей чаще всего. Если это будет информационный сайт – можете брать зону .info. При этом, информационные сайты нормально живут и на .com и на .org. |
Есть сайт с услугами дополнительного профессионального образования. Хотим сделать на каждый регион отдельный сайт. Как лучше и правильнее делать? Регистрировать поддомены, но в таком случае на каждом поддомене должен быть уникальный контент, если я правильно понимаю. Либо лучше делать по папкам site.сom/городN и т.д. Подскажите как делать правильно. | На самом деле, нет точного ответа, что лучше внедрять - подпапки или поддомены. Решение зависит от многих факторов: какой тип сайтов находится в ТОПе выдачи, ваши ресурсы (как финансовые, так и человеческие), возможность сделать уникальным контент для каждого региона и наличие региональных представительств/филиалов в разных городах или странах.
👉 Оба подхода имеют свои особенности и влияют на SEO по-разному.
1️⃣ Поддомены: в данном случае каждый поддомен рассматривается поисковыми системами как отдельный сайт, что позволяет точно нацеливать контент на конкретный регион (более четкое geo-разделение).
Но к недостаткам можно отнести то, что из-за этого потребуется отдельное продвижение и наращивание ссылочной массы для каждого поддомена, а также создание уникального контента для каждого региона, чтобы избежать дублирования. Это в свою очередь увеличивает финансовые и трудовые затраты.
2️⃣ Подпапки: это решение технически легче реализовать и администрировать, особенно при небольшом количестве регионов. Все разделы в таком случае находятся в рамках основного домена, что упрощает управление и позволяет наследовать авторитет основного сайта.
Из недостатков лишь то, что подпапки предусматривают меньшую гибкость в настройке под специфические особенности каждого региона.
⚠️ Независимо от выбранной вами структуры, важно обеспечивать уникальный контент для каждого региона. Это включает в себя информацию об услугах, ценах, контактных данных и отзывах клиентов. |
Краулер выдал список страниц с 404 ошибкой. Возникли следующие вопросы: как я могу узнать попали они в индекс или нет? Как правильно удалить их с сайта? Может можно оставить как есть и ничего не делать, ПС критично реагирует на страницы 404? | Чтобы проверить, находятся ли страницы с ошибкой 404 в индексе поисковых систем воспользуйтесь:
🔸Google Search Console (GSC). Здесь вы можете в ручном режиме проверить необходимый URL на индексацию при помощи инструмента Проверка URL.
🔸Командой site: в поисковике. Введите в поисковую строку site:домен/404-страница. Если в результатах поиска искомая страница представлена, значит, она в индексе.
Причинами, по которым такие страницы могут попадать в индекс это внутренние или внешние ссылки.
💡Поэтому для правильного удаления страниц с кодом 404, необходимо:
✅ Для страниц, у которых есть внешние ссылки, стоит настроить 301 редирект на близкие по смыслу страницы.
✅ Для страниц, на которые проставлены внутренние ссылки, нужно либо их удалить, либо изменить конечный адрес на работающий.
Также стоит проверить, нет ли страниц с кодом 404 в карте сайта xml. Если страницы присутствуют, то карту сайту нужно обновить.
Что касается реакции поисковых систем на 404 ошибки на сайте. Если таковых ошибок на сайте не очень много, то ПС к такому относятся лояльно. Если же динамика появления 404 страниц будет стремительно расти, то сайт может получить снижение рейтинга в глазах ПС. |
Есть сайт с десятком миллионов страниц. Понятно, что для всех страниц ссылок не купишь и равномерно их как-то не распределишь. Как покупать ссылки в этом случае, если страницы создаются и продвигаются под НЧ запросы? | Любая ссылочная стратегия требует индивидуального подхода к каждому сайту. Можем дать лишь общие советы.
Для больших сайтов мы рекомендуем разделить страницы на тематические группы. Для каждой группы необходимо разработать отдельную стратегию линкбилдинга, учитывая специфику запросов и целевой аудитории. Однако тут без большого бюджета никак не обойтись.
👉 Далее необходимо оценить потенциал ваших разделов сайта. Очень многое зависит от вашей тематики и региональности. Так, если у вас коммерческий сайт, то в большинстве случаев необходимо в первую очередь прокачивать ссылками приоритетные категории. Если сайт информационный, то стоит в приоритете прокачивать страницы с высоким потенциалом, которые могут принести наибольшее количество трафика.
Позаботьтесь о качественной внутренней перелинковке, чтоб с ваших приоритетных страниц вес распределялся по множеству других менее значимых, но все еще важных страницах сайта.
⚠️ Само собой доноры должны быть тематически близки к вашим страницам. Обращайте внимание на авторитетность донора, его возраст, индексацию в поисковых системах. Наиболее качественные доноры используйте для самых приоритетных страниц, тогда как для остальных страниц можно использовать площадки подешевле. Не стесняйтесь использовать и многоуровневые ссылки для прокачки ваших основных доноров для наиболее приоритетных страниц.
Используйте анкоры с прямым вхождением ваших основных запросов на приоритетных страницах для самых качественных доноров. Под НЧ запросы можно использовать площадки попроще. Кроме того, анкоры под НЧ запросы можно разбавлять дополнительными словами, разрывая ваши ключи. И для миллиоников крайне важно прокачивать брендовые запросы.
При этом помните, если качественный сайт с десятком миллионов страниц хорошо оптимизирован, и вследствие имеет хорошую видимость и прокачанный бренд, то значительная часть ссылок будет появляться естественным образом. Поэтому сначала работаете на свой бренд, а затем бренд начнет работать на вас 🙂 |
Могут ли отличаться позиции сайта в мобильной выдаче и в десктопной? Почему так происходит? И как проверить позиции сайта в мобильной выдаче? | Да, Google использует немного отличающиеся алгоритмы ранжирования для мобильных и десктопных устройств и это приводит к тому, что поисковик по разному оценивает страницы. И позиции сайта в мобильной поисковой выдаче могут заметно отличаться от позиций в десктопной версии. Все это связано с тем, что поведение юзеров и их потребности отличаются в зависимости от устройства, на котором они взаимодействуют с сайтом.
🔸 Мобильные пользователи быстрее покидают сайт, если страница грузится медленно, ссылки и кнопки неудобно нажимать, шрифт слишком мелкий. Соответственно, высокий показатель отказов или низкое время на сайте могут привести к снижению позиций в мобильном поиске. При этом на десктопной версии сайта юзабилити может быть вполне удобным, что позволит лучше ранжироваться сайту с ПК выдачи.
🔸 Для мобильных пользователей Google более чувствителен к локальной выдаче, ведь с телефоном юзер чаще меняет свое геоположение и алгоритмы стараются чуть более чувствительно подстраивать результаты с учетом геолокации. Соответственно, мобильная выдача может быть сильнее персонализирована и отличаться от десктопной.
Многие инструменты для мониторинга позиций имеют функцию проверки результатов для разных устройств. Можете настроить отдельный проект для мобильных позиций и отслеживать динамику по ключевым запросам.
💡 Также можете воспользоваться Google Search Console. Хотя GSC прямо не показывает вам “позиции мобильной выдачи” в чистом виде, вы можете отфильтровать результаты в разделе "Эффективность" по устройству (мобильные) и оценить среднюю позицию и CTR по мобильным запросам. Это позволит определить, насколько ваши позиции отличаются на мобильных устройствах по сравнению с десктопом. |
Как часто нужно проводить ссылочный аудит конкурентов? И как часто нужно проводить чистку своего профиля от спамных ссылок? | Мы часто пишем, что для каждого сайта необходим индивидуальный подход. В данном случае все точно также, ведь то, насколько часто надо делать ссылочный аудит зависит от ваших целей, размера сайта, его тематики, региональности, конкуренции и т.п.. Если очень усреднить, то по нашему опыту ссылочный аудит желательно проводить каждые 3 месяца, чтобы обновить ссылочную стратегию.
⚠️ Также внеплановые ссылочные аудиты стоит проводить:
🔸При кор-обновлениях ПС;
🔸При проседании позиций Вашего сайта;
🔸При обновлениях бюджета на ссылочную оптимизацию.
Точно также и с чисткой ссылочного профиля от спамных ссылок. Всё зависит от сайта, крупные порталы заспамят некачественными ссылками гораздо быстрее, чем нишевые региональные сайты. Если ссылочный профиль вашего сайта насчитывает тысячи доменов доноров – проводите проверку раз в пол года. Если у вашего сайта 200-500 доменов доноров – одноразовой проверки будет достаточно. Опять же, наличие спамных ссылок – это не гарантия того, что поисковая система выкинет вас из выдачи, просто нужно следить за тем, чтобы процент таких ссылок не превалировал по сравнению с качественными донорами.
И также, как и с ссылочным аудитом, если сильно усреднить, то мы бы рекомендовали чистить профиль от спамных ссылок раз в 3 месяца, как раз сразу после аудита. |
В ИМ планирую генерировать страницы по брендам, но по какой-то технической причине программист не может эти страницы выводить в sitemap. Предложил выводить сгенерированные страницы в отдельный sitemap, будет ли это ошибкой или лучше все-таки добавить сгенерированные страницы в основной sitemap? | Вывод сгенерированных страниц в отдельный Sitemap не будет считаться ошибкой, это вполне рабочее решение, особенно если оно упрощает управление страницами. Такая практика часто наблюдается у крупных ИМ или новостных сайтов, когда на сайте тысячи страниц.
Отдельный файл может быть полезен для разделения структуры сайта, если основной Sitemap уже сильно нагружен или если нужно четко отделить сгенерированные страницы от основных.
Чтобы избежать проблем, необходимо обязательно создать файл индекса Sitemap для создания группы из нескольких файлов Sitemap, чтобы поисковые системы смогли их обнаружить. Также стоит отправить их в Google Search Console для контроля индексации карт. |
Кaкими сервисaми пользуетесь или кaк определяете переспaм и нехвaтку ключевых слов нa стрaнице? | Как такового переспама сейчас по Google практически нет. Поисковая система больше не полагается на частоту использования ключевых слов для понимания содержимого страницы. Вместо этого Google использует расширенные системы анализа и поиска информации, которые отдают приоритет качеству вашего контента, а не количеству повторений ключевого слова.
Только умышленное злоупотребление ключевыми словами, действительно, влияет на ранжирование, при этом сам текст должен выглядеть неестественным.
⚠️ Чтобы ваш текст был не перенасыщен ключевыми словами и выглядел естественно, придерживайтесь таких рекомендаций:
✅ Используйте основное ключевое слово (или его близкий вариант) в заметных местах на странице (Title, Description, H1).
✅ Пишите свой контент естественно, и ваше ключевое слово, LSI ключи, синонимы и вариации будут естественным образом включены.
✅ Не полагайтесь на показатели количества ключевых слов на странице, а лучше сосредоточьтесь на написании высококачественного контента, который представляет ценность для читателей. Используйте вхождения в естественном виде в тексте и подзаголовках столько раз, сколько это будет необходимо для нормального читабельного и информативного текста.
✅ Упущенные ключи (упущенную семантику) можно поискать с помощью GSC, проанализировав ключи, по которым у страницы есть показы, но нет кликов и, соответственно, прямых вхождений в текстовом контенте.
💡 Также упущенную семантику нам помогают найти:
Serpstat
Ahrefs
Если вам все же необходимы сервисы, которые показывают условный переспам и помогут исследовать контент и ключевые слова на странице, можем порекомендовать следующие:
SEOquake расширение для Chrome
SurferSEO расширение для Chrome
CognitiveSEO
Copywritely |
Как ПС относятся к наличию исходящих ссылок на казино (или другие подобные тематики), если сайт-донор белой тематики? Можно ли ссылаться на такие сайты и что можно получить за такие исходящие ссылки от Google? К примеру, у донора куча классных входящих ссылок с ТОПовых ресурсов, но есть и много исходящих на казино. | Тематики, которые нелегальны или имеют какие-то ограничения, например, возрастные, законодательные и иные, поисковые системы умеют различать. И существует вероятность, что доноры с такими ссылками получают определенного рода пометку.
Эта пометка занижает общую ценность сайта в качестве ссылочного донора для других тематик не относящихся, например, к казино. Ссылки с такого сайта будут давать эффект в продвижении, но он будет несколько ниже, чем с сайта, у которого такой пометки нет.
👉 Можно с уверенностью говорить о том, что прямого вреда со стороны поисковых систем сайт не получит за наличие ссылок на такие сайты, но это однозначно будет иметь некоторые последствия для репутации донора.
Если есть возможность, то лучше не ссылаться на сайты с тематиками, подпадающими под любые ограничения. |
Появилось очень много ссылок с одинаковым текстом и одинаковыми анкорами. Анкоры тематичные, но таких ссылок уже больше 50%. Учитываются ли они и нужно ли их начинать отклонять? Или лучше заняться покупкой нормальных ссылок? | Все ссылки, которые появляются в отчетах поисковых систем учитываются при составлении рейтинга внешней оптимизации сайта. Ссылки могут быть плохими, могут быть хорошими, но все они влияют в некоторой степени на ранжирование вашего сайта.
👉 Главным критерием того, нужно ли отклонять такие ссылки является показатель посещаемости и средняя позициям сайта по запросам. Если позиции и трафик на сайте никак не поменялись – можете на текущем этапе ничего не предпринимать.
Если вы видите, что у вашего сайта увеличивается количество внешних ссылок, но вы их не закупали, подумайте, кто и с какой целью может это делать? Мы иногда наблюдали такую ситуацию, когда при детальном рассмотрении новых внешних ссылок оказывалось, что это таким образом прогонщики по различным базам рекламируют свои услуги, мол посмотрите, мы насыпали вам ссылок и можем еще. В этом случае ваш сайт пару раз прогнали по базам и забудут про него.
В корне ситуация меняется, если ваш сайт регулярно прогоняют по базам самых некачественных доноров, чаще всего эти доноры находятся в бурж сегменте, на сайтах тематики 18+ или на сайтах с иероглифами. Количество таких ссылок насчитывает десятки тысяч. С таких сайтов ссылки желательно отклонять сразу.
⚠️ У поисковых систем нет «неприязни» к плохим ссылкам, важно, чтобы их процент не набрал критической массы. Какая величина этого критического объема «плохих» ссылок – никто не знает. Ну и, конечно же, вы можете закупать «хорошие ссылки», чтобы таким образом уменьшать в процентном соотношении количество «плохих ссылок». |
Есть сайт, который прекращаем поддерживать, но он хороший по SEO-метрикам. Будет ли профит, если его склеить с другим сайтом? Сработает ли это как склейка дропа? И как правильно клеить? Все страницы на главную или можно на похожую категорию? | При правильной склейке сайт с хорошей видимостью и ссылочным профилем может действительно принести существенный профит.
Технически механика склейки схожа с подклейкой дроп-домена, но в вашем случае преимущества выше, поскольку речь идет о ресурсе с подтвержденной активностью и историей. Главное – максимально бережно перенести контент, сохраняя логику старой структуры сайта. Нельзя просто свалить все страницы на главную, это снизит качество склейки.
💡 Оптимальным вариантом будет настраивать 301-редиректы, чтобы перенаправлять страницы старого сайта не просто на главную страницу нового сайта, а на соответствующие категории или аналогичные по содержанию страницы.
Если перенаправление на релевантные страницы невозможно, можно направить трафик на схожую по содержанию страницу или в крайнем случае на главную страницу нового сайта. Однако это считается менее предпочтительным решением, так как выглядит неестественно в глазах поисковиков.
Учитывайте, что при склейке есть и определенные риски - возможное временное падение позиций, потеря части ссылочного веса. Поэтому наблюдайте за поведением сайта после переноса, чтобы своевременно корректировать стратегию в случае возникновения непредвиденных проблем. |
Ориентируемся на Google и заметили в последнее время, что трафик из конкретного региона (страны) портит все ПФ нам. Время на сайте у юзеров из этого региона - меньше 10 секунд обычно. Подскажите, критичны ли такие заходы и если да, то как заблокировать пользователей из этой страны? | Поведенческие факторы действительно имеют довольно важную роль в ранжировании сайтов в Google. Низкое время на сайте, особенно если оно характерно для пользователей из определенного региона, может показывать, что с сайтом что-то не то и некоторым образом влиять на общую оценку вашего ресурса.
Однако не стоит переоценивать влияние ПФ в Google. В отличие от других не очень качественных ПС, в Google ПФ хоть и имеют важное значение, однако не является ключевым фактором ранжирования.
👉 Все же мы бы рекомендовали для начала разобраться в причинах таких некачественных заходов на сайт с определенного региона.
✅ Контент вашего сайта может быть не адаптирован под интересы пользователей из данного региона.
✅ Медленная загрузка страниц, ошибки 404, некорректная адаптация под мобильные устройства могут отпугивать пользователей.
✅ Возможно, в этом регионе у вас очень сильные конкуренты, сайты которых предлагают более релевантный и качественный контент.
✅ И наконец, возможно, данные действия совершаются специально ботами, которые имитируют людей, которые настроены вашими конкурентами в этом регионе.
В любом случае не спешите блокировать пользователей из проблемного региона. Если проблема не в сайте, то таким образом, вы заблокируете и заходы реальных юзеров с хорошими ПФ.
💡 Если вы действительно подвергаетесь атаке ботов, то попробуйте настроить Cloudflare или подобный сервис для ограничения заходов подозрительных юзеров. Да и в целом в большинстве случаев Google неплохо определяет ботовое поведение и перестанет со временем учитывать их влияние на сайт. |
Есть вопрос по кластеру главной страницы интернет-магазинов, которые продают: роллеты, ворота, шлагбаумы и автоматику для ворот. Как по мне, это разные кластеры и они не годятся для главной. Анализ конкурентов не показал ничего интересного, т.е. ребята ведут общую семантику (роллеты, ворота, шлагбаумы и автоматику для ворот) на главную страницу. Как правильно собрать и кластеризировать запросы на главные страницы? Ориентироваться на конкурентов или все таки в этом случае нужно подобрать какую-то более общую семантику? | Очень важно оптимизировать главную страницу под брендовые запросы с привязкой к тем ключам, которые максимально полно описывают сферу деятельности компании и при этом имеют высокую частотность.
Главная страница – самая авторитетная на сайте и брендовый трафик предпочтительнее вести именно на нее.
При этом описываемый вами случай – это яркий пример того, когда единого слова/слов или фразы, которые могли бы охарактеризовать данную тематику в целом не существует и поэтому именно перечисленные запросы стоит использовать для главной страницы. |
Я правильно понимаю: главное, чтобы ссылка была в индексе, чтобы Google считал её рабочей? Или нужно анализировать ещё какие-то факторы? Как понять, что ссылка сработает? | Если речь идет о внешних ссылках, то в первую очередь, конечно же, страница с вашей ссылкой должна быть в индексе. Поисковая система будет учитывать только те ссылки, которые ей известны, соответственно, если страница не в индексе, то и ссылка с этой страницы не учитывается.
👉 Есть небольшой лайвхак по оценке доноров ссылок - проверьте, как быстро индексируются другие рекламные материалы на этом сайте. Сайт может иметь отличные показатели пузомерок с того же ahrefs, но при этом рекламные материалы могут не индексироваться неделями, такой донор лучше не использовать для размещения ссылок.
Передаваемый траст сильно зависит от самой тематики и региональности донора, внутренней страницы донора, и места размещения ссылки на самой странице. С главной страницы вы будете передавать кратно больше траста, чем с обычной страницы, которая находится в нескольких кликах от главной. Кроме того, проверяйте спамность площадки, ее посещаемость и насколько хорошо организована внутренняя перелинковка.
⚠️ К сожалению, заранее предсказать, насколько успешной будет внешняя ссылка нельзя. Подбирая потенциальных доноров по разным параметрам мы лишь увеличиваем наши шансы на срабатывание ссылки.
Единственный действительно объективный критерий оценки ссылок, которые «работают» – это их эффективность. Следите за динамикой ваших страниц акцепторов, а особенно по запросам, которые вы использовали, как анкоры на сайтах-донорах. Если динамики нет – скорее всего, ваша ссылка не сработала как надо. |
Как увеличить ранжирование НЧ запросов в трафике? | При продвижении НЧ запросов сосредоточьтесь на прямых вхождениях таких ключей в заголовках h2 и ниже, в названиях таблиц и списков, в альтах изображений и т.п.
Если высокочастотные запросы предполагают широкий, обзорный контент, то НЧ требуют максимально глубокой экспертизы и детального раскрытия темы. Речь идет о контенте, который не просто отвечает на вопрос, а исчерпывающе раскрывает тему, учитывая самые тонкие нюансы.
👉 Цель таких запросов - привлечь более узкую, но при этом максимально заинтересованную аудиторию. Трафик с таких запросов обладает высоким потенциалом конверсии, так как пользователи имеют четкий и узко-специфический информационный или потребительский запрос.
В остальном же при оптимизации низкочастотных (НЧ) запросов важно понимать, что принципиальных различий в SEO-продвижении между частотностями практически нет. Качественный контент, техническая оптимизация и пользовательский опыт одинаково важны для высокочастотных, среднечастотных и низкочастотных запросов. |
Недавно столкнулась с такой проблемой: на сайте резко упала скорость загрузки на многих страницах, сразу же подумала, что что-то с сервером. Написала в тех.поддержку хостера, они ответили так:
«Анализ логов за указанный период показал множественные обращения к сайту со стороны поисковых ботов google. В данном случае рекомендуется обратиться к разработчику по вопросу тонкой настройки файла robots.txt (необходимо ограничить количество обращений в единицу времени)».
Есть ли смысл выполнять данную рекомендацию, поскольку раньше сервер выдерживал большое количество обращений ботов? | Рекомендации вашего хостинга могут быть не совсем корректными. Если ранее сервер справлялся с нагрузкой от поисковых ботов, а сейчас возникли проблемы со скоростью загрузки, то, конечно, есть вероятность, количество запросов со стороны разных ботов значительно увеличилось. Это может быть связано с различными факторами:
🔸 Google может более активно индексировать ваш сайт из-за обновлений алгоритмов или повышения вашей релевантности по определенным запросам.
🔸 Возможно, на сайте появились ошибки или неэффективные элементы, которые увеличивают время обработки каждого запроса.
🔸 Временное увеличение нагрузки на сервер из-за других сайтов, размещенных на том же хостинге.
👉 В первую очередь необходимо докопаться до реальных причин снижения скорости загрузки страниц сайта.
1️⃣ Тщательно изучите логи сайта, убедитесь, что проблема действительно в поисковых ботах Google, а не во внешней атаке на ваш сервер. Иногда такой ерундой занимаются конкуренты, чтобы сделать сайт временно недоступным.
2️⃣ Проведите анализ скорости загрузки проблемных страниц вашего сайта, изучите GSC, откройте страницы с помощью инструментов для разработчика и посмотрите, что именно больше всего грузит вашу страницу. Альтернативно можно воспользоваться инструментом PageSpeed.
При этом, по нашему опыту директива Crawl-Delay в файле robots.txt очень часто игнорируется ботами Google, а потому вряд ли поможет. А выяснив реальные причины, вы сможете предпринять адекватные меры реагирования:
✅ Защитится от атак ботов можно, например, с помощью Cloudflare.
✅ Улучшить скорость загрузки на самих страницах сайта можно с помощью оптимизации отдельных элементов, которые имеют наибольшие проблемы (оптимизация изображений, использование Lazy Load, оптимизация скриптов и стилей, использование кєширования и т.п.).
✅ Возможно, стоит подключить CDN (Content Delivery Network) для распределения нагрузки на несколько серверов. |
Расскажите про вхождение названия категории в заголовок товара. Правильно его указывать или нет? Учитывает ли поисковая система его как остальной текстовый контент на странице? Можно ли получить пессимизацию листинга товаров по этой причине? С одной стороны мы создаём наиболее полноценный h1 в карточке товара, с другой создаём переспам на странице категории. | В своей практике продвижения в Google мы давно не замечали пессимизации листингов за спам названия категории в заголовках товаров.
Руководствуйтесь простым принципом - насколько уместно и естественно в заголовках ваших продуктов будут звучать названия категории. В большинстве ситуаций включение названия категории в заголовок товара поможет указать на контекст, особенно если сам товар имеет общее название и может быть полезно пользователю.
👉 Пример удачного использования названия категории в заголовок товара: «Зарядная станция Bluetti AC70P».
Однако, существует ряд тематик, где подобные вхождения лишь растянут заголовок и не принесут никакой пользы, например, медицинская тематика аптек: «Абилифай: инструкция + цена в аптеках». То, что это лекарство находится в категории нейролептических средств указывать не уместно в заголовке.
Также не корректно добавлять названия категории в заголовок товара, когда сам товар не имеет привязки к определенной одной категории и может однозначно присутствовать сразу в нескольких разделах.
Например, «Обои Zambaiti Parati Lamborghini 9040». Ведь такие обои могут сразу и в категории Виниловых, и в категории Для спальни, и других.
⚠️ Однако важно соблюдать баланс: заголовок должен быть информативным, но не перегруженным ключевыми словами. |
Абсолютно левые .xml ссылки показывает search.google как "Не найдено (404)". Таких файлов физически нет на сайте в данной папке. Что это может быть? Опасны ли такие ссылки для сайта? | Помимо того, что таких файлов с такими названиями нет физически на вашем сайте, не значит, что их не может быть в принципе. CMS сайтов иногда генерируют тысячи ссылок разных форматов, о которых вы можете и не знать. Такие ссылки также могут генерировать дополнительные плагины в CMS, вы могли где-либо поставить галочку в плагине и теперь он выполняет дополнительную функцию, которая требует генерации подобных ссылок.
В идеале вам, конечно, нужно отловить ошибку, в результате которой эти ссылки появляются.
👉 Для этого вам нужно:
🔸 детально изучить исходный код сайта, возможно вы найдете их там;
🔸 прокликайте весь функционал на сайте, особое внимание обращайте на различные функции фильтрации и модификации внешнего вида страниц;
🔸проверьте файл карты сайта;
🔸 проверьте эту ссылку через GSC, в детальном анализе есть пункт, в котором указывается источник полученной ссылки;
🔸 проверьте внешние ссылки вашего сайта, возможно, какие-либо сайты ссылаются на ваш сайт при помощи этих кривых ссылок.
Сами по себе 404 ошибки на никогда не существующие страницы не несут большого вреда для сайта, если динамика их появления не станет критической. Однако условно, если в один день 50% ссылок станут отвечать 404 кодом – поисковая система может решить, что у сайта проблемы и понизить его видимость в выдаче. Самое главное следить за тем, чтобы продвигаемые страницы, которые дают трафик – не стали отвечать 404 кодом. |
Сайт коммерческий по продаже новостроек. Имеет ли смысл заняться публикацией новостей, связанных с тематикой недвижимости? Если стоит, то в каком месте это делать (отдельный поддомен, или просто раздел), а ещё важно как это проще всего сделать при ограниченном бюджете? По сути вся пища для публикаций это уже опубликованные новости с других источников. | Публикация новостей на сайте - это отличный вариант привлечения новых клиентов. Новости помогают создавать ощущение, что вы в теме, что ваш сайт живёт и развивается. Это не только укрепляет доверие к вашему ресурсу, но и может помочь привлечь дополнительный трафик из поисковых систем.
💡 При ограниченном бюджете размещать новости проще всего прямо на основном сайте, в отдельном разделе. Поддомен сложнее в продвижении и требует много ресурсов, так как поисковики будут считать его отдельным ресурсом.
Очень часто, в ряде регионов, чтобы стабильно попадать в ленту в Google Новостей, отдельный новостной поддомен может быть эффективнее. Это связано с тем, что требования к коммерческим и новостным сайтам у Google значительно отличаются. И более специализированный сайт будет иметь преимущества, чем смешанный. Но продвигать новостник отдельно от коммерческого будет в разы затратнее, так как по сути это будет прям отдельный проект для которого необходимы отдельные бюджеты.
👉 Для наполнения новостного раздела не обязательно постоянно писать что-то уникальное с нуля. Можете периодически брать уже опубликованные новости с других ресурсов, но обязательно переписывайте их, чтобы сделать вашу публикацию уникальной. Вы можете добавлять свои комментарии, делать акценты на аспектах, которые интересны вашей аудитории, или адаптировать материал под ваш регион.
Не забывайте и про фото- и видеоматериалы. Даже к перепечатанным новостям можно добавлять инфографику, собственные иллюстрации или короткие аналитические видео, что существенно повысит ценность материала.
⚠️ Важный момент - регулярность публикаций. Старайтесь выкладывать новости не реже 2-3 раз в неделю. Это позволит поддерживать интерес аудитории и улучшать позиции сайта в поиске. |
Подскажите, насколько важна метрика LCP? Как она считается и как исправляется ее значение? | Метрика LCP действительно является одной из самых важных в скорости загрузки страниц сайта. Данная метрика показывает, насколько быстро прогружается основной контент страницы на экране пользователя. Под основным контентом имеется в виду контент, который имеет отношение к пользовательскому опыту: изображения, стили, текстовые элементы, видео и т.п.
⚠️ На LCP влияют такие факторы:
▫️время ответа сервера;
▫️блокирующие рендеринг JavaScript и CSS;
▫️время загрузки ресурса;
▫️рендеринг на стороне клиента.
💡 Улучшить LCP метрику можно с помощью:
✅ Оптимизации загрузки основного контента. Проверьте, какие элементы на вашей странице являются самыми большими по размеру и требуют больше времени для загрузки. Оптимизируйте эти элементы, уменьшив их размер или используя сжатие.
✅ Оптимизации изображений. Изображения, которые много весят можно сжать, или залить их в другом формате. Также, стоит использовать lazy loading (постепенную подгрузку).
✅ Оптимизации серверной конфигурации. Чем быстрее браузер получает контент с сервера, тем быстрее загрузка страницы и тем лучше показатель LCP. Используйте CDN, кэшируйте страницы или попробуйте сервис-воркеры. Используйте асинхронную загрузку контента. Разделите свой контент на разные части и загружайте его асинхронно, чтобы сначала отобразить на экране самую важную часть. Таким образом, пользователи смогут увидеть содержимое страницы быстрее, даже если другие элементы еще загружаются.
✅ Оптимизации CSS и JavaScript. Избегайте блокировки рендеринга страницы длинным и сложным CSS или JavaScript кодом. Убедитесь, что ваш код оптимизирован и минимизирован, и загружайте скрипты асинхронно. Также можно убрать неиспользуемые CSS и Java скрипты со страниц, где он не нужен. |
Если нашел несколько хороших дропов по тематике из них лучше сразу свою сеть строить или просто подклеить к своему сайту? Все дропы проверил, они не сильно старые все, но зато чистые, без фильтров и с нормальным ссылочным. | Оба варианта могут дать положительный эффект для сайта, но все зависит от того, насколько большой бюджет вы готовы инвестировать. Так, например, чтобы PBN-сетка дала нужный результат для продвигаемого сайта, необходимо заниматься развитием каждого сайта, находящегося в этой сети. Это предусматривает под собой финансовые затраты на:
🔸контент;
🔸внешние ссылки;
🔸внешние отзывы;
🔸развитие связанных с сайтом социальных сетей (если их нет, то их нужно будет создать);
🔸функционал, который будет полезен пользователям.
👉 Помимо финансовых затрат, необходимо затрачивать и время на работу с сайтом:
🔸публикация материалов;
🔸внутренняя перелинковка;
🔸оптимизация;
🔸подбор ссылочных доноров.
При подклейке дропа к сайту, таких затрат не потребуется. Причем как финансовых, так и физических. Необходимо восстановить сайт и весь его контент, затем дать ему проиндексироваться и дождаться кликов из поиска. Только после этого стоит переходить к подклейке бывшего дропа к вашему сайту.
При правильном подходе результат будет сильнее от первого варианта с развитием и построением сети. Но и второй вариант, при большом трасте дропа может дать весомый буст ряду целевых запросов, по которым он хорошо ранжировался. Стоит оценить возможные инвестиции и на основе этого принимать решения. |
Есть десктопная и мобильная версия сайта. Они обе по одинаковому адресу, движок отдает нужную версию, в зависимости от юзер-агента. Также есть кнопка переключения версий. Так вот, заметил что Google сканирует сайт только мобильным ботом, в логах десктопного бота вообще нет. Имеет ли смысл отдавать боту гугла десктопную версию принудительно? Мобильная версия имеет меньший функционал и контентное заполнение. | Проблема индексации только мобильной версии сайта может быть связана с тем, что ваш движок, возможно, слишком агрессивно определяет ботов как мобильных, что приводит к постоянному перенаправлению на мобильную версию.
Но в целом это правда, что Google больше фокусируется на мобильном поиске, поэтому мобильные боты получают приоритет в сканировании. И если мобильная версия вашего сайта менее функциональна или содержит меньше контента, это, действительно, может негативно повлиять на ранжирование. Проверьте, как Googlebot видит ваш сайт через "Инструмент проверки URL" в Google Search Console, убедитесь, что действительно Google не видит весь десктопный контент.
💡 Если Google действительно не видит весь контент сайта, который представлен в десктопном варианте, то мы рекомендуем такие варианты:
✅ Привести мобильную версию в соответствие с десктопной по контенту и функционалу
✅ Если по каким-то причинам нет возможности обеспечить полный контент в мобильной версии, можно рассмотреть внедрение адаптивного дизайна вместо отдельной мобильной версии.
Если вы решите временно отдавать десктопную версию, убедитесь, что это не повлияет на сканирование мобильной версии.
Принудительная передача десктопной версии - это временная мера. Лучше сфокусируйтесь на улучшении мобильной версии, Google важно видеть тот же контент, который видят пользователи на их устройствах. |
Влияют ли водные знаки на фото на ранжирование страниц сайта и самих фото в поиске? | На ранжирование фотографий и страниц сайта водяные знаки оказывают не такое большое влияние, как может показаться. Главная задача таких знаков - защита контента от воровства.
Если говорить о ранжировании самих фотографий, то небольшие водяные знаки практически не влияют на их позиции в поиске. Проблемы могут возникнуть только если водяной знак слишком крупный и существенно мешает восприятию основного содержания фотографии.
👉 Представитель Google Гэри Илш сообщал, что ранжирование зависит в том числе и от точности контента. То есть, если картинка не перегружена водяными знаками, то ранжироваться она будет не ниже, чем аналогичное изображение без водяного знака.
Что касается влияния на позиции страниц сайта в целом, то наличие водяных знаков на фотографиях не является прямым фактором ранжирования. Гораздо важнее правильно оформлять технические аспекты: использовать информативные alt-ы, давать нормальные названия файлам и следить за оптимизацией размера изображений.
Если водяные знаки не ухудшают общий пользовательский опыт на сайте, они никак не повлияют на его позиции в поисковой выдаче.
⚠️ Важно! Если вы добавляете изображения с водяными знаками, то убедитесь, что они соответствуют вашему бренду. Не стоит размещать на сайте "магазина1" изображения с водяным знаком “магазин2”. Это некорректно и явно показывает, что картинки неуникальные. |
На сайте имеется страница с полезными ссылками по тематике сайта. Там в основном ссылки на гос.организации, банки несколько новостных ресурсов. Как лучше оформлять такие исходящие ссылки? Нужно ли ставить на них nofollow? | Мы считаем, что естественные, полезные исходящие ссылки на авторитетные ресурсы не надо никак закрывать. Они, как и входящие, повышают качество сайта в глазах поисковых систем. Также исходящие ссылки помогают алгоритмам понять нишу вашего сайта. Дополнительно линки на релевантные и авторитетные домены положительно влияют на ваш рейтинг.
✅ Исходящие ссылки должны быть естественными – не рекомендуем ставить ссылку на листинге на Википедию, только потому, что это Википедия.
✅ Используйте подходящий анкорный текст для своих исходящих ссылок. В своих рекомендациях по ссылкам Google говорит о том, что анкорный текст должен описывать то, что находится на странице по ссылке.
✅ Также рекомендуем делать ссылки на другой ресурс открывающимися в новой вкладке.
✅ Сайт/страница, на который ведёт ссылка, должен быть авторитетным и релевантным запросу. |
Как лучше оформить страницу «Контактов» при наличии нескольких представительств в разных городах? Например, варианты, которые рассматриваем:
а) указать их в рамках одной страницы друг под другом;
б) сделать скриптовый свитч-переключатель (вкладки) внутри страницы;
в) сделать отдельные страницы контактов под каждый регион. | На странице “Контактов” необходимо разместить всю необходимую информацию (адреса, карту, рабочие часы, каналы связи) чтобы это видели боты ПС и, чтобы было удобно для пользователей.
Если в предложенных вами вариантах все основные
моменты учтены, то по большому счету, не важно какой именно способ вы выберете. Каждый из вариантов имеет право быть.
⚠️ Каждый из этих вариантов оформления страницы “Контактов” имеет свои преимущества и недостатки:
🔸Вариант а) Удобно, что можно быстро увидеть все представительства, и не нужно переходить по другим страницам. С другой стороны, если представительств много, страница может стать слишком длинной и неудобной для восприятия. А на мобильных устройствах долгий скроллинг может иногда раздражать пользователей.
🔸Вариант б) Экономит место на странице, делая интерфейс более аккуратным и приятным. Но при этом важно, чтобы переключатель работал быстро и корректно. Также следите, чтоб вся информация на странице правильно индексировалась ПС.
🔸Вариант в) Каждая страница может быть оптимизирована под запросы конкретного города. Также можно указать более подробную информацию: местные особенности, карту, фото офиса, рабочие часы и др. Единственный минус это может сложность в навигации. Структура должна быть такая, чтобы пользователи смогли быстро найти нужный город. |
Какие есть правила или принципы использования схемы меток schema markup, чтобы от них был толк? | Чтобы от микроразметки schema был толк, необходимо следовать простым правилам. Например, используйте рекомендации Google по структурированным данным, которым важно следовать, чтобы избежать санкций или игнорирования разметки. 👉 Подробная информация тут.
1️⃣ Выбирайте правильный тип микроразметки
Используйте тот тип, который наиболее точно описывает содержимое страницы. Например:
▫️для статей: Article, NewsArticle, или BlogPosting.
▫️для товаров: Product и Offer.
▫️для мероприятий: Event.
▫️для организаций: Organization.
▫️для рецептов: Recipe.
А для локального бизнеса используйте типы LocalBusiness и указывайте такие данные, как:
▫️название компании;
▫️адрес;
▫️телефон;
▫️часы работы;
▫️геолокацию.
Используйте специальные свойства для получения расширенных сниппетов (rich snippets), но только там, где это действительно уместно! Например:
▫️оценки и отзывы (aggregateRating);
▫️изображения и видео (image);
▫️часто задаваемые вопросы (FAQPage).
Если у вас есть учетные записи в социальных сетях или других сервисах, обеспечьте их связь через schema markup (SameAs для указания связанных профилей).
2️⃣ Обеспечьте корректность и актуальность данных
Убедитесь, что значения, занесенные в микроразметку соответствуют реальным данным. Например, цена товара или дата мероприятия должны быть актуальными и точными.
3️⃣ Старайтесь использовать единый формат разметки
Если вы используете микроразметку для одного типа контента, избегайте разметки тех же данных несколькими способами (например, не стоит использовать одновременно JSON-LD и Microdata).
И мы предпочитаем формат JSON-LD (JavaScript Object Notation for Linked Data), так как он проще в реализации и обновлении по сравнению с другими форматами (например, Microdata или RDFa).
4️⃣ Избегайте переспама разметки
Не пытайтесь размечать весь контент на странице, особенно если это не имеет смысла для поисковых систем.
Помните, что структурированные данные позволяют поисковым системам лучше понимать информацию, предоставленную в документе, а затем использовать эту информацию для улучшения отображения в поисковой выдаче. При этом сама по себе микроразметка не улучшает позиции сайта напрямую. Но грамотная реализация может косвенно повлиять на увеличение CTR, кликов и показов. |
Стоит ли в листинги категорий и тэгов добавлять товары, которых сейчас нет в наличии. Сейчас реализован вариант, не отражающий товары, которых нет в наличии. При этом карточки товаров есть и в них остатки "0" указаны. С позиции покупателя это отличный вариант — они не видят то, чего не будет от 2 недель. Но как быть с позиции SEO? Стоит ли выводить такие товары в листинги и как это правильнее сделать? | Поисковые системы отслеживают ассортимент товаров на сайте. Чем больше товаров у вас в каталоге – тем лучше с точки зрения поискового алгоритма, и тем выше будет ваша позиция в выдаче при прочих равных. С этой точки зрения скрывать отсутствующие товары не нужно.
Но, всё зависит от количества товаров, которые есть у вас в этих листингах. Если у вас достаточно много товаров в наличие – можете скрыть со страниц отсутствующие товары. В данном случае их нужно просто не показывать в каталоге, пока они не в наличие, страницы товаров переводить в 404 не нужно (то как это сейчас реализовано у вас).
👉 Посмотрите по конкурентам из выдачи, каким образом поступают они. Если с учетом сокрытия товаров, которые не в наличие вы все-равно не будете явно уступать конкурентам по ассортименту – можете их скрывать. Но если после их удаления из листингов у ваших конкурентов будет кратно больше товаров – поисковая система может посчитать, что ассортимент на вашем сайте недостаточный со всеми вытекающими.
Если вы понимаете, что по количеству вы проигрываете и товары скрывать нельзя – просто показывайте их в самом конце каталога. Также на каждую страницу товара можно прикрутить функционал «уведомить о наличие товара», таким образом, вы показываете поисковым алгоритмам, что вы не просто забили каталог товарами для количества, а даете возможность посетителям купить этот товар, но попозже. |
Нужно сослаться на сайт, у которого проблемы с ssl и все браузеры на это ругаются. Может ли это негативно повлиять на сайт донор? (ссылка закрыта nofollow) | Теоретически, ссылка на сайт с проблемами SSL напрямую на рейтинг вашего сайта и его ранжирование не повлияет.
⚠️ Важно учитывать, что атрибут nofollow не запрещает Google ботам переходить по ссылке (Справка). Мало того, такая ссылка, вероятнее всего, будет учитываться и частично передавать свой вес.
И пользователи также могут переходить по таким ссылкам. Пользователи гораздо больше доверяют ресурсам, которые дают гарантию защиты их персональных данных. Так как браузеры для таких сайтов показывают предупреждения о небезопасном соединении, то пользователи, которые перейдут по ссылке и увидят предупреждение, могут усомниться в надежности и достоверности вашего сайта, что отчасти и косвенно может повлиять и на вашу репутацию. Но по факту это влияние если и есть, то крайне незначительное. |
Имеется интернет магазин запчастей с количеством страниц 100 000+ и изначально неправильно была построена структура. Необходимо сделать категории для товаров (изначально их не было) вопрос в следующем: как правильно делать редиректы с текущих страниц на будущие? Имеется ввиду, если сразу 100 000 страницам поставить редирект? Или по 100 страниц переводить? | Мы так понимаем, неприятность ситуации в том, что вам сейчас необходимо из-за переработки структуры сайта менять URL большого количества страниц на сайте. Однако, если большая часть из этих страниц это товары (автозапчасти), то подумайте о том, чтобы оставить их URL такими, как они есть сейчас. Просто в новых категориях будут старые URL товаров, если конечно ваша CMS позволяет это сделать. Таким образом, вы значительно уменьшите масштаб проблемы.
👉 Если все действительно складывается так, что необходима переадресация большей части страниц сайта, то в большинстве ситуаций мы рекомендуем сразу настроить редиректы для всех страниц. Таким образом, получится сразу показать поисковым ботам обновленную структуру сайта с заменой всех внутренних ссылок.
При этом разбиение процесса на этапы может быть может быть полезно, если есть опасения по поводу нагрузки на сервер или рисков ошибок. Однако это может привести к временной путанице для поисковых систем и пользователей с поэтапной сменой структуры.
✅ Не забудьте после всех настроек проверить внутренние ссылки. Не должно оставаться ссылок на старые страницы.
✅ Также не забудьте обновить и залить в консоль новые карты сайта.
✅ Перепроверьте тщательно все команды в robots.txt, адаптировав их под измененную структуру URL.
✅ При массовом редиректе убедитесь, что сервер справится с увеличенной нагрузкой, особенно в первые дни после внедрения изменений.
✅ Поменяйте внешние ссылки, которые вы контролируете (например, в соцсетях, справочниках, картах и т.п.), там где это необходимо на обновленные URL. |
Как понять, попадает ли сайт под YMYL тематику или нет? Нужно ли вносить все правки для простого информационника, например, создавать страницы авторов и т.д.? | Под YMYL тематику попадают все сайты, которые могут повлиять на финансовое благополучие, здоровье, безопасность или счастье пользователей. Если обобщить, то под YMYL попадают такие тематики:
🔸Здоровье, медицина и юриспруденция;
🔸Новости, образование и редакция;
🔸Электронная коммерция и онлайн магазины.
👉 Более подробно об определении категорий сайтов попадающих под эти критерии можно посмотреть в руководстве для асессоров.
Обычно информационные ресурсы также воспринимаются, как сайты YMYL тематики, так как многие из статей могут оказывать влияние на мнение пользователей, а значит должны быть достаточно экспертными в своей области, чтобы информация была актуальна и правдива.
И да, создание страниц авторов является одни из многих факторов, подтверждающих экспертность и авторитетность вашего ресурса (EEAT).
⚠️ Важно! Сами по себе страницы авторов практически не окажут никакого влияния, гораздо важнее иметь качественный контент (подробнее тут) и доказать экспертность автора в рассматриваемом вопросе.
А это можно сделать, имея действительно “прокачанный” профиль автора. Он должен быть в определенной степени известен интернету в своей области. Этого можно добиться, прокачивая профили ваших авторов с помощью соцсетей, активного блоггинга на других ресурсах и т.п. |
Стандартная проблема - ранжируется не та страница. Думаем настраивать 301 редирект с не той на ту страницу, что нам нужно. Это рабочий вариант вообще или не сработает ничего? | 301 редирект рабочий вариант в том случае, если перенаправляемая страница похожа по тематике на целевую и несет схожую ценность для пользователя. Редирект помогает поисковым системам понять, что теперь актуальна именно целевая страница. Но это может занять время и нет полной гарантии, что поисковики начнут ранжировать целевую страницу.
Если же страницы отличаются по содержанию, но неправильно оптимизированы, 301 редирект не решит проблему, а только запутает поисковые системы.
💡 В этом случае необходимо сделать следующее:
✅ Правильно распределить какие ключевые слова должны продвигаться на каждой из страниц.
✅ Правильно настроить перелинковку. Например, поставить больше внутренних ссылок на целевую страницу, используя релевантные анкоры.
✅ Закупить ссылок на релевантную страницу с релевантными анкорами. |
Google активно обходил и обходит страницы поддоменов разработчиков. Мы сразу этого не заметили, сейчас эти поддомены закрыли, но роботы успели обойти большое количество таких страниц.
Как удалить их из базы Google или роботы сами перестанут обходить данные страницы после закрытия поддоменов в robots.txt? | Наилучшим вариантом скрыть поддомены от поисковых систем – заблокировать к ним доступ при помощи пароля. Даже если вы просто закроете эти поддомены в файле robots, Google все равно может ходить по этим страницам, но не оповещать вас об этом.
👉 Если технические страницы на поддомене уже проиндексированы, просто закройте их от индексации в файле robots. Важно для каждого поддомена сделать свой отдельный файл robots, ведь поддомен расценивается поисковой системой как отдельный сайт.
⚠️ Обязательно убедитесь, что на тестовый поддомен нет никаких ссылок!
Если после индексации поддомена вы не заметили никаких негативных моментов – можете не обращать внимания на их наличие в индексе, со временем они просто пропадут оттуда. Но это не быстрый процесс, удаляться из индекса они могут достаточно долго.
Если же вы заметили просадки по трафику или по позициям – воспользуйтесь инструментом «Удаление» в Google Search Console и удалите из выдачи дубли тех страниц на поддоменах, которые просели у вас в выдаче на основном сайте. |
Есть 3 сайта одной тематики ( 2 из трех в одном регионе). При покупке ссылок, есть ли смысл добавлять ссылки на все три сайта в одну статью, при условии что статьи 5 - 10 к знаков? Цель: продвижение всех трех сайтов. | Технически, такие ссылки можно разместить в одной статье, но важно учитывать некоторые моменты, чтобы был профит в них с точки зрения SEO:
🔸 Важно, чтобы такие ссылки органично вписывались в статью. Если вы пишете ТОП или обзор, то наличие 3 или даже больше ссылок вполне нормально.
🔸 Если для вас важно получить целевой трафик с таких ссылок, то учитывайте, что какой-то ресурс будет получать его больше, так как находится в статье выше.
🔸 Учитывайте региональность при написании статьи. Так как один из сайтов отличается регионом, то статья может не принести для него той же ценности, что и для двух других. Или же на ваш сайт будут приходить пользователи не из вашего целевого региона, а это в свою очередь может повлечь ухудшение поведенческих метрик за счет отсутствия вовлеченности.
С одной стороны такой подход позволяет сэкономить на бюджете для размещения и значительно сократить время написания контента. С другой стороны, велика вероятность, что каждый из сайтов получит лишь часть ссылочного веса.
👉 Мы считаем, что оптимальная стратегия - это размещение ссылок на сайты по отдельности, с фокусом на качество контента и естественность ссылочного профиля. Если же ваш бюджет ограничен, то лучше делать меньше размещений, но более качественных, чем рисковать всеми сайтами одновременно. |
Привязал сайт к новому домену. По сайтмапу все отлично, робот настроен правильно, страницы тоже хорошие с нормальным контентом (сайт по изготовлению лестниц). И уже месяц Google не индексирует мои страницы. Не понимаю в чем проблема, отправляю страницы на проверку и гугл консоль пишет, что все ок, страницы доступны для индексации, но в итоге так и не индексирует. Подумал, что мало ссылающихся на сайт источников и т.д. и т.п., но добавил и каталоги, и обновил контент, добавил еще одну страницу для сайта. Все хорошо, в CMS нет ограничений по индексации, но в итоге все равно без результата. В чем может быть проблема, подскажите, пожалуйста? | Новый домен - это всегда своеобразная рулетка. Невозможно предсказать, какой новый сайт быстро попадет в индекс, а какой будет полгода существовать в т.н. «песочнице». Это условное состояние, когда Google ограничивает индексацию и ранжирование недавно созданных сайтов. Это своего рода "период испытания", чтобы предотвратить продвижение сайтов, которые могут быть низкокачественными или временными.
"Песочница" не является официально подтвержденным алгоритмом Google, но для многих новых сайтов подобное "испытание временем" — обычное явление. Обычно, если продолжать работать над авторитетом и контентом сайта, он покидает "песочницу" через несколько месяцев.
💡 Для ускорения:
🔸 Увеличьте количество качественных ссылок с релевантных и авторитетных ресурсов, например, тематических форумов, блогов или партнерских сайтов.
🔸 Набирайте авторитет своего бренда, зарегистрируйтесь в Google Business, различных соцсетях, отзовиках, QA площадках. Проявите социальную активность, которая покажет поисковику, что ваш бренд реальный и живой.
🔸 По внутренней оптимизации старайтесь максимально улучшать перелинковку для качественного распределения веса по важным страницам. И продолжайте постоянно обновлять контент, например, размещая отзывы о вашей услуге (например, из тех же соцсетей).
🔸 Помогите Google лучше понять ваш контент с помощью подходящей микроразметки schema org.
👉 Также рекомендуем убедиться, что с сайтом действительно нет проблем:
✅ Посмотрите логи сервера, чтобы понять, как часто Googlebot заходит на сайт и какие страницы посещает. Если бот редко посещает сайт, возможно, на сервере настроены ограничения, или бот сталкивается с каким-то редиректом или ошибкой при доступе к страницам. Проверьте также, как Google на самом деле видит страницы, все ли подгружается, все ли скрипты/стили обрабатываются корректно.
✅ Google активно борется с бесполезными страницами и может медлить с индексацией, если страницы кажутся ему недостаточно качественными или полезными. Обратите внимание на уникальность контента, его полноту и структурированность. Также важно наличие ключевых слов, которые логично и естественно распределены по тексту, а не просто расставлены ради SEO.
✅ Google уделяет внимание скорости загрузки и удобству сайта на мобильных устройствах. Если страницы грузятся медленно или сайт не оптимизирован под мобильные устройства, это может замедлить процесс индексации.
✅ Если домен не совсем новый и вы его выкупили, то проверьте историю домена на наличие контента, который мог вызвать санкции или фильтры Google. |
End of preview. Expand
in Data Studio
README.md exists but content is empty.
- Downloads last month
- 6