Context
stringlengths
25
1.06k
Response
stringlengths
222
3.73k
1️⃣ Одна из самых частых проблем при кластеризации и принятии решения объединять или не объединять ВЧ и НЧ кластера: 1. Есть 3 кластера: ВЧ - Купить грабли веерные НЧ - Купить грабли веерные металлические НЧ - Купить грабли веерные пластиковые * пример взят для наглядности, сейчас в ТОПе ситуация могла измениться. 2️⃣ Связи между ними сильные 7 из 10 общих урлов. 2.1. Сильная связь обусловлена, что никто из конкурентов, не заморачивался с проработкой посадочных под НЧ спрос. 2.2 Или поисковые системы отдают предпочтение ВЧ кластеру «Купить грабли веерные» так, как на нем больше трафика, доверия, + присутствуют и металлические и пластиковые грабли (больше выбор для пользователя). 3️⃣ Но!!! Есть момент, если я ищу металлические, зачем мне просматривать пластиковые? - но, если сделать 3 страницы, то рел. урл может «прыгать» с НЧ на ВЧ кластер (см.пункт 2.2.). Как лучше поступить в данном случае? Объединять или не объединять кластера?
Мы считаем, что в вашей ситуации не стоит объединять запросы из разных кластеров на одну страницу. То, что они попали в разные кластеры, означает, что их стоит разделить на разные посадочные. Такая реализация, когда есть основная ВЧ-категория и НЧ-подкатегории довольно распространенная, например, в интернет-магазинах техники (конкретные бренды телефонов, телевизоров и т.д.). 👉 Низкочастотные запросы направлены на конкретный товар и правда, если интент пользователя “пластиковые грабли”, то общая страница с еще и металлическими может плохо ранжироваться за счет показателя отказов и пользовательского опыта. Пользователь, увидев общую страницу граблей, может попросту уйти с сайта, так как он искал определенный товар. Текущая ситуация с высокой связанностью URL говорит о том, что поисковые системы воспринимают эти запросы, как семантически близкие. Однако доминирование ВЧ-кластера может быть временным явлением, связанным с тем, что, как вы указали, конкуренты не создают отдельные страницы под НЧ запросы. Нет страниц у конкурентов – нечему ранжироваться в ТОПе по таким запросам. ⚠️ Чтобы избежать проблемы "прыгающего" релевантного URL, важно правильно настроить техническую часть, особенно проработать контент страницы и использовать четкие заголовки и мета-теги. Страницы должны быть связаны между собой продуманной перелинковкой, которая поможет как пользователям, так и поисковым системам понять связь между материалами. На НЧ страницы нужно закупить ссылки, чтобы увеличить их релевантность по определенным запросам. Таким образом, пользователь будет получать по запросу именно ту страницу, которая ему нужна. Когда вы грамотно работаете с ВЧ, СЧ и НЧ запросами, ваш сайт получает не просто “посещаемость ради посещаемости”, а именно ту аудиторию, которая в итоге становится вашими клиентами. Помните: нет “плохих” запросов, всё зависит от стратегии и целей.
Как можно выгрузить заголовки, метаданные у конкурентов из ТОПа Google по определённым запросам?
Чтобы получить именно такой результат, необходимо по нужным вам запросам получить ТОП Google, а потом осуществить сбор заголовков и метатегов такими способами: ▫️в ручном режиме; ▫️при помощи Google таблиц; ▫️с помощью сервисов. 1️⃣ Ручной режим Имея на руках ТОП по запросам, вы просто открываете один за одним интересующие URL адреса, копируете заголовки и метаданные и заносите в таблицу. 2️⃣ Google таблицы Этот способ упрощает сбор данных, особенно, если необходимо обработать огромный массив данных. Для получения нужного результата необходимо использовать Xpath, в виде формул: 🔸Для title: =IMPORTXML(«https://site.com/»;»//title»); 🔸Для description: =IMPORTXML(«https://site.com/»;»//meta[@name=’description’]/@content»); 🔸Для Н1: =IMPORTXML(«https://site.com/»;»//h1″). Прописав формулу для одного URL адреса и далее протянув ее для остальных адресов, вы быстро получите нужные данные. 3️⃣ Сервисы Этот способ наиболее быстрый, так как позволяет выгрузить как конкурентов из ТОПа, так и необходимые данные по этим сайтам. К таким сервисам можно отнести, например, Ahrefs, Serpstat и другие подобные.
У меня присутствует отдельная мобильная версия сайта. Раньше каноникал ставили на десктоп версию и показывали, что мобильная это альтернативная. А как лучше сейчас, если у меня 75% трафика через мобильную версию?
В вашей ситуации, скорее всего, лучше будет указать canonical на мобильную версию сайта. Однако, если есть возможность, рассмотрите переход на адаптивный дизайн, который является более современным и эффективным решением. Раньше, когда мобильный трафик был меньше, canonical чаще всего указывал на десктопную версию сайта, а мобильная версия считалась альтернативной. Сейчас, когда мобильный трафик значительно вырос, такой подход может быть не самым эффективным. Google все больше ориентируется на мобильные устройства (Mobile-first indexing) и старается вовсе отойти от canonical (это все больше просто рекомендация для ботов). Потому в идеале, лучше использовать адаптивный дизайн, когда сайт подстраивается под размер экрана пользователя. В этом случае canonical не нужен, так как у вас будет один URL для всех устройств.
Как ускорить индексацию в Google? Карта сайта есть, перелинковка внутренняя, наполненность контентом (уник. около 70), ссылок немного уже тоже. 2,5 месяца сайт упорно не хочет индексироваться Google, только главную "съел". Что ещё предпринять?
Если у вас уже корректно настроены карта сайта sitemap.xml, внутренняя перелинковка и есть первичные внешние ссылки, но Google упорно не индексирует страницы (кроме главной), то для начала посмотрите отчеты “Покрытие” и “Страницы в индексе” и вы увидите, какие url обнаружены, но не проиндексированы, и возможные причины этого. ⚠️ Самые распространенные причины: ▫️ошибка сервера (5xx) ▫️ошибка переадресации ▫️доступ к URL заблокирован в файле robots.txt ▫️страница содержит директиву noindex ▫️ошибка (404) ▫️страница просканирована, но пока не проиндексирована (страницы низкого качества) ▫️обнаружена, не проиндексирована ▫️страница является копией 👉 Далее в зависимости от выявленных проблем, вы будете лучше понимать, что стоит предпринять в вашей ситуации. Среди стандартных мер рекомендуем следующее: ✅ Проверьте robots.txt на наличие случайных блокировок индексации (Disallow). ✅ Убедитесь, что meta robots на страницах установлен правильно (нет ли noindex или nofollow). ✅ Регулярно обновляйте контент сайта. Если вы делаете новые публикации и обновляете уже существующие, это стимулирует робота заходить чаще. Также отзывы на товары или услуги расценивается Google, как новый контент. Уникальность контента 70% не критически низко, но желательно повысить. Чем выше уникальность и глубина материала, тем охотнее Google индексирует. ✅ Несколько качественных ссылок с тематических ресурсов могут сильно ускорить индексацию, особенно если эти сайты сами хорошо индексируются. ✅ Добавьте сайт в тематические каталоги с хорошей репутацией. ✅ Социальные сети (Facebook, Twitter, LinkedIn, Instagramm и пр.) помогают привлечь роботов и пользователя на ваш сайт. Делайте анонсы новых статей, используйте ссылки на сайт. ✅ Проверьте адаптивность под мобильные устройства, проблемы в mobile-first индексации часто тормозят общий процесс. А иногда, для нового сайта, самым действенным способом является просто ожидание. “Песочница” может продолжаться и 3-4 месяца.
Подскажите, какие есть сайты или приложения, где можно посмотреть на нынешний трафик сайтов и 2-3 года назад?
Среди самых популярных сервисов для оценки истории трафика, которые показывают плюс-минус схожую с реальной картиной ситуацию по трафику на сайте – это Ahrefs и SimilarWeb. Но вам не стоит на 100% полагаться на эти сервисы, мы неоднократно проверяли через них сайты, к которым у нас есть непосредственный доступ и данные там кардинально отличались как в сторону увеличения, так и в сторону уменьшения.
В выдаче появляется довольно много фишинговых сайтов, которые частично копируют дизайн и контент нашего сайта и затем от нашего имени разводят пользователей. Мы ищем такие сайты и пишем жалобы. Но их появляется довольно много, искать руками не всегда есть возможность. Подскажите, возможно есть сервисы, которые позволяют автоматизировать мониторинг выдачи и поиск таких сайтов? Ну и возможно дадите еще какие-то советы по этому поводу.
Мы знаем не так много сервисов, которые могут помочь автоматизировать мониторинг выдачи и поиск фишинговых сайтов, копирующих ваш контент. ✅ Copytrack - сервис специализируется на поиске копий контента в интернете. Он автоматически находит сайты, которые скопировали ваши изображения, и предоставляет отчеты. ✅ URLhaus – база данных, которая отслеживает и предоставляет информацию о фишинговых сайтах и других вредоносных веб-сайтах. Есть API. ✅ PhishTank API - позволяет получать актуальные данные о обнаруженных фишинговых сайтах. ✅ Сервис Brand24 (платный) – отслеживает появление новых сайтов с упоминанием вашего бренда. Создание скрипта, который будет автоматически искать схожие сайты. ⚠️ Важно! Автоматические сервисы не всегда могут быть идеальными. Они могут пропускать некоторые фишинговые сайты или, наоборот, ошибочно принимать обычные сайты за фишинговые.
В интернет магазине кроликов есть товары с названием: Кролик 1, Кролик 2, Кролик 3, Кролик 4 и т.д. Как смотрите на то, чтобы в листингах категорий выводить эти товары как: В категории "Кролики рыжие" выводить товары с названием: Кролик 1 рыжий, Кролик 2 рыжий, Кролик 3 рыжий, Кролик 4 рыжий. В категории "Кролики ангорские" выводить товары с названиями: Кролик 1 ангорский, Кролик 2 ангорский, Кролик 3 ангорский, Кролик 4 ангорский И так далее в зависимости от категории добавлять к названию подходящий текст. Это все естественно при условии, что сам Кролик подходит к категории по своим параметрам. Как на это посмотрят ПС? Не будет ли проблем? Будет ли от этого толк?
Ваш вопрос по сути заключается в том, а можно ли давать ссылки на товары из листингов под разными анкорами. Да, вы можете так сделать, прямого запрета от поисковых систем на такой формат размещения отсутствует. Да и вы не делаете ничего вводящего в заблуждение, если все товары будут соответствовать описанию листинга. Проработайте также тот момент, чтобы в категории «Кролики рыжие» у всех товаров было свое уникальное описание, чтобы каждый товар не выглядел как простое склеивание ключевого слова с названием товара. Если все товары в этой категории будут иметь название «Рыжий кролик №1», «Рыжий кролик №2» и т.д. – это не будет выглядеть органически и может расцениваться поисковой системой, как действие, направленное на поисковые системы, а не на пользователей. 👉 Также подумайте над тем, чтобы изменить не просто анкоры товаров из категорий, а названия самих товаров. Если все они будут подходить под описание, то и само название товара можно уникализировать и сделать более тематическим, например: «Ангорский кролик среднего размера с рыжими ушками и белыми лапками». Уникализировав и сделав более человеко-ориентированными названия товаров, вам и не понадобиться принудительно менять их анкоры из категорий.
Есть многоязычный сайт, постоянно наполняем на 19 языках. Встал вопрос о покупке ссылок. Влияет ли купленная ссылка на одну языковую версию на версии сайта на других языках? Например, если есть ссылка на it-версию, она повлияет на сайт в общем?
Если ваши языковые версии организованы через подпапки, то да, донорская ссылка на одну языковую версию может оказывать незначительное косвенное влияние на весь сайт. Например, если вашим донором является авторитетный ресурс - это может повысить общий авторитет вашего домена, что в свою очередь может положительно сказаться на ранжировании всех языковых версий сайта, но эффект будет менее выраженным, чем для страницы, на которую непосредственно ведет ссылка. 🔸 Само собой анкор на итальянском языке в первую очередь будет оказывать влияние на около-анкорные ключевые запросы на том же языке. И прямого влияния на другие языковые версии не будет. 🔸 Тоже самое и с региональным фактором: локальный донор из Италии будет важен в первую очередь для людей, которые будут им пользоваться в том же регионе. И влиять такой донор будет на страницы, ориентированные в первую очередь на ту же аудиторию. 🔸 Влияние ссылок также зависит от конкуренции в каждом регионе. Например, если итальянская версия получает сильные ссылки, это может улучшить её позиции, но не гарантирует аналогичный эффект для английской или немецкой версий. В любом случае, для естественности ссылочного профиля и максимального эффекта лучше покупать ссылки для каждой языковой версии отдельно, особенно если важен трафик в конкретных странах.
Какой самый простой способ определить дает ли результат у клиента PBN?
Эффективность работы PBN сетки отслеживается мониторингом видимости продвигаемого сайта в поисковых системах (ПС). Если видимость растет, то соответственно, эффект от сети PBN на лицо. Если же роста нет, то варианта два: 🔸ссылки с сети сайтов еще не проиндексированы поисковыми системами и необходимо время, чтобы потенциальный эффект ссылок был учтен поисковиками; 🔸 ссылки учтены, но они не дают нужного эффекта. ⚠️ Важно учитывать нюанс времени, которое может понадобиться для получения видимого эффекта. Так, например, те сайты, участвующие в сети, которые были восстановлены из вебархива и имеющие качественный контент, могут дать результат значительно быстрее, чем те сайты, которые выстраивались в сеть с нуля и не имеют никакой истории и авторитета в поисковых системах. Если же ссылки учтены ПС, но роста видимости, трафика и т.д. нет, то необходимо проанализировать качество сайтов, участвующих в сети PBN и при возможности, прокачать их. Иногда эффекта нет также и потому, что Google обнаруживает сеть и понимает, что сайты восстановлены исключительно для манипуляции выдачей. В редких случаях алгоритмы могут и наказать ваш сайт санкциями с негативными последствиями. К сожалению, более точных методов определения эффективности сетки нет.
Какое количество символов должно быть в метатеге тайтла и каково его значение для SEO?
Оптимальная длина тайтла обычно составляет от 50 до 60 символов и до 600 пикселей в ширину Ограничение в 600 пикселей связано с тем, как Google отображает заголовки в результатах поиска (SERP). Это технический лимит, основанный на ширине области отображения в поисковой выдаче. Разные символы имеют разную ширину. Именно поэтому иногда title длиной в 55 символов может обрезаться, а в 65 символов - отображаться полностью. Всё зависит от используемых символов. На мобильных устройствах это значение может быть меньше. 👉 Превышение длины Title не является грубой ошибкой, и иногда может быть полезно для SEO: 🔸Google индексируют весь title целиком, даже если он отображается не полностью. 🔸Это позволяет включить дополнительные ключевые слова и их вариации для расширения семантического ядра. 🔸Кроме того, иногда, Google может выводить именно ту часть Title, которая больше подходит конкретному запросу пользователя.
Куда сейчас лучше выгружать видео для хорошей выдачи по ключевым словам?
В текущих реалиях наиболее эффективной платформой для видеоконтента с точки зрения поисковой оптимизации остается YouTube. Это обусловлено его мощной поисковой системой, тесной интеграцией с Google и возможностью оптимизировать контент под ключевые запросы через заголовки, описания, теги и субтитры. 💡 Почему YouTube? 1️⃣ YouTube является самой популярной платформой для поиска видеоконтента в интернете. Видео, оптимизированные под ключевые слова, отображаются не только внутри самой платформы, но и в результатах поиска Google. Вы можете использовать ключевые слова в заголовках, описаниях, тегах и субтитрах. 2️⃣ YouTube активно отслеживает, как пользователи взаимодействуют с вашим видео: лайки, комментарии, подписки после просмотра. Это напрямую влияет на ранжирование. Чем выше вовлеченность, тем чаще видео будет показываться в рекомендательных блоках. 3️⃣ Превью и заголовок играют такую же огромную роль в Youtube, как и в поисковой выдаче. Чем привлекательнее превью, тем чаще на него кликают и, соответственно, оно лучше ранжируется. 4️⃣ Алгоритм предпочитает каналы, которые регулярно выпускают видео в одной тематике. Поэтому ваши видео будут четко соответствовать вашей целевой аудитории. В качестве альтернативы можно также рассмотреть Vimeo, где можно обеспечить хорошую видимость в специализированных нишах при правильной оптимизации видео. Хотя YouTube доминирует в вопросах поисковой выдачи, для максимальной эффективности рекомендуется кросс-платформенное размещение с адаптацией контента и ключевых слов под особенности каждой площадки. Это позволяет охватить различные аудитории и увеличить общую видимость контента в поисковых системах. 👉 Такими площадками могут быть TikTok и Instagram Reels - это платформы для коротких видео с акцентом на тренды. Здесь важно использовать хэштеги, которые усиливают охват. Видео должны быть емкими, динамичными и ориентированными на удержание внимания с первых секунд. TikTok особенно хорошо работает для быстрого охвата новой аудитории.
Сайт швейной фабрики по пошиву униформы. Есть каталог товаров, где есть блузки, футболки, брюки и т.д. Также есть отдельно другие категории: блузки для ресторанов, блузки для отелей, блузки для торговых сетей и прочее. Нужно ли в других категориях указывать canonical на основную категорию в каталоге? Товары одинаковые везде.
Прописывание canonical, например, с категории блузки для отелей на родительскую категорию блузки не очень правильное решение. За счет такой сегментации, вы расширяете семантическое ядро (при условии, что такие ключи есть и у них есть частотность). Что потенциально может оказать влияние на видимость сайта в поисковых системах (ПС) и возможный рост трафика (при надлежащей внутренней и внешней оптимизации). В такой сегментации нет ничего странного и подозрительного с точки зрения поисковых систем. ⚠️ Важно! Но, если у вас во всех категориях абсолютно одинаковый ассортимент, например, всего 5 блузок и все эти 5 блузок находятся во всех подкатегориях (Для отелей, Для ресторанов и т.д.), то это, действительно, может быть проблемой. Если есть возможность, то стоит проработать ассортимент с точки зрения разнообразия. То есть, какие-то позиции отображать только в одной категории, какие-то только в другой. Также, если есть возможность, то желательно расширить ассортимент, чтобы наполнить дочерние категории какими-то уникальными товарами и дать максимальное разнообразие потенциальному покупателю. 👉 Если же оставить как есть, то со временем это может сказаться негативно, так как ПС не будут понимать разницы между категориями из-за одинакового ассортимента, даже при наличии внутренней и внешней оптимизации. В итоге, если разнообразить ассортимент не представляется возможным, то canonical будет оптимальным решением. Но, стоит помнить, что canonical лишь рекомендация и может не приниматься в расчет ПС. По этой причине могут возникать дубли страниц, с которыми придется бороться, например, закрывая их от индексации. При таком раскладе (закрытие от индексации всех дублей-подкатегорий) стоит попробовать оптимизировать основную категорию под все запросы, которые ранее сегментировались на подкатегории.
Можно ли использовал атрибут hreflang для регионального продвижения? Этот атрибут позволяет указывать роботу для какого региона показывать страницу? Как дополнительно можно присвоить региональность сайту?
Можно и нужно использовать атрибут hreflang для регионального продвижения. Атрибут помогает Google понять геопринадлежность страницы, чтобы предоставить пользователю нужную языковую версию в результатах поиска. С его помощью мы показываем роботам, что на сайте один и тот же контент доступен на разных языках. Благодаря этому атрибуту поисковики могут автоматически показывать корректную языковую версию, на основе географических и языковых данных. А также атрибут hreflang предотвращает склейку страниц, благодаря чему они лучше индексируются и ранжируются. ⚠️ Однако сам по себе hreflang не всегда помогает решить вопрос регионального продвижения, для этого используются дополнительные меры: ▫️Выбор домена верхнего уровня — .ua, .com. ▫️Геолокация IP. ▫️Настройка серверов в разных странах. ▫️Субдомены для разных стран: pl.site.com, fr.site.com и т.д. ▫️В Google Search Console можно указать, на какую страну вы ориентируетесь (если домен общего пользования: .com, .org, .net и т.д.). ▫️Упоминайте конкретный город/регион в заголовках, мета-тегах и тексте. ▫️Размещайте точные адреса, номера телефонов с местным кодом, схемы проезда. ▫️Регистрируйтесь в Google Бизнесе и местных онлайн-каталогах и указывайте реальную информацию о местоположении, контактах и графике работы. Поощряйте клиентов писать отзывы на Google картах. ▫️Добавьте микроразметку LocalBusiness. 💡 hreflang – полезный инструмент для корректного определения языковых и гео версий сайта, однако полноценное региональное продвижение строится, в том числе, на правильном выборе доменной зоны, указании региональной информации в настройках Google Search Console и наличии локального контента, соответствующего целевому региону.
Хочу поднять свою сетку из 20 сайтов под статейное размещение, такой вопрос: обязателен ли уникальный контент на сайте или же можно публиковать копипаст? На сколько это сильно играет роль для качества самой сетки, и для потенциальных вебмастеров, которые будут размещаться на моей сетке сайтов?
Уникальный контент для сетки сайтов, которые будут предлагаться под размещение статей (гостевые посты, рекламные материалы и т.д.) не просто «желателен», а является одним из ключевых факторов и для SEO, и для интереса вебмастеров к вашим площадкам. В идеале все статьи должны быть либо уникальными, либо переработанными таким образом, чтобы не вызывать дублирование в поисковых системах. Только тогда ваша сетка сможет развиваться и приносить стабильный доход от размещений. 1️⃣ Вебмастера при выборе площадок для размещения своих материалов или ссылок, часто обращают внимание не только на показатели домена (трафик, DA/DR, беклинки и т.п.), но и на визуальное и содержательное качество сайта. Если контент полностью скопирован, сайт выглядит низкокачественным, и это может отпугнуть потенциальных рекламодателей или партнёров. 2️⃣ Поисковые системы (особенно Google) стараются ранжировать сайты с действительно уникальным и полезным контентом. Копипаст довольно часто приводит к тому, что страницы с дублированным контентом не попадают в индекс или значительно понижаются в выдаче. Это снижает трафик и ценность такого сайта для размещения гостевых публикаций. Если же ваша сетка создается для PBN, то тоже имеет смысл вкладываться в уникальный контент хотя бы на уровне хороших переписанных статей, оптимизированных под ключевые запросы. Такая сетка будет более надёжно стоять «на ногах» и сможет передавать больше «веса» при ссылочном продвижении.
Как повысить ранжирование статей, если они и так хорошо ранжировались? Но стоит задача поднять выше. Мы дополнили новой информацией и сделали рерайт того текста, который был, но суть осталась та же, но другими словами.
Чтобы поднять ранжирование страниц необходимо повысить их авторитет в глазах поисковых систем, а именно: 🔸улучшить внутреннюю перелинковку; 🔸закупить внешние ссылки; 🔸разместить посты в социальных сетях. Также для этих страниц вы можете исходя из поведенческих метрик увидеть: 🔸процент отказов; 🔸CTR; 🔸время пребывания на странице/страницах; 🔸глубину просмотра. На основе этих данных, возможно, вы сможете еще что-то привнести в текст, чтобы он еще полнее отвечал на вопрос пользователя. Измените сниппет, сделайте его более привлекательным и интересным, чтобы повысить CTR. Этот показатель оказывает значительное влияние на ранжирование. Постарайтесь свести к минимуму отказы и повысить время пребывания и глубину просмотра страниц. Не менее важно проанализировать ТОП по тем запросам, по которым вы хотите поднять ранжирование страниц. Это позволит посмотреть на полноту раскрытия темы конкурентами и, возможно, дополнить свой материал информацией. Также стоит, по возможности, добавить в материал таблицы, графики, видео и т.д., чтобы статья стала еще более наглядной и полезной. 👉 Особое внимание необходимо уделить изображениям, которые сопровождают пользователя от самого начала, до самого завершения материала. В обязательном порядке добавляйте к изображениям подпись, которая позволит добавить еще больше наглядности и полезности материалу. При этом полный рерайт текста не всегда хорошая идея, т.к. такое обновление может быть воспринято алгоритмами, как новая статья, которая не обязательно будет лучше прежней.
Стоит ли в ТЗ копирайтерам указывать количество символов, точные вхождения ключа, синонимы или эти факторы давно считаются неактуальными?
Подход к ТЗ для копирайтеров сегодня стал более гибким и естественным, чем раньше. ПС Google сейчас больше ценит качественный, экспертный контент, который действительно решает задачи пользователей, чем тексты с идеальными техническими параметрами. ✅ Количество символов. Вместо жестких рамок лучше указывать примерный диапазон (например, 2000-2500 символов). Это позволит автору раскрыть тему естественно, не растягивая и не обрезая текст искусственно. ✅ Точные вхождения ключа. Этот параметр стал несколько менее актуальным. Поисковые алгоритмы стали намного умнее и понимают контекст, семантическую связь и намерение пользователя. Ряд точных вхождений можно оставить, но вместе с ними рекомендуем писать в ТЗ естественное использование ключевых фраз со склонениями и разрывами между слов там, где это уместно. ✅ Синонимы и вариации ключевых фраз полезны, потому что позволяют охватить больше смежных поисковых запросов и сделать текст разнообразнее. Но не нужно прописывать их все в ТЗ: достаточно перечислить основные варианты и дать копирайтеру свободу выбора.
Какой sitemap делать для сайта с несколькими языковыми версиями в подпапках: один общий для всех или для каждой языковой версии нужен свой sitemap.xml?
Оба варианта имеют право быть, если корректно настроить hreflang. Мы рекомендуем руководствоваться следующим принципом: Если сайт небольшой и вы хотите простоты — делаете общий sitemap.xml. Если сайт крупный или вы хотите управлять версиями отдельно — отдельные sitemaps для каждого языка. ⚠️ Не забывайте, что в общей карте сайта также надо указывать hreflang. Пример: <url> <loc>https://example.com/</loc> <xhtml:link rel="alternate" hreflang="en" href="https://example.com/en/" /> <xhtml:link rel="alternate" hreflang="fr" href="https://example.com/fr/" /> </url> <url> <loc>https://example.com/en/</loc> <xhtml:link rel="alternate" hreflang="x-default" href="https://example.com/" /> <xhtml:link rel="alternate" hreflang="fr" href="https://example.com/fr/" /> </url> <url> <loc>https://example.com/fr/</loc> <xhtml:link rel="alternate" hreflang="x-default" href="https://example.com/" /> <xhtml:link rel="alternate" hreflang="en" href="https://example.com/en/" /> </url> 👉 Если же будете использовать отдельные карты для каждой языковой версии, то рекомендуем сделать основной файл, в котором указываются ссылки на дочерние sitemaps: <sitemap> <loc>https://example.com/sitemap-default.xml</loc> </sitemap> <sitemap> <loc>https://example.com/en/sitemap-en.xml</loc> </sitemap> <sitemap> <loc>https://example.com/fr/sitemap-fr.xml</loc> </sitemap>
Насколько негативно могут влиять на позиции всплывающие окна на страницах, например, с предложением посетить страницу акции или товар, который пользователь уже смотрел на сайте? Интересно узнать про влияние в Google.
Всплывающие Pop-up-окна в целом рекомендуется сводить к минимуму. Очень много зависит от того, каким образом реализована всплывашка на сайте. Так, например, навязчивые всплывающие окна, занимающие большую часть экрана и мешающие пользователю, могут повлиять негативно на позиции сайта в поисковых системах. Если же всплывающее окно небольшое, легко может быть закрыто пользователем, то оно, скорее всего, не окажет никакого влияния на позиции сайта, но при этом сможет в Вашем случае привести пользователя к выгодному товару по акции. Безусловно, с точки зрения потенциальных конверсий всплывающее окно может дать положительный эффект прироста продаж и поэтому оно полезно с точки зрения бизнеса. Но не стоит перегибать палку и создавать надоедливые окна, которые будут раздражать пользователя. 💡 Ваша задача при помощи этого окна улучшить поведенческие метрики, а не ухудшить их. Если пользователь перейдет по ссылке в окне на другую страницу сайта, то это будет хорошим сигналом, если же пользователь будет практически сразу после появления окна закрывать сайт, то это будет плохим сигналом. При этом важно, чтобы всплывающее окно не появлялось на каждой странице сайта. Обязательно стоит посмотреть на реализацию таких окон у конкурентов в ТОП.
Каким сервисом можно пройтись по сайту и проверить его линки на домены, сроки которых закончился?
Как такого универсального сервиса не существует, который выдаст отчёт именно по таким доменам. Но есть схема как это решить с комбинацией нескольких инструментов: 1️⃣ Собираем любым краулером (или с помощью Ahrefs) исходящие ссылки с сайта и выгружаем в таблицу со всеми внешними доменами. 2️⃣ Берём выгруженный список доменов и используем сервисы для массовой проверки доступности доменов. Например, эти Name.com, Namecheap, Whois, в некоторых можно прямо списком загрузить домены для проверки. Также возможно автоматизировать эту задачу скриптом, проверяющим домены на истечения срока.
Нужно ли прописывать user_agent follow на сайте , или достаточно просто ничего не писать и user_agent Google будет правильно сканировать sitemap?
Для нормального индексирования страниц вашего сайта достаточно просто размещать страницы с качественным контентом, при этом не обязательно прописывать rel follow для каждой страницы, чтобы роботы по ней переходили. Постарайтесь добавить в файл sitemap все страницы вашего сайта, которые отвечают на вопросы пользователей и которые, по вашему мнению, должны находиться в выдаче. Этого будет достаточно для того, чтобы поисковая система добавила их в свою поисковую базу и показала в выдаче по соответствующим запросам, если контент этих страниц действительно покрывает запрос пользователя. ⚠️ Также не забудьте добавить файлы карты сайта в консоль поисковой системы.
Какой тип микро разметки делает большой расширенный сниппет в выдаче Google (например, содержит несколько ссылок на категории товаров или услуг)? И можно ли его настроить на меню сайта или это на странице должен быть блок соответствующий, с которого стоят ссылки на те страницы?
Такие расширенные сниппеты с содержанием ссылок на категории товаров или услуг обычно формируются Google для главной страницы автоматически, на основании анализа содержания контента. Для этого необходимо, чтобы в контентной части страницы был организован структурированный и понятный блок перелинковки по основным разделам сайта. В редких случаях такие расширенные сниппеты могут формироваться и для страниц категорий сайта. Требования все те же, необходимо четко структурированный блок перелинковки в самом контенте страницы. Меню сайта, конечно же, можно также разметить. Обычно для этого используют разметку SiteNavigationElement или ItemList для его элементов. Однако в нашей практике такая разметка если оказывала влияние на формирование расширенных сниппетов, то в очень редких случаях. ⚠️ Помните, микроразметка лишь дополняет информацию для поисковой системы, она не заменяет фактическое наличие контента.
Как считаете, на сколько важно, чтобы донор имел трафик? (Трафик на домен, а также трафик на последние посты). И важна ли региональность донора, например, работаем под Португалию — ссылки покупать лучше с португальских сайтов, или подойдут другие страны и мультиязычные сайты?
При определении качества донора необходимо в обязательном порядке оценивать множество факторов, один из которых – трафик. И чем он, соответственно, больше, тем лучше. Наличие трафика на сайте говорит о том, что он востребован пользователями, а это, в свою очередь, повышает вероятность перехода по ссылке на сайт акцептор. Такое поведение добавляет качества самой ссылке и именно таковой, в идеале, должна быть цель получения каждой ссылки – переход пользователя. 👉 Что касается региональности, то ответ однозначный – да, она важна. Вероятность того, что сайты находящиеся в одном регионе будут ссылаться друг на друга значительно выше, чем сайт находящийся совершенно в другом регионе. Это выглядит логично в глазах поисковых систем. 👉 Что касается иностранных и мультиязычных сайтов, то самое важное – это качество самого донора. Поэтому, если есть возможность разместиться на каком-то очень трастовом доноре, то это также будет плюсом для вашего сайта. Поэтому в первую очередь рекомендуем получать ссылки с португальских и других сайтов, которые имеют трафик, получили и получают обратные ссылки, совпадают или близки по тематике с вашим сайтом. Однако, если позволяет бюджет, то параллельно можно брать ссылки с других стран и мультиязычных сайтов, если это качественные и тематичные доноры.
Есть домены, которые с большой долей вероятности считаются аффилированными (проверяли по схемам, все сходится). Если сделать новый сайт на новом домене, а затем поставить 301 редирект с одного из аффилиатов на этот новый сайт, фильтр тоже переедет?
При 301 редиректе с аффилированного домена фильтры не "переедут" на новый домен. Но если сайт снова будет иметь ту же схожесть с предыдущим или вообще будет идентичным со старым сайтом, то есть немаленький шанс снова получить аффилирование. 💡 Чтобы новый сайт не попал под фильтр-аффилиат необходимо использовать: ▫️другой физический адрес, номер телефона, адрес электронной почты ▫️другие регистрационные данные компании и платёжные реквизиты ▫️другие шаблоны и уникальный контент ▫️по возможности обновить структуру и дизайн ▫️другие отличающиеся группы в социальных сетях ▫️также по возможности отличающийся ассортимент и цены
Могут ли быть последствия для сайта, если у него 90%+ dofollow-ссылок? И на какие показатели следует опираться?
Если ваш ссылочный профиль сайта состоит на 90%+ dofollow-ссылок, то это может выглядеть слишком неестественно и подозрительно с точки зрения Google. Алгоритмы могут расценить это, как попытку манипуляции результатами поиска. В большинстве случаев Google просто посчитает такую ситуацию, как ссылочный спам и будет игнорировать большую часть подозрительных ссылок. В худшем случае существует риск попадания под фильтр и сайт может потерять позиции в выдаче. Мы рекомендуем тщательно проанализировать выдачу, изучить профиль Ваших конкурентов и определить для себя допустимый диапазон соотношения nofollow и dofollow-ссылок. Старайтесь наращивать все ваши виды ссылок в естественном соотношении. 💡 На какие показатели следует опираться при оценке ссылочного профиля: 1️⃣ Динамика роста ссылок. Естественный рост ссылок происходит постепенно. Резкие скачки могут вызвать подозрения. 2️⃣ Качество и тематика доноров. Авторитетные и тематические сайты имеют больший вес. 3️⃣ Разнообразие анкоров. Использование разных ключевых слов и фраз в анкорах ссылок выглядит более естественно. 4️⃣ География ссылок. Ссылки с Вашего региона продвижения, делают профиль сайта более естественным. 5️⃣ Тип ссылок. Помимо dofollow, существуют и другие типы ссылок (nofollow, sponsored и т.д.). Сбалансированный профиль содержит ссылки разных типов. Это нормально, когда люди делятся ссылками на Ваш сайт на разнообразных площадках. ⚠️ Важно понимать, что нет универсального рецепта для идеального ссылочного профиля. Каждый сайт уникален, и подход к его продвижению должен быть индивидуальным.
Могут ли покупные ссылки выпадать из индекса со временем? Нужно ли мониторить время от времени индекс покупных ссылок и как это сделать?
Покупные ссылки со временем могут выпадать из индекса только в связи с ухудшением состояния сайта донора. Возможно, донором перестали заниматься, разместили слишком много арендных или вечных ссылок, начали публиковать материалы сомнительного качества, начали продавать ссылки для 18+ тематик, начали публиковать материалы 18+. Все эти факторы в совокупности могут негативно повлиять на сам сайт-донор и как следствие, некоторые его страницы начинают выпадать из индекса. На хороших сайтах страницы просто так из индекса не выпадают, они могут терять актуальность и ухудшать свои позиции в выдаче, и постепенно терять свой вес, но не выпадать из индекса. Мониторить индексацию ссылок нужно только в момент покупки. Если страница достаточно быстро зашла в индекс – значит она отлично отработает. Если, на первый взгляд, на хорошем доноре ваша статья никак не может зайти в индекс – это показатель того, либо вы ошиблись с качеством донора, либо размещаемый материал недостаточно качественный, либо не подходит для тематики площадки. 👉 Индексация ссылок мониторится различными сервисами, либо программами для компьютера, это не слишком сложная задача. Сервисов предостаточно, можете найти в поиске подходящий по цене и функционалу. Также вы можете сами проверить индекс любой страницы, просто написав site: и адрес проверяемой страницы. Подумайте еще над тем, а нужна ли вам ссылка с некачественного донора, которая выпала из индекса? Такая ссылка может отработать не в плюс, а в минус и, может быть, и хорошо, что она вообще выпала из индекса.
Лягушка не сканирует метатеги и показывает, что страницы закрыты x-robots-tag, но в индексе, если проверять страницы через site: поисковики выдают эти страницы - почему так?
Сам факт того, что страницы видны через site: оператор не означает, что страницы доступны к индексации и на них нет тега. Это лишь индикатор того, что страницы физически находятся в индексе поисковой системы и, возможно, робот еще не успел их обойти, чтобы обновить статус. 👉 Чтобы понять, в чем именно причина такой проблемы, нужно проверить: 🔸 Как видит бот эти страницы с помощью Search Console. Если X-Robots-Tag есть, то консоль это покажет. Альтернативно можно использовать онлайн-сервисы проверки HTTP-заголовков. 🔸 Сетевые логи в браузере (Network tab в DevTools) при загрузке проблемных страниц - там тоже будут видны все заголовки ответа сервера. Если по факту тега на страницах нет, но Лягушка показывает их как закрытые от индексации - это явный признак некорректной работы инструмента сканирования или неправильных настроек парсинга. 1️⃣ Различия в User-Agent: Screaming Frog по умолчанию использует свой User-Agent. Может быть такое, что сервер может отдавать разные заголовки X-Robots-Tag в зависимости от агента. Поменяйте его на User-Agent Googlebot и проверьте результат. 2️⃣ Ошибки в конфигурации: Неправильные правила в файле .htaccess или в конфигурации Nginx могут приводить к отправке неправильных заголовков X-Robots-Tag. Проверьте эти файлы на наличие ошибок и исправьте их, если необходимо. 3️⃣ Ошибки в Screaming Frog: Хотя это и менее вероятно, возможны ошибки в самом Screaming Frog. Попробуйте обновить программу до последней версии. 4️⃣ Кэширование заголовков: Может быть такое, что заголовки X-Robots-Tag закэшировались, из-за чего лягушка их видит, хотя по факту их нет. Попробуйте очистить кэш и пересканировать сайт. Если проблема не устранится и после этих манипуляций, то попробуйте сканировать сайт с настройкой follow internal «nofollow».
Когда работали с одним SEO агентством в свое время мы сделали вот что: в странице товара отметили канонической страницу категории. В этом вообще может быть какой-то смысл или лучше исправить и сделать страницу товара канонической? Справедливости ради скажу, что товар в отдельности ввиду специфики в поиске никогда не ищут, ищут именно категорию.
Такой подход, когда канонической для страницы товара указывается страница категории, может иметь определенный смысл только в очень специфических случаях. И то, скорее всего, не совсем корректный. В большинстве ситуаций мы не рекомендуем так делать. 1️⃣ Во-первых сам по себе canonical - это рекомендация, а не правило, и поисковые системы сами решают, стоит ли их придерживаться или игнорировать. 2️⃣ Во-вторых, основная цель канонических ссылок - сообщить поисковым системам, какая из нескольких похожих страниц является наиболее авторитетной и должна быть проиндексирована. Важно понимать, что страница товара и страница категории - это разные сущности с разной целью и подаваемой информацией. Страница товара содержит уникальные характеристики конкретного продукта, а страница категории объединяет несколько товаров по определенному признаку. В большинстве случаев более логичным и эффективным будет сделать страницу товара канонической для самой себя.
Какие сервисы посоветуете для отслеживания конкурентов (их ссылочного профиля например, трафика, позиций)? Если можно и платные и бесплатные.
Сервисов для отслеживания конкурентов достаточно много. Большинство сервисов предлагают примерно одинаковый функционал – отслеживание позиций, трафика, ссылочных данных. К таким сервисам относятся, например: ▫️Ahrefs; ▫️Serpstat; ▫️SemRush; ▫️SimilarWeb; ▫️Majestic; ▫️SERanking. Все эти сервисы платные, но дают большое количество информации для анализа. При этом полагаться на них на сто процентов вряд ли получится, так как все эти сервисы используют собственные базы и многие данные могут быть неполными. Но получение приблизительных данных позволит проводить качественный анализ конкурентов и находить точки роста. Также стоит отметить, что почти у всех сервисов из этого списка есть бесплатные пробные версии, чтобы потестировать результаты и разобраться с интерфейсом. Среди бесплатных сервисов стоит выделить браузерное расширение SEOquake, которое позволит получить частичную информацию о любом сайте. Необходимо повториться, что любой из сервисов, будь он платный или бесплатный, не даст однозначно точную информацию по сайту конкурента и поэтому стоит проводить максимально тщательный анализ, используя любые доступные способы.
Для внутренних ссылок на сайте nofollow — хорошо или плохо? На моём сайте главная страница плохо ранжируется, а внутренние — лучше. Я посмотрел статистику анкоров внутренних ссылок — бОльшая часть ссылается на индекс как "Главная" — сквозные ссылки из навигации. Может такие ссылки имеет смысл сделать nofollow? Сквозные ссылки типа Terms of Use, Privacy Policy нужно закрывать nofollow?
Скрывать внутренние ссылки в nofollow не самая лучшая идея. Внутренняя перелинковка – отличный инструмент естественного распределения ссылочного веса для приоритетных страниц вашего сайта. До 2016 года в Google был инструмент под названием PageRank, который показывал ссылочный вес страниц. Многие сайты получали свой естественный Rank только за счет внутренней оптимизации. Тот факт, что Google теперь не отображает этот показатель не означает, что поисковик отказался от алгоритма определения трастовости страниц на основе этого алгоритма. 👉 Причины, по которым ваши внутренние страницы лучше ранжируются, чем главная, могут быть не только в количестве внутренних ссылок на эти страницы. Пересмотрите контент страниц, подумайте над интентом запросов, убедитесь, что страницы не каннибализируют друг друга, проверьте внешнюю оптимизацию этих страниц, посмотрите на поведенческие показатели каждой страницы, проведите коммерческий аудит тематики. В конце концов – сравните свои страницы со страницами ближайших конкурентов. Возможно, ответ лежит на поверхности, вам нужно только его увидеть. И помните, главная страница обычно оптимизируется под брендовые запросы.Уделите внимание брендовым анкорам при закупке внешних ссылок и во внутренней перелинковке из контента страниц. В хлебных крошках и в меню лучше, конечно же, оставить стандартные названия «Главная». Сквозные ссылки типа Terms of Use, Privacy Policy также не рекомендуется закрывать в nofollow.
Как правильно организовать страницу фильтра на продающем сайте, если наборов фильтров очень много, стоит ли делать канонические урлы для таких страниц, чтобы как-то уменьшить число вариаций и вообще как должны быть правильно реализованы подобного рода страницы?
В первую очередь стоит продумать организацию самих фильтров и определиться, нужны ли вам они в индексе для продвижения. 👉 Фильтры чаще всего создают двумя способами: 1️⃣ Фильтрация с помощью Ajax. При реализации такого фильтра, URL страницы не меняется и страница формируется без ее перезагрузки. Такой вариант хорош тем, что не создается множество страниц, которые могут быть малоценными или дублирующимися. Однако, если вам важно продвигать страницы фильтров, то такой способ для этого не подойдет, так как фильтры не будут индексироваться. 2️⃣ Фильтрация с помощью GET-параметров. URL в данном случае динамический и меняется за счет параметров (они как правило добавляются после знака вопроса в ссылке). Такая реализация как раз позволяет продвигать необходимые страницы фильтров в поисковых системах. ➡️ Теперь, определившись с этим, необходимо оптимизировать фильтры: 🔸 Те страницы фильтров, которые для вас не важны в плане продвижения - нужно закрыть от индексации с помощью rel="noindex" или robots.txt. Таким образом, те десятки страниц, которые сгенерировались, будут недоступны в выдаче и не смогут негативно повлиять на ранжирование вашего сайта. Метатеги в данном случае используются шаблонные в зависимости от параметра фильтра, который задан на странице. 🔸 Если же какие-то из фильтров важны для продвижения, то их стоит открыть к индексации, предварительно оптимизировав: ✅ Создание четкой структуры ЧПУ-URL для страниц фильтров. Основной формат может выглядеть как как последовательно (URL: /filter/filter2), так и объединяясь между собой (URL: /filter1-filter2). Важно убедиться, что при генерации таких страниц не создаются страницы-дубли (страницы с фильтрами в разном порядке). ✅ Страница фильтров должна содержать атрибут rel="canonical", ссылаясь на саму себя, а не на страницу категорий. ✅ Необходимо создать уникальные мета-теги для фильтров. Это включает в себя Title, Description, H1-заголовки. Часто для страниц фильтров прописывают шаблонные мета с изменением пары ключевых слов. То же касается текстовых блоков. Этого бывает недостаточно, особенно если оптимизация основной категории хромает. Рекомендуем уделить внимание текстовой оптимизации и уникальности контента на таких страницах. ✅ Уделите внимание наполненности таких листингов. Важно не только, чтобы запросы, по которым продвигается фильтр, были частотными, но и чтобы страница была проработана и полезна пользователю. Если листинг будет содержать 1-2 товара или будет вовсе пустым, то он никак не сможет принести пользы сайту, а может лишь ухудшить положение в выдаче. ✅ Не забывайте о внутренней перелинковке таких страниц, и о внешнем продвижении. Для таких страниц также необходимо закупать ссылки, чтобы увеличить ее ценность и вес для ранжирования в ПС. Для особо популярных или частотных фильтров рекомендуем делать отдельные страницы. Условно для страницы фильтра с ключом «белая рубашка с коротким рукавом» лучше сделать отдельную страницу /belaya-rubashka-korotkiy-rukav. И при переключении фильтра, пользователя будет вести на такую страницу. В своей практике, для больших сайтов (около-миллионников) мы обычно открываем к индексации все страницы фильтров с комбинацией из двух-трех переменных. Конечно, предварительно проверив, что они действительно имеют частотность.
Если в выдаче ранжируется нерелевантная (нецелевая) страница, поможет ли настройка rel= canonical в данном случае ранжированию целевой?
Настройка rel= canonical может действительн, помочь в двух случаях: 1️⃣ Если нерелевантная страница действительно является дубликатом целевой страницы. То есть, на этих страницах содержится практически идентичный контент. В этом случае, установив rel=canonical на нерелевантной странице, вы указываете поисковым системам, что вся ценность должна быть передана на целевую страницу. 2️⃣ Если нерелевантная страница является вариантом целевой страницы. Например, страница с фильтрами или сортировкой. В таких случаях, rel=canonical также может помочь консолидировать авторитет и передать ценность на основную страницу. Однако, если нерелевантная страница имеет совершенно другой контент или не имеет отношения к целевой странице, то rel=canonical не поможет. В этом случае проблема скорее связана с релевантностью контента и качеством оптимизации обеих страниц. 👉 Важно понимать, что rel="canonical" — это скорее рекомендация для поисковиков, а не строгая директива. Поисковик может принять ее во внимание, а может и нет. Что может помочь в данной ситуации: ✅ Проанализируйте контент обеих страниц и убедитесь, что целевая страница, действительно, более релевантна и качественна с точки зрения ключевых фраз. Иногда помогает добавление/исправление текстовой части контента. ✅ Проверьте техническую оптимизацию целевой страницы, возможно, есть проблема с ее скоростью загрузки. Посмотрите насколько целостно воспринимается ее контент ПС, возможно, часть страницы просто не индексируется. ✅ Поработайте над внутренней перелинковкой. Убедитесь, что внутренние ссылки, которые ведут на целевую страницу имеют анкоры с вхождением ключевых запросов целевой страницы. При этом нецелевая/нерелевантная страница не должна иметь подобные анкоры. ✅ Добавьте внешние ссылки на целевую страницу с соответствующими анкорами.
Хочу выбрать CMS для интернет-магазина. Сейчас рассматриваю WP WooCommerce и OpenCart, но отзывы вызывают сомнения. Про WP говорят, что это больше платформа для блогов, а OpenCart имеет проблемы с дублированием страниц. Опять не могу определиться, может вы что-то посоветуете?
Любая CMS имеет свои проблемы, не только перечисленные вами и каждая из них будет требовать доработок. Но, в целом при выборе CMS, стоит отталкиваться от потенциального размера сайта. При прогнозируемом объеме сайта в 10-30 тыс. страниц можно выбрать любую из этих двух CMS, но WP с WooCommerce будет предпочтительнее, так как он проще и большинство базовых настроек можно сделать самостоятельно. Если же сайт планируется со значительно большим ассортиментом, то в этом случае предпочтение стоит отдать OpenCart. WordPress, действительно, изначально создавался как блоговый движок, но популярность этой CMS настолько велика, что около 40% всех сайтов в мире созданы на WordPress. Кроме того, благодаря своей гибкости и невероятной популярности, в репозитории плагинов представлено огромное количество расширений, помимо WooCommerce, которые помогут сделать качественный и SEO-friendly интернет-магазин, а также большое количество разработчиков предлагают свои услуги по "допиливанию" необходимого функционала. 👉 Что касается OpenCart, то он изначально создавался для интернет-магазинов и нужный функционал представлен сразу из коробки. Стоит отметить, что по скорости загрузки, например, OpenCart будет явно выигрывать. Но, "допиливание" функционала вам понадобится и в работе с этой CMS. Точно будет необходима настройка canonical, ЧПУ и многих других моментов, например, для создания Блога в OpenCart необходимо отдельное расширение. И работы с доработкой OpenCart обычно стоят дороже. При правильном подходе можно создать качественный и SEO-friendly интернет-магазин на любой из этих двух CMS. Все упирается лишь в бюджет, который вы готовы инвестировать в доработки того или иного функционала.
На сайте есть реклама, которая выходит спустя 5 секунд после захода. Это всплывающая реклама на весь экран. Её можно закрыть спустя 5 секунд. Не скажется ли негативно такой формат рекламы на поведенческих факторов и как следствие поисковой выдаче? Можно ли получить санкции от ПС за такой вид рекламы?
Такой формат рекламы имеет несколько серьезных негативных последствий для поведенческих факторов, соответственно, и для поисковой выдачи: 1️⃣ Во-первых отказы возрастают, высока вероятность немедленного закрытия сайта. Перекрытие контента в первые секунды существенно ухудшает первое впечатление о сайте. 2️⃣ Во-вторых снижается глубина просмотра страниц и времени на сайте. Пользователи не будут дальше ходить по сайту, если реклама мешает получить необходимую информацию. Всплывающая реклама на весь экран сразу после входа на сайт однозначно вызывает раздражение у большинства пользователей. ⚠️ Google негативно оценивает сайты с агрессивной рекламой и расценивает, как попытка манипуляции пользовательским поведением. Санкций как таковых нет, но Google может понижать в выдаче сайты, которые используют всплывающие окна и полноэкранную рекламу. 👉 Подробнее в официальном источнике Google. Исключением являются: ▫️ полноэкранные баннеры для подтверждения совершеннолетия пользователя или те, которые запрашивают разрешение на использование cookie; ▫️ формы для регистрации или отправки контактной информации владельцу сайта, содержимое которой не индексируется; ▫️ рекламные баннеры, которые перекрывают только часть страницы и их легко закрыть.
Выбираем домен для продвижения, есть несколько вариантов в разных доменных зонах. При этом все домены новые, без истории. Нужно ли выбирать обязательно домен в региональной доменной зоне или можно выбрать нейтральные/общие/специальные зоны, типа .com, .info и т.д.?
Всё зависит от типа сайта, который вы планируете продвигать. Если это небольшой региональный бизнес без планов масштабирования – выберите региональную доменную зону, она будет указывать вашим клиентам на то, что вы работаете в определенном регионе, тем самым вы будете повышать уверенность пользователей в том, что нужно перейти именно на этот сайт. Если это будет сайт компании без конкретной привязки к региону – выберите зону .com, её используют для таких целей чаще всего. Если это будет информационный сайт – можете брать зону .info. При этом, информационные сайты нормально живут и на .com и на .org.
Есть сайт с услугами дополнительного профессионального образования. Хотим сделать на каждый регион отдельный сайт. Как лучше и правильнее делать? Регистрировать поддомены, но в таком случае на каждом поддомене должен быть уникальный контент, если я правильно понимаю. Либо лучше делать по папкам site.сom/городN и т.д. Подскажите как делать правильно.
На самом деле, нет точного ответа, что лучше внедрять - подпапки или поддомены. Решение зависит от многих факторов: какой тип сайтов находится в ТОПе выдачи, ваши ресурсы (как финансовые, так и человеческие), возможность сделать уникальным контент для каждого региона и наличие региональных представительств/филиалов в разных городах или странах. 👉 Оба подхода имеют свои особенности и влияют на SEO по-разному. 1️⃣ Поддомены: в данном случае каждый поддомен рассматривается поисковыми системами как отдельный сайт, что позволяет точно нацеливать контент на конкретный регион (более четкое geo-разделение). Но к недостаткам можно отнести то, что из-за этого потребуется отдельное продвижение и наращивание ссылочной массы для каждого поддомена, а также создание уникального контента для каждого региона, чтобы избежать дублирования. Это в свою очередь увеличивает финансовые и трудовые затраты. 2️⃣ Подпапки: это решение технически легче реализовать и администрировать, особенно при небольшом количестве регионов. Все разделы в таком случае находятся в рамках основного домена, что упрощает управление и позволяет наследовать авторитет основного сайта. Из недостатков лишь то, что подпапки предусматривают меньшую гибкость в настройке под специфические особенности каждого региона. ⚠️ Независимо от выбранной вами структуры, важно обеспечивать уникальный контент для каждого региона. Это включает в себя информацию об услугах, ценах, контактных данных и отзывах клиентов.
Краулер выдал список страниц с 404 ошибкой. Возникли следующие вопросы: как я могу узнать попали они в индекс или нет? Как правильно удалить их с сайта? Может можно оставить как есть и ничего не делать, ПС критично реагирует на страницы 404?
Чтобы проверить, находятся ли страницы с ошибкой 404 в индексе поисковых систем воспользуйтесь: 🔸Google Search Console (GSC). Здесь вы можете в ручном режиме проверить необходимый URL на индексацию при помощи инструмента Проверка URL. 🔸Командой site: в поисковике. Введите в поисковую строку site:домен/404-страница. Если в результатах поиска искомая страница представлена, значит, она в индексе. Причинами, по которым такие страницы могут попадать в индекс это внутренние или внешние ссылки. 💡Поэтому для правильного удаления страниц с кодом 404, необходимо: ✅ Для страниц, у которых есть внешние ссылки, стоит настроить 301 редирект на близкие по смыслу страницы. ✅ Для страниц, на которые проставлены внутренние ссылки, нужно либо их удалить, либо изменить конечный адрес на работающий. Также стоит проверить, нет ли страниц с кодом 404 в карте сайта xml. Если страницы присутствуют, то карту сайту нужно обновить. Что касается реакции поисковых систем на 404 ошибки на сайте. Если таковых ошибок на сайте не очень много, то ПС к такому относятся лояльно. Если же динамика появления 404 страниц будет стремительно расти, то сайт может получить снижение рейтинга в глазах ПС.
Есть сайт с десятком миллионов страниц. Понятно, что для всех страниц ссылок не купишь и равномерно их как-то не распределишь. Как покупать ссылки в этом случае, если страницы создаются и продвигаются под НЧ запросы?
Любая ссылочная стратегия требует индивидуального подхода к каждому сайту. Можем дать лишь общие советы. Для больших сайтов мы рекомендуем разделить страницы на тематические группы. Для каждой группы необходимо разработать отдельную стратегию линкбилдинга, учитывая специфику запросов и целевой аудитории. Однако тут без большого бюджета никак не обойтись. 👉 Далее необходимо оценить потенциал ваших разделов сайта. Очень многое зависит от вашей тематики и региональности. Так, если у вас коммерческий сайт, то в большинстве случаев необходимо в первую очередь прокачивать ссылками приоритетные категории. Если сайт информационный, то стоит в приоритете прокачивать страницы с высоким потенциалом, которые могут принести наибольшее количество трафика. Позаботьтесь о качественной внутренней перелинковке, чтоб с ваших приоритетных страниц вес распределялся по множеству других менее значимых, но все еще важных страницах сайта. ⚠️ Само собой доноры должны быть тематически близки к вашим страницам. Обращайте внимание на авторитетность донора, его возраст, индексацию в поисковых системах. Наиболее качественные доноры используйте для самых приоритетных страниц, тогда как для остальных страниц можно использовать площадки подешевле. Не стесняйтесь использовать и многоуровневые ссылки для прокачки ваших основных доноров для наиболее приоритетных страниц. Используйте анкоры с прямым вхождением ваших основных запросов на приоритетных страницах для самых качественных доноров. Под НЧ запросы можно использовать площадки попроще. Кроме того, анкоры под НЧ запросы можно разбавлять дополнительными словами, разрывая ваши ключи. И для миллиоников крайне важно прокачивать брендовые запросы. При этом помните, если качественный сайт с десятком миллионов страниц хорошо оптимизирован, и вследствие имеет хорошую видимость и прокачанный бренд, то значительная часть ссылок будет появляться естественным образом. Поэтому сначала работаете на свой бренд, а затем бренд начнет работать на вас 🙂
Могут ли отличаться позиции сайта в мобильной выдаче и в десктопной? Почему так происходит? И как проверить позиции сайта в мобильной выдаче?
Да, Google использует немного отличающиеся алгоритмы ранжирования для мобильных и десктопных устройств и это приводит к тому, что поисковик по разному оценивает страницы. И позиции сайта в мобильной поисковой выдаче могут заметно отличаться от позиций в десктопной версии. Все это связано с тем, что поведение юзеров и их потребности отличаются в зависимости от устройства, на котором они взаимодействуют с сайтом. 🔸 Мобильные пользователи быстрее покидают сайт, если страница грузится медленно, ссылки и кнопки неудобно нажимать, шрифт слишком мелкий. Соответственно, высокий показатель отказов или низкое время на сайте могут привести к снижению позиций в мобильном поиске. При этом на десктопной версии сайта юзабилити может быть вполне удобным, что позволит лучше ранжироваться сайту с ПК выдачи. 🔸 Для мобильных пользователей Google более чувствителен к локальной выдаче, ведь с телефоном юзер чаще меняет свое геоположение и алгоритмы стараются чуть более чувствительно подстраивать результаты с учетом геолокации. Соответственно, мобильная выдача может быть сильнее персонализирована и отличаться от десктопной. Многие инструменты для мониторинга позиций имеют функцию проверки результатов для разных устройств. Можете настроить отдельный проект для мобильных позиций и отслеживать динамику по ключевым запросам. 💡 Также можете воспользоваться Google Search Console. Хотя GSC прямо не показывает вам “позиции мобильной выдачи” в чистом виде, вы можете отфильтровать результаты в разделе "Эффективность" по устройству (мобильные) и оценить среднюю позицию и CTR по мобильным запросам. Это позволит определить, насколько ваши позиции отличаются на мобильных устройствах по сравнению с десктопом.
Как часто нужно проводить ссылочный аудит конкурентов? И как часто нужно проводить чистку своего профиля от спамных ссылок?
Мы часто пишем, что для каждого сайта необходим индивидуальный подход. В данном случае все точно также, ведь то, насколько часто надо делать ссылочный аудит зависит от ваших целей, размера сайта, его тематики, региональности, конкуренции и т.п.. Если очень усреднить, то по нашему опыту ссылочный аудит желательно проводить каждые 3 месяца, чтобы обновить ссылочную стратегию. ⚠️ Также внеплановые ссылочные аудиты стоит проводить: 🔸При кор-обновлениях ПС; 🔸При проседании позиций Вашего сайта; 🔸При обновлениях бюджета на ссылочную оптимизацию. Точно также и с чисткой ссылочного профиля от спамных ссылок. Всё зависит от сайта, крупные порталы заспамят некачественными ссылками гораздо быстрее, чем нишевые региональные сайты. Если ссылочный профиль вашего сайта насчитывает тысячи доменов доноров – проводите проверку раз в пол года. Если у вашего сайта 200-500 доменов доноров – одноразовой проверки будет достаточно. Опять же, наличие спамных ссылок – это не гарантия того, что поисковая система выкинет вас из выдачи, просто нужно следить за тем, чтобы процент таких ссылок не превалировал по сравнению с качественными донорами. И также, как и с ссылочным аудитом, если сильно усреднить, то мы бы рекомендовали чистить профиль от спамных ссылок раз в 3 месяца, как раз сразу после аудита.
В ИМ планирую генерировать страницы по брендам, но по какой-то технической причине программист не может эти страницы выводить в sitemap. Предложил выводить сгенерированные страницы в отдельный sitemap, будет ли это ошибкой или лучше все-таки добавить сгенерированные страницы в основной sitemap?
Вывод сгенерированных страниц в отдельный Sitemap не будет считаться ошибкой, это вполне рабочее решение, особенно если оно упрощает управление страницами. Такая практика часто наблюдается у крупных ИМ или новостных сайтов, когда на сайте тысячи страниц. Отдельный файл может быть полезен для разделения структуры сайта, если основной Sitemap уже сильно нагружен или если нужно четко отделить сгенерированные страницы от основных. Чтобы избежать проблем, необходимо обязательно создать файл индекса Sitemap для создания группы из нескольких файлов Sitemap, чтобы поисковые системы смогли их обнаружить. Также стоит отправить их в Google Search Console для контроля индексации карт.
Кaкими сервисaми пользуетесь или кaк определяете переспaм и нехвaтку ключевых слов нa стрaнице?
Как такового переспама сейчас по Google практически нет. Поисковая система больше не полагается на частоту использования ключевых слов для понимания содержимого страницы. Вместо этого Google использует расширенные системы анализа и поиска информации, которые отдают приоритет качеству вашего контента, а не количеству повторений ключевого слова. Только умышленное злоупотребление ключевыми словами, действительно, влияет на ранжирование, при этом сам текст должен выглядеть неестественным. ⚠️ Чтобы ваш текст был не перенасыщен ключевыми словами и выглядел естественно, придерживайтесь таких рекомендаций: ✅ Используйте основное ключевое слово (или его близкий вариант) в заметных местах на странице (Title, Description, H1). ✅ Пишите свой контент естественно, и ваше ключевое слово, LSI ключи, синонимы и вариации будут естественным образом включены. ✅ Не полагайтесь на показатели количества ключевых слов на странице, а лучше сосредоточьтесь на написании высококачественного контента, который представляет ценность для читателей. Используйте вхождения в естественном виде в тексте и подзаголовках столько раз, сколько это будет необходимо для нормального читабельного и информативного текста. ✅ Упущенные ключи (упущенную семантику) можно поискать с помощью GSC, проанализировав ключи, по которым у страницы есть показы, но нет кликов и, соответственно, прямых вхождений в текстовом контенте. 💡 Также упущенную семантику нам помогают найти: Serpstat Ahrefs Если вам все же необходимы сервисы, которые показывают условный переспам и помогут исследовать контент и ключевые слова на странице, можем порекомендовать следующие: SEOquake расширение для Chrome SurferSEO расширение для Chrome CognitiveSEO Copywritely
Как ПС относятся к наличию исходящих ссылок на казино (или другие подобные тематики), если сайт-донор белой тематики? Можно ли ссылаться на такие сайты и что можно получить за такие исходящие ссылки от Google? К примеру, у донора куча классных входящих ссылок с ТОПовых ресурсов, но есть и много исходящих на казино.
Тематики, которые нелегальны или имеют какие-то ограничения, например, возрастные, законодательные и иные, поисковые системы умеют различать. И существует вероятность, что доноры с такими ссылками получают определенного рода пометку. Эта пометка занижает общую ценность сайта в качестве ссылочного донора для других тематик не относящихся, например, к казино. Ссылки с такого сайта будут давать эффект в продвижении, но он будет несколько ниже, чем с сайта, у которого такой пометки нет. 👉 Можно с уверенностью говорить о том, что прямого вреда со стороны поисковых систем сайт не получит за наличие ссылок на такие сайты, но это однозначно будет иметь некоторые последствия для репутации донора. Если есть возможность, то лучше не ссылаться на сайты с тематиками, подпадающими под любые ограничения.
Появилось очень много ссылок с одинаковым текстом и одинаковыми анкорами. Анкоры тематичные, но таких ссылок уже больше 50%. Учитываются ли они и нужно ли их начинать отклонять? Или лучше заняться покупкой нормальных ссылок?
Все ссылки, которые появляются в отчетах поисковых систем учитываются при составлении рейтинга внешней оптимизации сайта. Ссылки могут быть плохими, могут быть хорошими, но все они влияют в некоторой степени на ранжирование вашего сайта. 👉 Главным критерием того, нужно ли отклонять такие ссылки является показатель посещаемости и средняя позициям сайта по запросам. Если позиции и трафик на сайте никак не поменялись – можете на текущем этапе ничего не предпринимать. Если вы видите, что у вашего сайта увеличивается количество внешних ссылок, но вы их не закупали, подумайте, кто и с какой целью может это делать? Мы иногда наблюдали такую ситуацию, когда при детальном рассмотрении новых внешних ссылок оказывалось, что это таким образом прогонщики по различным базам рекламируют свои услуги, мол посмотрите, мы насыпали вам ссылок и можем еще. В этом случае ваш сайт пару раз прогнали по базам и забудут про него. В корне ситуация меняется, если ваш сайт регулярно прогоняют по базам самых некачественных доноров, чаще всего эти доноры находятся в бурж сегменте, на сайтах тематики 18+ или на сайтах с иероглифами. Количество таких ссылок насчитывает десятки тысяч. С таких сайтов ссылки желательно отклонять сразу. ⚠️ У поисковых систем нет «неприязни» к плохим ссылкам, важно, чтобы их процент не набрал критической массы. Какая величина этого критического объема «плохих» ссылок – никто не знает. Ну и, конечно же, вы можете закупать «хорошие ссылки», чтобы таким образом уменьшать в процентном соотношении количество «плохих ссылок».
Есть сайт, который прекращаем поддерживать, но он хороший по SEO-метрикам. Будет ли профит, если его склеить с другим сайтом? Сработает ли это как склейка дропа? И как правильно клеить? Все страницы на главную или можно на похожую категорию?
При правильной склейке сайт с хорошей видимостью и ссылочным профилем может действительно принести существенный профит. Технически механика склейки схожа с подклейкой дроп-домена, но в вашем случае преимущества выше, поскольку речь идет о ресурсе с подтвержденной активностью и историей. Главное – максимально бережно перенести контент, сохраняя логику старой структуры сайта. Нельзя просто свалить все страницы на главную, это снизит качество склейки. 💡 Оптимальным вариантом будет настраивать 301-редиректы, чтобы перенаправлять страницы старого сайта не просто на главную страницу нового сайта, а на соответствующие категории или аналогичные по содержанию страницы. Если перенаправление на релевантные страницы невозможно, можно направить трафик на схожую по содержанию страницу или в крайнем случае на главную страницу нового сайта. Однако это считается менее предпочтительным решением, так как выглядит неестественно в глазах поисковиков. Учитывайте, что при склейке есть и определенные риски - возможное временное падение позиций, потеря части ссылочного веса. Поэтому наблюдайте за поведением сайта после переноса, чтобы своевременно корректировать стратегию в случае возникновения непредвиденных проблем.
Ориентируемся на Google и заметили в последнее время, что трафик из конкретного региона (страны) портит все ПФ нам. Время на сайте у юзеров из этого региона - меньше 10 секунд обычно. Подскажите, критичны ли такие заходы и если да, то как заблокировать пользователей из этой страны?
Поведенческие факторы действительно имеют довольно важную роль в ранжировании сайтов в Google. Низкое время на сайте, особенно если оно характерно для пользователей из определенного региона, может показывать, что с сайтом что-то не то и некоторым образом влиять на общую оценку вашего ресурса. Однако не стоит переоценивать влияние ПФ в Google. В отличие от других не очень качественных ПС, в Google ПФ хоть и имеют важное значение, однако не является ключевым фактором ранжирования. 👉 Все же мы бы рекомендовали для начала разобраться в причинах таких некачественных заходов на сайт с определенного региона. ✅ Контент вашего сайта может быть не адаптирован под интересы пользователей из данного региона. ✅ Медленная загрузка страниц, ошибки 404, некорректная адаптация под мобильные устройства могут отпугивать пользователей. ✅ Возможно, в этом регионе у вас очень сильные конкуренты, сайты которых предлагают более релевантный и качественный контент. ✅ И наконец, возможно, данные действия совершаются специально ботами, которые имитируют людей, которые настроены вашими конкурентами в этом регионе. В любом случае не спешите блокировать пользователей из проблемного региона. Если проблема не в сайте, то таким образом, вы заблокируете и заходы реальных юзеров с хорошими ПФ. 💡 Если вы действительно подвергаетесь атаке ботов, то попробуйте настроить Cloudflare или подобный сервис для ограничения заходов подозрительных юзеров. Да и в целом в большинстве случаев Google неплохо определяет ботовое поведение и перестанет со временем учитывать их влияние на сайт.
Есть вопрос по кластеру главной страницы интернет-магазинов, которые продают: роллеты, ворота, шлагбаумы и автоматику для ворот. Как по мне, это разные кластеры и они не годятся для главной. Анализ конкурентов не показал ничего интересного, т.е. ребята ведут общую семантику (роллеты, ворота, шлагбаумы и автоматику для ворот) на главную страницу. Как правильно собрать и кластеризировать запросы на главные страницы? Ориентироваться на конкурентов или все таки в этом случае нужно подобрать какую-то более общую семантику?
Очень важно оптимизировать главную страницу под брендовые запросы с привязкой к тем ключам, которые максимально полно описывают сферу деятельности компании и при этом имеют высокую частотность. Главная страница – самая авторитетная на сайте и брендовый трафик предпочтительнее вести именно на нее. При этом описываемый вами случай – это яркий пример того, когда единого слова/слов или фразы, которые могли бы охарактеризовать данную тематику в целом не существует и поэтому именно перечисленные запросы стоит использовать для главной страницы.
Я правильно понимаю: главное, чтобы ссылка была в индексе, чтобы Google считал её рабочей? Или нужно анализировать ещё какие-то факторы? Как понять, что ссылка сработает?
Если речь идет о внешних ссылках, то в первую очередь, конечно же, страница с вашей ссылкой должна быть в индексе. Поисковая система будет учитывать только те ссылки, которые ей известны, соответственно, если страница не в индексе, то и ссылка с этой страницы не учитывается. 👉 Есть небольшой лайвхак по оценке доноров ссылок - проверьте, как быстро индексируются другие рекламные материалы на этом сайте. Сайт может иметь отличные показатели пузомерок с того же ahrefs, но при этом рекламные материалы могут не индексироваться неделями, такой донор лучше не использовать для размещения ссылок. Передаваемый траст сильно зависит от самой тематики и региональности донора, внутренней страницы донора, и места размещения ссылки на самой странице. С главной страницы вы будете передавать кратно больше траста, чем с обычной страницы, которая находится в нескольких кликах от главной. Кроме того, проверяйте спамность площадки, ее посещаемость и насколько хорошо организована внутренняя перелинковка. ⚠️ К сожалению, заранее предсказать, насколько успешной будет внешняя ссылка нельзя. Подбирая потенциальных доноров по разным параметрам мы лишь увеличиваем наши шансы на срабатывание ссылки. Единственный действительно объективный критерий оценки ссылок, которые «работают» – это их эффективность. Следите за динамикой ваших страниц акцепторов, а особенно по запросам, которые вы использовали, как анкоры на сайтах-донорах. Если динамики нет – скорее всего, ваша ссылка не сработала как надо.
Как увеличить ранжирование НЧ запросов в трафике?
При продвижении НЧ запросов сосредоточьтесь на прямых вхождениях таких ключей в заголовках h2 и ниже, в названиях таблиц и списков, в альтах изображений и т.п. Если высокочастотные запросы предполагают широкий, обзорный контент, то НЧ требуют максимально глубокой экспертизы и детального раскрытия темы. Речь идет о контенте, который не просто отвечает на вопрос, а исчерпывающе раскрывает тему, учитывая самые тонкие нюансы. 👉 Цель таких запросов - привлечь более узкую, но при этом максимально заинтересованную аудиторию. Трафик с таких запросов обладает высоким потенциалом конверсии, так как пользователи имеют четкий и узко-специфический информационный или потребительский запрос. В остальном же при оптимизации низкочастотных (НЧ) запросов важно понимать, что принципиальных различий в SEO-продвижении между частотностями практически нет. Качественный контент, техническая оптимизация и пользовательский опыт одинаково важны для высокочастотных, среднечастотных и низкочастотных запросов.
Недавно столкнулась с такой проблемой: на сайте резко упала скорость загрузки на многих страницах, сразу же подумала, что что-то с сервером. Написала в тех.поддержку хостера, они ответили так: «Анализ логов за указанный период показал множественные обращения к сайту со стороны поисковых ботов google. В данном случае рекомендуется обратиться к разработчику по вопросу тонкой настройки файла robots.txt (необходимо ограничить количество обращений в единицу времени)». Есть ли смысл выполнять данную рекомендацию, поскольку раньше сервер выдерживал большое количество обращений ботов?
Рекомендации вашего хостинга могут быть не совсем корректными. Если ранее сервер справлялся с нагрузкой от поисковых ботов, а сейчас возникли проблемы со скоростью загрузки, то, конечно, есть вероятность, количество запросов со стороны разных ботов значительно увеличилось. Это может быть связано с различными факторами: 🔸 Google может более активно индексировать ваш сайт из-за обновлений алгоритмов или повышения вашей релевантности по определенным запросам. 🔸 Возможно, на сайте появились ошибки или неэффективные элементы, которые увеличивают время обработки каждого запроса. 🔸 Временное увеличение нагрузки на сервер из-за других сайтов, размещенных на том же хостинге. 👉 В первую очередь необходимо докопаться до реальных причин снижения скорости загрузки страниц сайта. 1️⃣ Тщательно изучите логи сайта, убедитесь, что проблема действительно в поисковых ботах Google, а не во внешней атаке на ваш сервер. Иногда такой ерундой занимаются конкуренты, чтобы сделать сайт временно недоступным. 2️⃣ Проведите анализ скорости загрузки проблемных страниц вашего сайта, изучите GSC, откройте страницы с помощью инструментов для разработчика и посмотрите, что именно больше всего грузит вашу страницу. Альтернативно можно воспользоваться инструментом PageSpeed. При этом, по нашему опыту директива Crawl-Delay в файле robots.txt очень часто игнорируется ботами Google, а потому вряд ли поможет. А выяснив реальные причины, вы сможете предпринять адекватные меры реагирования: ✅ Защитится от атак ботов можно, например, с помощью Cloudflare. ✅ Улучшить скорость загрузки на самих страницах сайта можно с помощью оптимизации отдельных элементов, которые имеют наибольшие проблемы (оптимизация изображений, использование Lazy Load, оптимизация скриптов и стилей, использование кєширования и т.п.). ✅ Возможно, стоит подключить CDN (Content Delivery Network) для распределения нагрузки на несколько серверов.
Расскажите про вхождение названия категории в заголовок товара. Правильно его указывать или нет? Учитывает ли поисковая система его как остальной текстовый контент на странице? Можно ли получить пессимизацию листинга товаров по этой причине? С одной стороны мы создаём наиболее полноценный h1 в карточке товара, с другой создаём переспам на странице категории.
В своей практике продвижения в Google мы давно не замечали пессимизации листингов за спам названия категории в заголовках товаров. Руководствуйтесь простым принципом - насколько уместно и естественно в заголовках ваших продуктов будут звучать названия категории. В большинстве ситуаций включение названия категории в заголовок товара поможет указать на контекст, особенно если сам товар имеет общее название и может быть полезно пользователю. 👉 Пример удачного использования названия категории в заголовок товара: «Зарядная станция Bluetti AC70P». Однако, существует ряд тематик, где подобные вхождения лишь растянут заголовок и не принесут никакой пользы, например, медицинская тематика аптек: «Абилифай: инструкция + цена в аптеках». То, что это лекарство находится в категории нейролептических средств указывать не уместно в заголовке. Также не корректно добавлять названия категории в заголовок товара, когда сам товар не имеет привязки к определенной одной категории и может однозначно присутствовать сразу в нескольких разделах. Например, «Обои Zambaiti Parati Lamborghini 9040». Ведь такие обои могут сразу и в категории Виниловых, и в категории Для спальни, и других. ⚠️ Однако важно соблюдать баланс: заголовок должен быть информативным, но не перегруженным ключевыми словами.
Абсолютно левые .xml ссылки показывает search.google как "Не найдено (404)". Таких файлов физически нет на сайте в данной папке. Что это может быть? Опасны ли такие ссылки для сайта?
Помимо того, что таких файлов с такими названиями нет физически на вашем сайте, не значит, что их не может быть в принципе. CMS сайтов иногда генерируют тысячи ссылок разных форматов, о которых вы можете и не знать. Такие ссылки также могут генерировать дополнительные плагины в CMS, вы могли где-либо поставить галочку в плагине и теперь он выполняет дополнительную функцию, которая требует генерации подобных ссылок. В идеале вам, конечно, нужно отловить ошибку, в результате которой эти ссылки появляются. 👉 Для этого вам нужно: 🔸 детально изучить исходный код сайта, возможно вы найдете их там; 🔸 прокликайте весь функционал на сайте, особое внимание обращайте на различные функции фильтрации и модификации внешнего вида страниц; 🔸проверьте файл карты сайта; 🔸 проверьте эту ссылку через GSC, в детальном анализе есть пункт, в котором указывается источник полученной ссылки; 🔸 проверьте внешние ссылки вашего сайта, возможно, какие-либо сайты ссылаются на ваш сайт при помощи этих кривых ссылок. Сами по себе 404 ошибки на никогда не существующие страницы не несут большого вреда для сайта, если динамика их появления не станет критической. Однако условно, если в один день 50% ссылок станут отвечать 404 кодом – поисковая система может решить, что у сайта проблемы и понизить его видимость в выдаче. Самое главное следить за тем, чтобы продвигаемые страницы, которые дают трафик – не стали отвечать 404 кодом.
Сайт коммерческий по продаже новостроек. Имеет ли смысл заняться публикацией новостей, связанных с тематикой недвижимости? Если стоит, то в каком месте это делать (отдельный поддомен, или просто раздел), а ещё важно как это проще всего сделать при ограниченном бюджете? По сути вся пища для публикаций это уже опубликованные новости с других источников.
Публикация новостей на сайте - это отличный вариант привлечения новых клиентов. Новости помогают создавать ощущение, что вы в теме, что ваш сайт живёт и развивается. Это не только укрепляет доверие к вашему ресурсу, но и может помочь привлечь дополнительный трафик из поисковых систем. 💡 При ограниченном бюджете размещать новости проще всего прямо на основном сайте, в отдельном разделе. Поддомен сложнее в продвижении и требует много ресурсов, так как поисковики будут считать его отдельным ресурсом. Очень часто, в ряде регионов, чтобы стабильно попадать в ленту в Google Новостей, отдельный новостной поддомен может быть эффективнее. Это связано с тем, что требования к коммерческим и новостным сайтам у Google значительно отличаются. И более специализированный сайт будет иметь преимущества, чем смешанный. Но продвигать новостник отдельно от коммерческого будет в разы затратнее, так как по сути это будет прям отдельный проект для которого необходимы отдельные бюджеты. 👉 Для наполнения новостного раздела не обязательно постоянно писать что-то уникальное с нуля. Можете периодически брать уже опубликованные новости с других ресурсов, но обязательно переписывайте их, чтобы сделать вашу публикацию уникальной. Вы можете добавлять свои комментарии, делать акценты на аспектах, которые интересны вашей аудитории, или адаптировать материал под ваш регион. Не забывайте и про фото- и видеоматериалы. Даже к перепечатанным новостям можно добавлять инфографику, собственные иллюстрации или короткие аналитические видео, что существенно повысит ценность материала. ⚠️ Важный момент - регулярность публикаций. Старайтесь выкладывать новости не реже 2-3 раз в неделю. Это позволит поддерживать интерес аудитории и улучшать позиции сайта в поиске.
Подскажите, насколько важна метрика LCP? Как она считается и как исправляется ее значение?
Метрика LCP действительно является одной из самых важных в скорости загрузки страниц сайта. Данная метрика показывает, насколько быстро прогружается основной контент страницы на экране пользователя. Под основным контентом имеется в виду контент, который имеет отношение к пользовательскому опыту: изображения, стили, текстовые элементы, видео и т.п. ⚠️ На LCP влияют такие факторы: ▫️время ответа сервера; ▫️блокирующие рендеринг JavaScript и CSS; ▫️время загрузки ресурса; ▫️рендеринг на стороне клиента. 💡 Улучшить LCP метрику можно с помощью: ✅ Оптимизации загрузки основного контента. Проверьте, какие элементы на вашей странице являются самыми большими по размеру и требуют больше времени для загрузки. Оптимизируйте эти элементы, уменьшив их размер или используя сжатие. ✅ Оптимизации изображений. Изображения, которые много весят можно сжать, или залить их в другом формате. Также, стоит использовать lazy loading (постепенную подгрузку). ✅ Оптимизации серверной конфигурации. Чем быстрее браузер получает контент с сервера, тем быстрее загрузка страницы и тем лучше показатель LCP. Используйте CDN, кэшируйте страницы или попробуйте сервис-воркеры. Используйте асинхронную загрузку контента. Разделите свой контент на разные части и загружайте его асинхронно, чтобы сначала отобразить на экране самую важную часть. Таким образом, пользователи смогут увидеть содержимое страницы быстрее, даже если другие элементы еще загружаются. ✅ Оптимизации CSS и JavaScript. Избегайте блокировки рендеринга страницы длинным и сложным CSS или JavaScript кодом. Убедитесь, что ваш код оптимизирован и минимизирован, и загружайте скрипты асинхронно. Также можно убрать неиспользуемые CSS и Java скрипты со страниц, где он не нужен.
Если нашел несколько хороших дропов по тематике из них лучше сразу свою сеть строить или просто подклеить к своему сайту? Все дропы проверил, они не сильно старые все, но зато чистые, без фильтров и с нормальным ссылочным.
Оба варианта могут дать положительный эффект для сайта, но все зависит от того, насколько большой бюджет вы готовы инвестировать. Так, например, чтобы PBN-сетка дала нужный результат для продвигаемого сайта, необходимо заниматься развитием каждого сайта, находящегося в этой сети. Это предусматривает под собой финансовые затраты на: 🔸контент; 🔸внешние ссылки; 🔸внешние отзывы; 🔸развитие связанных с сайтом социальных сетей (если их нет, то их нужно будет создать); 🔸функционал, который будет полезен пользователям. 👉 Помимо финансовых затрат, необходимо затрачивать и время на работу с сайтом: 🔸публикация материалов; 🔸внутренняя перелинковка; 🔸оптимизация; 🔸подбор ссылочных доноров. При подклейке дропа к сайту, таких затрат не потребуется. Причем как финансовых, так и физических. Необходимо восстановить сайт и весь его контент, затем дать ему проиндексироваться и дождаться кликов из поиска. Только после этого стоит переходить к подклейке бывшего дропа к вашему сайту. При правильном подходе результат будет сильнее от первого варианта с развитием и построением сети. Но и второй вариант, при большом трасте дропа может дать весомый буст ряду целевых запросов, по которым он хорошо ранжировался. Стоит оценить возможные инвестиции и на основе этого принимать решения.
Есть десктопная и мобильная версия сайта. Они обе по одинаковому адресу, движок отдает нужную версию, в зависимости от юзер-агента. Также есть кнопка переключения версий. Так вот, заметил что Google сканирует сайт только мобильным ботом, в логах десктопного бота вообще нет. Имеет ли смысл отдавать боту гугла десктопную версию принудительно? Мобильная версия имеет меньший функционал и контентное заполнение.
Проблема индексации только мобильной версии сайта может быть связана с тем, что ваш движок, возможно, слишком агрессивно определяет ботов как мобильных, что приводит к постоянному перенаправлению на мобильную версию. Но в целом это правда, что Google больше фокусируется на мобильном поиске, поэтому мобильные боты получают приоритет в сканировании. И если мобильная версия вашего сайта менее функциональна или содержит меньше контента, это, действительно, может негативно повлиять на ранжирование. Проверьте, как Googlebot видит ваш сайт через "Инструмент проверки URL" в Google Search Console, убедитесь, что действительно Google не видит весь десктопный контент. 💡 Если Google действительно не видит весь контент сайта, который представлен в десктопном варианте, то мы рекомендуем такие варианты: ✅ Привести мобильную версию в соответствие с десктопной по контенту и функционалу ✅ Если по каким-то причинам нет возможности обеспечить полный контент в мобильной версии, можно рассмотреть внедрение адаптивного дизайна вместо отдельной мобильной версии. Если вы решите временно отдавать десктопную версию, убедитесь, что это не повлияет на сканирование мобильной версии. Принудительная передача десктопной версии - это временная мера. Лучше сфокусируйтесь на улучшении мобильной версии, Google важно видеть тот же контент, который видят пользователи на их устройствах.
Влияют ли водные знаки на фото на ранжирование страниц сайта и самих фото в поиске?
На ранжирование фотографий и страниц сайта водяные знаки оказывают не такое большое влияние, как может показаться. Главная задача таких знаков - защита контента от воровства. Если говорить о ранжировании самих фотографий, то небольшие водяные знаки практически не влияют на их позиции в поиске. Проблемы могут возникнуть только если водяной знак слишком крупный и существенно мешает восприятию основного содержания фотографии. 👉 Представитель Google Гэри Илш сообщал, что ранжирование зависит в том числе и от точности контента. То есть, если картинка не перегружена водяными знаками, то ранжироваться она будет не ниже, чем аналогичное изображение без водяного знака. Что касается влияния на позиции страниц сайта в целом, то наличие водяных знаков на фотографиях не является прямым фактором ранжирования. Гораздо важнее правильно оформлять технические аспекты: использовать информативные alt-ы, давать нормальные названия файлам и следить за оптимизацией размера изображений. Если водяные знаки не ухудшают общий пользовательский опыт на сайте, они никак не повлияют на его позиции в поисковой выдаче. ⚠️ Важно! Если вы добавляете изображения с водяными знаками, то убедитесь, что они соответствуют вашему бренду. Не стоит размещать на сайте "магазина1" изображения с водяным знаком “магазин2”. Это некорректно и явно показывает, что картинки неуникальные.
На сайте имеется страница с полезными ссылками по тематике сайта. Там в основном ссылки на гос.организации, банки несколько новостных ресурсов. Как лучше оформлять такие исходящие ссылки? Нужно ли ставить на них nofollow?
Мы считаем, что естественные, полезные исходящие ссылки на авторитетные ресурсы не надо никак закрывать. Они, как и входящие, повышают качество сайта в глазах поисковых систем. Также исходящие ссылки помогают алгоритмам понять нишу вашего сайта. Дополнительно линки на релевантные и авторитетные домены положительно влияют на ваш рейтинг. ✅ Исходящие ссылки должны быть естественными – не рекомендуем ставить ссылку на листинге на Википедию, только потому, что это Википедия. ✅ Используйте подходящий анкорный текст для своих исходящих ссылок. В своих рекомендациях по ссылкам Google говорит о том, что анкорный текст должен описывать то, что находится на странице по ссылке. ✅ Также рекомендуем делать ссылки на другой ресурс открывающимися в новой вкладке. ✅ Сайт/страница, на который ведёт ссылка, должен быть авторитетным и релевантным запросу.
Как лучше оформить страницу «Контактов» при наличии нескольких представительств в разных городах? Например, варианты, которые рассматриваем: а) указать их в рамках одной страницы друг под другом; б) сделать скриптовый свитч-переключатель (вкладки) внутри страницы; в) сделать отдельные страницы контактов под каждый регион.
На странице “Контактов” необходимо разместить всю необходимую информацию (адреса, карту, рабочие часы, каналы связи) чтобы это видели боты ПС и, чтобы было удобно для пользователей. Если в предложенных вами вариантах все основные моменты учтены, то по большому счету, не важно какой именно способ вы выберете. Каждый из вариантов имеет право быть. ⚠️ Каждый из этих вариантов оформления страницы “Контактов” имеет свои преимущества и недостатки: 🔸Вариант а) Удобно, что можно быстро увидеть все представительства, и не нужно переходить по другим страницам. С другой стороны, если представительств много, страница может стать слишком длинной и неудобной для восприятия. А на мобильных устройствах долгий скроллинг может иногда раздражать пользователей. 🔸Вариант б) Экономит место на странице, делая интерфейс более аккуратным и приятным. Но при этом важно, чтобы переключатель работал быстро и корректно. Также следите, чтоб вся информация на странице правильно индексировалась ПС. 🔸Вариант в) Каждая страница может быть оптимизирована под запросы конкретного города. Также можно указать более подробную информацию: местные особенности, карту, фото офиса, рабочие часы и др. Единственный минус это может сложность в навигации. Структура должна быть такая, чтобы пользователи смогли быстро найти нужный город.
Какие есть правила или принципы использования схемы меток schema markup, чтобы от них был толк?
Чтобы от микроразметки schema был толк, необходимо следовать простым правилам. Например, используйте рекомендации Google по структурированным данным, которым важно следовать, чтобы избежать санкций или игнорирования разметки. 👉 Подробная информация тут. 1️⃣ Выбирайте правильный тип микроразметки Используйте тот тип, который наиболее точно описывает содержимое страницы. Например: ▫️для статей: Article, NewsArticle, или BlogPosting. ▫️для товаров: Product и Offer. ▫️для мероприятий: Event. ▫️для организаций: Organization. ▫️для рецептов: Recipe. А для локального бизнеса используйте типы LocalBusiness и указывайте такие данные, как: ▫️название компании; ▫️адрес; ▫️телефон; ▫️часы работы; ▫️геолокацию. Используйте специальные свойства для получения расширенных сниппетов (rich snippets), но только там, где это действительно уместно! Например: ▫️оценки и отзывы (aggregateRating); ▫️изображения и видео (image); ▫️часто задаваемые вопросы (FAQPage). Если у вас есть учетные записи в социальных сетях или других сервисах, обеспечьте их связь через schema markup (SameAs для указания связанных профилей). 2️⃣ Обеспечьте корректность и актуальность данных Убедитесь, что значения, занесенные в микроразметку соответствуют реальным данным. Например, цена товара или дата мероприятия должны быть актуальными и точными. 3️⃣ Старайтесь использовать единый формат разметки Если вы используете микроразметку для одного типа контента, избегайте разметки тех же данных несколькими способами (например, не стоит использовать одновременно JSON-LD и Microdata). И мы предпочитаем формат JSON-LD (JavaScript Object Notation for Linked Data), так как он проще в реализации и обновлении по сравнению с другими форматами (например, Microdata или RDFa). 4️⃣ Избегайте переспама разметки Не пытайтесь размечать весь контент на странице, особенно если это не имеет смысла для поисковых систем. Помните, что структурированные данные позволяют поисковым системам лучше понимать информацию, предоставленную в документе, а затем использовать эту информацию для улучшения отображения в поисковой выдаче. При этом сама по себе микроразметка не улучшает позиции сайта напрямую. Но грамотная реализация может косвенно повлиять на увеличение CTR, кликов и показов.
Стоит ли в листинги категорий и тэгов добавлять товары, которых сейчас нет в наличии. Сейчас реализован вариант, не отражающий товары, которых нет в наличии. При этом карточки товаров есть и в них остатки "0" указаны. С позиции покупателя это отличный вариант — они не видят то, чего не будет от 2 недель. Но как быть с позиции SEO? Стоит ли выводить такие товары в листинги и как это правильнее сделать?
Поисковые системы отслеживают ассортимент товаров на сайте. Чем больше товаров у вас в каталоге – тем лучше с точки зрения поискового алгоритма, и тем выше будет ваша позиция в выдаче при прочих равных. С этой точки зрения скрывать отсутствующие товары не нужно. Но, всё зависит от количества товаров, которые есть у вас в этих листингах. Если у вас достаточно много товаров в наличие – можете скрыть со страниц отсутствующие товары. В данном случае их нужно просто не показывать в каталоге, пока они не в наличие, страницы товаров переводить в 404 не нужно (то как это сейчас реализовано у вас). 👉 Посмотрите по конкурентам из выдачи, каким образом поступают они. Если с учетом сокрытия товаров, которые не в наличие вы все-равно не будете явно уступать конкурентам по ассортименту – можете их скрывать. Но если после их удаления из листингов у ваших конкурентов будет кратно больше товаров – поисковая система может посчитать, что ассортимент на вашем сайте недостаточный со всеми вытекающими. Если вы понимаете, что по количеству вы проигрываете и товары скрывать нельзя – просто показывайте их в самом конце каталога. Также на каждую страницу товара можно прикрутить функционал «уведомить о наличие товара», таким образом, вы показываете поисковым алгоритмам, что вы не просто забили каталог товарами для количества, а даете возможность посетителям купить этот товар, но попозже.
Нужно сослаться на сайт, у которого проблемы с ssl и все браузеры на это ругаются. Может ли это негативно повлиять на сайт донор? (ссылка закрыта nofollow)
Теоретически, ссылка на сайт с проблемами SSL напрямую на рейтинг вашего сайта и его ранжирование не повлияет. ⚠️ Важно учитывать, что атрибут nofollow не запрещает Google ботам переходить по ссылке (Справка). Мало того, такая ссылка, вероятнее всего, будет учитываться и частично передавать свой вес. И пользователи также могут переходить по таким ссылкам. Пользователи гораздо больше доверяют ресурсам, которые дают гарантию защиты их персональных данных. Так как браузеры для таких сайтов показывают предупреждения о небезопасном соединении, то пользователи, которые перейдут по ссылке и увидят предупреждение, могут усомниться в надежности и достоверности вашего сайта, что отчасти и косвенно может повлиять и на вашу репутацию. Но по факту это влияние если и есть, то крайне незначительное.
Имеется интернет магазин запчастей с количеством страниц 100 000+ и изначально неправильно была построена структура. Необходимо сделать категории для товаров (изначально их не было) вопрос в следующем: как правильно делать редиректы с текущих страниц на будущие? Имеется ввиду, если сразу 100 000 страницам поставить редирект? Или по 100 страниц переводить?
Мы так понимаем, неприятность ситуации в том, что вам сейчас необходимо из-за переработки структуры сайта менять URL большого количества страниц на сайте. Однако, если большая часть из этих страниц это товары (автозапчасти), то подумайте о том, чтобы оставить их URL такими, как они есть сейчас. Просто в новых категориях будут старые URL товаров, если конечно ваша CMS позволяет это сделать. Таким образом, вы значительно уменьшите масштаб проблемы. 👉 Если все действительно складывается так, что необходима переадресация большей части страниц сайта, то в большинстве ситуаций мы рекомендуем сразу настроить редиректы для всех страниц. Таким образом, получится сразу показать поисковым ботам обновленную структуру сайта с заменой всех внутренних ссылок. При этом разбиение процесса на этапы может быть может быть полезно, если есть опасения по поводу нагрузки на сервер или рисков ошибок. Однако это может привести к временной путанице для поисковых систем и пользователей с поэтапной сменой структуры. ✅ Не забудьте после всех настроек проверить внутренние ссылки. Не должно оставаться ссылок на старые страницы. ✅ Также не забудьте обновить и залить в консоль новые карты сайта. ✅ Перепроверьте тщательно все команды в robots.txt, адаптировав их под измененную структуру URL. ✅ При массовом редиректе убедитесь, что сервер справится с увеличенной нагрузкой, особенно в первые дни после внедрения изменений. ✅ Поменяйте внешние ссылки, которые вы контролируете (например, в соцсетях, справочниках, картах и т.п.), там где это необходимо на обновленные URL.
Как понять, попадает ли сайт под YMYL тематику или нет? Нужно ли вносить все правки для простого информационника, например, создавать страницы авторов и т.д.?
Под YMYL тематику попадают все сайты, которые могут повлиять на финансовое благополучие, здоровье, безопасность или счастье пользователей. Если обобщить, то под YMYL попадают такие тематики: 🔸Здоровье, медицина и юриспруденция; 🔸Новости, образование и редакция; 🔸Электронная коммерция и онлайн магазины. 👉 Более подробно об определении категорий сайтов попадающих под эти критерии можно посмотреть в руководстве для асессоров. Обычно информационные ресурсы также воспринимаются, как сайты YMYL тематики, так как многие из статей могут оказывать влияние на мнение пользователей, а значит должны быть достаточно экспертными в своей области, чтобы информация была актуальна и правдива. И да, создание страниц авторов является одни из многих факторов, подтверждающих экспертность и авторитетность вашего ресурса (EEAT). ⚠️ Важно! Сами по себе страницы авторов практически не окажут никакого влияния, гораздо важнее иметь качественный контент (подробнее тут) и доказать экспертность автора в рассматриваемом вопросе. А это можно сделать, имея действительно “прокачанный” профиль автора. Он должен быть в определенной степени известен интернету в своей области. Этого можно добиться, прокачивая профили ваших авторов с помощью соцсетей, активного блоггинга на других ресурсах и т.п.
Стандартная проблема - ранжируется не та страница. Думаем настраивать 301 редирект с не той на ту страницу, что нам нужно. Это рабочий вариант вообще или не сработает ничего?
301 редирект рабочий вариант в том случае, если перенаправляемая страница похожа по тематике на целевую и несет схожую ценность для пользователя. Редирект помогает поисковым системам понять, что теперь актуальна именно целевая страница. Но это может занять время и нет полной гарантии, что поисковики начнут ранжировать целевую страницу. Если же страницы отличаются по содержанию, но неправильно оптимизированы, 301 редирект не решит проблему, а только запутает поисковые системы. 💡 В этом случае необходимо сделать следующее: ✅ Правильно распределить какие ключевые слова должны продвигаться на каждой из страниц. ✅ Правильно настроить перелинковку. Например, поставить больше внутренних ссылок на целевую страницу, используя релевантные анкоры. ✅ Закупить ссылок на релевантную страницу с релевантными анкорами.
Google активно обходил и обходит страницы поддоменов разработчиков. Мы сразу этого не заметили, сейчас эти поддомены закрыли, но роботы успели обойти большое количество таких страниц. Как удалить их из базы Google или роботы сами перестанут обходить данные страницы после закрытия поддоменов в robots.txt?
Наилучшим вариантом скрыть поддомены от поисковых систем – заблокировать к ним доступ при помощи пароля. Даже если вы просто закроете эти поддомены в файле robots, Google все равно может ходить по этим страницам, но не оповещать вас об этом. 👉 Если технические страницы на поддомене уже проиндексированы, просто закройте их от индексации в файле robots. Важно для каждого поддомена сделать свой отдельный файл robots, ведь поддомен расценивается поисковой системой как отдельный сайт. ⚠️ Обязательно убедитесь, что на тестовый поддомен нет никаких ссылок! Если после индексации поддомена вы не заметили никаких негативных моментов – можете не обращать внимания на их наличие в индексе, со временем они просто пропадут оттуда. Но это не быстрый процесс, удаляться из индекса они могут достаточно долго. Если же вы заметили просадки по трафику или по позициям – воспользуйтесь инструментом «Удаление» в Google Search Console и удалите из выдачи дубли тех страниц на поддоменах, которые просели у вас в выдаче на основном сайте.
Есть 3 сайта одной тематики ( 2 из трех в одном регионе). При покупке ссылок, есть ли смысл добавлять ссылки на все три сайта в одну статью, при условии что статьи 5 - 10 к знаков? Цель: продвижение всех трех сайтов.
Технически, такие ссылки можно разместить в одной статье, но важно учитывать некоторые моменты, чтобы был профит в них с точки зрения SEO: 🔸 Важно, чтобы такие ссылки органично вписывались в статью. Если вы пишете ТОП или обзор, то наличие 3 или даже больше ссылок вполне нормально. 🔸 Если для вас важно получить целевой трафик с таких ссылок, то учитывайте, что какой-то ресурс будет получать его больше, так как находится в статье выше. 🔸 Учитывайте региональность при написании статьи. Так как один из сайтов отличается регионом, то статья может не принести для него той же ценности, что и для двух других. Или же на ваш сайт будут приходить пользователи не из вашего целевого региона, а это в свою очередь может повлечь ухудшение поведенческих метрик за счет отсутствия вовлеченности. С одной стороны такой подход позволяет сэкономить на бюджете для размещения и значительно сократить время написания контента. С другой стороны, велика вероятность, что каждый из сайтов получит лишь часть ссылочного веса. 👉 Мы считаем, что оптимальная стратегия - это размещение ссылок на сайты по отдельности, с фокусом на качество контента и естественность ссылочного профиля. Если же ваш бюджет ограничен, то лучше делать меньше размещений, но более качественных, чем рисковать всеми сайтами одновременно.
Привязал сайт к новому домену. По сайтмапу все отлично, робот настроен правильно, страницы тоже хорошие с нормальным контентом (сайт по изготовлению лестниц). И уже месяц Google не индексирует мои страницы. Не понимаю в чем проблема, отправляю страницы на проверку и гугл консоль пишет, что все ок, страницы доступны для индексации, но в итоге так и не индексирует. Подумал, что мало ссылающихся на сайт источников и т.д. и т.п., но добавил и каталоги, и обновил контент, добавил еще одну страницу для сайта. Все хорошо, в CMS нет ограничений по индексации, но в итоге все равно без результата. В чем может быть проблема, подскажите, пожалуйста?
Новый домен - это всегда своеобразная рулетка. Невозможно предсказать, какой новый сайт быстро попадет в индекс, а какой будет полгода существовать в т.н. «песочнице». Это условное состояние, когда Google ограничивает индексацию и ранжирование недавно созданных сайтов. Это своего рода "период испытания", чтобы предотвратить продвижение сайтов, которые могут быть низкокачественными или временными. "Песочница" не является официально подтвержденным алгоритмом Google, но для многих новых сайтов подобное "испытание временем" — обычное явление. Обычно, если продолжать работать над авторитетом и контентом сайта, он покидает "песочницу" через несколько месяцев. 💡 Для ускорения: 🔸 Увеличьте количество качественных ссылок с релевантных и авторитетных ресурсов, например, тематических форумов, блогов или партнерских сайтов. 🔸 Набирайте авторитет своего бренда, зарегистрируйтесь в Google Business, различных соцсетях, отзовиках, QA площадках. Проявите социальную активность, которая покажет поисковику, что ваш бренд реальный и живой. 🔸 По внутренней оптимизации старайтесь максимально улучшать перелинковку для качественного распределения веса по важным страницам. И продолжайте постоянно обновлять контент, например, размещая отзывы о вашей услуге (например, из тех же соцсетей). 🔸 Помогите Google лучше понять ваш контент с помощью подходящей микроразметки schema org. 👉 Также рекомендуем убедиться, что с сайтом действительно нет проблем: ✅ Посмотрите логи сервера, чтобы понять, как часто Googlebot заходит на сайт и какие страницы посещает. Если бот редко посещает сайт, возможно, на сервере настроены ограничения, или бот сталкивается с каким-то редиректом или ошибкой при доступе к страницам. Проверьте также, как Google на самом деле видит страницы, все ли подгружается, все ли скрипты/стили обрабатываются корректно. ✅ Google активно борется с бесполезными страницами и может медлить с индексацией, если страницы кажутся ему недостаточно качественными или полезными. Обратите внимание на уникальность контента, его полноту и структурированность. Также важно наличие ключевых слов, которые логично и естественно распределены по тексту, а не просто расставлены ради SEO. ✅ Google уделяет внимание скорости загрузки и удобству сайта на мобильных устройствах. Если страницы грузятся медленно или сайт не оптимизирован под мобильные устройства, это может замедлить процесс индексации. ✅ Если домен не совсем новый и вы его выкупили, то проверьте историю домена на наличие контента, который мог вызвать санкции или фильтры Google.
На сайте есть странная ситуация, при которой страница для пользователя доступна, но робот видит ответ сервера 404. В коде страницы нет ничего такого, чтобы не давало сканировать роботам. Какие могут быть причины?
Причин возникновения таких проблем может быть достаточно много. Например: ▫️ошибки настройки CloudFlare или подобных CDN; ▫️блокировка поисковых ботов на сервере; ▫️блокировка IP адресов, по которым могут заходить поисковые боты; ▫️блокировка скриптов загрузки страницы, которые например используются в технологии SPA (Single Page Application) сайтов. Чтобы понять конкретную причину, необходимо проверить как боты поисковых систем видят сайт, каким образом они его сканируют. Для проверки того как видит сайт, например, Google бот, необходимо перейти в GSC и: 1️⃣ Проверить страницу при помощи инструмента Проверка URL; 2️⃣ Запустить проверку страницы непосредственно на сайте при помощи кнопки Проверить страницу на сайте; 3️⃣ Открыть отчет Посмотреть проверенную страницу, в котором можно будет увидеть три вкладки: ▫️HTML. Код страницы в том виде, в котором его видит Google бот. ▫️Скриншот страницы. ▫️Подробнее. В этой вкладке можно увидеть данные о ответе сервера, ресурсах страницы и сообщения из консоли JavaScript. В результате, вы сможете увидеть и понять, что конкретно не так со страницей и почему бот Google не может обработать код страницы и присваивает ей 404 ошибку. ⚠️Важно! Не стоит запрещать к индексации JS и CSS файлы, так как это может привести к тому, что часть страницы бот попросту не увидит и соответственно не проиндексирует. Также не лишним будет проверить наличие внутренних и внешних ссылок, которые ведут на похожие , но не существующие страницы с ответом сервера 404. Так, например, пользователь может зайти на страницу site.com/novosti-mira/ и она отдает ответ сервера 200, а в коде внутренняя ссылка может быть такой – site.com/novosti-v-mire/ и она будет отдавать ответ сервера 404, если такой страницы на сайте нет. 👉 Поэтому вам нужно: ✅ Проверить отчет Не найдено (404) в Google Search Console. Там будет список всех URL адресов, помеченных этим ответом сервера. Обязательно посмотрите, какие страницы ссылаются на несуществующую страницу и в их коде проверяйте ошибки в URL адресах. ✅ Спарсить сайт при помощи Screaming Frog или Netpeak Spider. В обеих этих программах есть возможность увидеть страницы с ответом сервера 404 и какие страницы ссылаются на несуществующие. ✅ Проверить ссылочную массу в Ahrefs, Majestic, GSC и др. Когда вы проверите сайт на внешние ссылки и увидите, что есть какое-то количество ссылок, ведущих на страницы с ответом 404, то необходимо связаться с владельцами этих сайтов и попросить исправить ссылки на правильные.
Структура региональности реализована через подпапки. Например: site.com/state/texas site.com/state/california Но, при этом, промежуточная вложенность site.com/state отдает 404 код. Может ли негативно сказаться, если определенный уровень вложенности при формировании url отдает 404.
Если вы не размещаете нигде внутренних и внешних ссылок на /state/, то никаких проблем быть не должно. Но чтобы перестраховаться, сделайте эту страницу разводящей, на которой указывается весь перечень региональных подпапок. Так вы закроете две проблемы: страница перестанет отдавать 404 код и в случае случайного захода на страницу пользователем (да, есть прошаренные пользователи, которые могут удалить часть url и попытаться войти на страницу) – она покажет ему список региональных подпапок, которые есть на вашем сайте. При этом, также не обязательно давать ссылки на эту страницу на сайте, чтобы не повышать её ссылочный вес.
У страниц судя по GSC большое количество показов, но нет кликов. Подскажите, как высчитываются показы в консоли и почему может быть такая разница в показателях?
В официальном источнике Google есть определение: “Показ означает, что пользователь с высокой вероятностью или гарантированно увидел ссылку на ваш сайт в результатах поиска, рекомендациях или новостях». При этом, если пользователь кликает на ссылку, а потом возвращается в выдачу и снова нажимает на эту ссылку, то будет засчитан только один клик. Большую часть кликов получают ТОП-3 сайты, все остальное может иметь показы, но кликов там будет намного меньше. Соответственно, если ваш сайт находится за ТОП-3, то и кликов по ссылкам будет очень мало. В отчете эффективности в GSC показы считаются не только для синих ссылок из органической выдачи. Есть еще и другие элементы с ссылками в выдаче, показ которых тоже засчитывается, но кликов при этом мало. Во вкладке “Вид в поиске” в GSC есть типы результатов и там можно посмотреть статистику по некоторым элементам выдачи. 👉 Есть еще ряд нюансов, которые влияют на показы, но практически не приносят кликов: 1️⃣ По некоторым запросам, кроме основной ссылки также появляются и дополнительные, которые связаны с контентом, например, в интернет-магазине это подраздел каталога. Каждый раз, когда эти ссылки появляются в выдаче с основной – засчитывается дополнительный показ. 2️⃣ Изображения могут появляться в основной выдаче, не только во вкладке “Изображения” по некоторым запросам. У этих картинок, которые попали в этот блок тоже будут засчитываться показы, но вот кликов будет очень мало. Попадание изображений в основную выдачу влияет на отчет об эффективности под типом поиска “Веб», а не только в типе поиска “Изображения”. 3️⃣ Когда пользователи ищут кого-то или что-то, то часто в выдаче можно увидеть расширенные сниппеты с текстом и фотографиями. Этот блок называют Панель знаний. Такие изображения могут собирать много показов, а в отчете об эффективности в GCS собираются урлы, по которым находятся картинки. В итоге изображения с Панели знаний получают много показов и при этом мало кликов. Более детально о методологии учета результатов определенных типов можно ознакомиться в официальном источнике Google.
Для чего сайты скрывают исходящие ссылки от Ahrefs, например, и насколько безопасно у таких сайтов покупать ссылки?
Сайты иногда скрывают исходящие ссылки от инструментов вроде Ahrefs, Majestic, Semrush, чтобы ограничить доступ конкурентов и SEO-аналитиков к информации о своем профиле ссылок и они не могли легко анализировать их ссылочную стратегию. Также такой способ используют для скрытия участия в схемах продажи ссылок и избежать подозрений со стороны поисковых систем. ⚠️ Насколько безопасно покупать ссылки на таких сайтах? Из-за скрытия исходящих ссылок сложнее оценить реальное качество площадки. Сложно отследить, сколько и каких ссылок размещено, и, следовательно, сложно оценить естественность профиля ссылок. Есть высокая вероятность, что площадка продает много ссылок, причем сомнительного качества на сомнительные ресурсы. Если вы всё же решите работать с такими площадками, рекомендуем тщательно проверять посещаемость сайта, качество их контента и релевантность тематики. Также стоит вручную по выборке страниц проверять куда ведут ссылки с этих площадок.
Давно уже сделали ЧПУ для адресов страниц, настроили редиректы, но в индексе Google все равно очень много страниц со старыми адресами (редиректные). При этом есть и страницы с ЧПУ. Как почистить индекс Google, чтобы в нем были только новые страницы с ЧПУ?
По сути, изменяя URL страниц (делая их ЧПУ) вы создаете абсолютно новые страницы с точки зрения Google. Редиректы помогают передать вес со старых URL на новые. И нет ничего страшного, что в индексе все еще находятся старые страницы. Причины очень просты – это внешние и, возможно, внутренние ссылки, которые ведут на страницы со старыми URL. По большому счету в вашем случае ничего делать не нужно, так как основные работы вы уже сделали. Теперь все зависит только от самой поисковой системы – насколько быстро она сможет переиндексировать сайт с учетом всех редиректов. Из-за большого количества ссылок на старые URL процесс может очень сильно затянуться. 💡Чтобы ускорить процесс переклейки URL: ✅ Убедитесь, что на сайте не осталось внутренних ссылок ведущих на старые URL; ✅ Планомерно наращивайте внешние авторитетные ссылки на новые URL; ✅ Попытайтесь связаться с площадками, где были размещены ссылки на старые URL и изменить их на новые.
Есть версии сайта на разных языках. Какие-то на поддоменах, какие-то на других доменах второго уровня. Сделано в head как положено, link/hreflang. Но ссылки на другие языки нужны также живым людям, они ими активно пользуются. Однако, различные сервисы (например, те, что измеряют ссылочный спам и сео-сервисы) расценивают эти реальные ссылки на каждой странице из меню как ссылки на другие сайты и расценивают это как заспамленность. Как лучше оформить реальные ссылки на другие языковые версии? (nofollow, js, не показывать ботам?)
Первое, что рекомендуем сделать в данной ситуации - это убедиться в корректности настройки всех атрибутов для мультиязычного сайта. Перепроверьте link/hreflang, canonical и sitemap. Cправка Google по правильным настройкам языковых версий. Ссылки для перехода на языковые версии сайта являются обязательными и должны быть открыты к индексации. ⚠️ Мы категорически не рекомендуем, как либо закрывать ссылки на другие языковые версии. Если у Вашего ресурса не возникает проблем дублирования языковых версий сайта, то не стоит вообще беспокоиться о том, что различные сервисы расценивают эти ссылки, как спамные. К сожалению, многие сервисы для SEO оценки сайта имеют устаревшие алгоритмы определения спамности ссылок и доверять им не следует на 100%.
Работаем с очень крупным проектом и столкнулись с проблемой медленного обхода и индексации страниц. Подскажите, от чего зависит краулинговый бюджет сайта?
Если свести все тонкости до краткой формулировки, то краулинговый бюджет зависит от траста сайта. От количества обратных ссылок на сайт, от количества доменов доноров и их авторитетности, от трафика на сайте, внутренней перелинковки и вовлеченности посетителей. Такая проблема наблюдается у многих крупных сайтов, чаще всего интернет магазинов или информационных сайтов. Вам нужно обратить внимание на то, как именно индексируются новые страницы и обходятся старые. Если новая страница индексируется за 1-3 дня, то это не критично для большинства тематик (кроме информационных новостников). Если на индексацию уходит 3 дня и более – это уже проблема. Обратите внимание на контент страницы, которую вы пытаетесь проиндексировать, возможно, поисковая система считает её низкокачественной (например, смысловые или технические дубли) и поэтому не хочет индексировать. 💡 Также вам нужно проверить: ✅ добавляются ли новые страницы в карту сайта; ✅ есть ли ссылки на новые страницы на существующих страницах и как часто робот посещает эти страницы; ✅ не препятствует ли индексации файл robots, canonical или тег noindex на странице; Старые (уже известные роботу) страницы могут обходиться достаточно долго и это нормально, если на ней давно не менялся контент и при этом страница нормально ранжируется в выдаче. Для ускорения обычно отправляют страницы на переиндексацию в ручном режиме. Также нужно убедиться в том, что у страницы меняется дата последней модификации документа, иначе поисковая система попросту не узнает, что страница была обновлена. 👉 Если вы прошлись по всем пунктам, описанным выше и все равно поисковик не хочет быстро индексировать ваш сайт – повышайте авторитетность ресурса и качайте его ссылками с хороших доноров (в том числе и с главных страниц). Следите за ранжированием, ведь основная цель – это попасть в выдачу, а не просто в индекс.
Как лучше поступить в продвижении сайта по франшизе в сфере услуг: выдавать партнерам поддомен gorod.name.сom или другой отдельный домен gorod-name.com. И насколько стоит стараться в уникализации текстов услуг, достаточно будет региональных вкраплений или все же писать тексты заново?
В данном случае выбор зависит только от ваших возможностей, ресурсов, бюджета и специфики вашего бизнеса. 1️⃣ Поддомен (gorod.name.com). Этот вариант хорош тем, что такие поддомены будет наследовать часть доверия и авторитета главного сайта. Также такими сайтами проще управлять одной командой специалистов. Кроме того, поддомены отлично подходят для единых бизнесов под одним брендом. 2️⃣ Отдельный домен (gorod-name.com). Данный вариант, действительно, лучше подходит для партнерских бизнесов (например, франшиз). Так как сайты независимые друг от друга, они могут лучше ранжироваться в конкретных регионах (локальный брендинг), и их проще полностью уникализировать с точки зрения контента и структуры, подчеркивая уникальность каждого партнера. Поисковые системы считают такие домены отдельными сайтами, поэтому в плане продвижения у них большая гибкость. Важно понимать, что в данном случае сайтам понадобится намного больше времени для того, чтобы получить доверие и авторитет, несмотря на связь бренда. Учитывайте, что эта задача значительно более затратная, чем работа с поддоменом. 👉 Насколько стоит стараться в уникализации текстов услуг? Самый простой путь, это добавить региональные вкрапления. Такой метод менее затратен, но для лучшего результата рекомендуется сделать уникальным хотя бы 40-50% контента. ⚠️ Что точно нужно менять: ▫️Title и мета-теги для каждого региона ▫️Цены (если они отличаются) ▫️Контакты и схемы проезда ▫️Время работы ▫️Формы обратной связи ▫️Правовые документы ▫️Команда и сотрудники ⚠️ Что желательно переписать: ▫️Описания услуг с учетом местной специфики ▫️Преимущества компании (могут отличаться по регионам) ▫️Кейсы и портфолио местных проектов ▫️FAQ с учетом частых вопросов в регионе ▫️Новости и акции
Насколько важна уникальность текста на страницах сайта "Политика конфиденциальности", "Отказ от ответственности", "Защита данных" и пр.? И как сделать эти страницы уникальными?
Для данного типа страниц уникальность текста не важна. Намного важнее, чтобы эти страницы вообще были на сайте и были наполнены максимально полной и корректной информацией. ⚠️ Каждая страница типа "Политика конфиденциальности", "Отказ от ответственности", "Защита данных" должна юридически соответствовать Вашему бизнесу в конкретной стране. Так как виды и способы деятельности вашего бизнеса и сайтов конкурентов не будут одинаковыми на 100%, то и информация на подобных страницах тоже будет незначительно, но все же отличаться. На это влияют способы оплаты, доставки и другие нюансы.
Как правильно подбирать названия для карточек товаров и чем при этом руководствоваться. Например, какое лучшее название для карточки товара "казан маленький с антипригарным покрытием".
При выборе названия для Title карточки товара вам нужно учитывать несколько факторов: ▫️названия карточек нужно сделать уникальными; ▫️нужно добавить необходимые ключевые слова; ▫️нужно добавить регион. ⚠️ Какой порядок слов использовать? Пишите слова в той последовательности, в который вы бы реально могли произнести эту фразу при покупке этой вещи в магазине. В вашем случае это «маленький казан с антипригарным покрытием». Представим, что таких казанов у вас в каталоге более 20, получается, что в каждой карточке будет одинаковая формулировка. Нужно каким-либо образом уникализировать названия этих карточек, для этого в заголовок нужно добавить уникализирующие свойства каждого товара. Это могут быть: цена, артикул, цвет, производитель, размер, материал и т.д. 👉 Итого, мы получаем: Маленький казан с антипригарным покрытием 20х40 – купить в %регион% за %цена%, АРТ%номер% из %материал%. После формирования шаблона Title нужно сформировать правильные h1. Для h1 обычно используют полное название товара и 1-2 уникализирующих свойства, это могут быть: размер, материал, артикул, цвет, производитель и т.д.. Выберите именно то свойство, которое будет уникализировать название карточки наилучшим образом, с учетом их количества на вашем сайте.
Интернет магазин по продаже виниловых пластинок. Из-за того что ассортимент специфический (редкие издания, б/у пластинки, много товаров, которых нет в наличии), из-за этого растет показатель отказов. Страницы с товарами, которых нет в наличии, не закрываем от индексации, чтобы не выпадали из индекса. Возможно ли снизить показатель отказов, не закрывая от индексации страницы товаров, которых нет в наличии?
Высокий показатель отказов на страницах товаров, которых нет в наличии, – распространенная проблема для нишевых магазинов. Снизить показатель отказов без закрытия от индексации страниц товаров, которых нет в наличии, можно лишь частично, но если таких товаров большинство, то увы, это практически нереально. 🔸В первую очередь настройте фильтр выводимых товаров на категориях так, чтобы все отсутствующие товары были в самом низу списка. 🔸Разместите кнопку "Заказать похожий товар" или "Подобрать аналог" на видном месте, который есть в наличии. Это поможет удержать внимание пользователя и предоставить ему другие варианты для покупки. Плюс укажите примерные сроки следующей поставки (если возможно). 🔸 Добавьте на страницу дополнительную информацию о товаре — описание альбома, отзывы коллекционеров, истории создания, факты о исполнителе, ссылки на тематические статьи и т.д. Это увеличит ценность страницы и заинтересует посетителя. Дополнительно рекомендуем также добавить форму подписки на уведомление о появлении товара. Это позволит собрать контактные данные для дальнейшего взаимодействия и потенциально получить клиента в будущем.
Можно ли автоматизировать сбор подсказок Google?
Самый простой способ сбора поисковых подсказок в Google – использование специализированных программ и сервисов, некоторые из них бесплатные с урезанным функционалом, другие платные и предлагают за сравнительно небольшие деньги собирать и группировать ключевые слова из всех доступных источников, в том числе из поисковых подсказок. 💡 Если смотреть на самые популярные, это: 🔸seranking 🔸serpstat Вы также можете поискать подходящий вам по бюджету инструмент в выдаче по запросам «парсер поисковых подсказок», «сбор поисковых подсказок». Если же у вас есть чуть больше времени и желания покопаться в деталях, можете использовать бесплатный инструмент под названием «Google Sheets ImportFromWeb». После установки расширения откройте новую гугл таблицу и активируйте его: Расширения > ImportFromWeb > Активировать надстройку. После этого вводите в ячейку формулу =IMPORTFROMGOOGLE("ключевое слово","suggestions"). После ввода формулы вам остается подождать пару секунд и вы получите готовый список поисковых подсказок. Также вы можете посмотреть, какие еще опции по парсингу предлагает команда IMPORTFROMGOOGLE, там много чего интересного.
Ситуация: есть сквозные реферальные входящие ссылки с прямым анкорами с ключами. Ну и по этим ключам не ранжируемся, а раньше ранжировались. Как нейтрализовать эти ссылки с учетом того, что связаться с этими сайтами нет возможности? Может их реферальные ссылки куда-то редиректнуть?
Прежде всего необходимо оценить какой объем прибыли приносила данная партнерская программа. Если партнерка, действительно, приносила пользу, то необходимо проанализировать, почему страница акцептор более не ранжируются по ключу анкору. Чаще всего такое случается, если изменился перечень услуг или сами услуги были закрыты, а также изменились условия партнерской программы. В таком случае удаление ссылок будет наиболее оптимальным решением. 👉 Подробная информация о работе с инструментом Google Disavow Tools (позволяет удалять ссылки) тут. Если же у вас есть партнерская программа со схожей услугой, которая подходит по анкору, такие ссылки можно сохранить при помощи 301 редиректа на подходящие страницы. Также задуматься о сохранении ссылок можно в том случае, если доноры исключительно авторитетные. В этом случае также 301 редирект на более-менее подходящие по тематике страницы – оптимальное решение. 👉 О ключевых параметрах оценки доноров, мы ранее писали здесь.
Когда обычно происходит восстановление трафика после смены домена? И как можно это ускорить?
После смены домена трафик восстанавливается очень индивидуально в каждой ситуации и может занимать от пары недель до года. По нашему опыту 80-90% трафика восстанавливается, в среднем, уже за месяц. ⚠️ Скорость восстановления зависит от: ▫️Размера сайта и корректности настройки редиректов; ▫️Возраста и авторитета домена; ▫️Количества и качества внешних ссылок; ▫️Качества контента и структуры (в т.ч. внутренней перелинковки) сайта; ▫️Конкурентности ниши; ▫️Кор обновлений алгоритмов поиска того же Google во время переклейки. 👉 Повлиять на скорость переезда можно только правильной настройкой этого процесса. ✅ Позаботьтесь о всех редиректах и настройте переезд в консоли. ✅ Обновите обязательно все внутренние ссылки. ✅ Насколько это возможно, обновите и внешние ссылки (особенно на сайтах отзовиках, соцсетях, сайтах каталогах). Начинайте получать новые ссылки на новый домен. ✅ Не забудьте обновить контентную часть, если это необходимо. Например, если у вас изменился бренд, то необходимо заменить все упоминания на сайте; если вы использовали название домена в метатегах, то обновите и эти моменты и т.п. В большинстве ситуаций, чем качественнее ваш сайт, тем быстрее и безболезненно пройдет переезд.
Подскажите: 1. Стоит ли покупать ссылки со статей, у которых есть пометка «На правах рекламы»? 2. Стоит ли покупать ссылки со статей, размещенных в специально созданных для этого разделах?
Ссылки с пометкой «На правах рекламы» в основном нужны для бизнеса. Если такая ссылка размещена на странице с тематичным контентом, то есть высокая вероятность получить клиентов с переходом на ваш ресурс. При этом, если ваш сайт хорошо оптимизирован и клиенты с таких переходов выполнят свои цели (совершат конверсии), то это улучшит пользовательские метрики. В свою очередь это даст косвенный бонус и для SEO. Надо понимать, что сами по себе ссылки с рекламными метками практически не передают вес, поэтому классического, прямого влияния на ваши позиции не окажут. 👉 При покупке ссылок со статей, которые размещены в специальных рекламных разделах или просто в местах отмеченных «На правах рекламы» учитывайте такие моменты: 🔸 Определите цель размещения. Если целью является наращивание ссылочного веса, то или найдите другой ресурс, который разместит статью без пометки, либо попробуйте чтобы ссылка и ее анкор выглядели органично и не подпадали под понятие рекламы. Если же для вас важнее получить переходы и улучшить показатели сайта именно как бизнеса, то можете смело размещать ссылку (после проверки показателей донора); 🔸 В любом случае подбирайте тематические сайты по вашей тематике, чтобы статья выглядела максимально естественно.
По каким критериям и как оценить качество верстки сайта на Wordpress? Планируем смену CMS, хочется понимать, на что обращать внимание. Какие параметры, по вашему опыту, наиболее важны в глазах поисковиков?
Для сайта одними из самых важных технических критериев с точки зрения SEO являются скорость загрузки и адаптация под мобильные устройства. Если по результатам верстки ваш сайт получился достаточно удобный в использовании, с современным дизайном и при всём при этом он проходит по критериям скорость загрузки и адаптации под мобильные устройства – можете считать, что вёрстка качественная. Также проверьте все шаблоны страниц вашего сайта с выключенными js и отключенными стилями, сравните каждую страницу с её обычной версией. Все необходимые контентные блоки должны быть идентичны, никаких дополнительных скрытых или задвоенных элементов быть не должно. Если все проверки и сравнения были выполнены и никаких проблем не обнаружено – можно смело запускать новую версию сайта.
Насколько полезны ссылки с ютуб? Как таковое видео с них не особо будут популярны, а, скорее всего, просто, чтобы было.
YouTube имеет большой авторитет и доверие со стороны поисковых систем и поэтому ссылки с этой площадки будут полезны. Но, чтобы ссылки оказывали положительное воздействие на сайт, необходимо помнить о таких важных моментах, как: 🔸ссылки должны быть полезны пользователю; 🔸по ссылкам должны переходить пользователи и ваша основная задача побудить их к этому. ⚠️ Так же важно учитывать, что сам по себе YouTube канал должен: ✅ максимально совпадать по тематике с сайтом, на который ставятся ссылки; ✅ иметь хороший трафик, а также подписки, лайки и комментарии; ✅ иметь социальные сигналы с различных площадок, это могут быть, например, анонсы видео. ✅ само видео должно иметь схожий смысл со страницей, куда ведет ссылка; Сами по себе видео также могут участвовать в поиске, если они качественно оптимизированы и нравятся пользователям. В случае, если ваши видео попадают в ТОП Google вы можете повысить вероятность перехода пользователей по ссылкам в их описании.
Объясните мне, зачем указывать на страницах интернет-магазина тег <meta name="robots" content="index, follow" />? Сайт ведь открыт для индексации. Обязательный ли этот тег?
Обычно такие ситуации возникают, когда теги ставятся шаблонно (например, плагином CMS) на каждой странице и может иметь формы: либо noindex, либо index в комбинации с follow/nofollow. А так, само собой этот тег не является обязательным. Если вы не указываете этот тег или указываете его со значениями по умолчанию (index, follow), то поисковые роботы будут вести себя так, как будто этот тег вообще отсутствует.
Подскажите, пожалуйста, имеет ли смысл покупать старый домен, на который никогда не ставили сайт? На нем никогда не было контента, кроме страницы регистратора, просто домен давно зарегистрировали.
По идее, у такого домена не будет особых преимуществ при продвижении в органической выдаче по сравнению со свежезарегистрированным доменом. Конечно, дата регистрации у такого домена будет на несколько лет раньше, чем у новорега и вроде бы это должно считаться преимуществом, но тот факт, что на нём не было никакого контента говорит нам о том, что поисковые системы вряд ли сохранили какую-либо историю по домену. Заглушка от регистратора не считается полноценным сайтом. 👉 В целом, покупка такого домена может быть оправдана, если: ✅ Вы нашли действительно хорошее доменное имя, которое идеально подходит для вашего проекта. ✅ Вы готовы вложить дополнительные усилия в продвижение сайта. ✅ Вы уверены, что домен не был вовлечен в какие-либо негативные действия.
Недавно наши сайты подверглись взлому злоумышленников из Индонезии и в результате им удалось подтвердить права на сайты в Google Search Console, разместив метатег. Сейчас метатеги удалены, и мы вернули контроль над сайтами, однако в поиске Google продолжает выводиться некорректный сниппет - подтягиваются данные из структурированных описаний, где заданы чужие параметры title и прочие. Также заметил, что у данного сайта-злоумышленника в качестве canonical задан наш сайт, хотя контент, конечно, радикально различается. Подскажите, пожалуйста: 1️⃣ Как удалить чужеродную структурированную разметку, чтобы она не влияла на сниппет нашего сайта? (актуально именно для главной страницы); 2️⃣ Есть ли способ убрать наш сайт из canonical на этом чужеродном сайте мошенников из Индонезии? Пожаловаться на них в Google, например.
Даже если вы удалили метатеги злоумышленников для подтверждения права на сайт, убедитесь, что вся разметка (особенно <meta> и JSON-LD) на вашем сайте соответствует вашим. Кроме того, перепроверьте отдельно теги Google Tag Manager с помощью которого могут проводиться дополнительные манипуляции с сайтом. Также желательно перепроверить все возможные уязвимости вашего сайта. Проверьте все плагины вашей CMS, лишний код, скрипты, стили, обратите внимание на служебные файлы в том числе htaccess, robots, sitemap. Уже после этого обновите разметку на главной странице. Далее остается просто ждать, когда Google обновит полученные данные. Хотя Google и предусматривает междоменные canonical (справка Google), такие действия злоумышленников являются нарушением принципов Google. ⚠️ Что делать в таком случае: 1️⃣ Подача жалобы через DMCA. Google предоставляет механизм для удаления страниц, которые нарушают права, в том числе связанные с содержанием. Вам нужно подать жалобу через форму Google DMCA, где вы укажете, что другой сайт использует ваш сайт в качестве канонического, нарушая ваши права. Google может принять меры по удалению этих страниц из индекса. 2️⃣ Подача жалобы на спам. Вы можете использовать инструмент для жалоб на спам в Google, чтобы указать на мошеннический сайт, который использует ваш сайт в тегах. 3️⃣ Связь с хостинг-провайдером злоумышленников. Если возможно, идентифицируйте хостинг-провайдера сайта злоумышленника и сообщите им о незаконных действиях. В некоторых случаях это может привести к отключению сайта.
У нас есть сайт компании в Лондоне, которая предоставляет строительные услуги. Сейчас мы хотим оптимизировать сайт, чтобы быть представленными в локальной выдаче, поскольку предоставляем услуги по всей Англии. Для этого нужно создавать отдельные страницы для каждого города? Или лучше просто указать на страницах услуг, что мы работаем в этих городах (но как тогда продвигать такие страницы)? Потому-что в выдаче наблюдаем, что многие вводят запросы «услуга возле меня», «услуга в {город}», «услуга в {город}{индекс}».
Выбор стратегии зависит от вашего бюджета. Если создать отдельные страницы, то при недостаточном бюджете есть риск, что обе страницы могут конкурировать между собой, даже не смотря на то, что указаны разные города. Так как контент обеих страниц будет крайне схожим между собой из-за явно одинаковых условий предоставления услуги и отличаться будет только город, а таких отличий может оказаться недостаточно для хорошего ранжирования страниц. При этом, при правильной оптимизации страниц для разных городов, есть возможность попасть в локальную выдачу и получать более целевой трафик из нужного региона, что повышает вероятность конверсий. Со своей стороны мы предлагаем рассмотреть вариант со смешанной реализацией, когда создаются отдельные страницы для крупных городов, в которых отдельно расписаны будут локальные районы. И отдельная страница для всей остальной части UK. 💡 Сейчас персонализированная выдача превалирует в коммерческом сегменте и для повышения шансов на хорошее ранжирование сайта в локальной выдаче, необходимо, чтобы: ✅ на Google картах было представительство вашей компании в конкретном городе; ✅ представительство имело отзывы на тех же Google картах; ✅ на странице контакты были указаны адреса филиалов в городах; ✅ сайт был размещен в локальных справочниках организаций; ✅ ссылки закупались на сайтах из нужных регионов. Не менее важным будет обязательное использование микроразметки Local Business для каждой отдельной страницы города с указанием локальных данных.
Клиент запретил индексировать весь сайт в Robots.txt. Отменили и поправили всё, но похоже не помогло. Как отменить эффект запрета от индексации и помочь ПС индексировать сайт?
Если запрет на индексацию был только в файле robots, то его исправление должно вернуть все страницы снова в индекс. Но это не происходит быстро, поисковой системе нужно адаптироваться к новым изменениям. У поисковиков есть временной лаг между тем, как вы что-то изменили на сайте и тем, когда эти изменения повлияют на ранжирования сайта. 👉 Как ускорить индексацию страниц сайта: 🔸 сгенерируйте карту сайта и отправьте её на переобход; 🔸 отправляйте страницы на переиндексацию в ручном режиме; 🔸 используйте Google Indexing API, если вам сложно разбираться с настройками indexing api – закажите услугу по ускорению индексации на фрилансе, стоит она достаточно дешево; 🔸 используйте специализированные телеграмм боты, которые помогают ускорить индексацию страниц: их несколько, выберите парочку и оцените эффективность каждого на своем сайте. Помимо этого проверьте, доступны ли вообще страницы к индексации или быть может есть еще и другие факторы, которые блокируют роботов, не позволяя им их индексировать. Это может быть: запрет к индексированию в исходном коде страницы, запрет доступа роботов к сайту на уровне сервера.
Сайт специализируется на продаже профнастила. У нас есть каталог и есть статейный раздел. Про профнастил написано много статей. Проблема в следующем. Есть раздел с товарами в каталоге “Профнастил С20” - сайт.сom/cat/profnastil-s20/. Есть статья по этой теме “Обзор профнастила С20: подробная информация о материале“ - сайт.com/useful/articles/profnastil-s20-podrobnaya-informatsiya-o-materiale/. Как бы я не уменьшал количество вхождений, не менял title и description, но по запросу “Профнастил С20” ранжируется именно статья, а не каталог. Правильно ли это называть каннибализацией и как можно с этим бороться, не удаляя статью?
Да, то, что вы описываете, является классическим примером каннибализации ключевых слов. Это происходит, когда несколько страниц вашего сайта оптимизированы под одни и те же поисковые запросы. В результате поисковая система сталкивается с проблемой выбора, какую именно страницу показать пользователю, и может ранжировать не ту, которую вы бы хотели видеть на первой позиции. Особенно часто с такой проблемой сталкиваются, когда интент запроса в вашем регионе смешанный (есть и коммерческая и информационная выдача). 💡 Чтобы побороть описанную каннибализацию рекомендуем сделать следующее: ✅ Скорректируйте метаданные, заголовки и подзаголовки вашей статьи. Постарайтесь их изменить так, чтобы основной ключевой запрос “Профнастил С20” не был в самом начале фразы. ✅ Расширьте статью новой информацией, которая не дублируется на странице каталога. Например, добавьте сравнение профнастила С20 с другими видами или инструкции по монтажу. ✅ Добавьте на обе страницы структурированные данные, чтобы помочь поисковым системам лучше понять их содержимое. ✅ Далее дополнительно поработайте над страницей каталога, добавьте немного текстового контента, например, блок самых частых вопросов и ответов, полезные таблицы. ✅ Проработайте внутреннюю перелинковку, добавьте ссылки внутри своих страниц на коммерческую категорию с прямым вхождением ключа. В первую очередь сделайте это на странице вашей статьи. ✅ Поработайте и над внешними ссылками. Аналогично предыдущему пункту: вам нужны анкоры с прямым вхождением ключа на авторитетных ресурсах.
Как правильно восстанавливать дроп-домен для последующей его склейки с продвигаемым сайтом? Имею ввиду шаги индексации, хостинга и привязки к вебмастеру/консоли.
На самом деле процесс восстановления дропов зависит от ваших целей, самих сайтов, их тематики, региона и многих других факторов. Поэтому универсального варианта подходящего под все случаи нет, но чаще всего все должно происходить по примерно такому алгоритму: 1️⃣ Анализ дропа. Проверить возраст, ссылочные показатели, наличие банов и санкций. 2️⃣ Развертывание сайта на хостинге. Выбирать стоит проверенного провайдера с минимальным временем отклика и отсутствием плохой репутации у IP-адресов. 3️⃣ Установка CMS и восстановление контента. В идеале сохранить структуру сайта и восстановить контент, который был на нем ранее. 4️⃣ Привязка к консоли и вебмастеру. Привязка к панелям вебмастеров происходит обычным способом. 5️⃣ Индексация. Необходимо, чтобы сайт проиндексировался в поисковых системах и начал получать трафик. Чтобы ускорить процесс индексации стоит создать файлы robots.txt и sitemap.xml. Также для ускорения индексации есть смысл купить несколько ссылок на качественных площадках. 6️⃣ Подклейка дропа к сайту. При помощи 301 редиректа настройте переадресацию на продвигаемый сайт. В дальнейшем необходимо следить за реакцией поисковых систем и возможными техническими ошибками. Помните, что подклеивать стоит дропы, которые имеют большую схожесть по тематике и региональности с продвигаемым сайтом. Это наиболее оптимальный вариант, который с большой долей вероятности принесет пользу продвигаемому сайту.
В последнее время стало очень тяжело с публикациями отзывов на Гугл картах. Есть ли какие-то рекомендации, как повлиять на этот процесс, чтобы отзыв был принят?
Да, действительно, Google усиленно контролирует систему отзывов на Google Картах. В 98% случаев — это делает алгоритм. 👉 В этом видео описан этот процесс. Это сделано, в целях сохранения максимальной достоверности отзывов и противодействия покупки отзывов. Потому что люди, часто доверяют отзывам на Google Карте. Система следит за всеми пользователями Google Карт, анализирует полученные данные и решает о подлинности отзыва. Иногда, отзывы проходят так же и ручную модерацию. Поэтому публикация отзывов может происходить с задержками. 🔸Google с большей вероятностью одобрит отзывы, содержащие конкретные детали об опыте клиента, а не общие фразы. 🔸 Избегайте шаблонных отзывов. Каждый отзыв должен быть уникальным. 🔸 Не пытайтесь опубликовать много отзывов одновременно. Равномерное распределение отзывов во времени выглядит более естественно. 🔸 Если множество отзывов поступает с одного IP-адреса или устройства, они могут быть отклонены. 🔸 Отзывы от пользователей с заполненными профилями и которые регулярно оставляют отзывы и на другие места имеют больше шансов быть принятыми. 🔸 Отзывы, оставленные с устройств находящихся поблизости от вашего бизнеса, могут восприниматься как более достоверные. 🔸 Отзывы с фотографиями или видео часто воспринимаются как более аутентичные. 🔸 Активно взаимодействуйте с уже опубликованными отзывами. Это может повысить доверие к вашему профилю. ⚠️ Фокусируйтесь на получении честных отзывов от реальных клиентов, побуждайте ваших пользователей оставлять отзывы, например, предлагайте бонусы за это. Такой способ самый надежный вариант улучшить вашу репутацию с помощью Google Карт.
Многие сайты на биржах пишут, что не размещают статьи с ссылками на серые и запрещённые тематики. Но вопрос сейчас про других: если сайт размещает ссылки на всякие казино, пирамиды, беттинг, порно и т.д. ухудшаются ли его качества как донора? Может ли навредить ссылка с такого сайта моему белому сайту, если, к примеру, тема статьи и раздела будет вполне себе законна?
Хотя прямой вред вашему сайту от одной ссылки маловероятен, особенно если тематика статьи легальна, существует риск косвенного негативного влияния. 1️⃣ Поисковые системы умеют различать тематики и, скорее всего, такие доноры получают что-то типа пометки, что это ресурс на котором есть ссылки на тематику, для которой есть законодательные, возрастные или иные ограничения. Ценность таких ссылок для белого сайта будет ниже, чем с ресурсов белых тематик. 2️⃣ Даже если контент статьи, где размещена ваша ссылка, абсолютно "белый" и легальный, поисковые системы могут учитывать общую репутацию сайта донора. Взаимосвязь с такими источниками может частично отразиться на репутации вашего сайта, особенно если это не единичный случай. 3️⃣ Также поисковые системы учитывают тематику донора. Будет немного странно, если сайт по продаже одежды получит ссылки с сайта интим магазина, к примеру. 4️⃣ Такой донор может быть просто прокладкой или одним из сайтов PBN сетки ресурса серой тематики. И стабильность такого донора остается под вопросом. Рекомендуется тщательно выбирать доноров и по возможности избегать сайтов, активно продвигающих серые тематики. Лучше отдавать предпочтение более надежным и релевантным донорам для минимизации потенциальных рисков.
Запустили рекламу по не очень подходящим запросам. В итоге, 90% пользователей, которые по ней перешли - спешно покинули сайт. После этого заметили падение позиций в ПС. Скажите, как теперь вернуть позиции?
Нецелевая реклама может привести к росту отказов, что, в свою очередь, сигнализирует поисковику о низкой релевантности вашего сайта для пользователей. В свою очередь это может негативно повлиять на ваши позиции в выдаче. 1️⃣ Изучите данные о рекламной кампании: какие запросы привели к наибольшему количеству отказов, какие страницы сайта посетители покидали чаще всего, как изменились CTR, время на сайте и глубина просмотра после запуска кампании. 2️⃣ Тщательно пересмотрите список ключевых слов. Уберите нерелевантные и добавьте более точные запросы, которые соответствуют содержанию ваших страниц. 3️⃣ Оптимизируйте тексты объявлений, чтобы они максимально точно отражали суть предлагаемого продукта или услуги. И уточните настройки таргетинга, чтобы показывать рекламу только заинтересованной аудитории. Этого в целом должно хватить. Наберитесь терпения, восстановление позиций в поисковой выдаче после таких ошибок может занять некоторое время. Не ожидайте мгновенных результатов. Алгоритмам потребуется время, чтобы провести переоценку изменений вашей рекламы и реакции пользователей на нее. ⚠️ Пока идет этот процесс продолжайте улучшать комплексно свой ресурс: 🔸Банально перепроверьте качество контента на страницах, особенно на которые ведут объявления рекламы. Он должен быть уникальным, полезным и релевантным ключевым словам. А также убедитесь, что имеете логичную структуру сайта и внутреннюю перелинковку, чтобы пользователи могли легко находить нужную информацию. Постоянно продолжайте анализировать и улучшать удобство использования сайта. 🔸 Хорошим знаком для Google будет постоянное обновление реальных отзывов клиентов о вашем продукте как на самом сайте, так и вне его. Активно взаимодействуйте с аудиторией в социальных сетях, публикуйте полезный контент.
Есть два домена на разных языках, связанных hreflang. Если заказать два гест-поста на одном сайте для двух этих доменов, то буст будет для каждого домена полноценный или поделённый пополам? Иными словами, представляют ли для Google сайты, связанные с hreflang, единое целое?
Для Google два разных домена, которые связаны при помощи hreflang не являются одним целым. Это было бы очень странно, если бы поисковая система так делала, представьте себе ситуацию, у вас есть прокаченный домен на определенном языке, вы просто регистрируете новый домен для продвижения на другом языке и регионе, связываете его при помощи hreflang с основным доменом и получаете моментальный буст по позициям и трафику на новом сайте, который только вчера был зарегистрирован. Это сломало бы работу алгоритма Page Rank от Google. Если вы заказываете гест посты на свой сайт, передаваемый ссылочный вес (так называемый траст) этих ссылок считается не с сайта в целом, а с конкретной страницы сайта-донора. Если вы на одной странице сайта донора размещаете две ссылки на два свои сайта – ссылочный вес, передаваемый вашим сайтам делится. Но если вы закажите с одного сайта-донора две ссылки с разных страниц, каждая из этих страниц передаст 100% своего ссылочного веса каждому отдельному сайту. 👉 Также стоит учесть, что у каждой страницы сайтов-доноров передаваемый ссылочный вес очень разный. Следуя из этого, есть смысл ставить по 2 ссылки на разные сайты на страницах сайтов-доноров, которые имеют большой ссылочный вес: главная, категории. Обычные страницы передают не слишком много траста, тут нужно брать количеством. Кроме того не забывайте, что у ссылки будет больше веса для вашего сайта, если донор будет тематичным, региональным и на том же языке, что и ваш домен. Если ваш донор поддерживает оба языка ваших языковых доменов, то в целом обе ссылки будут полезны. Важно, чтоб анкор и околоссылочный контент (например, статья) был на том же языке, что и ваш домен.
Посоветуйте инструмент, который может ходить периодически по списку URL и пробивать все внутренние/внешние ссылки - не появились ли битые ссылки на страницах?
По сути, такая функция есть в Google Search Console. В разделе “Индексирование” во вкладке “Страницы» можно увидеть страницы “Не найдено (404)” Выберите конкретный URL из списка, чтобы увидеть детали. В деталях страницы перейдите на вкладку “Ссылаются с этих страниц”. Здесь указаны страницы вашего сайта, содержащие ссылки на несуществующий URL. Просмотрите ссылающиеся страницы и исправьте битые ссылки. Этот метод подходит для небольших сайтов. 💡 Для больших проектов рекомендуем несколько инструментов, которые могут справиться с этими задачами: 🔸 Netpeak Spider. Десктопное приложение позволяет сканировать сайт на наличие битых ссылок, перенаправлений, дубликатов и других технических ошибок. Имеет возможность планирования задач для автоматического периодического сканирования. 🔸 Screaming Frog SEO Spider. С помощью функции автоматизации (CLI) и планировщика задач вы можете настроить периодическое сканирование. 🔸 Ahrefs Site Audit: Онлайн-сервис, который позволяет настроить регулярные проверки сайта. Предоставляет подробные отчеты о битых ссылках, проблемах с перенаправлениями и других технических аспектах SEO.
Как настраивать атрибут canonical на динамических страницах пагинации? Пагинация подгружается по параметру ?pagen-1. Такие страницы тоже индексировать?
Ваш вопрос может решиться как стандартными рекомендациями, так и более гибко. Все зависит от размера сайта, краулингового бюджета и т.д. 💡 Стандартные рекомендации Атрибут canonical на динамической постраничной навигации стоит настраивать точно также, как и на обычной постраничке, то есть на саму себя. К примеру, canonical для страницы ?pagen-1 будет ?pagen-1. Подробнее о рекомендациях Google относительно разбивки контента на страницы можно прочесть тут. Индексация любой, хоть статичной, хоть динамической постраничной навигации улучшает внутренние ссылочные связи, так как позволяет роботам поисковых систем переходить по ссылкам на постраничной навигации, то есть посещать товары, находящиеся на этих страницах. Это дает возможность: 🔸глубже показать ассортимент товаров поисковым системам; 🔸повысить шансы на индексацию товаров на второй и далее страницах постраничной навигации. Чтобы не возникало проблем с индексацией и дублями страниц, необходимо уникализировать метаданные title и description постраничной навигации. Для этого необходимо, чтобы подставлялся номер страницы и в title, и в description. Например, метатеги для страницы 2 будут выглядеть так: title: Купить мужскую обувь оптом от производителя – Страница 2 description: Мужская обувь оптом от фабрики производителя {эмодзи}Большой ассортимент {эмодзи}Доступные цены – Страница 2 💡 Вариативность решения вопроса Безусловно, приведенные примеры и рекомендации работают плюс-минус на примерно одинаковых сайтах с достаточно большим объемом листингов и, соответственно, с большим количеством страниц навигации. Если сайт не большой и на страницах пагинации не будет большого количества товаров, то есть смысл закрыть постраничку от индексации и не заморачиваться уникализацией метатегов. Также есть вероятность, что из-за слишком большого количества страниц постранички сайту может не хватать краулингового бюджета и по этой причине есть смысл часть страниц закрыть от индексации, чтобы не расходовать бюджет.
Работает ли оператор site: сейчас? Можно ли с его помощью узнать наиболее релевантную страницу ключу? В каких ситуациях его ещё можно использовать?
Оператор site: действительно можно использовать для поиска наиболее релевантной страницы конкретному ключевому слову на сайте. Например, запрос site:example.com ключевое слово позволит узнать, какая страница сайта ранжируется выше всего по данному запросу. 👉 При этом в Google Справке пишется, что если URL проиндексирован в Google, то он может показываться в результатах поиска по запросам с оператором site:, которые имеют отношение к такому URL. Однако это не гарантируется. Кроме этого оператор site: можно использовать для проверки индексации определенной страницы сайта. Также можно с помощью оператора уточнить проиндексирован ли определенный URL для показа по определенным запросам запросам. Помните, результаты оператора site: для определения количества проиндексированных страниц будут не полными. Google не показывает все проиндексированные страницы, особенно если их слишком много! Для более точных данных лучше использовать Google Search Console.
Как найти страницы сайта, на которые нет вообще внешних ссылок. Можно ли это сделать с помощью какого-то сервиса?
Чтобы найти страницы сайта, на которые нет вообще внешних ссылок, для начала необходимо собрать все страницы вашего сайта (сделать это можно, например, с помощью любого парсера). Далее, необходимо найти страницы с внешними ссылками. Для этого можно воспользоваться следующими сервисами: 🔸 Google Search Console – бесплатный. Экспортируйте все страницы с внешними ссылками и потом сравниваете со всеми страницами сайта. Так можно найти страницы, на которых нет внешних ссылок. Недостатком этого метода является то, что Google Search Console не показывает абсолютно все внешние ссылки сайта. 🔸 Ahrefs, Serpstat, Similarweb и другие подобные сервисы – платные. Они покажут количество внешних ссылок на каждую страницу. Также экспортируйте данные и сравните список всех страниц сайта с данными о внешних ссылках. Таким образом, выявите страницы, на которые отсутствуют внешние ссылки. Важно понимать, что каждый из этих сервисов использует свою базу данных, в которой также могут не присутствовать абсолютно все внешние ссылки, однако с их помощью можно получить максимально-возможную информацию.
Есть сайт и у него нет трафика, но он 2016 года и я хочу обновить его с сохранением доменного имени .сом. На том же хостинге я сделал новый сайт, но только .online. Как мне перенести новый сайт на старый домен .сом без потери органики?
Если вам нужно перенести новый сайт .online на старый домен .сом, при этом и там и там у вас уже развернуты полноценные сайты и .online имеет неплохой трафик, который нужно сохранить при переезде на .com, вам нужно: ✅ убедиться, что у обоих сайтов одинаковая тематика, так как при склейке сайтов разных тематик могут возникнуть проблемы; ✅ составить список страниц на двух сайтах, тематики которых абсолютно совпадают (заточены под продвижения одних и тех же ключевых слов), сделать таблицу соответствия страниц с сайта .com – страницам с сайта .online, а если таких страниц на сайте .com нет, то вам нужно их создать; ✅ перенести весь контент страниц сайта .online на соответствующие страницы сайта .com; ✅ сделать 301 редирект со страниц сайта .online на соответствующие страницы сайта .com по табличке соответствия, причем, перенос контента и редиректы делаются в один день. 👉 Помимо этого вам нужно: 🔸 убедиться, что домен .com не имеет в своем профиле плохих обратных ссылок, которые могут помешать ранжированию сайта; 🔸 постоянно продлевать регистрацию домена .online и поддерживать актуальность редиректов. Следуя этой инструкции, ваши сайты должны склеиться и после этого домен .com по сути будет являться сайтом .online со всеми вытекающими.