Сегодня разговор пойдет о техническом аудите сайта, и это логическое развитие после того, как было собрано семантическое ядро, о чем я писал в предыдущих своих постах. Но давайте разберем по пунктам, какие все таки этапы этого технического аудита существуют.
Что входит в технический анализ сайта:
- Главное зеркало сайта
- Поиск аффилиатов
- Индексация сайта
- Мусорная и неполная информация
- Дубликаты
- Карта сайта
- Robots. txt и теги
- Валидность кода
- Правильность верстки
- Битые ссылки
- Уникальные элементы
- ЧПУ
- HTTP заголовки и скорость загрузки
- Сквозные блоки
- Хостинг
Большой бедой для клиента и сайта является отсутствие такого аудита и его внедрение. И сказать по правде это проблема многих SEO контор и фрилансеров. Собирают СЯ, пишут статьи и наполняют контентом, закупают ссылки, а сайт как «Запорожец» в гонках Formula 1. Поверьте мне, это далеко не бесполезное действие, а очень и очень важный момент, который надо проделывать и проделывать качественно!
Настройка главного зеркала сайта
Если вы еще не знаете, что такое главное зеркало сайта, тогда внимательно читаем и смотрим, как его сделать и указать в вебмастере. Главное зеркало — это то, как ваш сайт будет отображаться в интернете с www или без www. Вот главное зеркало моего блога obuchaemsja. com, то есть здесь нет www.
Этапы настройки таковы:
- 301 редирект в. htaccess robots. txt директива host
- Инструменты для вебмастера
Редирект настраивается в документе, который размещается в корне сайта, то есть в папке www на вашем сервере или хостинге и выглядит примерно вот так:
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www. vash-sait\. ru$ [NC]
RewriteRule ^(. *)$
Это один из примеров, как можно настроить редирект с www. vash-sait на vash-sait
Далее в документе robots. txt прописываем вот такую директиву Host:
Host: https://dramtezi.ru
И последний этап идем в панели вебмастера Гугл и Яндекс и указываем там основное зеркало, это делается при добавлении нового сайта. Сам процесс описывать не буду, этого добра в интернете предостаточно, наша цель разобрать пункты технического аудита, а как это сделать подскажет сам Гугл или Яндекс.
Аффилиаты что это?
Аффилиаты — это сайты, которые принадлежат одному владельцу, имеют одни и те же адреса, номера телефонов и место размещения в интернете. Также может быть полное, частичное дублирование дизайна, функционала сайта, а может и не быть.
Цель таких сайтов занять несколько позиций в поисковой выдаче дабы побольше получить трафика с ПС и соответственно денег.
Индексация сайта
Перове на что нужно посмотреть это разницу индексации Гуглом и Яндексом. Провести такое сравнение можно множеством утилит, сервисов и дополнений к браузерам. Я смотрю эти показатели при помощи дополнения в мозиле RDS-Bar. Как установить и как пользоваться смотрите в интернете.
Часто спрашивают, а почему так, да потому, что для Гугл по большому счету robots не есть указатель, он его игнорирует и грузит все, куда могут дотянуться его роботы. Мощности позволяют вот и тянут все подряд. Яндекс кстати тоже начал очень часто игнорировать запреты в robots. txt
Если говорить правильно такое различие или нет — не правильно. Как же решить, детально анализировать причины, что запрещено в robots, посмотреть все страницы в индексе гугл понять какие лишние и закрыть не только в robots, но и при помощи тегов. Идеала когда 100 = 100 достигнуть практически невозможно, но стремиться надо.
Также на индексацию могут влиять ошибки сканирования, посмотреть это можно в вебмастере гугл перейдя в панель инструментов вебмастера. Вот так это выглядит:
Мусорная информация сайта
Страницы, которые еще в разработке, но уже имеют свой адрес, также страницы, которые имеют технические ошибки или неполадки, как пример: не работающий калькулятор чего-то там, форма не отправляющая данные и т. п.
Также сюда можно отнести момент когда сервер отдает 200 ответ, а страницы нет, то есть битая ссылка отвечает, как нормальная. Еще нормальные страницы, но по каким-то причинам попавшие в запрещенный список robots. txt. Ну и самое страшное это конечно дубли, как полные так и частичные. Вот это очень плохо.
Дубли — это копирование содержимого на нескольких страницах, есть дубли внутренние, когда информация дублируется внутри сайта, а есть дубли со внешнего сайта, это когда банально воруется контент на других сайтах.
Дубликаты url
Вот три адреса, которые отдают одно и тоже, то есть на всех трех находится главная страница, но используя 301 редирект и файл. htaccess я сделал так, что все это ведет на один адрес
Давайте поговорим о причинах наиболее частого появления дублей:
- CMS и некорректная настройка вывода ЧПУ
- Технические ошибки
- Большие сквозные блоки
- Страницы со служебной информацией
- Контент представлен разными способами (. doc, . pdf, print)
Наказания за дубли могут быть разные со стороны ПС, все зависит от вида и количества дублей, а значит нам это ни к чему. Тогда стоит поговорить о поиске и выявлении этих самых дублей.
Этапы выявления дублей на сайте
- Сколько должно быть всего страниц на сайте?
- Ищем дубликаты в выдаче (операторы — «site: www. site. com», : title: (заголовок документа)», «mime: pdf»)
- Используем программы Xenu и Page Weight (вторая платная)
- Инструменты для веб мастера
Я не буду расписывать как это применять и что делать, я вам дал инструментарий, инструкцию найдите в интернете. А если по какому-то пункту возникнут вопросы напишите в комментариях, я обязательно отвечу.
Карта сайта
Для начала, что же такое карта сайта (sitemap. xml) — это ссылки на все страницы вашего сайта с расширением xml, генерируется автоматически на сайте и добавляется в панели вебмастера Гугл и Яндекс. Если хотите посмотреть, как оно выглядит на живую вот моя карта сайта. Не все они такого вида, как у меня бывают все ссылки идут прям в столбец друг за дружкой.
После добавления карты сайта в панели вебмастера, роботы ПС быстрее и точнее проиндексируют страницы, так как вы даете, указываете им навигацию, куда и когда перемещаться. Также каждая ново созданная страница будет добавляться в эту карту и ПС будут автоматически уведомляться о новом контенте.
Так как я немного затронул, а вам будет любопытно узнать поподробнее, даю ссылку на отличный ресурс, где все это описано и разложено по полочкам, ресурс так и называется sitemaps.
Настройка robots. txt
Итак robots это документ в котором содержится перечень правил для роботов различных поисковых систем, а поточнее для роботов, которых вы там укажете. Если вы еще не знаете, то каждый сайт индексируют специальные роботы, и уже только потом обработав проиндексированный материал через всевозможные алгоритмы, ПС выдают сайт в поиске, либо банят по необходимым причинам.
Для начала идем на сайт с русским описанием о robots. txt и внимательно там все читаем. Если у вас хватит терпения и желания прочесть все, что они написали об этом документе, вы станете гуру по составлению таких файлов под любой сайт. Также есть хелп Яндекса, где не менее подробно можно прочесть и посмотреть реальные примеры, находится это описание по этой ссылке.
Когда вы все внимательно прочтете и сделаете свой robots для сайта, следует проверить все ли ок. Для проверки правильности составленного документа переходим в панель вебмастера Яндекс в раздел настройка индексирования и там выбираем Анализ robots. txt. В верхней части отображается собственно весь robots, а ниже мы можем ввести адрес страницы или страниц для проверки закрыты они от индексации или нет.
Как пример давайте рассмотрим такой случай: у нас есть на сайте поиск, а поиск всегда генерирует временные страницы с выдачей результата, эти страницы в индексе ПС не нужны и сканировать их роботу тоже не зачем — закрываем от индексации. И здесь вводим любой адрес любого результат поиска и смотрим, что получается.
ЧПУ — человеко-понятные урлы
ЧПУ — это адрес любой страницы с понятным, читаемым урлом без всяких спецсимволов и сессий, как пример это адреса моего блога. Плохой пример — это когда адреса слишком длинные.
Если ваш сайт на русском, то в урле пишите текст на транслитерации, то есть русские слова но написанные латынью, если же на английском, тогда адрес писать стоит на нем. Еще небольшим плюсом есть фактор упоминания ключа в строке адреса сайта, это придает немного релевантности))).
Технический аудит сайта — это важный этап для оптимизации. Необходимо проверить главное зеркало, индексацию, дубликаты, правильность верстки и т.д. Отсутствие такого аудита может негативно сказаться на SEO. Настройка главного зеркала включает 301 редирект и robots.txt.
Технический аудит сайта — важный этап в оптимизации. Необходимо проверять главное зеркало, индексацию, дубликаты, правильность верстки, битые ссылки, скорость загрузки и другие показатели. Настройка главного зеркала сайта также важна для корректного отображения в интернете. Не забывайте про этот этап в своей работе.
Технический аудит сайта — важный этап для SEO-оптимизации. Настройка главного зеркала сайта, индексация, дубликаты, валидность кода и другие факторы важны для успешной работы сайта. Не забывайте про настройку редиректа и robots.txt для правильной индексации.
Технический аудит сайта — важный этап оптимизации, который включает анализ многих факторов, таких как индексация, дубликаты, скорость загрузки и многое другое. Настройка главного зеркала сайта также является важным моментом для улучшения SEO. Редирект и директива Host в robots.txt могут помочь в этом.
Отличная статья! Технический аудит сайта — важный этап оптимизации. Рекомендую обратить внимание на настройку главного зеркала сайта и редиректы. #SEO
Качественный технический аудит сайта является важным шагом для оптимизации SEO. В него входят такие этапы, как анализ главного зеркала, проверка индексации, удаление мусорной информации и дубликатов, создание карты сайта, оптимизация Robots.txt и тегов, проверка валидности кода и верстки, исправление битых ссылок, добавление уникальных элементов, настройка ЧПУ, анализ HTTP заголовков и скорости загрузки, оптимизация хостинга. Необходимо уделить особое внимание данному аудиту, чтобы избежать проблем и улучшить позиции сайта в поисковой выдаче.
Технический аудит сайта — важный этап для оптимизации и продвижения. Не забывайте настраивать главное зеркало и редиректы.
Очень важно провести технический аудит сайта, включая главное зеркало, индексацию, дубликаты, скорость загрузки и т. д. Необходимо настроить редирект и указать главное зеркало в вебмастере. Это важный момент для SEO-оптимизации.
Очень важно проводить технический аудит сайта для оптимизации SEO. Рекомендую обратить внимание на главное зеркало сайта и настройку редиректов. Это поможет улучшить позиции в поисковых системах.
Отличная статья о техническом аудите сайта! Важно проверить все этапы, чтобы улучшить индексацию и устранить проблемы. Без этого аудита, сайт может быть как «Запорожец» в гонках Formula 1.
Отличная статья! Технический аудит сайта — необходимый этап для оптимизации и улучшения его работы.
Очень важно провести технический аудит сайта для улучшения его работы и SEO-оптимизации. Аудит включает анализ зеркала, индексации, дубликатов, карты сайта, кода, верстки, ссылок, элементов, ЧПУ, заголовков и скорости загрузки, блоков и хостинга. Отсутствие аудита — большая проблема для сайта. Настройка главного зеркала также важна для правильного отображения сайта.