Воскресенье, 29.09.2024, 21:27
Мой сайт
Приветствую Вас Гость | RSS
Главная | Каталог статей | Регистрация | Вход
Меню сайта

Категории раздела
Раскрутка сайта [8]
Оптимизация сайта [5]
Статьи о зароботке [0]
Веб мастеру [8]
Остальное [4]

Мини-чат
Автообновление каждые


Осталось 200 символов

Наш опрос
Оцените мой сайт
Всего ответов: 30

Статистика

Онлайн всего: 8
Гостей: 8
Пользователей: 0

Форма входа


Главная » Статьи » Оптимизация сайта

Поисковые роботы. Особенности их работы. Ускорение индексации сайта.
Вопросы SEO я не так часто поднимаю на своем блоге, ведь тема не самая простая, да и существует масса специализированный информационных источников и блогов про SEO. Тяжело со всеми ими конкурировать с учетом специфики моего блога. Однако, если и берусь за тематические статьи про продвижение, то результаты получаются отменные. К примеру, статья «nofollow: что это такое и использовать или нет?» стала сверх популярной: 64 комментария, множество обратных ссылок и 3-я позиция в Google по ключевику «nofollow», что ежемесячно приносит приличный трафик.

Поэтому сегодня я решила задеть тему SEO и написать статью про одну из фундаментальных вещей: индексация страниц и особенности работы поисковых роботов.

Что такое индексация страниц? Это анализ поисковым роботом страниц сайта и занесение информации о них в собственную базу. Поисковой робот, в свою очередь, – это специальная программа, с помощью которой поисковая система постоянно накапливает и обновляет собственную базу данных сайтов для дальнейшего использования в поисковых алгоритмах. Суть работы робота – поиск новых ссылок на сайтах, переход по этим ссылкам на страницу и сбор информации. Таким образом, если ссылка ведет в никуда или если на страницу не существует не единой ссылки, то такая страница не попадает в поисковую базу и соответственно ее не будет в результатах поиска.

Существует несколько основных причин, по которым страницы не индексируются поисковыми роботами:

Навигация на сайте реализована в Flash, который большинство поисковых роботов не умеют анализировать.
Ссылкиреализованыспомощью Javascript или Ajax. Аналогичнаяпроблема. Правда Javascript-ссылки научились анализировать многие поисковые роботы, а вот с Ajaxпо-прежнему большая проблема
Навигация на сайте реализована через формы. Большинство роботов не умеют заполнять формы и поэтому не получают доступ к страницам (это актуально в случае, если необходимо выбирать элемент из выпадающего списка для перехода).
Роботы не имеют доступа к страницам, доступ к которым имеют только авторизированные пользователи.

Например, если на вашем сайте 500 страниц, а индексировано всего 350 из них, это значит что 150 страниц не приносят вам должного эффекта и трафика.

Существуют стандартные средства улучшения индексации сайта:

Создавайте навигацию с дружелюбным для поисковых систем CSS кодом, который позволяет реализовывать динамические элементы на подобие Flash.
Добавляйте альтернативные ссылки на страницы, необходимо сделать грамотную перелинковку.
Создайте карту сайта. Не размещайте более 100 ссылок на одной странице. Карта сайта может состоять из нескольких страниц.
Создавайте XML карту сайта (sitemap) специально для поисковых роботов с перечнем абсолютно всех страниц на сайте.
Чаще обновляйте информацию на сайте, это повлияет на частоту визитов поискового робота.
Закрывайте от роботов неинформативные и служебные страницы, чтобы сузить область индексации.
Наращивайте число обратных ссылок на сайт и на конкретные страницы сайтов: это можно делать через регистрацию сайта в каталогов, через размещения статей с ссылками на ресурс в специализированных порталах и т.д..

Категория: Оптимизация сайта | Добавил: vovgar (20.05.2011)
Просмотров: 406 | Рейтинг: 0.0/0
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]
Поиск

Copyright MyCorp © 2024