Консультация № 177769
09.04.2010, 07:16
0.00 руб.
0 1 0
Привет!
Не знал, куда задать этот вопрос.

Зарегистрировал сайт в инструментах Google.

Sitemap не принимается потому что robots.txt:

# default
User-agent: *
Disallow: /index.html
Disallow: /

Оказалось, что хостер по умолчанию такой затык ставит.

Переписал robots.txt:

User-agent: *
Allow: /

Теперь Google всё равно пишет в "доступе для сканера": "http://magia-shtor.com.ua/robots.txt 1 ч. назад 200 (Успешно) Для робота Google установлен запрет на http://magia-shtor.com.ua/"

И ниже показывает картинку роботс от неумного хостера.

Как скоро Гугл снова возьмёт роботс у меня, а не из своего кеша?

Обсуждение

Неизвестный
14.04.2010, 11:19
общий
Всем спасибо.

Выручили.
Форма ответа