[Ответить в тред] Ответить в тред

16/08/16 - Запущен Двач Трекер
01/08/16 - Вернули возможность создавать юзердоски
09/07/16 - Новое API для капчи - внимание разработчикам приложений


Новые доски: /obr/ - Offline Battle Rap • /hv/ - Халява в интернете • /2d/ - Аниме/Беседка • /char/ - Сетевые персонажи • /wwe/ - WorldWide Wrestling Universe • Создай свою

[Назад][Обновить тред][Вниз][Каталог] [ Автообновление ] 21 | 2 | 4
Назад Вниз Каталог Обновить

Аноним 30/08/16 Втр 20:20:15  135192744  
14725776156070.png (11Кб, 400x400)
сап аноны, я уже делал такой тред на который всем было похуй, но пж, поясните дауну что такое робот.ткст и сайтмап, зачем они нужны, как их делать и куда кидать, я просто в ахуе, прочитал про них, вроде понял что-то, но хочу прочитать это на человеческом языке, а не на сленге ебучих сеошников которые выебываются своим сленгом как бабы силиконовым 4-ым размером
Аноним 30/08/16 Втр 20:22:16  135192870
14725777360890.png (12Кб, 400x400)
и сразу бампну деревом чтоб все ахуели с этого донного треда
Аноним 30/08/16 Втр 20:24:22  135192982
>>135192744 (OP)
>что такое робот.ткст
Это такой текстовый файлик, в котором записаны каталоги сервера, в которые запрещён доступ поисковикам(чтобы не индексировались)
>и сайтмап
Не ебу что это, но вроде как карта сайта, чтобы знать, какие ещё есть страницы на сайте.
Аноним 30/08/16 Втр 20:25:11  135193036
Теперь ты доволен?
Аноним 30/08/16 Втр 20:45:04  135194219
>>135192982
>Это такой текстовый файлик, в котором записаны каталоги сервера, в которые запрещён доступ поисковикам
Ну вот нихуя. Не только.
Там могут быть разные инструкции для поисковых роботов, не только запрещающие.
Аноним 30/08/16 Втр 20:46:42  135194314
>>135194219
>>разные инструкции для поисковых роботов
а как собсна реализовать это все
Аноним 30/08/16 Втр 20:49:04  135194464
Двачую описавшихся выше.
Роботс.тхт - набор команд для поисковых роботов, содержит директивы аллау/дисаллау и т.д.
Для яндекса набор директив должен идти отдельно и первым (может и нет). Остальные понимают общие.
Сайтмэп - список всех страниц сайта, из которого поисковики узнают о новых страницах.
Аноним 30/08/16 Втр 20:49:50  135194513
>>135194314
точнее нужно знать какой нибудь язык програмирования или любой знающий инглиш может это сделать?
Аноним 30/08/16 Втр 20:50:53  135194578
>>135194314
Читай мануалы, там всё написано.
Кратко:
Useragent: yandex
Disallow:
Noindex:

Useragent:*
Аноним 30/08/16 Втр 20:51:42  135194624
>>135194314
Ну как. Это же простой текстовый файл, хоть в блокноте его пиши.
Что-нибудь типа

User-agent: Googlebot
Disallow: /folder1/
Allow: /folder1/myfile.html
Аноним 30/08/16 Втр 20:53:10  135194714
>>135194578
Да, с телефона облажался.
User-agent
Аноним 30/08/16 Втр 20:53:32  135194739
>>135194513
Слушай, анон, а вот ты скажи честно, что тебе мешает прочитать ответ на свой вопрос в удивительном месте под название Гугл?

Первая же ссылка найденная:
http://www.robotstxt.org/robotstxt.html
Аноним 30/08/16 Втр 20:54:21  135194786
>>135194624
а скажем сайт сделан в веб конструкторе, тогда
>>User-agent: Googlebot
Allow: domainname/mypage.html

сойдет?
Аноним 30/08/16 Втр 20:55:27  135194864
>>135194739
ну так я говорю, но там как-то закорючками написано, вроде и понятно, но к реализации таким дауном как я не подлежит
Аноним 30/08/16 Втр 20:58:54  135195088
>>135194786
Да вообще допизды, в чем он там сделан, поисковый робот про это знать не знает и его это не ебет.

По умолчанию они и так все allow, так что нахуй про это писать?

Если тебе нужно запретить индексацию каких-то страниц - запрещай. Если не нужно - прекрати телебонькать и сконцентрируйся на самом сайте.
Аноним 30/08/16 Втр 21:02:16  135195327
>>135195088
суть в том что моя страница индексируется, но в описании пишет что-то наподобие "информация о сайте отсутсвует в связи с отсутсвием robots.txt" а сейчас вообще ахуел и не пишет в описании то что должен, а просто текст из контента или с главной страницы
Аноним 30/08/16 Втр 21:07:14  135195659
>>135195327
>информация о сайте отсутсвует в связи с отсутсвием robots.txt
Ну хуй с ним, создай формальный пустой файл, что-нибудь типа
User-agent: *
Disallow: /wp-admin/

>и не пишет в описании то что должен
А что должен-то? Ты meta keywords и meta description прописал нормально?
Аноним 30/08/16 Втр 21:09:40  135195777
>>135195659
вроде да
Аноним 30/08/16 Втр 21:29:23  135197068
>>135195777
По твоим ответам хуй поймешь, что там у тебя не работает.
Аноним 30/08/16 Втр 21:39:19  135197840
>>135197068
трабл вот в чем, есть два файла /robots.txt и /Robots.txt и они обе разные, я хз почему так получилось, но в каталоге файлов первого нет, есть только с заглавной буквой
Аноним 30/08/16 Втр 21:50:17  135198567
>>135197840
По стандартам большие и маленькие буквы отличаются. Так что переименуй по правильному (с маленькой), иначе это файл нахуй никто не увидит.
Аноним 30/08/16 Втр 21:54:00  135198806
>>135198567
спасибо, щас сделаю

[Назад][Обновить тред][Вверх][Каталог] [Реквест разбана] [Подписаться на тред] [ ] 21 | 2 | 4
Назад Вверх Каталог Обновить

Топ тредов
Избранное