Вопрос: Что делают роботы поисковых систем?

Автор Анонимный вопрос задал интересный вопрос в категории Поисковые системы, Роботы. Он спрашивает: Что делают роботы поисковых систем?. Среди полученных ответов он выбрал самый точный и полный ответ.

Самый полезный ответ для автора Анонимный вопрос

Пока лучший ответ не выбран

Кроме этого другие посетители написали 3 ответа

Поисковые роботы блуждают от сайта к сайту. Они всегда в поисках новой информации посещают миллионы веб-страниц. Ведь каждый день в сети публикуется огромное количество свежего материала, сайтов, страниц и, в конце концов, люди редактируют старые страницы. Всё это нужно отслеживать. Поисковый робот не имеет ни выходных, ни праздников, работает круглые сутки. И как только он найдёт новый материал или страницу, то тут же заносит информацию в специальную базу поисковых систем.

Поисковые роботы или «веб-пауки» выполняют для поисковой системы информационно-разведывательную и аналитическую работу — эти программы осуществляют сбор новой информации в сети интернет. У каждой поисковой системы существует много различных поисковых роботов.Учитывая, что поисковый робот должен быть минимизирован с точки зрения потребления ресурсов, для анализа содержимого одного веб-документа могут применяться несколько различных «веб-пауков»: текстовые, графические, видео-, ссылочные и другие программы.***Простейшее устройство поискового робота предусматривает транспортную и аналитическую часть.Сведения о том, как анализируется собранная пауками информация и какие результаты извлекаются из обработанной информации, являются частью интеллектуальной системы поискового сервиса и, как правило, защищаются от разглашения.Различные поисковые системы используют поисковых роботов, которые следуют инструкциям, указанным в:файле robots.txt;мета-теге «robots» части «head» html-документа;микроразметке тела html-документа.***Правильное применение инструкций по управлению поисковыми роботами на исследуемом ресурсе позволяет оптимизировать индексирование сайта в поисковой системе и помогает избежать сбоев в работе сервера при превышении лимита трафика.Собираемая поисковыми роботами информация, помогает оперативному обновлению в поисковой системе сведений о ресурсе, способствует более точному определению характера самого ресурса, его тематической выдачи, а также корректировке других особенностей релевантного представления пользователю данных о ресурсе.***Подробнее узнать об особенностях индексирования графических файлов поисковыми системами можно на канале «ИНФОРМАЦИОННОЕ ПРАВО в обществе» в статье «Поиск по картинкам — пират?» и «Процитировал фотку — могут взыскать».25 февраля 2019 года.автор: Демешин Сергей Владимирович.

Поисковые роботы индексируют, анализируют, проводят сбор информации о видео, изображениях, xml-файлах, файле robots.txt и т.д. Если кратко, то поисковой робот собирает необходимые данные, которые он потом передает индексатору поисковой машины.