Если поисковые роботы не обнаружат в корне сайта файл robots.txt, то будут сканировать все его страницы. Среди них могут оказаться служебные, технические, в том числе с дублированным контентом. Подобные страницы будут низко оцениваться роботами и препятствовать
SEO-продвижению. Сайт, который роботы считают низкокачественным, не поднимется на первые позиции органической выдачи.