1C Bitrix

Не получается заменить файл robots.txt в 1С Bitrix - Решено

Время чтения - 10 мин
Количество прочтений
1162
Дата публикации —
17 сентября 2024
Пробовал заменить файл robots.txt через FTP и административную панель, всё меняется, проблем нет, но когда проверяю файл на сайте (вида https://site.ru/robots.txt), то отображается другой файл. В чем может быть проблема?
Николай Загорельский

Почему может не обновляться robots.txt в битрикс

Несмотря на то, что файл robots.txt в 1C bitrix может быть изменен или загружен через FTP или административную панель, на сайте продолжает отображаться старая версия файла или вовсе какой-то непонятный контент. Даже в случаях, когда файл удаляется полностью из корневой директории сайта, при переходе по ссылке robots.txt он продолжает быть доступен с прежним содержимым. Редкая проблема, которая очень легко решается. Я опишу 3 способа, которые смогут вам помочь.

1. Очистите файлы кеша

Если вы внесли изменения на сайт на CMS 1C-bitrix, но они отображаются только при просмотре сайта в административной панели (т.е если открыть сайт в режиме инкогнито, то всё будет по старому), то нужно очистить кеш:

1. Заходим в административную панель сайта
2. Переходим в “Настройки” —> Настройки продукта —> Автокеширование
3. Выбираем таб **“Очистка файлов кеша”**
4. Выбираем “Все”
5. Нажимаем “Начать”

2. Удалите файл robots.php

Если вариант выше не сработал, то вариант 2 и 3 вам подходят. Найдите в корневой папке файл robots.php сохраните его себе и удалите из корня сайта.

«Это может помочь, так как robots.php часто используется для динамической генерации содержимого файла, что может мешать корректной работе статического robots.txt.»

Однако стоит учитывать, что удаление robots.php приведет к отключению динамической настройки индексации, что важно для сайтов с региональными версиями или поддоменами. Этот способ подойдет, если у вас нет необходимости в таких настройках, и сайт не использует поддомены для разных регионов.

Если же вы хотите сделать все правильно и избежать проблем в будущем, лучше применить метод №3.

3. Правильная настройка файла robots.txt через robots.php

Для корректной работы .txt файла на сайте, не удаляя файл .php, можно внести изменения в сам .php файл, который управляет динамической генерацией правил для поисковых систем. Для этого:
1. Откройте файл robots.php и найдите строку, где задается путь к файлу robots.txt. Обычно это выглядит так:
{$hostname} - динамически подставляет имя текущего хоста (домена) и определяет, какой файл robots.txt будет использоваться для конкретного домена или поддомена.

2. Перейдите в указанную директорию, например, /aspro_regions/robots/;
3. Найдите в ней файл, соответствующий вашему основному сайту, например, robots_example.com.txt;
4. Откройте этот файл и внесите туда необходимые правила;
5. После того, как вы внесете изменения и сохраните файл, при запросе robots.txt на вашем сайте будет отображаться именно тот файл, который вы изменили.
Таким образом, вы можете сохранить гибкость настройки для разных доменов и поддоменов, не теряя контроля над основным robots.txt.

«Если у вас остались вопросы, то вы можете задать их в telegram. По более серьезным вопросам рекомендую заказывать консультацию

Остались вопросы?
Оставьте свой номер телефона и я отвечу на все вопросы
Нажимая на кнопку, вы даете согласие на обработку своих персональных данных и соглашаетесь с политикой конфиденциальности

Еще статьи по данной теме:

Made on
Tilda