Предлагаю добавить поддержку Nginx, аналогично Apache в 1С Битрикс. Это позволит не только отслеживать состояние сайта на веб-сервере Apache, но на веб-сервере Nginx. Многие используют на VDS только Nginx без Apache, такая связка дает увеличение в производительности сервера. А при поддержке 1С Битрикса часть ошибок и настроек будет доступно из "пакета".
Надеюсь мое обращение достигнет результата. Желаю Всем высокодоходных сайтов!
Это частный кейс, который, требует частного решения - правки конфигов под нужды проекта. Конфигурация виртуальной машины слишком общая, дабы делать какие-то хаки для конкретных third-party ресурсов. Тем более, что проверка referer'а в целом сомнительное решение.
Быть может лучшим решением было бы посмотреть в сторону CSP (Content Security Policy). Таким образом: 1. Оставляем "X-Frame-Options: SAMEORIGIN" в покое 2. Настраиваем CSP с учетом необходимостей вашего проекта. В том числе и frame-ancestors (Chrome 40+, FF 33+)
И как бонус, повысите безопасность проекта в целом. Разумеется, при условии адекватной настройки CSP
В новом модуле поискового продвижения есть возможность редактировать robots.txt.
Увы нельзя задать имя полученному файлу.
Это нормально, когда сайты в Битрикс имеют отдельные папки (через DOCUMENT_ROOT или SITE_DIR). Но бывает ситуации, когда папки для ряда сайтов общие - получаем общий набор файлов для сайтов.
В итоге сайтов несколько, а robots.txt у них один и нельзя сделать их разными (это удобно для указания на sitemap - его имя, к счастью, можно в настройках указать).
Добавлено по комментариям: Отдавать разные версии robots.txt в этой ситуации можно средствами nginx. Главное в этой идее не второй шаг (я привел в пример неэффективный способ отдачи средствами PHP), а первый - сама возможность сохранить различные версии robots.txt для сайтов в такой конфигурации.
Добавлено после осмотра исходников модуля seo 14.5.0 (18.04.2014): Улучшений нет никаких. Имя robots.txt вбито в константе \Bitrix\Seo\RobotsFile::ROBOTS_FILE_NAME и ничего с этим не поделать ни с помощью событий (их нет), ни с помощью глубокой кастомизации (я имею в виду создание своего класса унаследовав от стандартного). Функционал редактирования robots.txt на сайтах с одной общей папкой сейчас неупотребим.
Предлагаю опубликовать ставшие уже стандартными решения по увеличению производительности сайта с применением кэша nginx (в location), отключением модуля компрессии (так как в nginx он лучше и быстрее), использованием fast-cgi. + Добавить дополнительные параметры-модификаторы в html cache так как иначе его использовать полная бессмыслица на сайте чуть больше чем простой. В идеале сделать его фактически настраиваемым компонентом кэша nginx
Быть может лучшим решением было бы посмотреть в сторону CSP (Content Security Policy). Таким образом:
1. Оставляем "X-Frame-Options: SAMEORIGIN" в покое
2. Настраиваем CSP с учетом необходимостей вашего проекта. В том числе и
И как бонус, повысите безопасность проекта в целом. Разумеется, при условии адекватной настройки CSP