Все что вы делаете вы делаете на свой страх и риск. Я могу только рекомендовать и не претендую на 100% решение, многое зависит от вашего окружения и прочих настроек. О которых я могу и не догадываться. Дополнение материалов и исправление ошибок приветствуется.

Допилил редиректы, посмотрим как отреагируют роботы и метрики. А сейчас вот что вышло у меня.
задача настроить Nginx, чтобы добавить везде www  и сделать безусловный редирект на этот адрес сайта, а второе и самое важное безусловное перебрасывание на https версию.

server {
listen 80;
server_name <ваш_сайт>;
return 301 https://www.$server_name$request_uri;
rewrite ^/(.*) https://www.$server_name$request_uri? permanent;
}
server {
listen 443 ssl http2;
server_name www.<ваш_сайт>;
server_name_in_redirect off;

Как убрать при этом robot.txt можно из редиректа можно узнать здесь: Открываем доступ к robots.txt в NGINX при HTTPS-only

 

Боремся с ошибками веб-сервера. Исправление ошибки в логах сервера Nginx:

[warn] 24678#0: *2903 an upstream response is buffered to a temporary file /var/lib/nginx/tmp/fastcgi/9/12/0000000129 while reading upstream, client:

Проблема вызвана недостаточным размером буфера Nginx, связи с чем для передачи полученных от PHP данных, Nginx предварительно записывает их во временный файл на диске.

Исправить: an upstream response is buffered to a temporary file

Для устранения предупреждения, необходимо увеличить размер буфера в Nginx. Для этого в секцию location ~ .php$, необходимо добавить следующие параметры:

fastcgi_buffers 4 256k;
fastcgi_busy_buffers_size 256k;
fastcgi_temp_file_write_size 256k;

В итоге должно получится как в примере ниже:

location ~ .php$ {
try_files $uri = 404;
fastcgi_pass unix:/var/run/php-fpm.sock;
fastcgi_index index.php;
fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
fastcgi_buffers 4 256k;
fastcgi_busy_buffers_size 256k;
fastcgi_temp_file_write_size 256k;
include fastcgi_params;
}

подробнее о данных параметрах на github.

Не так много полезного в моих строках, сколько попытка собрать в одном месте все "хаки", который приходится делать.
И так чтобы у нас при полном HTTPS был доступен для роботов файл robots.txt  с правильной директивой Host необходимо его создать. И в этом нет проблем, но если у вас как в моем случае закрыт доступ по HTTP более чем полностью, то как же донести до роботов ваш robots.txt . 
На данный момент я не нашёл ничего проще, чем открыть доступ только к robot.txt по 80 порту для этого в разделе настроек https для вашего домена добавляем следующее:

location / {
            location = /robots.txt {
                    rewrite ^ /robots.txt break;
         }
}

Смотрите также: Редирект 301 c http на https и с no-www на www

Сайт у нас молодой, зелёный и только начинает обрастать всякими вкусностями и полезностями. Что хочется отметить, так это стабильный приток новых пользователей. Нет их не десятки миллионов и не тысячи, а просто десятки. Но приятно это тем что и несмотря на отрицательный тренд, уже больше недели не было такого чтобы никто не заглянул, потихоньку мой маленький проект разгоняется. 

Безусловно, помогли мне в этом проделки компании Microsoft и то что я быстро разобрался в чем дело.

"Непонятный файл aria-debug размером в несколько Гб" и непонятный возросший интерес к вопросу "Как разблокировать небезопасное вложение в outlook" , но как я сам лично столкнулся не все так гладко и как всегда:
"Есть ровно две книги как должно быть и как есть на самом деле, обе надо прочитать чтобы во всем разобраться"

Подборка полезных ссылок связанных с созданием сайта. Это то, что мне в данный момент необходимо под рукой. 

Если вам помогла статья или информация была полезной. Благодарность, не должна знать границ.

Популярные метки