Все что вы делаете вы делаете на свой страх и риск. Я могу только рекомендовать и не претендую на 100% решение, многое зависит от вашего окружения и прочих настроек. О которых я могу и не догадываться. Дополнение материалов и исправление ошибок приветствуется.

Рано или поздно, но эффект сходит на нет. не скажу что это был плохой опыт. Пришло время констатировать, что ни дохода ни трафика со страниц толком уже нет.

По этому если вы как я задумались отключить турбо страницы, то вот вам простое и эффективное решение. Срок удаления одни сутки, что очень оперативно,я  признаться не верил пока не попробовал.

Допилил редиректы, посмотрим как отреагируют роботы и метрики. А сейчас вот что вышло у меня.
задача настроить Nginx, чтобы добавить везде www  и сделать безусловный редирект на этот адрес сайта, а второе и самое важное безусловное перебрасывание на https версию.

server {
listen 80;
server_name <ваш_сайт>;
return 301 https://www.$server_name$request_uri;
rewrite ^/(.*) https://www.$server_name$request_uri? permanent;
}
server {
listen 443 ssl http2;
server_name www.<ваш_сайт>;
server_name_in_redirect off;

Как убрать при этом robot.txt можно из редиректа можно узнать здесь: Открываем доступ к robots.txt в NGINX при HTTPS-only

 

Боремся с ошибками веб-сервера. Исправление ошибки в логах сервера Nginx:

[warn] 24678#0: *2903 an upstream response is buffered to a temporary file /var/lib/nginx/tmp/fastcgi/9/12/0000000129 while reading upstream, client:

Проблема вызвана недостаточным размером буфера Nginx, связи с чем для передачи полученных от PHP данных, Nginx предварительно записывает их во временный файл на диске.

Исправить: an upstream response is buffered to a temporary file

Для устранения предупреждения, необходимо увеличить размер буфера в Nginx. Для этого в секцию location ~ .php$, необходимо добавить следующие параметры:

fastcgi_buffers 4 256k;
fastcgi_busy_buffers_size 256k;
fastcgi_temp_file_write_size 256k;

В итоге должно получится как в примере ниже:

location ~ .php$ {
try_files $uri = 404;
fastcgi_pass unix:/var/run/php-fpm.sock;
fastcgi_index index.php;
fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name;
fastcgi_buffers 4 256k;
fastcgi_busy_buffers_size 256k;
fastcgi_temp_file_write_size 256k;
include fastcgi_params;
}

подробнее о данных параметрах на github.

Не так много полезного в моих строках, сколько попытка собрать в одном месте все "хаки", который приходится делать.
И так чтобы у нас при полном HTTPS был доступен для роботов файл robots.txt  с правильной директивой Host необходимо его создать. И в этом нет проблем, но если у вас как в моем случае закрыт доступ по HTTP более чем полностью, то как же донести до роботов ваш robots.txt . 
На данный момент я не нашёл ничего проще, чем открыть доступ только к robot.txt по 80 порту для этого в разделе настроек https для вашего домена добавляем следующее:

location / {
            location = /robots.txt {
                    rewrite ^ /robots.txt break;
         }
}

Смотрите также: Редирект 301 c http на https и с no-www на www

Подборка полезных ссылок связанных с созданием сайта. Это то, что мне в данный момент необходимо под рукой. 

Благодарю вас за вашу поддержку и доверие. Нажмите кнопку "Пожертвовать" и помогите мне продолжать делиться ценными знаниями и информацией с миром. Посетите страницу >> Поддержите проект.

Популярные метки