Инструменты пользователя

Инструменты сайта


let_s_encrypt

Let’s Encrypt

Homepage: Let’s Encrypt is a free, automated, and open Certificate Authority

Чтобы получить сертификат для вашего домена, вам необходимо запустить клиентскую часть на вашем сервере. Ограничения. Стоит отметить, что Let’s Encrypt выдает лишь DV-сертификаты, и если вам необходим другой тип сертификата (EV или OV), то следует обращаться к более традиционным провайдерам. DV сертификаты от Let’s Encrypt выдаются на конкретный список доменов и поддоменов (SAN/UCC), т.е. вы не можете получить wildcard-сертификат. Также следует упомянуть, что на данный момент вы можете производить всего до 10 регистраций с одного IP адреса каждые 3 часа, и до 5 сертификатов для одного домена (включая любые поддомены) каждые 7 дней. В будущем эти ограничения могут измениться.

Инсталляция Certbot в Ubuntu 16.04 (https://certbot.eff.org/#ubuntuxenial-apache)

sudo apt-get update
sudo apt-get install software-properties-common
sudo add-apt-repository ppa:certbot/certbot
sudo apt-get update
sudo apt-get install python-certbot-apache 

Для получения SSL сертификата выполнить:

sudo certbot --apache

letsencrypt запуск в cron для Ubuntu 16.04.2 LTS

Настройка cron: letsencrypt будет запускаться каждый понедельник 5 часов утра только для обновления устаревших SSL сертификатов.

sudo crontab -e
0 5 * * 1 /usr/bin/letsencrypt renew

или создать файл /etc/cron.d/certboot который будет раз в месяц проверять сертификаты

certboot
@monthly root /usr/bin/letsencrypt renew

Правила 301 редирект letsencrypt

Ниже приведены правила для 301 редиректа, которые автоматически генерирует утилита letsencrypt (certbot) после своего запуска. Этот код можно применять и без certbot, в данном примере нужно заменить сайт wiki.dieg.info на ваш. Также добавлен строка отменяющая 301 редирект файла robots.txt. В этой конфигурации файл robots.txt доступен как по протоколу HTTPS так и по протоколу HTTP.

RewriteEngine on
RewriteCond %{REQUEST_URI} !^/robots\.txt$
RewriteCond %{SERVER_NAME} =wiki.dieg.info
RewriteRule ^ https://%{SERVER_NAME}%{REQUEST_URI} [END,QSA,R=permanent]
В интернете много примеров как исключить robots.txt, но большинство из них НЕ работает. Одна из причин, потому что не приводится полный конфигурационный файл. Ниже полный листинг правильного файл перенаправляющего запросы с HTTP на HTTPS и важно! файл .htaccess НЕ используется.

Файл /etc/apache2/sites-enabled/wiki.dieg80.conf

wiki.dieg80.conf
<VirtualHost _default_:80>
        ServerName wiki.dieg.info
        ServerAdmin webmaster@dieg.info
 
        DocumentRoot /var/www/wiki.dieg/wikionline
 
<Directory /var/www/wiki.dieg/wikionline/>
        Options +FollowSymLinks +MultiViews -Indexes
        AllowOverride All
        Order deny,allow
        allow from all
</Directory>
 
RewriteEngine on
RewriteCond %{REQUEST_URI} !^/robots\.txt$
RewriteCond %{SERVER_NAME} =wiki.dieg.info
RewriteRule ^ https://%{SERVER_NAME}%{REQUEST_URI} [END,QSA,R=permanent]
 
</VirtualHost>
загрузка...
let_s_encrypt.txt · Последние изменения: 2018/02/27 08:35 — darkfire