Leistungsstarke Möglichkeiten, Ihren NGINX-Server aufzuladen und seine Leistung zu verbessern

NGINX ist vielleicht der vielseitigste Webserver auf dem Markt und kann bei korrekter Konfiguration andere Server schlagen. Es kann auch andere wichtige Dinge tun, wie z. B. Lastausgleich, HTTP-Caching, und kann als Reverse-Proxy verwendet werden.

Im Laufe der Jahre haben wir so viele Konfigurationen gesehen, die die Sicherheit verbessern und die Leistung Ihrer Webanwendung insgesamt steigern - so dass Sie mit den neuesten Trends Schritt halten können.

Ich werde die minimalistische NGINX-Konfiguration teilen, die ich für am optimiertesten befunden habe und die ich für mein neues Tool VisaList verwendet habe. Ich musste viel suchen und recherchieren, um die Leistung meiner Website auf der letzten Meile zu verbessern, und ich dachte, der Prozess könnte zumindest einigen anderen helfen - also teile ich ihn hier.

Warum?

Mit diesen Änderungen konnte ich das folgende Ergebnis für meine neue Web-App erhalten:

Page Speed ​​Score: Einblicke in die Seitengeschwindigkeit

Leuchtturm Punktzahl: Chrome Dev Tools Lighthouse

Server Score: Qualys SSL Server Test

Auch Sie können diese Leistungsvorteile problemlos nutzen. Sie müssen kein DevOps-Experte sein, um diese Optimierungen vorzunehmen. Jeder, der neu in Webanwendungen ist und NGINX verwendet, wird dies sehr nützlich finden.

Wenn Sie ein Experte sind, können Sie Ihre Meinung in den Kommentaren hinterlassen, damit die neuen Entwickler wie ich lernen und eine starke und positive Web-Community um uns herum aufbauen können. ✨ Gehen Sie zu Webentwicklern!

In diesem Artikel wird davon ausgegangen, dass Sie einen Ubuntu 16.04 (Xenial) -Server und einen Server haben, auf dem WebApp Vue.js (oder eine andere JS-Framework-Anwendung) gerendert ist, um über NGINX zusammen mit dem API-Server bereitgestellt zu werden. Wenn Sie NGINX nicht installiert haben und dabei Hilfe benötigen, können Sie diesen Artikel lesen .

Worüber spreche ich also? Mal sehen, den Code!

Optimierungen

Die gute Nachricht ist, dass Sie sich nur um zwei Dateien kümmern müssen. Eine davon ist Ihre allgemeine NGINX-Konfiguration, die für alle Web-Apps gilt (Sie können mehrere Web-Apps wie eine Website, eine API, einen statischen Server usw. verwenden). Der andere ist spezifisch für Ihre Domain, was beispielsweise der Fall ist example.com. Ersetzen Sie example.comdurch Ihre eigene Domain. Hier benutze ich nur die nackte Domain ohne www. Ich werde das bald behandeln.

Öffnen Sie Ihre NGINX-Konfigurations- oder domänenspezifische Konfigurationsdateien mit den folgenden Befehlen:

sudo nano /etc/nginx/nginx.conf sudo nano /etc/nginx/sites-available/example.com

Inhaltskomprimierung

Ist Brotli besser als GZip ? Ja und Nein. Wenn der Browser eine Webseite anfordert, sendet der Server diese nicht direkt byteweise. Stattdessen wird es in einem komprimierten Zustand gesendet, der auf den akzeptierten Codierungen des Browsers basiert. Heutzutage verwendet fast jeder Gzip, und Sie fragen sich vielleicht warum? Weil es schon mehr als ein Jahrzehnt gibt.

Hier kommt also Brotli, der neueste von Google entwickelte Codierungsalgorithmus. Brotli ist ~ 20% effizienter als Gzip. Denken Sie daran, dass Sie Inhalte in Gzip senden sollten, wo Brotli nicht unterstützt wird. Brotli funktioniert am besten mit statischen Dateien und nicht mit dynamischen Inhalten.

Stellen Sie außerdem sicher, dass Sie den Brotli-Typ für API-JSON-Daten nur aktivieren, wenn Ihre clientseitige HTTP-Bibliothek dies unterstützt. Beispielsweise unterstützt die Axios-Bibliothek die Brotli-Codierung noch nicht.

http { ... # Gzip Settings gzip on; gzip_disable "msie6"; gzip_vary on; gzip_proxied any; gzip_comp_level 6; gzip_buffers 32 16k; gzip_http_version 1.1; gzip_min_length 250; gzip_types image/jpeg image/bmp image/svg+xml text/plain text/css application/json application/javascript application/x-javascript text/xml application/xml application/xml+rss text/javascript image/x-icon; # Brotli Settings brotli on; brotli_comp_level 4; brotli_buffers 32 8k; brotli_min_length 100; brotli_static on; brotli_types image/jpeg image/bmp image/svg+xml text/plain text/css application/json application/javascript application/x-javascript text/xml application/xml application/xml+rss text/javascript image/x-icon; ... }

Sobald Sie diese Änderungen hinzugefügt haben, können Sie überprüfen, ob die Inhaltscodierung brin den Antwortheadern der Chrome-Entwicklertools angezeigt wird:

Verbessern Sie die Sicherheit

Standardmäßig verfügt Ihr NGINX nicht über alle wichtigen Sicherheitskopfzeilen, was eigentlich ziemlich einfach ist. Diese verhindern Clickjacking-Angriffe, Cross-Site-Scripting-Angriffe und andere Code-Injection-Angriffe.

Strict-Transport-SecurityDer Header ist für HTTP Strict Transport Security (HSTS) vorgesehen, das auch vor Protokoll-Downgrade-Angriffen schützt.

http { ... # security headers add_header X-Frame-Options "SAMEORIGIN" always; add_header X-XSS-Protection "1; mode=block" always; add_header X-Content-Type-Options "nosniff" always; add_header Referrer-Policy "no-referrer-when-downgrade" always; add_header Content-Security-Policy "default-src * data: 'unsafe-eval' 'unsafe-inline'" always; add_header Strict-Transport-Security "max-age=31536000; includeSubDomains; preload" always; ... }

Optimieren Sie SSL und Sitzungen

SSL: Verwendung unter TLS und Deaktivierung von SSL (SSL ist ziemlich alt und veraltet und weist viele Schwachstellen auf). Optimieren Sie Cipher Suites, da sie den Kern von TLS bilden. Hier erfolgt die Verschlüsselung.

Sitzungscache: Durch das Erstellen eines Caches mit TLS-Verbindungsparametern wird die Anzahl der Handshakes reduziert und somit die Leistung Ihrer Anwendung verbessert. Das Caching wird mithilfe der ssl_session_cacheDirektive konfiguriert .

Sitzungstickets: Sitzungstickets sind eine Alternative zum Sitzungscache. Im Falle eines Sitzungscaches werden Informationen über die Sitzung auf dem Server gespeichert.

OSCP: Um eine sichere Verbindung zu einem Server herzustellen, muss der Client das vom Server vorgelegte Zertifikat überprüfen. Um zu überprüfen, ob das Zertifikat nicht widerrufen wird, kontaktiert der Client (Browser) den Aussteller des Zertifikats. Dies erhöht den Overhead bei der Verbindungsinitialisierung (und damit bei der Ladezeit unserer Seite).

Verwenden Sie diese Anweisungen in Ihrer NGINX-Konfiguration, und Sie sind bereit für die SSL-Optimierung.

http { ... # SSL Settings ssl_protocols TLSv1 TLSv1.1 TLSv1.2; ssl_prefer_server_ciphers on; ssl_ciphers ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305:ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-GCM-SHA384:DHE-RSA-AES128-GCM-SHA256:DHE-RSA-AES256-GC$ # Optimize session cache ssl_session_cache shared:SSL:50m; ssl_session_timeout 1d; # Enable session tickets ssl_session_tickets on; # OCSP Stapling ssl_stapling on; ssl_stapling_verify on; resolver 8.8.8.8 8.8.4.4 208.67.222.222 208.67.220.220 valid=60s; resolver_timeout 2s; ... }

Verbessern Sie die Leistung: HTTP / 2-Unterstützung

HTTP / 2 bietet gegenüber HTTP viele Vorteile, z. B. das parallele Herunterladen von Dateien durch den Browser und das Übertragen von Ressourcen durch den Server. Alles , was Sie tun müssen, ist zu ersetzen httpmit http2in Ihrem Standard - Server - Block. Das war's und Sie erhalten viele, viele Vorteile.

server{ ... listen 443 http2 default_server; listen [::]:443 http2 default_server; server_name example.com; ... }

Geben Sie diesen Befehl ein curl -I -L //example.comund überprüfen Sie die Antwort.

HTTP/2 200 server: nginx date: Wed, 18 Jul 2018 02:13:32 GMT content-type: text/html; charset=utf-8 content-length: 216641 vary: Accept-Encoding ....

Verschrotten / Angriffe reduzieren

Limiting the requests to the server is critical, as this can easily deplete the resources and can result in huge billings. This is also important to fend off those who want to scrape and attack our servers. There are basically three types of directives:

  • Request Limiting limit_req : Limit the number of requests per IP
  • Connections Limiting limit_conn : Limit the number of Connections per IP
  • Bandwidth/Rate Limiting limit_rate : Limit the bandwidth rate of data being sent

With the below directive, you can rest easy:

http { ... # Limits limit_req_log_level warn; limit_req_zone $binary_remote_addr zone=reqlimit:10m rate=10r/m; limit_conn_zone $binary_remote_addr zone=connlimit:100m; limit_conn servers 1000; # Simultaneous Connections ... }
... server { ... location /api/ { # Rate Limiting limit_req zone=reqlimit burst=20; # Max burst of request limit_req_status 460; # Status to send # Connections Limiting limit_conn connlimit 20; # Number of downloads per IP # Bandwidth Limiting limit_rate 4096k; # Speed limit (here is on kb/s) } ... }

Client-side Caching

Caching static files on the browser is easy, and it saves lot of requests to the server. All you have to do is add these two code blocks and specify the expiration as you please. You can include any other static file extension you deem worthy of caching.

server { ... location / { ... ... } ... ... location ~* \.(jpg|jpeg|png|gif|ico)$ { expires 30d; } location ~* \.(css|js)$ { expires 7d; } ... }

Microcaching

If you haven’t heard about this until now, then you are in luck today! Microcaching is a caching technique in which content is cached for a very short period of time, perhaps as little as 1 second. This effectively means that updates to the site are delayed by no more than a second, which in many cases is perfectly acceptable. This is particularly useful for API responses which are the same for all users.

Use these directives to set microcaching with the path at /tmp/cacheapi with 100MB cache with a max size of 1GB of cache folder that updates cache in the background. Learn more about it here and here.

proxy_cache_path /tmp/cacheapi levels=1:2 keys_zone=microcacheapi:100m max_size=1g inactive=1d use_temp_path=off; ... server { ... location /api/ { # Micro caching proxy_cache microcacheapi; proxy_cache_valid 200 1s; proxy_cache_use_stale updating; proxy_cache_background_update on; proxy_cache_lock on; ... ... } ... }
http { ... add_header X-Cache-Status $upstream_cache_status; ... }

SSL Certificate

Let’s Encrypt is a Certificate Authority (CA) that provides an easy way to obtain and install free TLS/SSL certificates. This enables encrypted HTTPS on web servers. It simplifies the process by providing a software client, Certbot, that attempts to automate most (if not all) of the required steps.

Install LetsEnctypt:

sudo add-apt-repository ppa:certbot/certbot sudo apt-get update sudo apt-get install python-certbot-nginx

Create a LetsEncrypt SSL certificate with this command:

sudo certbot --nginx -d example.com -d www.example.com

and then add these certificates to your domain config file like this:

server { listen 443 ssl http2 default_server; listen [::]:443 ssl http2 default_server; ... ssl_certificate /etc/letsencrypt/live/example.com/fullchain.pem; ssl_certificate_key /etc/letsencrypt/live/example.com/privkey.pem; ... }

Redirect WWW

Google prefers that you choose a domain with www instead of without. It’s better to choose the naked domain as its smaller and removes the redundant www . You can now redirect all www users to your naked domain by adding these below directives.

server { ... ... } server { listen 80; listen [::]:80; server_name example.com; return 301 //$server_name$request_uri; } server { listen 80; listen [::]:80; listen 443 ssl http2; listen [::]:443 ssl http2; server_name www.example.com; return 301 //example.com$request_uri; }

Pagespeed Module

Pagespeed Module is a gem unknown to many. It was originally a Google Project which is now part of Apache Incubator. Pagespeed can automatically take care of almost all the known ways to improve performance on your website.

Installor Upgrade NGINX with Pagespeed. This is not an easy task, and that’s why I have saved it for last. Follow these instructions, and you should be able to do it without any hastle. Once you’re done, all you need to do is enable it and voilà!

server{ ... # Pagespeed Module pagespeed on; pagespeed FileCachePath /var/cache/ngx_pagespeed_cache; location ~ "\.pagespeed\.([a-z]\.)?[a-z]{2}\.[^.]{10}\.[^.]+" { add_header "" ""; } location ~ "^/pagespeed_static/" { } location ~ "^/ngx_pagespeed_beacon$" { } pagespeed RewriteLevel PassThrough; pagespeed EnableCachePurge on; pagespeed PurgeMethod PURGE; pagespeed EnableFilters prioritize_critical_css; ... }

There are so many filters that you can enable, but just keep in mind that most of the modern frameworks like (Nuxt.js, Angular, Next.js and so on) have some of these optimisations as part of their build process, so this can be counterintuitive. Choose filters which you need and enable only them. This is not by any means an exhaustive set of filters, but would definitely take your site to 100/100 on pagespeed.

pagespeed EnableFilters rewrite_css; pagespeed EnableFilters collapse_whitespace,remove_comments; pagespeed EnableFilters flatten_css_imports; pagespeed EnableFilters combine_css; pagespeed EnableFilters combine_javascript; pagespeed EnableFilters defer_javascript; pagespeed EnableFilters extend_cache; pagespeed EnableFilters pedantic; pagespeed EnableFilters inline_google_font_css; pagespeed FetchHttps enable; pagespeed EnableFilters inline_css,move_css_above_scripts; pagespeed EnableFilters inline_javascript; pagespeed EnableFilters inline_import_to_link; pagespeed EnableFilters lazyload_images; pagespeed EnableFilters insert_dns_prefetch; pagespeed EnableFilters inline_preview_images; pagespeed EnableFilters resize_mobile_images; pagespeed EnableFilters rewrite_images; pagespeed EnableFilters responsive_images,resize_images; pagespeed EnableFilters responsive_images_zoom; pagespeed EnableFilters rewrite_javascript; pagespeed EnableFilters rewrite_style_attributes,convert_meta_tags;

You can read more about different types of filters available here.

So the final NGINX config and domain config looks something like this:

//gist.github.com/1hakr/01cb00dfce8c92a15c0d9faee9052042

Now all you have to do is reload your NGINX config file by typing the below commands and you have supercharged your NGINX server:

sudo nginx -t sudo systemctl restart nginx

Pro Tip: If you find this article beyond your reach, then there is a simple website which can get the final config file for you: check out NGINX Config.

I hope you like this NGINX config and are able to supercharge your web apps. Do you already use something similar or have a different opinion altogether? Let me know in the comments.

This is my new microstartup, VisaList, where I have applied these optimisations. It can help you find visa requirements for all countries in the world in a simple and useful way.

Find countries to visit across the world

Search from list of countries your can travel with Visa free, Visa on arrival and other requirements from more than…

visalist.io

That all folks! This is HaKr signing off. Thanks for reading, and if you found this useful do click ? to recommend this article to others so they can find it, too.

I build microstartups while travelling when I can. If you find this kind of stuff interesting, you can follow me on Twitter and check out my open-source work on GitHub.