2 votes

Désactiver robots.txt pour les sous-domaines dans nginx

J'ai besoin de ne pas servir le fichier robots.txt pour un sous-domaine. Par exemple, domain.com/robots.txt doit être disponible, mais blabla.domain.com/robots.txt doit renvoyer 404.

J'ai essayé comme ça, mais ça n'a pas marché :

set $subdomain FALSE;
if ($host ~* "^(([a-z0-9_\-]+)\.domain\.com)$") {
    set $subdomain TRUE;
}

location ~ "robots.txt$"{
    if ($subdomain = TRUE){
        return 404;
    }
}

3voto

Sergey Shkolin Points 46
location ~ /robots.txt
     {
       if ($host != 'domain.com') {
       return 404;
     }
}

0 votes

Cela fonctionne, mais pourquoi quelqu'un a-t-il déclassé cette réponse ?

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X