Je tente de servir un fichier robots.txt différent pour les sous-domaines alternatifs que j'utilise pour le domaine sharding afin que Google n'indexe pas m1.example.com et m2.example.com.
/etc/httpd/sites-enabled/www.example.com
Alias /robots.txt /var/www/html/robots.txt
....
ServerName www.example.com
ServerAlias m1.example.com m2.example.com
....
DocumentRoot /var/www/www.example.com/public
/var/www/www.example.com/public/.htaccess
RewriteEngine on
RewriteCond %{HTTP_HOST} !=www.example.com [NC]
RewriteRule ^/robots\.txt$ /var/www/html/robots-disallow.txt [L]
....
Lorsque j'accède à m1.example.com/robots.txt, il affiche le fichier robots.txt et non robots-disallow.txt.
Si j'ajoute la règle de réécriture à mon vhost dans /etc/httpd/sites-enabled/www.example.com, cela fonctionne bien mais pas dans le .htaccess