Je vérifie périodiquement les journaux de mon serveur et je remarque que de nombreux crawlers recherchent l'emplacement de phpmyadmin, zencart, roundcube, des sections administrateur et d'autres données sensibles. Ensuite, il y a aussi des crawlers sous le nom de "Morfeus Fucking Scanner" ou "Morfeus Strikes Again" qui cherchent des vulnérabilités dans mes scripts PHP et des crawlers qui effectuent des requêtes GET étranges (XSS ?) telles que :
GET /static/)self.html(selector?jQuery(
GET /static/]||!jQuery.support.htmlSerialize&&[1,
GET /static/);display=elem.css(
GET /static/.*.
GET /static/);jQuery.removeData(elem,
Jusqu'à présent, j'ai toujours enregistré ces IP manuellement pour les bloquer à l'aide d'iptables. Mais comme ces requêtes ne sont exécutées qu'un nombre maximum de fois à partir de la même IP, je doute que le fait de les bloquer apporte un quelconque avantage en matière de sécurité.
J'aimerais savoir s'il est utile de bloquer ces crawlers dans le pare-feu et s'il existe un moyen (pas trop complexe) de le faire automatiquement. Et si c'est un effort inutile, peut-être parce que ces requêtes proviennent de nouvelles IP après un certain temps, si quelqu'un peut élaborer sur ce point et peut-être fournir des suggestions pour des moyens plus efficaces de refuser/restriction de l'accès des crawlers malveillants.
FYI : Je suis aussi déjà en train de bloquer w00tw00t.at.ISC.SANS.DFind:)
crawls en utilisant ces instructions : http://spamcleaner.org/en/misc/w00tw00t.html
1 votes
Si vous utilisez Apache, jetez un coup d'œil à mod_security.