2 votes

Quelle solution utilisez-vous pour la journalisation de IIS 7.5 ?

Je suis à la recherche de quelques configurations recommandées pour la journalisation IIS (7.5) pour une ferme web à trafic raisonnablement élevé ? Je génère actuellement environ 500MB de logs non compressés sur chacun des 4 serveurs web quotidiennement.

Enregistrement ODBC ? Vers SQL Server, il semble y avoir beaucoup de frais généraux pour les fichiers d'enregistrement... Peut-être vers une base de données open source quelconque ?

Dois-je continuer à utiliser les fichiers journaux et quelque chose comme Analogique de les résumer pour en dégager les points d'intérêt ?

Qu'en est-il de Splunk ? Cela peut-il être utile ?

Des recommandations ou des histoires de guerre de personnes utilisant IIS dans des environnements plus vastes et la façon dont vous gérez la journalisation des requêtes ?

1voto

Phillip Jubb Points 141

J'utilise AWStats pour nos grandes fermes, mais je nettoie d'abord les fichiers avec LogParser (suppression des bilans de santé, fusion des fichiers des fermes ( ne pas trier ! ), etc.) Nous n'avons pas de fichiers aussi volumineux que les vôtres, mais nous sommes dans les 300 Mo et AWStats fonctionne bien. Nous n'avons pas besoin de temps réel, donc le traitement se fait sur un serveur de travail la nuit et les statistiques sont prêtes tous les jours. Nous avons des statistiques pour environ 10 sites différents. Si vous voulez explorer les sous-sites, cela devient un peu compliqué, mais nous utilisons AWStats depuis cinq ou six ans sans aucun problème.

J'aimerais beaucoup utiliser Google Analytics, mais il n'est pas adapté aux sites intranet (pour des raisons de sécurité et de confidentialité).

0voto

rmukhopadhyay Points 243

J'ai eu du mal à trouver un bon programme pour gérer les gros fichiers journaux. C'est à peu près à la taille que vous avez que la plupart des outils commencent à échouer.

DeepMetrix LiveStats (qui n'est plus un produit actif) échouait à cette taille de journal.

SmarterStats (www.smartertools.com) est proche, et vous pouvez l'essayer. Il suit le traitement du journal, mais l'affichage des rapports est lent en raison de sa propre base de données de système de fichiers.

L'analogique peut traiter un grand nombre de grumes et je pense qu'il fonctionne pour cette taille, bien que je ne l'aie pas essayé depuis quelques années.

Même Urchin a du mal à gérer les fichiers journaux volumineux. Il peut probablement gérer votre taille, mais il finira par atteindre son maximum.

Log Parser est génial pour analyser de gros fichiers journaux, mais vous devrez créer vos propres rapports. J'ai eu recours à des rapports personnalisés sur quelques très gros sites.

Google Analytics est également une option à considérer. C'est une option viable pour des situations comme la vôtre.

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X