49 votes

Splunk est incroyablement cher : Quelles sont les alternatives ?

Duplicata possible :
Alternatives à Splunk ?

Cette question a été débattue, mais il y a plusieurs mois, et il est peut-être temps de la réexaminer :

Discussion antérieure sur les alternatives à Splunk

Pour mémoire, Splunk est excellent. Mais les prix sont tout simplement au-delà de ce que nous pouvons envisager (lorsque j'ai parlé à Splunk aujourd'hui, le coût d'un système pour indexer 5 gigaoctets de données par jour est supérieur à 30 000 dollars).

C'est plus que ce que nous dépensons pour SQL Server (par un grand multiple), plus que ce que nous dépensons pour un rack de serveurs (par un multiple), etc. etc.

L'équipe de vente de Splunk a raison (elle affirme que pour 30 000 dollars, nous obtenons plus de valeur et de fonctionnalités que si nous dépensions la même somme pour construire notre propre système), mais cela n'a pas d'importance. Le coût de splunk est tout simplement trop élevé (d'un multiple).

Nous sommes donc à la recherche d'une solution !

Y a-t-il quelqu'un qui construit un système de type splunk ?

Notre besoin fondamental :

  • Possibilité d'écouter les messages syslog sur plusieurs ports udp
  • Possibilité d'indexer les données entrantes de manière asynchrone
  • Une sorte de moteur de recherche
  • Une sorte d'interface utilisateur
  • Une API pour le moteur de recherche (à intégrer dans notre console)

Nous avons actuellement besoin d'indexer de 3 à 5 gigaoctets par jour, mais nous devons être en mesure de passer à 10 gigaoctets par jour ou plus. Nous n'avons pas besoin de beaucoup d'historique (30 jours suffisent).

Nous utilisons des serveurs Windows 2008 et 2003.

Merci de nous faire part de vos réflexions !

MISE À JOUR : Nous avons passé deux semaines à étudier les options commerciales et open source. Notre conclusion : Écrire notre propre (nous sommes un éditeur de logiciels... nous savons comment écrire des choses). Nous avons construit un excellent système basé sur mongodb et .NET qui nous donne les fonctions dont nous avions besoin de MongoDB en environ une semaine d'ingénierie. Nous avons maintenant terminé notre mise en œuvre. Nous utilisons deux serveurs Mongodb (maître et esclave) et sommes en mesure d'enregistrer et d'indexer n'importe quelle quantité de données d'enregistrement (5 gigaoctets par jour, 15 gigaoctets par jour, etc.), limitée uniquement par l'espace disque.

MISE À JOUR DE LA MISE À JOUR (décembre 2012) : Nous continuons à utiliser notre solution mongodb, et elle fonctionne très bien ! Si nous devions la construire aujourd'hui, nous envisagerions fortement de la construire au-dessus d'elasticsearch.

OBSERVATIONS : Cet espace a besoin d'une solution solide à un prix forfaitaire de 1000 à 3000 dollars. Les modèles de licence utilisés par les entreprises commerciales sont basés sur un modèle de "traite des gars des opérations du centre de données". C'est leur droit (bien sûr !), mais cela laisse un énorme espace ouvert pour que quelqu'un vienne se placer en dessous d'eux. Je pense que d'ici un an ou deux, il y aura une bonne solution open source qui sera vraiment utilisable.

Merci à tous pour votre contribution (même s'il s'agit d'autopromotion).

25voto

Holger Just Points 3305

logstash est un outil de gestion des événements et des journaux. Vous pouvez l'utiliser pour collecter des logs, les analyser et les stocker pour une utilisation ultérieure (par exemple, pour une recherche). En parlant de recherche, logstash est livré avec une interface web pour rechercher et forer dans tous vos journaux.

https://www.elastic.co/products/logstash

Le projet en est encore à ses débuts, mais il semble très prometteur et évolue rapidement.

10voto

Not Now Points 3522

Je n'ai pas de matrice de comparaison pour ce qui suit dans mon esprit, surtout lorsqu'il s'agit de comparer avec splunk :

Il s'agit d'outils pleinement opérationnels :

Octopussy http://www.octopussy.pm

Rapport journalier http://www.logreport.org/

Caisse claire : http://www.intersectalliance.com/projects/index.html

Surfeur de bois : http://www.crypt.gen.nz/logsurfer/

Analyseur de journaux : http://loganalyzer.adiscon.com/

Chronologie du journal 2 : http://log2timeline.net/#download (il s'agit davantage d'un outil d'analyse de la "chronologie")

Enfin, si vous souhaitez coder vous-même mais avoir une solution plus évolutive : (les outils suivants sont des outils de collecte de données de connexion, ils ne disposent pas nécessairement de toutes les fonctionnalités nécessaires pour effectuer des recherches dans les données).

Honu https://github.com/jboulon/Honu

Chukwa http://wiki.apache.org/hadoop/Chukwa

Canal http://archive.cloudera.com/cdh/3/flume/

Editer : Ajout de ce lien de comparaison : http://csgrad.blogspot.com/2010/07/guided-tour-of-hadoop-zoo-getting-data.html

Éditer : Ajouté Graylog2 : Ajouté Logstash . Logstash est probablement le mieux placé à ce jour pour devenir le "remplaçant open source de Splunk".

SistemesEz.com

SystemesEZ est une communauté de sysadmins où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres sysadmins, poser vos propres questions ou résoudre celles des autres.

Powered by:

X