J'ai commencé à envisager de changer de modèle de charge de stockage. Historiquement - c'était purement par giga, dans un grand pool partagé.
Mais j'envisage d'étendre le modèle et de hiérarchiser les offres de stockage, principalement parce que nous envisageons d'investir dans des disques SSD, mais dans le cadre de notre modèle de facturation précédent, nous n'avons pas vraiment été en mesure de le justifier. (Nous en avons obtenu certains en tant que "mise à niveau du cache du contrôleur").
Mon point de départ initial est de :
- Prenez un "morceau de stockage". Probablement un groupe RAID, mais peut-être aussi une étagère ou un contrôleur.
- Résumez les concerts utilisables.
- Résumez les IOPs théoriques des broches (lecture aléatoire et pénalités d'écriture).
- Faire la somme des débits théoriques en Mo/sec des broches.
Divisez les IOPs et le débit par TB disponible, pour définir une 'allocation de performance' basée sur chaque TB 'acheté'. Et regardez un exemple de configuration SATA, un exemple de configuration FC/SAS et un exemple de SSD.
C'est une simplification, je le sais, et c'est plutôt le pire scénario possible, dans un monde de gros caches et d'autres goulots d'étranglement.
J'ai un gros tas de statistiques sur les performances en "utilisation moyenne" et je sais à quoi ressemblent mes taux d'accès au cache dans le monde réel, mais je suis maintenant un peu coincé quant à la façon de faire évoluer cette situation. Par exemple, mes filers NetApp me donnent des taux de lecture manquée de 20-25%, et font quelque chose de complètement différent avec le cache d'écriture et le WAFL qui rend cet élément difficile à comparer. (Mais je pense qu'il n'est pas déraisonnable de supposer un taux élevé d'échec en écriture, ce qui me permet de ne pas tenir compte de la pénalité d'écriture et de la latence d'écriture en rafale).
Voici donc ma question : quelle approche suggéreriez-vous pour mettre en place, disons, trois niveaux d'"offre de stockage" (archives, "standard" et haute performance) ? Comment tiendriez-vous compte du rendement attendu de la mise en cache et des avantages de la consolidation ?
En ce qui concerne la hiérarchisation du stockage, c'est une option, car c'est effectivement ce que nous faisons déjà avec les gros caches des contrôleurs. Mais il est toujours nécessaire de différencier le stockage "bon marché" du stockage "rapide", et j'ai besoin de cela aussi.
0 votes
Si vous regardez le stockage 3Par, non seulement il permet une hiérarchisation automatique par bloc en fonction du profil défini ou de l'utilisation réelle, mais il peut également établir des rapports à ce sujet pour la facturation :)
0 votes
J'ai quelques 3PAR, et mes autres options sont des VMAX à niveaux. Je me suis dit que le fait de hiérarchiser le stockage brouillait un peu les pistes. Mais le même principe s'applique : si ma baie est composée à 10 % de SSD, à 40 % de FC et à 50 % de SATA, comment puis-je donner à certains clients la "priorité" et à d'autres le "bon marché" ? NetApp me permet également de créer des agrégats hybrides avec une partie SSD + FC.
0 votes
En fonction de leur choix/demande manuel ou automatiquement en fonction de leur profil d'utilisation.
0 votes
Donc, préconisez-vous l'échelonnement automatique des demandes et la rétrofacturation ? Cela peut s'avérer difficile dans notre environnement, car nous vendons généralement sur la base d'un modèle de dépenses d'investissement, mais je peux tenter le coup.
0 votes
Pour être honnête, ce n'est pas l'aspect technique des choses qui m'inquiète ici, c'est l'aspect juridique commercial que je fuirais - bonne chance !
0 votes
Oui, c'est mon problème. Je serai ravi de construire un réseau d'un million d'iops (ou 5) si quelqu'un me donne le budget. J'ai juste besoin de les convaincre de me donner le budget :)