Tout d'abord, je m'excuse de poser une question d'étude évidente. Je sais que c'est une mauvaise habitude, mais j'espère que j'obtiendrai encore de l'aide ici, car j'ai fait une tonne de recherches et je n'ai pas trouvé de réponse à cette question.
Les scénario est la suivante : Un client NFS écrit un fichier unique de 50 Go sur le serveur NFS. Après avoir écrit 4GB avec une vitesse moyenne de 125 MByte/s, il tombe à 12MByte/s.
Question : Comment pouvez-vous expliquer cela ?
Les donné responder**** La réponse à la question est la suivante : Après 4 Go d'écriture, le serveur ne répond pas au commit et le client envoie périodiquement des commit jusqu'à ce que le serveur y réponde, parce que le client veut vider son cache. Dans ce laps de temps, le débit de données tombe au niveau de l'élément le plus lent.
Tout ce que je peux trouver sur le processus commit est une explication comme celle-ci :
Le client écrit des données et lorsque les données sont transférées au serveur, le client envoie le message commit. Le serveur écrit les données dans le stockage stable et répond au commit avec le verf-Cookie. Si le cookie n'est PAS différent de celui du client, le client peut vider son cache.
Voici donc ma question : Est-il vrai que si le serveur ne répond pas à la procédure commit en envoyant le verf-cookie, le client envoie périodiquement des commit et le débit de données diminue considérablement ? Si oui, jusqu'à quel niveau le débit baisse-t-il ? Je ne peux pas conclure à partir de la réponse à quel niveau le débit de données baisse.