J'exécute Apache Cassandra 3.11.1 et j'ai 6 tailles de tables en état d'échec.
Max partition is larger than 100MB.
Pour ces 6 tables, la taille des partitions est en moyenne comprise entre 200 Mo et plus de 5 Go. Ces 6 tables sont réparties sur 3 espaces clés et sont spécifiques à Persistance Akka eventsByTag (c'est-à-dire eventsByTag1, eventsByTag2).
Une grande partie des données figurant dans ces tableaux n'est pas utilisée ; elle doit encore être disponible.
J'envisage de modifier le modèle de données, mais j'essaie en même temps de mieux comprendre l'impact de la taille des partitions.
À part le fait de manquer de mémoire ou de frapper Limites de Cassandra Quels sont les autres impacts négatifs d'une partition de grande taille si la plupart des données ne sont pas accessibles ?
Un cas spécifique qui pourrait être lié (non confirmé) est que j'exécute actuellement Cassandra avec des vues matérialisées et elasticsearch. Parfois, les projections utilisées pour mettre à jour elasticsearch avec les données de Cassandra échouent et je ne sais pas encore si cela est lié.
Le message d'erreur que je reçois dans ce cas est le suivant :
Caused by: com.datastax.driver.core.exceptions.ReadTimeoutException:
Cassandra timeout during read query at consistency LOCAL_QUORUM (2
responses were required but only 1 replica responded)