Bonjour à tous,
J'aurais voulu savoir comment estimer la taille de mon index.
Pour le moment, j'ai importer 14 944 129 documents. Pour le moment, mes données utilise 7.3gb (brute) et 15 gb avec les réplicats répartis 4 machines (lancement par défaut sans paramètrage JVM), en Java 7
A terme, je devrais avoir 140 millions de documents et donc un stockage estimé d'environ 70 G occupé. J'essaye d'estimer le nombre de noeuds que je devrais déployer une fois l'index complètement remplis, si je veux un passage en production.
J'ai laissé le nombre de shards par défaut, 5 shards avec 1 réplicat
Pour le moment avec mes 14 millions de document, le moins que l'on puisse dire, c'est que ça rame déjà. Sur certaines requêtes, j'ai des problèmes de mémoire, qui font planter mes noeuds Elastic Search. J'ai essayé de redémarrer tous mes noeuds, d'optimiser mon index, de flusher, mais même résultat.
Comme je sais que les facets utilisent de la mémoire, je les ai désactivé temporairement, et j'ai supprimé mes filtres, et critères de recherches. Même la requête la plus simple match All pour récupérer le nombre total de hits fait planter Elastic Search.
Ma question est donc simple, quel est selon vous la taille préconisé pour un shard? Existe-il un ratio taille occupé/nb shard couramment pratiqué, lou faut-il plutôt parlé en terme de nombre de documents?
D'avance merci.