Le sujet est assez vaste. Vous pouvez optimiser un find en faisant en sorte de ramener le moins d'information possible (en maximisant les critères de sélection). Parfois un index peut aussi améliorer le temps d'appel à un find.
@@algomius Oui merci, c'est ce que j'ai fait... Je veux insérer des documents dans une collection mais en ne modifiant pas l'index de cette collection (question de temps et je n'est pas besoin aussi), je ne sais pas comment est possible ?
Si je comprends bien votre problème, vos insertions prennent du temps à cause de l'index qui se met à jour. Vous avez la possibilité de supprimer temporairement votre index (db.collection.dropIndex(index)) et de le recréer une fois les insertions terminées. Vous n'aurez donc plus de mise à jour après chaque insertion mais l'index va se reconstruire à la fin.
@@algomius Oui. Exact. Mais le problème j'ai vers 2 millions de documents dans ma collection. Donc je ne sais pas si ça est pratique ? Ou il existe une autre manière sachant que je n'ai pas besoin d'indexer les nouvelles données insérées
Merci pour cette présentation avec l'utilisation des fonctions requêtés en python. Exactement ce que je cherchais !
C'est ce qui est bien sur youtube, peu importe ce que l'on cherche, quelqu'un en parle :D
Merci beaucoup votre video ma beaucoup aider
Bonjour, je suis content que vous aillez trouvé la vidéo utile.
Merci pour la vidéo avec des exemples simples et très clairs :D
Je content que cette vidéo ait pu vous aider.
Merci ! Est ce que vous savez comment optimiser son requête find svp ? Je dois lancer une requête find dans ma boucle sur un curseur...
Le sujet est assez vaste. Vous pouvez optimiser un find en faisant en sorte de ramener le moins d'information possible (en maximisant les critères de sélection). Parfois un index peut aussi améliorer le temps d'appel à un find.
@@algomius Oui merci, c'est ce que j'ai fait... Je veux insérer des documents dans une collection mais en ne modifiant pas l'index de cette collection (question de temps et je n'est pas besoin aussi), je ne sais pas comment est possible ?
Si je comprends bien votre problème, vos insertions prennent du temps à cause de l'index qui se met à jour. Vous avez la possibilité de supprimer temporairement votre index (db.collection.dropIndex(index)) et de le recréer une fois les insertions terminées. Vous n'aurez donc plus de mise à jour après chaque insertion mais l'index va se reconstruire à la fin.
@@algomius Oui. Exact. Mais le problème j'ai vers 2 millions de documents dans ma collection. Donc je ne sais pas si ça est pratique ? Ou il existe une autre manière sachant que je n'ai pas besoin d'indexer les nouvelles données insérées