Laboratoire ERIC, salle K071 à 10h30
Résumé : Dans une architecture distribuée, la gestion Big Data nécessite des stratégies efficaces pour assurer la scalabilité et maintenir la performance du cluster (ex: Hadoop), tout en gérant efficacement l’allocation des tâches et des ressources. Pour cela, des méthodes multicritères (…) peuvent être utilisées afin de tenir compte des variations dans les besoins en ressources des différentes tâches. De plus, l’hétérogénéité de l’environnement, avec des nœuds de capacités et de performances variables, constitue un défi majeur pour l’équilibrage de charge dans une architecture distribuée. Cela complique l’allocation dynamique des ressources, qui doit s’ajuster en temps réel à la charge fluctuante. Une répartition adaptée permet d’optimiser l’utilisation du cluster et d’améliorer les performances globales du système.