Gage a écrit...En même temps, l'article explique bien que ce qui pose problème, c'est la centralisation. Dans un data center, on consomme plus d'énergie à climatiser qu'à alimenter les serveurs. Ce n'est pas le cas du particulier ou des petits serveurs. Donc fragmenter les data centers conduirait à des économies d'énergie
sauf qu'un datacenter (équivalent pour l'exemple à 100 machines particulières) ne fait consommer que 4 ou 5 écrans pour le surveiller (soit 90 de moins selon l'exemple), une carte graphique et pas une grosse (soit 99 de moins que le datacenter), moins de ram car une (ca serait dur à évaluer, mais on a tous en général beaucoup de place libre dans nos barette qui ne s'alumment pas à moitié, alors qu'en entreprise, étant donné le travail plus ou moins constant des machines, l'utilisation est stable à mon avis, et l'économie de place est en tout cas beaucoup plus optimisée (question de sous)).
donc la centralisation et la fragmentation ont tous deux avantages et inconvénients, et il s'agirait de trouver un compromis idéal.
(toujours aller vers l'idéal, c'est si facile à dire...)