7d.nz

Entropie

[2010-03-10 Wed]

  fr

Aujourd’hui, quelques chiffres que j’aimerais apporter à votre connaissance. Certains ont été pour parties publiés dans le n° spécial de la Recherche juillet-aout 09.

À 25 Watts/cm² , une puce est aussi chaude qu’un fer à repasser.

Pour 320€ sont commercialisées des cartes graphiques pour PC conçues pour calculer des géométries en 3D et traiter des images en général.

Les plus puissantes du marchés en 2010 consomment 250W, l'ensemble du système peut nécessiter une alimentation électrique capable de fournir 550W.

Jonhattan Kommey de l’université de Stanford, nous signale que le total de la consommation électrique des serveurs webs mondiaux représente 0.8% de la production électrique mondiale en 2005.

Selon Gartner – cabinet de conseil et d’études – l’informatique mondiale, tout processus confondus, représenterait 2% des émissions de CO2 soit autant que l’aviation civile.

Les plus gros supercalculateurs consomment autant d’énergie qu’une ville.

Une centrale nucléaire produit environ 1GW.

L’IAEA rapporte qu’il y a 439 réacteurs nucléaires opérationnels dans le monde, répartis dans 31 pays.

En 2005, l’énergie nucléaire fournit 2.1% de l’énergie mondiale et 15% de son électricité, descendue à 14% en 2007, suite aux réductions en Corée, en Allemagne et de 7 réacteurs au Japon, consécutifs a un tremblement de terre. U.S.A, France, et Japon ensembles sont à 56.5% les producteurs de l’énergie nucléaire générée, soit 366 GW produits en 2005.

Ce constat terminé, passons à un théorème d’une statistique physique : la deuxième loi de la thermodynamique nous dit que l’ entropie augmente irrémédiablement dans un système fermé. On entend dire parfois que les êtres vivants sont l’exception, mais on peut formuler deux objections.

Un, ils ne sont pas des systèmes fermés, et deux, cette loi – statistique – se vérifie toujours dans le temps puisque tous les êtres vivants sont mortels.

Mais qu’est ce que l’entropie ? Le degré de désordre dans un système fermé. Comment le mesure t-on ? Par une ellipse :

  1. Elle se manifeste sous forme de chaleur.
  2. Elle peut être associé à l’inverse de l’information : le log binaire d’un nombre d’état fini de quelque système.

Donc plus un message est improbable, plus il contiendrait d’information. Si par exemple, j’envoie comme message : attention, le prochain message est ”A” puis qu’ensuite j’envoie ”A”, la quantité d’information dans le second message est faible, le message ne nous apprenant pratiquement rien. Si l’opération de traitement de cette information consistait à vérifier si le message attendu correspond au message annoncé, alors le deuxième message aurait pour valeur informationnelle un digit : oui ou non.

La quantité et l’improbabilité de l’information en circulation dans le réseau, système éminemment ouvert au monde extérieur par ces interfaces médiatiques et énergétiques connaît une croissance démesurée et avec elle la densité de l’information stockée et véhiculée artificiellement.

Au respect ou non de la seconde loi de la thermodynamique, ceci entraı̂ne une augmentation équivalente de l’entropie sous forme de dissipation calorique, et il n'y a pas besoin de vérifier que les hypothèses transportées par le signe ”égal” entre ses équations continue d’assurer l’enchaı̂nement logique de cette déduction, ni que celles-ci sont justes, pour s'en convaincre.

La structure, la distribution et le contrôle de quantités astronomiques d’informations a un coût énergétique, et ceci à grande échelle.

Celle nécessaire à chaque question posée à ”la machine à réponses” représente quelques minutes de lumière. Bien entendu, nous, humains de la fin XXè siècle, n’allons ni débrancher Internet, ni arrêter les centrales.

En revanche la nature et la physique pourraient bien s’en charger, la masse critique atteinte.