# Created 2024-08-21 mer. 20:35
#+title: 7d.nz
#+author: Phil. Estival
* • [2010-03-10 mer.] Entropie                                           :fr:
Aujourd’hui, quelques chiffres que j’aimerais
apporter à votre connaissance. Certains ont été
pour parties publiés dans le n° spécial de la
Recherche juillet-aout 09.

À 25 Watts/cm² , une puce est aussi chaude qu’un
fer à repasser.

Pour 320€ sont commercialisées des cartes
graphiques pour PC conçues pour calculer des
géométries en 3D et traiter des images en général.

Les plus puissantes du marchés en 2010 consomment
250W, l'ensemble du système peut nécessiter une
alimentation électrique capable de fournir 550W.

Jonhattan Kommey de l’université de Stanford, nous
signale que le total de la consommation électrique
des serveurs webs mondiaux représente 0.8% de la
production électrique mondiale en 2005.

Selon Gartner – cabinet de conseil et d’études –
l’informatique mondiale, tout processus confondus,
représenterait 2% des émissions de CO_{2} soit
autant que l’aviation civile.

Les plus gros supercalculateurs consomment autant
d’énergie qu’une ville.

Une centrale nucléaire produit environ 1GW.

L’IAEA rapporte qu’il y a 439 réacteurs nucléaires
opérationnels dans le monde, répartis dans 31
pays.

En 2005, l’énergie nucléaire fournit 2.1% de
l’énergie mondiale et 15% de son électricité,
descendue à 14% en 2007, suite aux réductions en
Corée, en Allemagne et de 7 réacteurs au Japon,
consécutifs a un tremblement de terre. U.S.A,
France, et Japon ensembles sont à 56.5% les
producteurs de l’énergie nucléaire générée, soit
366 GW produits en 2005.

Ce constat terminé, passons à un théorème d’une
statistique physique : la deuxième loi de la
thermodynamique nous dit que l’ entropie augmente
irrémédiablement dans un système fermé. On entend
dire parfois que les êtres vivants sont
l’exception, mais on peut formuler deux
objections.

Un, ils ne sont pas des systèmes fermés, et deux,
cette loi – statistique – se vérifie toujours dans le
temps puisque tous les êtres vivants sont mortels.

Mais qu’est ce que l’entropie ?
Le degré de désordre dans un système fermé.
Comment le mesure t-on ?  Par une ellipse :

1. Elle se manifeste sous forme de chaleur.
2. Elle peut être associé à l’inverse de
   l’information : le log binaire d’un nombre
   d’état fini de quelque système.

Donc plus un message est improbable, plus il
contiendrait d’information. Si par exemple, j’envoie
comme message : attention, le prochain message est ”A”
puis qu’ensuite j’envoie ”A”, la quantité d’information
dans le second message est faible, le message ne nous
apprenant pratiquement rien. Si l’opération de
traitement de cette information consistait à vérifier
si le message attendu correspond au message annoncé,
alors le deuxième message aurait pour valeur
informationnelle un digit : oui ou non.

La quantité et l’improbabilité de l’information en
circulation dans le réseau, système éminemment ouvert
au monde extérieur par ces interfaces médiatiques et
énergétiques connaît une croissance démesurée
et avec elle la densité de l’information stockée et
véhiculée artificiellement.

Au respect ou non de la seconde loi de la
thermodynamique, ceci entraı̂ne une augmentation
équivalente de l’entropie sous forme de dissipation
calorique, et il n'y a pas besoin de vérifier que les
hypothèses transportées par le signe ”égal” entre ses
équations continue d’assurer l’enchaı̂nement logique de
cette déduction, ni que celles-ci sont justes, pour
s'en convaincre.

La structure, la distribution et le contrôle de
quantités astronomiques d’informations a un coût
énergétique, et ceci à grande échelle.

Celle nécessaire à chaque question posée à ”la
machine à réponses” représente quelques minutes de
lumière. Bien entendu, nous, humains de la fin XXè
siècle, n’allons ni débrancher Internet, ni
arrêter les centrales.

En revanche la nature et la physique pourraient
bien s’en charger, la masse critique atteinte.