PhD Smith a écrit:Un ami astronome amateur m'avait dit que l'entropie était une notion difficile à expliquer; la preuve: il y a plein d'équations
https://fr.m.wikipedia.org/wiki/Entropie_(thermodynamique)
Votre ami a tout à fait raison.
Je me souviens qu'en classe de mathématiques supérieures, notre professeure ( c'était une femme), sortie de l'ENS Sèvres et reçue 7 ème au concours d'agrégation de Physique, nous avait dit :
"Ne me demandez pas ce que c'est que l'entropie, parce que je ne peux pas vous l'expliquer ! "
Par contre, des formules et des calculs complexes, on a été contraints d'en avaler !
Je crois que l'entropie est un concept plus proche de l'ésotérisme ou de la métaphysique que de la physique proprement dite.
Plus tard au cours de mes études, j'ai appris la théorie de l'information de Shannon, qui introduit une autre entropie, mais tout de même plus aisée à appréhender que son pendant en Thermodynamique.
Il parait que lorsque Shannon a mis au point sa formule, il cherchait un nom à donner au concept qu'il venait de créer.
Il avait consulté à ce sujet le célèbre mathématicien John von Neumann, qui lui avait dit :
"Appelez le "entropie", de cette manière personne n'y comprendra rien, ainsi vous ne risquerez pas la contradiction ! "
Et cela a marché, personne n'a posé de question... !!
Amusant, n'est ce pas ?
"
When Shannon first derived his famous formula for information, he asked von Neumann what he should call it and von Neumann replied “You should call it entropy for two reasons: first because that is what the formula is in statistical mechanises but second and more important, as nobody knows what entropy is, whenever you use the term you will always be at an advantage!"
What von Neumann Said to Shannon
"
Initialement, il ne semble pas que Shannon ait été au courant de la relation étroite entre sa nouvelle mesure et les travaux précédents en thermodynamique. Le terme entropie a été suggéré par le mathématicien John von Neumann pour la raison que cette notion ressemblait à celle déjà connue sous le nom d'entropie en physique statistique. Il aurait ajouté que ce terme était de plus assez mal compris pour pouvoir triompher dans tout débat."
Entropie de Shannon
L'entropie était censée apporter une réponse aux questions relative au temps, en particulier à la flèche du temps et à
l'irréversibilité des phénomènes.
Comment expliquer que des phénomènes parfaitement réversibles à l'échelle microscopique, d'après les équations qui les décrivent, donnent lieu à l'échelle macroscopique à des phénomènes irréversibles ?
Si vous filmez par exemple un accident de voiture, un objet se brisant sur le sol, etc... vous pouvez retrouver en visionnant le film, dans quel sens les événements se sont déroulés.
Ce n'est pas toujours le cas, par exemple en filmant un mouvement brownien, il est impossible de retrouver dans quel sens les images ont été filmées.
Mais je trouve que la réponse apportée n'est pas extrêmement élégante dans la mesure où elle introduit un concept, l'entropie, qui n'est pas plus aisé à définir que le temps.
Rappelons également au passage que dans la théorie de JPP, les deux univers jumeaux auraient chacun une flèche du temps opposée à celle de l'autre univers.
Non pas que dans l'univers jumeau nos montres tourneraient à l'envers.
Et l'entropie d'un système isolé augmenterait dans l'univers jumeau, tout comme dans le nôtre.
Mais par contre s'il pouvait exister une "fenêtre" nous permettant de visionner une zone de l'univers jumeau tout en restant chez nous, nous verrions les événements dans l'autre univers se dérouler à l'envers.
Par exemple, nous verrions les morceaux brisés d'une tasse de thé se recoller et reformer la tasse d'origine avant qu'elle ne chute.