D'où vient cette théorie ?           Blog de la Transformation
  La Route du Temps       Forum de la Double Causalité  
      Théorie de la Double Causalité ?      
         
         

 

Billard et dimensions supplémentaires

De la dynamique du billard...

... aux dimensions supplémentaires de l'espace:

Voir ce projet de publication

Le déterminisme désorienté par "les boules"

Pour le résumé voir ici: ce qu'il faut retenir

Commençons par un démantèlement en vidéo des idées reçues:

Vidéo réalisée à partir de la séquence Panta Rhei du film de chaos-math.org

***

J'ai fait la première présentation de mes résultats de recherche sur la dynamique du billard le 23 février 2012 à l'occasion d'un séminaire restreint devant une douzaine de chercheurs en mécanique des fluides de mon laboratoire (CNRS IUSTI UMR 6595):

Leur ébahissement devant le titre de ma conférence qui proposait de rajouter 6 dimensions à l'espace a été suivie d'une écoute très attentive puis de questions et remarques dont l'une, issue d'un jeune chercheur, m'a surpris:

<< Mais... la physique n'est pas déterministe ! >>

J'avais en effet pris soin de présenter l'introduction de nouvelles dimensions comme le moyen de préserver le déterminisme du billard, sans pour autant préciser qu'aucune contrainte à priori ne pesait sur l'information ajoutée par ces dimensions. Il n'y avait pas, en quelque sorte, à présupposer de super-mécanique dans le super-espace complémentaire que j'introduisais. Aussi, pour abonder dans le sens de l'intervenant, je n'ai pas pu m'empécher de lui répondre:

<<En fait, on ne sait pas, mais il se pourrait bien que le super-espace au dela de l'espace 4D soit un espace de libre arbitre !>>

La discussion divertissante qui s'en suivit appelant à un retour rapide dans une réalité plus sérieuse et terre à terre, j'eu ensuite à répondre à des questions sur la forme puis sur la manière de publier ces travaux. Devant un résultat aussi fondamental, mais reposant sur une approche très technique, quelle stratégie adopter pour quelle revue ? Il y avait deux possibilités très distinctes:

  • prendre le risque de présenter l'intérêt fondamental mais provocateur de ces résultats dans une revue au sommet, comme "Nature",
  • ou présenter seulement l'utilité technique de l'introduction des dimensions supplémentaires, mais dans une revue de faible d'impact.

Il semblait ne pas y avoir de choix stratégique valable entre ces deux extrèmes. Le premier choix présentait un risque de ne pas aboutir à un article accepté. Mais le second choix, plus modeste et sage, impliquait de ma part de nombreux travaux supplémentaires avec un délai important, car il me fallait justifier l'intérêt de ces dimensions par d'autres simulations. Encouragé par certains collègues, je me suis dirigé vers le premier choix, pour aboutir à un article finalement trop long pour "Nature". Je l'ai donc envoyé à "Chaos", mais les referees, trop spécialisés sur le chaos et apparemment ignorants du problème de l'information physique, n'ont pas compris l'article et notamment son lien avec la mécanique quantique.

Finalement, un physicien quantique de haut vol a bien voulu me parrainer pour que je le publie dans Arxiv et voici le résultat (mise à jour 2013):

Voir également ma page d'introduction ailleurs sur ce site

Voir aussi ce nouveau projet de publication

Revenons en 2012:

... Mais je ne vais pas attendre que tout ceci paraisse dans des revues anglosaxones pour en informer mon auditoire français, et ceci pour deux raisons: d'une part j'ai déjà laché le morceau (en partie) dans la revue Nexus N°79 (mars-avril 2012) et d'autre part, les conclusions de ces travaux sont très importantes pour crédibiliser la "Théorie de la Double Causalité" et avec elle, la nécessité de pulvériser ce fameux paradigme mécaniste qui parasite encore et toujours notre époque...

Je vais donc séance tenante vous faire part de ces travaux, de manière résumée, vulgarisée et accessible à tout public de niveau bac.

PS: Cette divulgation reste tout à fait partielle et il ne s'agit que d'une vulgarisation qui n'offre ni la rigueur, ni les références, ni les matériaux d'une véritable publication, ce en quoi elle ne porte pas préjudice à la publication elle-même.

Voici donc l'expérimentation à la base de mes travaux (ci-dessous). Il s'agit d'une simulation numérique de chocs dans deux billards virtuels superposés (boules bleues et vertes) qui contiennent exactement les mêmes boules. A chaque simulation, on leur attribue exactement les mêmes vitesses initiales et on les positionne exactement dans les mêmes positions initiales, à un chouia près, par exemple un millionième de milliardième de rayon (voir écart initial sur positions):

Normalement, compte tenu du caractère infinitésimal de leur différence de position, certains d'attendraient à ce que les trajectoires calculées soient quasi-identiques dans les deux billards. D'autres s'attendraient à ce qu'elles finissent par accuser une différence sensible, mais seulement au bout d'un très grand nombre de chocs. Or, ce n'est pas du tout ce qu'on observe, car c'est seulement au bout d'un petit nombre de chocs que les deux billards divergent et que le chaos se généralise, dans le sens où toutes les trajectoires deviennent totalement distinctes de part et d'autre:

Sur la planche ci-dessus, j'ai représenté la trajectoire d'une seule boule avec ses versions rouges et bleues dans chaque billard. Etant confondues à l'origine, on ne voit la trajectoire bleue que lorsqu'elle diverge de la rouge. J'ai illustré ici 4 cas, où l'on divise à chaque fois par 1000 l'écart entre les conditions initiales, qui passe donc de 0.03 en haut à gauche à 0.00003 en haut à droite, pour finir à 0.000000000003 en bas à droite. On s'aperçoit ainsi qu'après chaque division de l'écart par 1000 (environ 2 à la puissance -10) on ne fait que retarder le moment où les deux trajectoires divergent de 2 ou 3 chocs seulement.

En fait, cela dépend du nombre de boules. Plus on rajoute de boules et plus on augmente la probabilité pour que quelque part dans l'un des billards, la trajectoire de l'une des boules commence à diverger de son équivalente dans l'autre billard, ce qui a pour effet d'avancer le moment où les deux billards cessent d'avoir la même histoire. Mais ce n'est pas tout, car ensuite la contagion se répand très rapidement à tout le billard: le désordre induit localement se généralise très vite à la totalité des boules.

Commencez vous à cerner légèrement un certain risque d'indéterminisme du billard ?

Je survole les 4 planches suivantes qui sont un peu techniques car elles sont essentiellement là pour justifier un changement de méthode de calcul. En effet, lorsque je met trop de boules dans mes billards, il me faut attendre des heures, voire des jours, que les calculs se fassent sur mon ordinateur pour obtenir une bonne statistique me permettant d'afficher des résultats fiables. A partir de 1000 boules, les calculs sont trop longs.

Pour arriver à obtenir quand-même de bons résultats lorsque le nombre de boules est compris entre 1000 et 100.0000 (au dessus, ils deviennent trop fluctuants), je suis obligé de passer à un modèle réduit de simulation qui utilise une fonction de dispersion des trajectoires au moment d'un choc. Les planches ci-dessus me servent à justifier ce modèle.

Avant de continuer, prenons quelques exemples pour se fixer les idées, en choisissant comme écart initial la valeur 0.00000003 (environ 2 à la puissance -25):

  • avec 4 boules, les deux billards cessent d'avoir la même histoire après 15 chocs par boule en moyenne
  • avec 30 boules, il suffit de 10 chocs en moyenne
  • avec 500 boules: 7 chocs
  • avec 4.000 boules: 5 chocs
  • avec 100.000 boules: 3 chocs

...et, si l'on extrapole un peu, on s'aperçoit que vers 10 millions de boules on devrait tomber à 1 seul choc par boule en moyenne, comme c'est le cas avec un écart de 0.00003 (1000 fois plus élevé), pour seulement 100.000 boules.

Ces résultats peuvent être lus directement sur la planche suivante:

Cette planche présente les résultats d'une étude qui correspond à plusieurs jours de calcul sur mon ordinateur. Même si j'avais utilisé un ordinateur 10 fois plus puissant, je n'aurais pas fait mieux que rajouter un ou deux points en abscisse (jusqu'à 500.000 boules). Les courbes qui sont affichées correspondent à différentes valeurs de l'écart initial, la plus petite correspondant à une précision Pi de 45 bits, capable de discriminer une différence de 0.000000000000003 (2 à la puissance -45). Il faut ajouter à cette précision Pi, qui correspond seulement aux chiffres après la virgule, celle dont j'ai besoin pour quantifier les chiffres devant la virgule, qui correspondent aux coordonnées de mes boules à leur résolution d'affichage sur l'écran. Si j'appelle Pc la précision de ces coordonnées, la quantité d'information dont j'ai besoin pour mémoriser chaque donnée est égale à la précision limite:

P = Pi + Pc = 64 bits

C'est à cause de cette limite informatique de 64 bits que je ne peux pas calculer les courbes pour Pi > 45.

Pour savoir maintenant comment se prolongent ces courbes à droite du graphique, lorsque le nombre de boules atteint un million, un milliard ou tend vers l'infini, il importe de déterminer la relation mathématique précise entre le nombre de boules et le nombre de chocs avant que mes billards changent d'histoire, au sens statistique. A première vue, il y a une convergence linéaire, mais cela reste hypothétique.

Mais ne pourrait-on pas retrouver tout cela par une mise en équation ? J'ai essayé, mais sans succès. <<Il nous faut de vrais matheux>>, me dit alors une collègue de mon équipe, qui après m'avoir fait cette remarque, convia un jour dans mon bureau deux professeurs de mathématiques à l'université (diplomés de normale sup) pour que je leur explique mon problème. L'un d'eux connaissait très bien le sujet du chaos dans le billard et ils étaient tout deux résolus à m'aider...

Après quelques temps de reflexion devant l'écran de mon ordinateur, l'un d'eux me dit:

<< Ce n'est pas possible, tu a choisi le problème le plus chaotique qui soit ! >>

et l'autre:

<< Désolé, il a raison, on ne sait pas résoudre ton problème >>

Mon problème semblait donc impossible à mettre en équations. Je n'étais pas étonné, car j'avais essayé de le faire et trouvé ça trop complexe. Je suis donc resté longtemps désemparé devant ce constat de n'avoir finalement trouvé rien d'autre qu'un résultat qualitatif dont je ne savais que faire alors que je me trouvais déjà devant une conclusion étrange en soi:

Aussi grande que soit la précision que l'on se donne pour faire en sorte qu'un billard soit déterministe sur une certaine durée d'examen, il semble toujours possible de le rendre indéterministe en rajoutant simplement des boules.

Le problème est que si l'on choisit d'abord la durée et le nombre de boules, on peut toujours trouver une précision qui le rend à nouveau déterministe. Oui mais quelle précision ! Il suffit de considérer la figure ci-dessous pour s'apercevoir qu'avec seulement 5000 boules et 25 chocs par boule, on a besoin d'une précision qui est celle de la longueur de Planck, la plus petite distance ayant un sens physique. Ce qui voudrait dire qu'au delà de 25 chocs et 5000 boules, ou encore 30 chocs et 500 boules, notre billard serait nécessairement indéterministe !

Cependant, le fait de procéder à de telles conclusions issues de données fournies par la mécanique quantique (Longueur de Planck) n'est pas du tout rigoureux. Toutefois, cette observation mérite d'être effectuée, car elle autorise à mettre en doute le caractère déterministe de l'univers, sans pour autant en constituer une preuve formelle, puisque ce faisant nous mélangeons deux mécaniques incompatibles (classique et quantique).

Mais considérons maintenant la formule approximative suivante, issue d'une extrapolation raisonnable que l'on peut faire de nos résultats précédents, qui correspond à la relation entre la précision Pi du calcul, le nombre de chocs Nc (avant divergence) et le nombre de boules Nb. Grossièrement, c'est en quelque sorte la condition requise pour que notre billard soit déterministe:

Pi est ici exprimé en nombre de bits, autour de 100 par exemple lorsqu'on descend à une précision correspondant à la longueur de Planck. On remarque tout d'abord que la précision Pi doit augmenter lorsque Nb augmente, c'est à dire lorsqu'on rajoute des boules, ce que nous avions déjà observé. Mais on remarque aussi que Pi dépend du nombre de chocs Nc, et qu'à chaque fois qu'on rajoute un choc il faut augmenter Pi de 3 unités, ce qui veut dire que chaque choc nous fait perdre en moyenne 3 bits d'information.

Or, cette double dépendance de la précision des conditions initiales en Nc et en Nb n'est pas sans poser un problème très génant pour la mécanique classique, que j'appelle le paradoxe ou démon du déterminisme, illustré par la figure ci-dessous. Ce paradoxe peut se résumer ainsi:

Paradoxe du déterminisme (1): A partir d'un certain nombre de boules, la quantité de mémoire nécessaire pour stocker les conditions initiales d'un billard devient supérieure à la quantité de mémoire nécessaire pour stocker les coordonnées calculées de toutes les boules durant le laps de temps où il reste déterministe.

Ce qui veut dire que le modèle de mécanique classique sur lequel repose le calcul des trajectoires dans un billard souffre d'un grave problème: ce modèle a besoin de plus d'informations qu'il ne permet d'en calculer !

Sur la planche ci-dessus j'ai représenté en bleu les coordonnées successives de la trajectoire déterministe d'une boule durant successivement Nc = 10, 8 et 6 chocs correspondant à 200, 1000 et 5000 boules. Ces coordonnées utilisent une précision utile Pc égale à 10 bits, permettant de visualiser les trajectoires à la résolution de 1024 x 1024 pixels. Les conditions initiales sont représentées en vert, pour une précision additionnelle 4 fois plus grande (Pi = 40). La condition du paradoxe, exprimée ci-dessus, fait intervenir un facteur 2 qui vient du fait que les conditions initiales doivent inclure à la fois les vitesses et les positions, alors que le stockage des trajectoires ne requiert que la connaissance des positions. On s'aperçoit alors qu'à partir de 1000 boules, la quantité d'information qui est symbolisée en vert dépasse celle qui est symbolisée en bleu, la couleur rouge exprimant l'excédant.

La figure ci-dessous montre que le paradoxe du déterminisme se généralise à tous les cas de figure où l'on fait cette fois ci varier la précision Pc demandée pour le calcul, ou précision utile:

On voit ainsi que le fait d'augmenter Pc ne fait que diminuer la pente de la frontière paradoxale (en bleu pour Pc=15 et vert pour Pc=10) en montrant qu'il suffit d'augmenter le nombre de boules pour s'y retrouver quelque soit la valeur de Pc. Ceci peut se confirmer en éliminant Pi des deux formules précédentes exprimant Pi en fonction de Nc pour obtenir la relation directe entre Pc, Nb et Nc.

On peut encore augmenter le degré de généralité de ce paradoxe en remarquant qu'il n'est pas spécifique de l'interaction par choc élastique, car en effet le caractère dispersif d'un choc ne se limite pas à l'interaction élastique. On sait que toutes les interactions à distance le sont aussi, et notamment l'interaction gravitationnelle qui rend chaotique le problème des trois corps de Poincaré. On doit donc aboutir aux mêmes conclusions à ceci près que les paramètres des formules précédentes et ces formules elles-mêmes devraient être différentes, sans pour autant éliminer la dépendance de la précision additionnelle Pi vis à vis du nombre d'interactions Nc et du nombre d'objets ou particules Nb. Il est donc possible de reformuler le paradoxe du déterminisme d'une façon plus générale:

Paradoxe du déterminisme (2): Quelque soit la précision demandée pour le calcul, à partir d'un certain nombre d'interactions la quantité de mémoire nécessaire pour stocker les conditions initiales d'un système devient supérieure à la quantité de mémoire nécessaire pour stocker tous les résultats de calculs d'interactions durant le laps de temps où le système reste déterministe.

Que doit-on en tirer comme conclusion et notamment, ce paradoxe est-il susceptible de remettre en question le déterminisme des équations de base de la physique ? Plutôt que de répondre directement par l'affirmative à cette question, je préfère simplement mettre en avant une conséquence facheuse. On savait déjà que quelque soit la précision des calculs, il était impossible de prévoir l'avenir d'un système chaotique au dela d'une certaine durée, ce qu'on appelle l'imprévisibilité. Mais le paradoxe du déterminisme nous apprend autre chose: non seulement un tel système est imprévisible, mais les équations qui permettent de calculer l'avenir de ce système pendant son laps de temps déterministe peuvent consommer plus d'informations qu'elles n'en produisent, ce qui veut dire que le modèle de calcul présente une faille majeure.

D'où vient est cette faille ? Supposons raisonnablement qu'elle ne remette pas en question les équations elles-mêmes. Pourrait-il exister dans ce cas un modèle alternatif qui évite cette perte insupportable d'informations qui nous conduit à un tel paradoxe ?

Ma réponse est oui, à condition d'utiliser un modèle qui rajoute des dimensions à l'espace, comme je le propose sur la planche ci-dessous:

La solution que je propose est de limiter tout d'abord la résolution de notre espace 3D, en prenant acte de l'hypothèse de certains modèles issus de la mécanique quantique et des théories de grande unification qui interdisent l'attribution d'un sens physique à une distance inférieure à la longueur de Planck (auquel cas on choisirait une résolution de l'espace correspndant environ à Pi = 100). Mais peu importe, ceci n'a aucune importance, car ce choix n'influe aucunement sur la faisabilité de la solution proposée, et l'on peut aussi le considérer comme un choix tout simplement pratique, qui n'implique aucune remise en question de la mécanique classique, mais permettrait de compenser la limite de précision des ordinateurs pour faire des calculs prévisionnels (à vérifier cependant).

En procédant ainsi, si l'on se limite au problème du billard, il suffit d'introduire de l'information additionnelle au moment de chaque choc, cette information ayant pour but d'empécher la perte d'information issue de la dispersion engendrée par le choc. L'un des moyens de le faire consisterait à quantifier uniquement, au moment de chaque choc, la position de la boule à l'intérieur d'un domaine d'incertitude à 2 dimensions, s'agissant de l'intérieur d'un cercle. Pour échantillonner toutes les solutions possibles aux trajectoires, il faudrait alors attribuer une information potentiellement distincte en chaque point de l'espace où est susceptible de se produire un choc.

Or il existe une manière beaucoup plus physique et élégante de réaliser cette opération: il suffit de courber l'espace, comme indiqué en bas et à droite de la planche ci-dessus. Chaque point de l'espace se verrait ainsi attribuer un vecteur courbure. Dans un espace 3D, cela revient à introduire 3 dimensions spatiales supplémentaires ayant les propriétés suivantes:

  • Ces dimensions spatiales supplémentaires auraient une influence ponctuelle extrèmement faible,
  • Elles pourraient avoir une influence globale très importante sur l'avenir de certaines systèmes, notamment chaotiques,
  • Elles seraient invisibles,
  • Elles pourraient être soit temporelles, soit atemporelles.

Voyons cette dernière propriété, sur laquelle nous n'avons aucune indication, puisqu'il règne à priori une liberté totale concernant la manière d'introduire de l'information en chaque point de l'espace. Cette information pourrait varier dans l'espace mais ne pas nécessairement varier dans le temps, auquel cas lorsqu'elle varierait localement, elle serait suceptible de varier simultanément en tout point du temps, passé comme futur. Il s'agit de pure conjecture, mais je mentionne cette possibilité car elle aurait l'intérêt de valider la notion de déplacement intemporel des lignes temporelles telle que la Théorie de la Double Causalité la conçoit...

Quoi qu'il en soit, l'intérêt de ce nouveau modèle de physique classique à 6 dimensions est d'éliminer le paradoxe du déterminisme, en éliminant la dépendance linéaire en Nc de la précision Pi, puisque cette dernière devient constante. Mais pour conclure, je tiens à préciser un autre intérêt de ce modèle:

Il rejoint les conclusions de la théorie des cordes qui introduit elle-même des dimensions supplémentaires, tout en faisant jouer à la gravité un rôle extérieur à notre espace 3D, ce qui expliquerait pourquoi l'interaction gravitationnelle est si faible en comparaison aux autres interactions. Il y alors fort à parier que si mon modèle était aussi proche de la vérité que la théorie des cordes, les dimensions supplémentaires ne seraient ni plus ni moins que des dimensions de courbure gravitationnelle.

La fluctuation de la gravité serait alors le point clé du libre arbitre, et le phénomène de la conscience serait intiment liée à celui de la gravité... Allez savoir !

Ce qu'il faut retenir:

Le paradoxe ou démon du déterminisme

Pour prévoir l'évolution observable d'un système où les interactions sont nombreuses (billard, gaz, systèmes complexes ou vivants),

la mécanique en 3 dimensions est impuissante à calculer plus d'informations que les conditions initiales n'en requièrent.

Dans le cas d'un système naturel où les interactions moléculaires sont innombrables, on s'aperçoit que

le modèle déterministe a besoin d'immensément plus d'informations qu'il ne permet d'en calculer.

Pour les calculs, le déterminisme reste une approximation valable à court terme.

En tant que modèle de pensée, le déterminisme devient irrationnel.

La mécanique en 3D est tout simplement erronée.

Pour résoudre ce problème il faut rajouter

6 dimensions discrètes et

infinitésimales à

l'espace

***

Conséquences