Partager la publication "La cosmologie moderne: une déviation intellectuelle majeure (2ème partie)"
Par Sanchez, Francis
La cosmologie moderne : une déviation intellectuelle majeure (2e partie)1
Résumé : S’il est relativement facile de comprendre que, chez l’être vivant, les parties sont ordonnées au tout (primat de la forme ou principe de finalité), nos contemporains pensent qu’il n’en est rien dans le monde inerte. Ils imaginent les composants matériels des corps comme des substances impérissables dont les propriétés, additionnées, engendrent celles des agglomérats et, par-là, les lois de la physique. Le grand mérite de l’auteur est de réintroduire l’antique concept d’un « cosmos », d’un univers dont la totalité ordonnée s’impose comme le grand principe explicatif. La première partie (donnée dans Le Cep n°78) avait montré comment ce qui est présenté comme « preuve » du Big-bang était en réalité un argument en faveur de la théorie opposée, celle de l’Univers permanent [de Fred Hoyle (1915-2001)]. En ajoutant à l’univers immense mais fini de Hoyle (de rayon R = 13,8 milliards d’années-lumière) le principe d’un « Grandcosmos » englobant, F. Sanchez montre la voie pour à la fois lever les paradoxes et les « effets » bizarroïdes où se perd la physique mathématisée, et par là-même pour redonner vie à une authentique pensée cosmologique.
Section 3. Les grands nombres d’Eddington-Dirac réfutent le Bang Primordial
Ces deux chercheurs de Cambridge avaient remarqué, et pris au sérieux (contrairement à la plupart, comme Robert Dicke, qui n’imaginent même pas la possibilité d’une simplicité cosmique) la double coïncidence suivante : on obtient le même type de grand nombres (de l’ordre de 1040) dans trois circonstances :
1/ Le rapport entre les forces électrique et gravitationnelle dans l’atome d’Hydrogène,
2/ Le rapport entre le rayon R de fuite des galaxies et le rayon du noyau atomique r0 ≈ 10-15 m,
3/ La racine carrée du nombre d’atomes dans l’Univers.
Pour Dicke, partisan du Bang Primordial, puisque la vie utilise les atomes de carbone qui sont produits dans les supernovae, il faut que l’Univers soit assez vieux pour cela, ce qui nécessite plusieurs milliards d’années.
Cela fut retrouvé quelques années plus tard par Brandon Carter, dans son »principe anthropique faible », qui n’est qu’une simple tautologie. Certes, cela justifie la première coïncidence, mais seulement en ordre de grandeur. La seconde corrélation est expliquée par le fait que l’Univers est assez proche de sa condition critique, ce qui demande des conditions initiales très spéciales au moment du Bang. Cela ressort du ‘principe anthropique fort’ : tout se passe comme si l’Univers avait été spécialement conçu pour que la vie puisse apparaître. Là encore, il ne s’agit que d’une adéquation en ordre de grandeur.
Pour Dirac, une constante mathématique est nécessairement voisine de l’unité, donc les grands nombres en question doivent être variables dans le temps. Pour expliquer les corrélations, Dirac a donc proposé une variation temporelle de G, qui fut démentie par la suite. Heureusement, car toute variation d’une constante universelle poserait des problèmes insurmontables, comme Poincaré l’avait souligné.
Par contre, pour Eddington, cela infirmait le scénario à l’origine de la cosmologie du Bang Primordial, l’atome primitif de Lemaître, car le rayon de fuite galactique R devait être constant, ainsi que l’équivalent masse M de l’Univers observable, selon la relation critique R/2 = GM/c², identifiant l’horizon de l’Univers observable à l’horizon d’un trou noir (dans les deux cas la vitesse frontière est c). Cela nécessite une formation continue de bébé-galaxies : c’était une conclusion conforme à la Cosmologie Permanente de Gold, Bondi et Hoyle, qui allait devenir la principale concurrente du Bang Primordial.
Le raisonnement d’Eddington est d’une simplicité biblique : dans la sphère de rayon R, l’incertitude sur la position d’un atome est R/2, donc l’incertitude portant sur un ensemble de N atomes est, selon la loi classique des grands nombres, R/(2√N), où N = M/m0, avec m0 une masse microphysique caractéristique dite de ‘comparaison’. Cette incertitude R/(2√N) est égalisée à la longueur d’onde canonique de l’atome d’Hydrogène ƛH = ħ/mHc qui est de l’ordre du rayon nucléaire r0. On obtient donc R/2ƛH = √(M/m0). Mais Eddington ne pouvait aller plus loin pour définir m0, car la valeur de R était sous-évaluée d’un facteur 8 dans l’estimation de Lemaître. En effet, celui-ci avait utilisé les décalages spectraux (redshifts) de Slipher concernant certaines galaxies du Groupe Local, qui ne participent pas à la récession. Cette valeur fut bizarrement ‘retrouvée’ par Hubble malgré son ‘nuage de points’ qui était tout sauf une droite, et confirmée par une seule galaxie très lointaine, étudiée par Humason, l’ancien muletier del’Observatoire du Mont Wilson, devenu astronome sans aucun diplôme. Personne ne releva cette entourloupe, qui ne fut corrigée pleinement que 30 ans plus tard, mais sans mentionner la stabilité du Groupe Local, ce qui aurait fait désordre dans un Espace soi-disant en expansion. On se contenta d’invoquer une erreur sur le type de céphéides utilisées pour calibrer les distances, et la confusion par Hubble entre les étoiles à brillance maximale et des nuées ionisées.
Maintenant que la valeur de R est assez bien connue, soit 13,8 milliards d’années-lumière, on peut vérifier facilement que m0 est la masse de l’électron. C’était, une fois de plus, l’hypothèse la plus simple qui prévalait. Cela s’écrit R/2 = ħ²/GmH²me [demi-rayon d’Eddington-Sanchez], ce qui correspond, en remplaçant le terme gravitationnel GmH² par le carré de la charge électrique élémentaire e², à ħ²/e²me , le rayon de Bohr. C’est la symétrie gravitation-électricité entre l’Univers observable et l’atome, ce pont que les théoriciens n’arrivent pas à construire, ce qui confirme que la mécanique quantique est incompréhensible sans faire intervenir la cosmologie ( »principe d’immergence »2). J’ai trouvé cette formule lors des 3 premières minutes de mon année sabbatique à Orsay, simplement en mélangeant les 3 constantes universelles principales (à part la vitesse-lumière). Personne n’avait fait ce calcul, car enlever ‘c’ est impensable pour un théoricien relativiste, mais indispensable pour tout physicien suffisamment lucide : la vitesse de la lumière est bien trop lente pour assurer la cohérence d’un Univers aussi vaste. Le problème des grands nombres était résolu par le simple jeu des constantes universelles, donc le Big Bang Primordial était irrémédiablement réfuté. Mais convaincre une communauté scientifique mal embarquée est une toute autre affaire. Mon « calcul 3 minutes », censuré pendant 9 ans, ne fut finalement publié, d’ailleurs fort difficilement, qu’en 2006, par Jean-Claude Pecker (voir la note 4).
Le fait que la masse de l’électron soit essentielle en cosmologie n’est pas anodin. J’ai montré qu’en pavant l’espace par des sphères de rayons multiples de la longueur d’onde canonique de l’électron conduisait à relier les constantes électriques et gravitationnelle, comme si l’univers n’était composé que d’électrons, voire d’un électron unique (voir ci-après la section 7).
Moralité : le culte excessif de la personnalité a encore frappé dans cette affaire. On a trop admiré Dirac, à qui on a attribué faussement la découverte de l’anti-matière (puisqu’il pensait que l’antiélectron était le proton) mais pourtant incapable de reconnaître l’oscillation matière-antimatière, et plusieurs se sont obstinés dans la vaine tentative de faire varier les ‘constantes universelles’. Encore plus grave : on a mis au panier la Théorie Fondamentale d’Eddington qui prévoyait à la fois le rayon d’horizon et la masse (136 × 2256 neutrons) de l’Univers c-observable3, égale à 3/10 M avec M = mP4/memH² = (ħc/GmH)²/me, en prenant pour G (avec une précision de 2 × 10-5) la valeur déduite de l’oscillation cosmique non-Doppler de Kotov-Luyty. Pourquoi le neutron en lieu et place de l’Hydrogène d’Eddington ? Parce que les neutrons sont les candidats les plus simples pour la régénération de nouvelle matière (c’était le choix de Hoyle en particulier), ce qui confirme une fois de plus la Cosmologie Permanente.
Que penser de ceux qui sont incapables de reconnaître l’importance d’une corrélation aussi précise portant sur un nombre aussi grand (de l’ordre de 1080), le nombre d’atomes dans l’Univers visible ? Noter que le facteur 3/10 est ainsi amplement confirmé, ce qui montre que son complément 7/10 peut être identifié au soi-disant taux d’énergie sombre de la cosmologie officielle, montrant par-là que l’énergie sombre est un faux problème. Noter que ce facteur 3/10 s’obtient directement en rapprochant la formule critique R = 2GM/c² et la formule classique de l’énergie gravitationnelle d’une boule homogène de rayon R : E = (3/5)GM²/R, ce qui donne E = (3/10) Mc². De plus, l’énergie cinétique non-relativiste des amas galactiques en cosmologie Permanente (un univers critique à loi de récession exponentielle, qui correspond à une ‘constante cosmologique’ égale à R²), est précisément (3/10) Mc², ce qui montre que la condition critique est en fait justifiée par l’égalisation entre ces deux énergies, l’une potentielle, l’autre cinétique. Il se confirme donc que les Relativités restreinte et générale (voir ci-dessous) ne s’appliquent pas à l’échelle cosmique.
Section 4. Le combat biaisé entre deux cosmologies et autre réfutation du Bang primordial
Ce débat entre partisans de Dirac et d’Eddington reprend à sa manière celui d’Héraclite d’Ephèse avec Parménide d’Elée.
Pour les premiers, tout doit varier, tandis que les seconds soutiennent qu’une permanence d’ensemble doit coiffer toute évolution locale. Ma conférence au Collège de France, le 27 Février 2004, aurait dû mettre fin à ce débat, et consacrer la fin du Big bang primordial. Mais cela réfutait aussi la cosmologie de Narlikar, qui a tout fait pour étouffer l’affaire (voir note 4).
Pourquoi les officiels n’admettent-ils pas leur erreur, et s’obstinent-ils à soutenir l’Univers évolutif de Dirac, lié à la thèse du Bang Primordial ? En 2000, le principal philosophe français spécialisé en cosmologie, Jacques Merleau-Ponty, pourtant spécialiste d’Eddington, me répondit au téléphone, un ridicule : ‘je l’espère pour vous’. On voit ici le personnage, incapable de réaliser le bouleversement qu’implique la précision du % entre formules et mesures, portant sur des grands nombres. De même Paul Davies, le principal physicien-philosophe au niveau mondial, dûment averti, ne réagit pas.
Mais revenons à la source, car définir de quoi on parle est ici particulièrement délicat. En effet, comme disait Bachelard, ‘penser l’Univers ne peut se faire qu’en se plaçant hors de lui, ce qui est, par définition, impossible‘ (« Gaston Bachelard et la cosmologie », Ch. 14 de Regards philosophiques sur la cosmologie, Dunod 2010). Alors comment interpréter l’adéquation ci-dessus de la formule d’Eddington-Sanchez avec la mesure du rayon de l’Univers observable R ? Tout se joue donc sur la définition précise de R.
En Cosmologie Permanente, cette longueur R est définie par la loi de la récession galactique, dans le cadre d’une récession exponentielle, ce qui définit tout le reste, car cette cosmologie ne comporte qu’un seul paramètre libre, et obéit au Principe Cosmologique Parfait invoqué par Thomas Gold et Herman Bondi, complétant le Principe Cosmologique ordinaire (pas de variation globale dans l’Espace, c’est-à-dire homogénéité et isotropie) par son complément naturel : pas de variation globale dans le Temps, c’est-à-dire permanence.
Par contre, la Cosmologie du Bang Primordial ne définit pas de rayon de l’Univers. Elle interprète le décalage cosmique comme une expansion de l’espace lui-même (et non un simple récession des amas galactiques), et caractérise ce phénomène par une ‘constante de Hubble’ qui est l’inverse d’un temps (alors qu’on ne mesure que des longueurs et des décalages qui sont des nombres purs). Or on enseigne en Physique qu’il faut toujours se rapporter au plus près de ce qui est effectivement mesuré.
Cette question essentielle a été posée au père de l’astrophysique française, le normalien Evry Schatzman, qui a répondu qu’il ‘ne savait pas définir la grandeur expérimentale caractéristique de l’expansion universelle, et que, de toute façon, elle était conventionnelle’.
Pourtant, tout physicien qui se respecte voit immédiatement que c’est une longueur qui est caractérisée, puisqu’on détecte la proportionnalité entre un décalage spectral relatif et la distance.
Cette inquiétante attitude s’explique par une vaste confusion : la cosmologie officielle est fondée sur la Relativité générale. Certes, celle-ci marche bien au niveau des GPS ou des mirages gravitationnels galactiques. Mais on enseigne aussi que toute théorie a son domaine limité de validité.Or la Relativité générale est une théorie locale, c’est-à-dire basée sur des équations différentielles, et le grand spécialiste de ce type d’équations, Henri Poincaré, avait insisté sur le fait que la cosmologie ne pouvait s’appuyer sur de telles équations, car ‘l’Univers étant tiré à un seul exemplaire, nous ne saurions déterminer les conditions initiales‘.
On voit où nous mène la déviation actuelle : l’Univers n’étant plus considéré comme unique, on introduitle Multivers4. Au lieu de se corriger, le système s’enfonce dans l’erreur, en ajoutant, comme au bon vieux temps de Ptolémée, un nouvel épicycle : le Multivers. Cette floraison d’Univers est fille de l’inflation, et, par le jeu du principe anthropique, permet d’écarter le problème de l’explication mathématique des paramètres physiques : il suffit d’introduire une multitude d’Univers ratés qui n’ont pas notre chance d’être là où les paramètres s’ajustent finement pour permettre la vie. La différence essentielle entre les deux cosmologies est que la Permanence est – en principe – facilement réfutable, puisque l’astrophysique exhibe le passé, et l’on ne se priva pas d’annoncer, à grands renforts de publicité, des réfutations expérimentales spectaculaires, qui se sont toutes effondrées par la suite (Helge Kragh, « Grand Theories and Failed Revolutions »inPhysics and Cosmology).
Le combat fut biaisé aussi par une autre circonstance incroyable : la Théorie d’Eddington avait été écartée depuis longtemps. Selon le célèbre adage ‘le premier qui dit la vérité doit être exécuté’, on n’avait pas supporté, à l’époque, qu’Eddington osât relier la cosmologie et la microphysique. On l’avait accusé de ‘numérologie’ et décrété que le plus grand savant de l’époque, le seul pratiquement à dominer aussi bien la Relativité générale que la Physique quantique, était frappé de sénilité. Sa fameuse Théorie Fondamentale est pratiquement introuvable en France (je n’ai pu la dénicher qu’à Lyon). Heureusement, elle est maintenant placée sur la Toile, et on peut consulter son ‘Appendix‘, qui contient le fameux nombre d’Eddington, 136 × 2256, l’objet de risées pendant un siècle, qui se trouve, à 10-3 près, le nombre équivalent de neutrons (en tenant compte de la matière noire, ce qui éclaire celle-ci, voir ci-dessous) dans l’Univers observable de rayon R, comme rappelé ci-dessus. Ainsi la théorie d’Eddington est auto-cohérente à 10-5 près (voir la note 6). C’est vérifiable par tout possesseur d’une calculette scientifique de niveau Bac et, à moins de croire à un ‘miracle numérologique’, ça tranche la question en apportant une nouvelle réfutation du Big Bang Primordial. Mais cela implique beaucoup plus : cela signifie qu’Eddington avait réussi à unifier physique quantique et gravitation, problème toujours officiellement non résolu.
La cosmologie standard est non seulement empêtrée dans ses épicycles, mais fait intervenir 6 paramètres libres qu’elle ajuste à volonté (dont la si mal-nommée « constante » de Hubble). Et malgré cela, ce soi-disant ‘modèle de concordance’ entre en pleine discordance avec les résultats (2014) de la mission du satellite Planck qui privilégient comme valeur de la constante de Hubble : 67,8 km/s par mégaparsec (avec les unités ridicules des astrophysiciens, introduisant la longueur arbitraire 92,5063 × 1026 mètre correspondant à 1 km/s par mégaparsec). Or la mesure directe de la constante de Hubble par supernovæ donne 73,8 km/s par mégaparsec, soit 9 % d’écart. À noter que la valeur moyenne est 70,7 km/s par mégaparsec, correspondant à 92,5063 × 1026/70,7 ≈ 1.31 × 1026 mètre ≈ 13,8 milliards d’années-lumière, nombre associé à la fois au rayon d’Eddington-Sanchez R ci-dessus et au soi-disant ‘âge de l’Univers’ officiel : 13,8 milliards d’années. Tout se passe comme si, avec un épicycle supplémentaire la théorie officielle pouvait retomber sur la valeur correcte. Comme signalé ci-dessus, il suffit d’identifier R² avec la fameuse ‘constante cosmologique’ qu’Einstein avait ajouté dans ses équations pour empêcher l’Univers de s’effondrer (voir la Section 7).
La conclusion est nette : peu nombreux sont ceux qui croient à l’existence d’un Cosmos, au sens ancien du terme, signifiant ordre, simplicité, beauté et, bien sûr, permanence.
D’autres, hélas l’écrasante majorité, sont parfaitement convaincus d’une nécessaire complexité du monde. Ainsi des meneurs incompétents usurpent le nom de ‘cosmologues’ : ce serait plutôt des ‘chaologues’. Il est significatif de constater que le terme ‘cosmos’ a disparu des encyclopédies, alors que le terme ‘chaos’ fait florès.
Section 5. L’accélération de la récession galactique : triomphe censuré de la Permanence
Le comble intervint au tournant du millénaire, quand, grâce aux supernovæ de type 1a, on s’aperçut que la récession galactique qui, selon tous les traités, devait se ralentir, s’accélérait au contraire, ce qui fut une catastrophe majeure pour la communauté des cosmologistes, un coup de semonce terrible qui augurait de l’irrémédiable cataclysme final.
Car, évidemment, aucun officiel n’a signalé que cette accélération avait elle aussi été prévue par la cosmologie permanente, selon la loi la plus simple, l’exponentielle, qui ne dépend que d’un seul paramètre, et qui signifie que l’accélération est elle-même accélérée. Le principe de simplicité (« rasoir d’Occam ») s’applique alors ici de manière éclatante : la Cosmologie Cohérente ne dépend que d’un seul paramètre invariant (le rayon d’Univers observable invariant R ci-dessus), alors que la Cosmologie standard, dépendant de 6 paramètres variables qu’on ajuste à volonté, s’est empêtrée dans une série d’épicycles pour sauver le scénario Bang (principe anthropique, inflation, dissymétrie matière-antimatière, matière noire, énergie sombre, multivers). La récession exponentielle signifie que les galaxies se repoussent avec une force proportionnelle à leur distance, ce qui explique directement la stabilité du Groupe Galactique Local, en caractérisant sa dimension (un million d’années-lumière). En effet, la force répulsive entre deux galaxies de masse m ≈1041 kg est mc²r/R², qui devient supérieure à l’attraction gravitationnelle Gm²/r² pour r > (GmT2)1/3 ≈ 106 année-lumière, dimension typique d’un amas galactique. La soi-disant »expansion de l’Espace » de la cosmologie officielle est évidemment incapable d’expliquer de façon aussi simple et convaincante la stabilité du Groupe Local. De plus, la permanence de la densité, à l’intérieur d’un groupe local, implique que la matière trouve une échappatoire locale : c’est le rôle des trous noirs galactiques, qui doivent donc perdre de la masse au profit du Grandcosmos.
Noter que cette accélération permanente ne fait pas appel à l’énergie sombre répulsive officielle de taux 0,69 ± 0,01. Comme signalé ci-dessus, un taux d’énergie excédentaire 7/10 s’obtient en une ligne d’un calcul trivial, refusé, bien sûr, par l’Académie, malgré sa présentation par Jean-Claude Pecker : l’énergie gravitationnelle d’une boule homogène est (3/5)GM²/R, c’est-à-dire, en tenant compte de la relation critique ci-dessus, (3/10)Mc², qui est aussi l’énergie cinétique non-relativiste des amas galactiques.
Chacun peut vérifier que c’est, à 10-5 près, le nombre ci-dessus d’Eddington 136 × 2256 multiplié par l’énergie mn c² d’un neutron.
On voit bien le ridicule de la situation : l’un des plus grands mystères de la cosmologie actuelle, leplus ridicule des épicycles :l’énergie sombre, pour laquelle on prépare un satellite (EUCLID) d’un milliard d’euros, est un faux problème : ça fait cher la ligne de calcul trivial !
Section 6. Le rayonnement de fond provient du référentiel absolu, le Grandcosmos
Revenant à l’avertissement de Bachelard ci-dessus, on réalise que l’explication holographique de l’Univers ne vaut que si l’on se place, par la pensée, à l’extérieur de cette sphère de l’Univers observable introduite par Eddington (Section 25). Du coup, l’interprétation du fond de rayonnement est simple : c’est le rayonnement d’un Grandcosmos qui sert de thermostat à notre Univers.
Il y aurait donc, au-delà de la simplicité de l’Univers visible, une super-simplicité au niveau du Grandcosmos. En effet le transfert dimensionnel le plus simple définit un rayon R‘, légèrement plus grand que R d’un facteur 1,311, et qui est relié au rayonnement de fond par une relation holographique extraordinaire, et le Grandcosmos associé montre aussi des relations trop esthétiques pour être fortuites (voir note 6).
Ce Grandcosmos serait le responsable de l’apparition des bébé-galaxies qui, pour assurer la Permanence, doivent compenser la perte des galaxies disparaissant au-delà de l’horizon. En modifiant légèrement l’hypothèse d’Eddington, à savoir que son célèbre grand nombre représente non pas le nombre équivalent d’atomes d’Hydrogène mais plutôt son nombre équivalent de neutrons, ces particules essentielles de la nucléosynthèse, on arrive à une double relation donnant l’équivalent–masse de l’Univers observable : M = mP4/memH² = (10/3) × 136 × 2256 mn, où mP = (ħc/G)1/2 est la masse de Planck (voisine de celle de l’ovocyte humain). Ainsi chacun peut vérifier sur sa calculette scientifique la relation ci-dessus, ce qui précise la valeur de la constante de gravitation G ≈ 6.67532 × 10-11 kgms, qui s’écarte de la valeur définie par l’oscillation cosmique de seulement 2 × 10-5, ces deux valeurs étant situés à + 2 écarts types (2 × 10-4) de la valeur officielle de G, laquelle résulte d’une moyenne entre des valeurs fortement discordantes. Ainsi la Cosmologie Cohérente devient plus précise que la physique locale.
On observe une légère dissymétrie du rayonnement micro-onde, qui s’explique directement par un effet Doppler, donnant notre vitesse absolue par rapport au Grandcosmos (ainsi, le groupe local de galaxies se déplace à 627 km/s vers l’Hydre, quand le soleil, se déplaçant en sens contraire, n’a qu’une vitesse résultante de seulement 370 km/s). Mais le mal est fait : plusieurs carrières prestigieuses sont lancées, des incapables, solidement accrochés à leur pouvoir, ne peuvent réaliser que ce rayonnement matérialise l’élément fondamental qui manque à la Mécanique, et même à la Relativité Générale : la définition opérationnelle d’un référentiel d’inertie particulier, le référentiel absolu. C’est donc par rapport au Grandcosmos que le pendule de Foucault tourne (de même pour l’ensemble Soleil-Terre, ce qui met un terme définitif à un débat historique). C’est autrement plus convaincant que la classique définition, basée sur des ‘étoiles lointaines’, qu’on trouve dans les manuels scolaires (cette conclusion apparaît déjà dans mon pli cacheté déposé en mars 1998).
Section 7. Le Bang Permanent
A ce stade, on voit mal quelqu’un d’assez fou pour parier, ne serait-ce qu’un centime, sur le scénario Bang Primordial. Mais comment expliquer les succès de ce modèle ? En fait, c’est l’aspect primordial du bang qui est réfuté : il reste une possibilité, trop inouïe pour être fausse, c’est que le Bang soit permanent.
Revenons au début de la Physique quantique, après la découverte de Planck (Note 16). En fait, Planck avait grand tort d’être surpris par l’apparition du discontinu. Des nombres entiers étaient apparus depuis longtemps : en Chimie (loi de Dalton), en Optique (raies de Balmer), en atomistique (Mendeleiev), en Génétique (Mandel).
De nos jours, on sait que même les décalages cosmologiques sont quantifiés, ce qui bouleverse, une fois de plus, les fondements mêmes de l’Espace-Temps. Donc, l’aveuglement de Planck provient du fait que la formation des physiciens de l’époque était déjà trop formelle, c’est-à-dire liée aux seules mathématiques connues, alors qu’il est clair que celles-ci sont incomplètes, puisqu’elles n’ont pas repéré les nombres purs de la Physique.
En 1905, le jeune et ambitieux Albert Einstein, qui cherchait absolument à se faire remarquer, proposa que le rayonnement fût constitués de paquets d’énergie (plus tard appelés photons).
Il partait d’une bonne idée : si la matière est constituée d’atomes, pourquoi pas la lumière ? Mais l’idée de symétrie était mal appliquée : on savait que la lumière se propage par ondes, en contradiction totale avec le modèle du photon (dans l’expérience du trou d’Young, on devait alors admettre que le photon passait par les deux trous, ce qui est ridicule, mais sérieusement considéré par beaucoup, comme Laurent Nottale). C’est donc plutôt la propagation ondulatoire qu’il fallait symétriser, en affirmant que ‘la matière se propage aussi par ondes’, ce qui fut une surprise totale quand on découvrit par hasard qu’un faisceau d’électrons engendrait des figures d’interférences. Cela avait été prédit par l’aristocrate historien amateur de physique Louis de Broglie : il avait maladroitement inversé le raisonnement erroné d’Einstein, et était retombé, par »chance du débutant » sur une vérité. En effet, Einstein avait introduit la dualité onde-corpuscule pour la lumière, et de Broglie l’étendit à la matière (cette soi-disant dualité fut plus tard baptisée ‘principe de complémentarité’ par Bohr), et l’erreur d’interprétation initiale d’Einstein, couronnée par un prix Nobel désastreux, conduisit nombre de chercheurs à chercher une ‘double solution’ dans laquelle un paquet d’énergie serait piloté par une onde.
Rappelons qu’aucun prix Nobel n’a été décerné pour aucune des relativités, car Lorentz a témoigné en faveur de Poincaré pour la Relativité restreinte et, à l’époque, on savait encore que le vrai père de la Relativité générale était David Hilbert (voir Jules Leveugle, Poincaré et Einstein, Planck, Hilbert). Mais ce dernier n’a jamais osé protester car il avait été l’instigateur de la manœuvre, en 1905, pour évincer son grand rival Poincaré qui avait déjà ridiculisé l’école mathématique allemande. Hilbert s’est signalé par une autre pantalonnade : parmi ses 23 problèmes mathématiques non résolus, le septième n’était rien moins que ‘l’axiomatisation de la Physique’.
Il fallait tout simplement admettre que tout se propage par onde mais se réceptionne par quanta.
Apparemment, seul Richard Feynman l’a signalé dans son célèbre cours de Physique, mais il n’en a pas tiré les conséquences qui suivent. Cela veut dire que la propagation est non-locale, alors que la détection est super-locale (toute l’énergie se concentre dans un atome de dimensions très inférieures à la longueur d’onde). Cela implique aussi que, pour chaque transition quantique, une onde super-non-locale, de vitesse très supérieure à c, explore tout l’Univers, lequel décide où toute l’énergie sera transférée. C’est un mécanisme d’une beauté totale, car l’information »toute l’énergie est captée par un seul atome » est préservée.
Donc le célèbre débat entre Einstein et Bohr était un dialogue de sourds, puisque le premier soutenait une ‘physique locale’ et le second une ‘physique complète’, c’est-à-dire sans cosmos. Il n’était donc nul besoin à John Bell d’introduire ses inégalités, ni à Alain Aspect de lancer son faux-débat médiatique.
Autre conséquence : tout objet matériel doit donc se désintégrer et se réintégrer en permanence. Le principe holographique montre que la fréquence d’oscillation est directement reliée à la masse équivalente de l’Univers observable, donc que celui-ci recalcule tout objet à la fréquence 10104 Hz. Du coup, l’énigme lancinante de l’absence apparente d’antimatière est résolue : il suffit d’admettre que la reconstruction passe par une phase d’antimatière. Encore un épicycle qui saute : un siècle d’astronomes cherchant vainement, partout dans l’Univers, cette antimatière qui était sous leur nez. Dans un article récent, j’ai proposé que la masse noire soit simplement une vibration matière-antimatière en quadrature avec la vibration locale (Sanchez, Coherent Cosmology, vixra.org : 1601.0011,publié in Springer series Progress in Theoretical Chemistry and Physics, n°30’Quantum systems in Physics, Chemistry and Biology : A Coherent Resonant Cosmology Approach and its Implications in Microphysics and Biophysics’, juin2017).
On voit donc une fois de plus, conformément au principe d’immergence (cf. supra note 2 de bas de page), qu’on ne peut comprendre la microphysique qu’en passant par la cosmologie. Le fameux »mur de Planck » (10-43 seconde) a volé en éclat, d’un facteur 1061 !
Lors d’une oscillation de période 10-104 seconde, l’Univers pourrait suivre une phase de Bang-Crunch régi par la théorie officielle. Des indications très précises soutiennent cette hypothèse, notamment la confirmation, dévoilée par les relations holographiques, de l’existence du fond de neutrinos cosmique à la température de 2,93 °K.
Les théoriciens se serait trompés d’échelle de temps d’un facteur 10120 (avec leur ridicule système d’unités où c = 1, où l’on confond Temps et Longueur, il est facile de se tromper).
C’est le même facteur 10120 qui intervient quand on calcule l’énergie du vide quantique par rapport à l’énergie de l’Univers visible, et aussi le carré du rapport entre le rayon du Grandcosmos et de l’Univers visible. Notre Univers visible ne serait que l’écume d’un tachyo-Monde7, 10120 foisplus énergétique.
On peut associer à cette discontinuité cosmique le balayage d’une particule qui décrirait l’univers ligne par ligne comme l’écran d’un ordinateur. La formule d’Eddington-Sanchez (voir Section 28) suggère que cette particule est l’électron. Cela rappelle une anecdote de Richard Feynman dans son ouvrage ‘La nature de la physique‘. Il y raconte comment il avait téléphoné à son professeur Wheeler : “Je sais pourquoi les électrons sont tous identiques : car c’est un électron unique qui balaie tout l’univers, remontant parfois le cours du temps en se transformant en son antiparticule, le positron.” Wheeler aurait répondu “dans ce cas il devrait y avoir autant d’antimatière que de matière”. Du coup Feynman abandonna cette idée, sans songer à l’oscillation matière-antimatière. C’est d’autant plus surprenant que dans un autre endroit du même livre, Feynman avance qu’une quantification du temps pourrait débloquer la physique théorique.
À noter l’intuition fulgurante de Matthieu Ricard dans son ouvrage écrit en commun avec l’astrophysicien Trinh Xuan Thuan (page 83) : ‘Tant que toutes les causes et les conditions sont présentes, l’effet doit nécessairement être produit. S’il ne se produisait pas, cela voudrait dire qu’il manque encore quelque chose. Donc, si un principe créateur portait en lui toutes les causes et condition de l’univers, il devrait sans cesse créer la totalité de l’univers, un Big bang permanent en quelque sorte’‘. En outre cet auteur note dans ses conclusions (page 419) : ‘Pour le bouddhisme, quand on envisage la question d’un début, la seule position métaphysique qui résiste à l’analyse est celle de l’absence de début‘.
Section 8. Conclusion.
C’est donc à cause d’une sociologie scientifique aberrante qu’on a favorisé des interprétations inexactes et arbitraires à celles que donnait une théorie immédiatement prédictive. Voilà comment une communauté scientifique servile a raté des découvertes importantes, et engagé des sommes énormes dans des projets mal préparés, comme la mission Euclide, prévue pour 2020, censée traquer une soi-disant énergie sombre. En effet, celle-ci est rendue totalement inutile par ma Cosmologie Cohérente, qui complète la Cosmologie Permanente de Bondi, Gold et Hoyle par l’introduction du Grandcosmos, le concept de Bang Permanent (ou Rebond Permanent), la vibration matière-antimatière, et le retour, au niveau cosmique, de l’Espace-Temps absolu de Newton, avec introduction d’une super-vitesse qui brise le ‘mur de Planck’. La Relativité de Poincaré, qu’Einstein avait copiée, retrouve son statut logique de théorie locale car, basée sur des équations différentielles, elle est incapable de définir un référentiel galiléen, pour lequel le principe d’inertie s’applique : la mécanique officielle n’est qu’une tautologie, que seule la Cosmologie éclaire.
Quand on demandait à Eddington, en 1930, à quoi servirait un nouvel observatoire, il répondait : ‘Si nous le savions, il serait inutile‘. De nos jours un observatoire est dédié à un but bien précis : les découvertes étant programmées !
Personne évidemment ne signale que le soi-disant « modèle de concordance » (cf. Note 39) est en pleine discordance (les officiels parlent de ‘tension’, alors qu’ils professent par ailleurs l’avènement de la ‘cosmologie de précision’ !). Nous avons vu en section 4 que la valeur sélectionnée pour la constante de Hubble, après optimisation des 6 paramètres libres de la cosmologie, est de 9% inférieure à la valeur déduite directement des supernovæ de type 1a, alors que le soi-disant « âge de l’Univers » 13,80± 0,05 milliards d’années correspond au % près à ma formule de R, déduite en 3 minutes d’analyse dimensionnelle hors c (Septembre 1997). Dans la Cosmologie Permanente, il n’y a plus qu’un seul paramètre libre : R qui s’identifie à la fois avec la constante de récession galactique et la racine carrée de la ‘constante cosmologique’. Celle-ci avait été rajoutée par Einstein dans les équations de la Relativité Générale d’Hilbert, mais il l’avait reniée ensuite, dès que la récession galactique fut observée.
Il déclara avoir fait la plus grande erreur de sa vie, alors qu’il aurait dû en déduire directement l’accélération de l’expansion, finalement observée au tournant du millénaire.
Mon pli cacheté de Mars 1998, qui donne directement R/2 par un calcul incontournable de niveau bac, sera ouvert en Mars 2018. Noter que cette même analyse dimensionnelle sans vitesse lumière privilégie aussi la température de fond et la densité moyenne dans l’Univers, ce qui confirme, deux fois de plus, la cosmologie permanente.
Ces faits sont vérifiables, mais systématiquement censurés dans les ouvrages ou sites contrôles sans vergogne par les officiels (notamment Wikipédia, le garant de la Pensée Unique).
Le fond de l’abîme est proche. Selon le mot de Tajima No Kami : ‘Celui qui a maîtrisé l’Art n’utilise pas le sabre et l’adversaire se tue lui-même.’ Il est clair que, quand les observatoires géants entreront en service, nos officiels seront totalement déconsidérés, car la simple constatation que les galaxies très lointaines sont vielles au lieu d’être jeunes ne pourra être couverte par aucun épicycle additif. Cette réfutation directe du scénario Bang Initial sera une déconfiture totale pour le système scientifique actuel (qui a même osé l’insérer dans le tronc commun de l’enseignement en France).
William Jones écrivait : Toute doctrine nouvelle traverse trois états : on l’attaque d’abord, en la déclarant absurde ; puis on admet qu’elle est vraie, évidente mais insignifiante. On reconnaît enfin sa véritable importance, et ses adversaires revendiquent alors l’honneur de l’avoir découverte.
Mais là, après avoir utilisé maints ‘épicycles’, il n’y aura aucune échappatoire possible pour les inconditionnels du scénario Bang Primordial. Alors qu’il y a aujourd’hui plus de scientifiques vivants que dans toute l’Histoire de l’Humanité, la science officielle perdra le peu de crédit qui lui reste, après les nombreux scandales de santé publique et la fable du réchauffement anthropique.
L’Histoire des sciences future retiendra le drame scientifique central de ce siècle : la censure d’Eddington, même après qu’on eut réalisé (Salingaros, 1985, Foundation of physics, 15, 683-91) qu’il avait introduit la chiralité, les spineurs de Majorana et surtout les algèbres de Clifford à 8 et 9 dimensions, qui apparaissent maintenant dans les théories de grande unification et de supersymétrie.
Le plus grave étant, bien sûr, qu’il avait, via la cosmologie, réconcilié gravitation et physique quantique, unification sur laquelle butent les théoriciens actuels.
Note 4. L’aide de Jean-Claude Pecker et le blocage de Jayant Narlikar
Pecker fut l’élève d’Evry Schatzman, le fondateur de l’astrophysique française, qui s’ingénia à retenir Pecker en France (il voulait partir aux USA) en l’engageant dans la rédaction d’un volumineux traité d’astrophysique.
Ces deux astronomes éminents font partie de la caste des normaliens, étudiants sélectionnés pour apprendre et débiter par cœur des théories parfois mal conçues et mal vérifiées, et qui y croient quand on leur affirme : ‘vous êtes les meilleurs’. Même le général de Gaulle y a cru, portant par décret cette caste à la direction de la Recherche, alors que les normaliens, comme leur nom l’indique, étaient à l’origine, destinés à s’adonner à l’enseignement. L’illustre général aurait déclaré : ‘des chercheurs on en trouve, des trouveurs on en cherche‘, sans se rendre compte qu’avec son malheureux décret, il permettait aux chercheurs de censurer les trouveurs. En effet, un bon enseignant doit croire à ce qu’il expose, tandis qu’un chercheur doit en douter : il y a donc incompatibilité psychique entre les deux attitudes. Ainsi, comme les normaliens, généralement, ne trouvent rien, ils en déduisent que la science est complète, d’où blocage.
Le résultat fut évidemment catastrophique à l’université d’Orsay où j’ai enseigné. Cette pépinière de normaliens se retrouva rapidement dans les fonds des classements internationaux. Un exemple typique : le directeur normalien du laboratoire Aymé Cotton, Pierre Jacquinot, m’a avoué qu’ils avaient eu depuis des années tous les éléments pour découvrir le laser, mais qu’il ne fallait surtout pas en parler car la découverte leur avait échappé. Je lui ai précisé que le premier laser avait été en fait découvert par un bricolage de Maiman, utilisant des flashes de photographie sur un barreau de maser à rubis, mais que son article avait été refusé, ce qui donna lieu à 20 ans de procès. L’histoire officielle du laser est qu’Einstein l’aurait découvert ; c’est complètement faux, car il avait omis de préciser que l’émission stimulée est cohérente. J’ai rectifié ce manquement en précisant dans mes cours-laser au CEA que l’émission stimulée est l’inverse temporel de l’atténuation classique, donc cohérente.
Le normalien Langevin s’ingénia à favoriser Einstein au détriment de Poincaré, le véritable découvreur de la Relativité, car celui-ci avait le grand tort d’être polytechnicien, donc non-normalien. Le même Langevin a participé à la création de l’ENA (École Nationale d’Administration), avec les conséquences que l’on sait. Mais la force de la pensée unique est telle que même le directeur actuel de l’Institut Poincaré traite publiquement de ridicule cette paternité prouvée de Poincaré pour la Relativité restreinte. Il est vrai que c’est un normalien, Cédric Villani, médaille Field de surcroît, fier d’être l’auteur d’un théorème de mille pages, mais parfaitement incapable de saisir l’importance de la démonstration en une seule ligne de l’inanité de l’énergie sombre.
Quand j’étais élève en classe préparatoire (Lycée Charlemagne), je me suis vite rendu compte à quel point la Physique était massacrée, réduite à un formalisme aveugle. Quant aux maths, on passait son temps à découper des epsilons, dans la ridicule théorie du continu. Intuitivement, je devinais que c’est la théorie des nombres qui devrait intervenir, ce qui s’est amplement confirmé (article à paraître sur la relation entre les groupes sporadiques et la Physique dans le Journal de Mathématiques pures). C’est pourquoi je me suis orienté vers une classe préparatoire à option physique, au Lycée Saint-Louis. Bien m’en a pris, car j’ai bénéficié d’un professeur de physique extraordinaire (on l’appelait Ben) qui insistait sur l’analyse dimensionnelle, ce fondement de la physique dont l’efficacité reste inexpliquée (c’est pourquoi les normaliens, entraînés à la déduction servile plutôt qu’à l’induction créatrice ne font pas la distinction entre analyse dimensionnelle et numérologie).
Jean-Claude Pecker est une heureuse exception parmi les normaliens. Déjà, il a toujours signé ses expertises sur le travail d’un collègue (ce qui est la moindre des choses, au point de vue éthique). Il suivit d’abord les idées cosmologiques de Zwiki, interprétant le décalage spectral par une fatigue de la lumière, puis il se signala comme un opposant majeur à la cosmologie officielle, ainsi d’ailleurs qu’à toute immixtion des religions dans le débat scientifique, en particulier au sein de l’Union Rationaliste. En 2004, il publia dans le Journal ‘The Scientist’, avec une cinquantaine de scientifiques reconnus, une Lettre ouverte dénonçant le dogmatisme en cosmologie. La même année, il invita à donner un cours de cosmologie au Collège de France, Jayant Narlikar, le principal théoricien officiel s’opposant au modèle Bang, un continuateur de l’opposition farouche de Fred Hoyle. Ces deux chercheurs ont proposé un modèle ‘quasi-permanent’ (une complication inutile de la cosmologie permanente) qui reprenait le thème hindou de l’éternel retour (Narlikar en Inde passe pour un demi-dieu), mais qui ne convainquit personne.
En 1997, j’avais envoyé une note à Jean-Claude Pecker. Il accueillit favorablement mon “calcul-3 minutes” donnant le demi-rayon de l’Univers, obtenu simplement en ôtant la sacro-sainte vitesse-lumière de la liste des constantes universelles pertinentes en Cosmologie. Il rédigea un rapport positif à la direction de mon université (Paris XI, Orsay), ce qui plongea dans la stupeur et l’embarras le Doyen, Jean-Claude Roynette.
Ce dernier avait reçu par ailleurs un rapport anonyme très négatif, limite diffamatoire (on soupçonne Jean-Marc Lévy-Leblond, ce normalien qui n’a rien découvert mais qui donne des leçons à tout le monde). Hélas, Pecker ne prit pas au sérieux la remarquable symétrie Atome-Univers que cette formule implique, arguant que ‘le raisonnement par analogie est rédhibitoire‘ (or il s’agissait d’une simple constatation). Pecker ne présenta pas cette note aux Comptes-rendus de l’Académie des Sciences, mais heureusement, il me conseilla de la mettre sous pli cacheté, ce qui fut fait en Mars 1998.
Son ouverture est donc prévue pour Mars 2018, soit 20 ans après, en hommage à Alexandre Dumas. Le public sera ravi d’apprendre que le soi-disant ‘âge de l’Univers’, 13,8 milliards d’années, correspondant à la mesure la plus difficile de toute l’histoire des sciences, se retrouve par un calcul élémentaire incontournable, de niveau Bac.
En réalité, la formule donne la moitié du rayon de fuite des galaxies R/2, mais c’est justement cette moitié qui intervient dans la formule de Schwarszchild de l’horizon d’un trou-noir, qui relie R/2 et la masse équivalente de l’Univers (relation prédite par Eddington : R/2 = GM/c², et admise par la suite comme la condition de platitude par les officiels, voir ci-dessous), ce qui implique une liaison directe, sans coefficient numérique, entre la puissance 4 de la masse de Planck (ħc/G)1/2, et le produit de la masse M de l’univers par la masse de l’électron et le carré de la masse de l’Hydrogène : on ne saurait mieux illustrer le principe de Mach qui veut qu’une masse locale soit liée à la masse de l’Univers. De plus, en tenant compte du facteur trivial (3/10) représentant l’énergie effective, le nombre équivalent de neutrons est 2256 × 136, soit le fameux nombre d’Eddington, en utilisant la valeur de G déduite des oscillations cosmiques cohérentes présentées ci-dessous, et confirmée à l’Observatoirede Paris par l’astronome-adjoint Christian Bizouard.
Ce nombre d’Eddington 136 × 2256 a fait l’objet de risées pendant tout le dernier siècle. Pourtant 136 est le nombre de paramètres indépendants dans une matrice symétrique 16 × 16 = 256, le nombre total de paramètres. Avec la matrice classique 4 × 4, ce nombre est 10, le nombre de paramètres en gravitation.
Mais quand on tranche un gâteau par quatre coupes, on obtient 11 morceaux au maximum, ce qui représente le nombre de dimensions dans la théorie de Supergravité, qui remplace les 10 dimensions de la théorie des cordes. Donc la relation 11 = 10 + 1 est lourde de sens. Pour en revenir à la matrice 16 × 16, Eddington avait d’abord adopté la valeur 136 pour la constante électrique.
Quand les mesures indiquèrent une valeur proche de 137, Eddington trouva un argument pour rajouter une unité, et adopta la valeur 137. On le lui a reproché, oubliant que la science procède par approximations, et personne ne signala que 16 coupes définissent 137 parts ! De plus, quand la valeur exacte fut avérée (≈ 137,036), on abandonna définitivement l’approche d’Eddington. J’ai montré que, évidemment, cette valeur précise était directement reliée au nombre 137.
De plus, personne ne s’est aperçu que 137 est un monstre mathématique, ce que j’ai montré en 1999. Pour un pythagoricien, le fait que les deux monstres mathématiques 136 et 137 soient séparés par une unité est hautement significatif de l’unité cosmique.
Malheureusement, comme la plupart des scientifiques, Pecker est anti-pythagoricien : il rejette donc a priori le concept d’une simplicité cosmique (c’est aussi pour cette raison que la Théorie Fondamentale d’Eddington fut mise au panier). Cette simplicité cosmique remplace le concept mystérieux »d’émergence »10 par celui »d’immergence », bien plus productif. Lors de ma confrontation avec Narlikar en 2004 au Collège de France, Pecker préféra s’en remettre au théoricien plutôt qu’au pythagoricien. L’admiration de Pecker pour Narlikar ne peut se comparer qu’avec son inconscience devant la formule d’Eddington-Sanchez, comme le prouve son ouvrage L‘Univers exploré, peu à peu expliqué (2003), où il soutient que la cosmologie de Narlikar est préférable à l’officielle, et place mon nom en parallèle avec celui du numérologue Zaman Akil qui, tout comme les frères Bogdanov, ne fait pas la distinction entre un nombre pur et un nombre ‘dimensionné’ (c’est-à-dire attaché à une grandeur physique).
Alors que j’avais élégamment résolu l’énigme des grands nombres lors de ma conférence au Collège de France, le 27 février 2004, pendant les vacances scolaires, date choisie par Narlikar pour éviter la présence de trop de spécialistes, ce dernier refusa toute discussion lors de la réunion finale, avec un historique ‘no comment‘, qui ne figure pas dans le compte-rendu final des discussions, publié en 2006, voir en ligne ‘Current Issues in Cosmology’ où ma contribution fut réduite à 3 pages (contre 5 pages promises par Pecker), avec le ridicule commentaire suivant : the editors decline all responsability to the content of this paper‘.
Ces 3 pages étaient prophétiques pour d’autres raisons encore. En particulier, la théorie bosonique des cordes, qui a été rejetée à cause de son caractère tachyonique, y est réhabilitée, puisque sa dimension n = 26 est directement liée au rayon de l’univers observable. Ce résultat fut obtenu fin 1998 en pratiquant ce que j’enseigne à mes étudiants : portez sur un graphique les résultats des mesures. Quand on le fait, en incluant les nombres caractéristiques de la microphysique, on obtient un alignement (en échelle de double logarithme), qui met en évidence la série spéciale des cordes n = 2 + 4p. La valeur n = 10 des supercordes correspond à l’atome.
On retrouve donc la symétrie univers-atome, liée à la symétrie corde-supercorde. C’est le seul cas connu où les théories de cordes épousent la réalité, mais Narlikar étouffa cette découverte de première importance, car cela ruinait non seulement, une nouvelle fois, le scénario Bang Primordial, mais aussi son cher modèle qu’il voulait imposer. Narlikar a donc bloqué non seulement la cosmologie, mais aussi la Physique Théorique : les théoriciens sont toujours à la recherche d’un indice reliant les cordes à la réalité, et beaucoup en ont abandonné l’espoir, comme le normalien Alain Connes. D’où l’importance cruciale de mon »Axe Topologique », qui non seulement implique le Grandcosmos mais prévoit aussi que les gluons sont massifs. Le Prix Nobel Gilles de Gennes n’a pas réagi [on ne sait même pas pourquoi il reçut le prix Nobel, mais il est vrai que c’était du temps d’importantes tractations commerciales franco-américaines].
Dans ces 3 pages, fut aussi proposée l’origine cosmique du cycle solaire de 11 ans, confirmée dans mon article récent avec Kotov, ‘Solar 22 years cycle‘, dans la revue ‘Astrophysics and Space Science’. Or certains astronomes relient les cycles climatiques à ce cycle solaire ; ils auraient donc finalement une origine cosmique, et non humaine.
Alors que la tradition est d’écarter tout article qui ne participe pas de la pensée unique, Pecker avait auparavant présenté une Note qui horrifia la plupart des académiciens : les observations iconoclastes de Valéry Kotov et Viktor Lyuty. Le premier, ami de Pecker, avait repéré depuis des décennies, dans sa tour solaire de l’observatoire de Crimée, une période d’oscillation du rayonnement solaire de période 9 600,6 s.
Cette même période fut retrouvée par Viktor Luyty, avec une plus forte intensité, dans plusieurs quasars, montrant ainsi que cette oscillation ne présentait pas d’effet Doppler (à part des déphasages d’un quasar à l’autre, ce qui prouve que ce n’est pas un biais local).
C’est exactement ce que j’attendais, puisque cela confirme que le cosmos est tachyonique, et j’ai vérifié en quelques secondes que cette période, par une nouvelle élimination de c, impliquait directement la constante de gravitation et la constante de Fermi caractérisant l’interaction faible. Par contre, ces oscillations sans effet Doppler plongèrent Narlikar dans la plus profonde stupeur : en effet, cela remettait en question les fondements mêmes de la Physique. Narlikar avait pourtant proposé la possibilité d’une action à distance ultra-rapide (quasiment instantanée), ce qui prouve l’incohérence du personnage.
Et la corrélation était si précise qu’elle conduisait à une décimale supplémentaire sur la constante de gravitation G, valeur qui fut confirmée dans une étude statistique de l’astronome-adjoint Christian Bizouard. Parmi les relations trouvées par celui-ci, figure une corrélation directe avec la masse du muon, qui prévoyait implicitement un gain de 2 décimales sur la constante de Fermi, ce qui fut confirmé 5 ans plus tard ! On voit sur cet exemple l’utilité de la confrontation directe entre résultats de mesure, ce qu’un pur théoricien ne peut admettre et rejette en évoquant la ‘numérologie’.
Note 6. Calcul du Grandcosmos : les formules confirmantes
Quand on cherche à égaliser la quantité d’information dans un volume et dans une surface, ce n’est pas vraiment de l’holographie, mais plutôt un transfert dimensionnel, comme rappelé plus haut. Il est clair que l’identification d’un volume, fondamentalement le cube (L/l1)3 d’un rapport de longueurs, avec une surface (L/l2)2,exige que les unités l1 et l2 soient différentes. Or, à partir de deux longueurs caractéristiques de la physique – d’une part la longueur de Planck lP ≡ (ħG/c)≈ 1,6164 ×10-35 m, considérée comme l’unité de longueur naturelle en physique théorique et, d’autre part, le ‘rayon classique de l’électron’ re ≡ e/a ≈ 2,8179 ×10-15 m, voisin du rayon nucléaire, où ƛe= ħ/mec est la longueur d’onde canonique de l’électron et a ≈ 137,036 la constante électrique – on obtient, en prenant l1 = re et l2 = lP une longueur L = re3/lP ² (formule qui élimine encore c) très voisine (à 2%) de la fraction 2/3 de R, le rayon de l’Univers observable. Pour la plupart des théoriciens actuels, ce ne peut être qu’une coïncidence fortuite, car ils considèrent que ce rayon de l’Univers (ou ‘rayon de Hubble’) est variable.
Mais Dirac et Eddington (voir la Note 1) prirent très au sérieux ce soi-disant ‘problème des grands nombres’. Rappelons que Dirac, admettant la variabilité de la sphère de Hubble, en déduisit la variation de la longueur de Planck, par l’intermédiaire d’une variation de la constante de gravitation, laquelle fut démentie par la suite.
Par contre, Eddington en déduisit que le rayon de l’Univers était fixe ; il publia une formule qui, précisée par l’auteur, donne le rayon actuel, dont le temps associé R/c est maintenant estimé à mieux que le %, mais considéré à tort comme l’âge de l’Univers. Le calcul historique d’Eddington, rappelé dans la Note 1 ci-dessus, a été oublié par l’Histoire des sciences.
Il n’est mentionné que par Matila Ghyka dans son ouvrage ‘Philosophie et mystique du nombre’, 1971, Payot, Paris, pages 203-204, mais Ghyka lui-même n’y croit pas vraiment, le traitant de ‘tour de passe-passe’.
Mais le calcul encore plus simple qui remplace la formule de la Note 1 : R = 2ħ²/GmH²me par le rayon R’ = 2ħ²/G(ame)3 ≈ 4R/3, fait apparaître la masse ame, repérée en microphysique pour être d’importance centrale (masse de Nambu), mais sans trouver d’explication : celle-ci serait donc d’ordre cosmologique. Mais la question se pose : comment peut-on avoir deux formules pour le rayon d’Univers ? Bonne question, d’ailleurs posée par Jean Iliopoulos, le seul au laboratoire de l’École Normale à avoir été intrigué par mon approche. Réponse évidente : la sphère de rayon R‘ est « l’hologramme du Grandcosmos », qui serait donc plus simple que l’Univers lui-même. D’où le rayon du Grandcosmos par transfert dimensionnel monochrome (une seule longueur d’onde lP) 2D – 1D, construite à partir de l’officielle ‘entropie de Bekeinstein-Hawking’ 2D : (R‘/lP)² = 2RGC/lP, d’où RGC = R‘²/2lP ≈ 9.075 ×1086 m. Dans cette hypothèse, il devrait y avoir une liaison directe entre R’ et le rayonnement de fond, caractérisé par sa longueur d’onde de Wien Wien ≈ 1.0631 mm. En effet, la surface de la sphère de rayon R‘, avec Wien pour unité n’est autre que e137,035, soit pratiquement ea. Ça ne s’invente pas, avec accès direct à l’histoire des sciences. Cette formule a convaincu l’astronome-adjoint Christian Bizouard, mais laissé certains officiels de marbre, comme les normaliens Claude Cohen-Tannoudji ( »J’en ai tellement vu ! ») et Pierre Fayet ( »Développez ça avec d’autres !’). De plus le demi-volume du proton, avec pour unité la longueur de Planck est aussi compatible avec ea.
Encore plus spectaculaire, le volume du Grandcosmos, avec pour unité le rayon de Bohr, est aa/≈ (1/ln2)p+1/e donc directement lié aux paramètres a = 137.036 et p = 1836.1527, le rapport de masse proton/électron.
Selon la tradition scientifique, ces nombres doivent être des constantes mathématiques ; donc la première exigence est qu’ils soient reliés entre eux. Dès le début de ma carrière universitaire, en 1971, j’ai alerté la direction de l’Université d’Orsay sur la nécessité de lancer des recherches sur les corrélations entre ces paramètres. Peine perdue, la présidente de l’époque, Catherine Bréchignac, en bonne normalienne, a refusé de lancer cette recherche primordiale.
On la retrouve maintenant, en 2017, comme secrétaire perpétuelle à l’Académie des Sciences, incapable de bloquer la réjection extravagante de mon article résolvant le faux-problème de l’énergie sombre en une ligne de calcul.
Certains osent douter de la pertinence de formules aussi spectaculaires, car la croyance en la cosmologie standard est si forte (on peut la comparer à un dogme) que tous mes articles ont été refusés de publication, sans justification sérieuse, alors que je suis spécialiste en holographie. Les rares collègues lucides qui ont apprécié les formules se sont vus menacés dans leur carrière universitaire. Comme l’écrivit Rémy Chauvin dans une lettre restée célèbre à Allais (voir mon site) : « J’ai mesuré la pusillanimité et, tranchons le mot, la lâcheté de beaucoup de collègues. Les universitaires ne sont pas des héros, on le sait depuis longtemps ; mais tout de même ! Non pas la déviation des normes mais même la plus légère suspicion d’une telle déviation, peut ruiner une carrière. »
Il est clair que les cosmologistes officiels, si fiers d’annoncer que leur domaine entre dans l’ère de la précision, redoutent par-dessus tout une remise en question du modèle standard qui a assuré leur carrière : ils vont entrer dans l’Histoire, mais par la mauvaise porte.
Ce qui peut heurter un physicien traditionnel, c’est que, selon une croyance très répandue, le caractère quantique est réservé au microcosme, donc ne pourrait intervenir en cosmologie que lors d’un Bang Primordial. Cette idée reçue est déjà bafouée par la supraconductivité et la superfluidité, et les formules ci-dessus montrent clairement que la constante quantique ħ intervient dans la cosmologie de tous les jours : nul besoin de recourir à un hypothétique moment d’un lointain passé.
1Francis Michel SANCHEZ, vixra.org, janvier 2017.
2Principe d’immergence : les parties sont explicables à partir du tout.
3Ndlr. Éléments de l’univers dont la lumière nous est parvenue après 14 milliards d’années, en prenant c comme vitesse limite.
4Ndlr. Multivers : ensemble des univers possibles dans une théorie physique donnée. On peut alors s’imaginer que les valeur précises des paramètres physiques qui rendent la vie possible dans notre univers, résultent d’un prodigieux hasard et non d’une harmonie préétablie.
5Cf. Le Cep n°78, p.12-16.
6Cf. Le Cep n°78, p. 17.
7Ndlr. Le tachyon est une particule hypothétique se déplaçant à une vitesse toujours supérieure à celle de la lumière (il serait donc impossible à observer) et dont l’énergie diminue quand sa vitesse augmente.
8Cf. Le Cep n°78, p. 12.
9Cf. Le Cep n°78, p. 19.
10Principe d’émergence : le tout est inexplicable par ses parties.