Canalblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Publicité
NEWS OFF AMERICAN INTERNET COUNCIL COMPANY - DIACONESCO.TV Phone : 06.32.17.36.33/ 06.50.34.10.26 diaconesco@gmail.com
NEWS OFF AMERICAN INTERNET COUNCIL COMPANY - DIACONESCO.TV Phone : 06.32.17.36.33/ 06.50.34.10.26 diaconesco@gmail.com
Publicité
Visiteurs
Hier 0
Ce mois ci 181
Depuis la création 1 241 677
Newsletter
123 abonnés
NEWS OFF AMERICAN INTERNET COUNCIL COMPANY - DIACONESCO.TV Phone : 06.32.17.36.33/ 06.50.34.10.26 diaconesco@gmail.com
Derniers commentaires
Archives
6 juillet 2016

SCIENCES SCIENCES SCIENCES SCIENCES SCIENCES

I - LE MONOPÔLE MAGNETIQUE DE GEORGES LOCHAK 

GheCt_gmhXVa9hxuLu3VhDVPVGM (1)

On entend par monopôle magnétique un objet physique portant une charge magnétique unipolaire, nord ou sud, soit donc quelque chose d’inconcevable à notre échelle, puisque couper un aimant en deux aboutit à la constitution de deux aimants plus petits et non à celle de deux pôles magnétiques séparés. Par son pouvoir explicatif et prédictif, Le monopole magnétique de Georges Lochak est sans doute l’élément le plus prometteur d’une nouvelle physique à venir.

Maxwell introduit en 1873 l’idée de charge magnétique, homologue de la charge électrique, sinon qu’elle se caractériserait par une rotation axiale plutôt que par une vitesse comme pour l’électron. Pierre Curie qui travaille sur les symétries en cristallographie, précise en 1873 que la chiralité[1] de cet objet physique devrait être telle qu’il serait retourné par son reflet dans un miroir mais non inversé, à la façon d’une symétrie centrale, la notion de miroir s’entendant au sens de la physique des particules[2].

[1] Les mains sont chirales par exemple, elles sont semblables mais différentes, l’une est gauche et l’autre est droite.

[2] Il existe en physique différents type de miroirs qui ne concernent par forcément seulement la lumière visible, ni le seul photon. Ce sont des dispositifs qui varient selon leurs structures de surface et leurs matériaux, qui renvoient une image inversée du phénomène incident selon les règles de chiralité propres au phénomène.

En 1931 Dirac suggère à son tour l’existence d’une telle particule pour justifier de la quantification de l’électricité [3], spéculations que complètent Hooft et Polyakov en 1974 en affirmant la nécessité de l’existence du monopôle magnétique pour parachever toute théorie de grande unification. Le monopôle est alors envisagé comme un boson, doté d’une masse telle que son équivalence en énergie [4] le rejette dans les premiers temps de l’univers, lorsque celui était encore suffisamment chaud. Du fait même de cette grande valeur de masse-énergie nul espoir n’est permis de pouvoir le produire artificiellement. On en reste donc à cette idée d’une particule hypothétique que l’on ne pourra probablement jamais observer [5].

[3] L’analyse de Dirac par le formalisme permet de relier la charge électrique élémentaire, celle de l’électron, à la charge magnétique élémentaire, celle du monopole, en égalant leur produit à une composition de constantes, celle de Plank et la vitesse de la lumière. L’hypothèse monopole magnétique conditionne donc la pertinence de la quantification de l’électricité, la base même de la physique quantique. [4] Selon la fameuse formule E=mc2 [5] Sinon malgré tout sous la forme de rayonnement cosmique, voir le projet Antares.

La trace d’un monopôle et son image dans un miroir au germanium. L’objet et son image sont identiques, non pas inversées comme en optique, mais simplement tournés de 180° :

Georges Lochak, qualifié d’héritier de Louis de Broglie et président de la fondation du même nom, propose en 1983 un monopôle leptonique, de masse théoriquement nulle et intervenant dans les interactions faibles. Son existence découlerait, par l’application des lois de symétrie de Pierre Curie et de règles relatives au principe d’invariance de jauge, de la célèbre équation de Dirac [6], dont la solidité théorique reste indiscutée. L’argumentation repose sur une savante alchimie mathématique faite de groupes de symétrie, de pseudo-scalaires et de spineur de Dirac, d’algèbre de Clifford, d’équation de Poincaré et autres ingrédients théoriques de haut vol, du grand art [7].

[6] L’équation de Dirac décrit l’électron et son spin dans un formalisme qui réunit les équations probabilistes de la physique quantique à la relativité d’Einstein. Ce qui subjugue littéralement les savants de l’époque et encore de nos jours, c’est son pouvoir générateur pour la théorie, et sa beauté. Elle contient en elle-même plusieurs vérités physiques vérifiables, dont notamment celle de l’antimatière. On s’interroge ainsi sur la relation entre le vrai et le beau, on reparle des formes de Platon, sortes d’idées préexistantes aux objets du réel que l’écriture mathématique pourrait contenir et révéler. [7] Voir à ces propos l’ouvrage de G.Lochak intitulé « La géométrisation de la physique ».

0TJemg1vDcjFiEfSCVNmO4uRGxY

Le monopôle magnétique de Georges Lochak est un neutrino excité magnétiquement, le neutrino étant un lepton [8], donc un fermion et non un boson comme on l'avait jusqu'alors envisagé. Etant lié aux interactions faibles, il pourrait jouer un rôle important dans le fonctionnement des étoiles ainsi que dans nos expériences terrestres relatives à la fusion nucléaire. Une équipe russe du prestigieux institut Kurtchatov porte alors un grand intérêt aux travaux de Georges Lochak, car ils font la relation avec leurs observations concernant une expérience (2) d’explosion d’une mince feuille de titane plongée dans de l’eau déminéralisée par décharge électrique [9]. Les deux écoles travaillent depuis lors en étroite collaboration.

[8] Un lepton magnétique capable d’intervenir dans les interactions faibles Georges Lochak :

http://www.aflb.ensmp.fr/AFLB-274/aflb274p727.pdf

 [9] F100 .4

Les monopôles : une nouvelle fenêtre d’observation sur l’univers physique ; F93.2 - Rayonnement étranges, transmutations chimiques et monopôles magnétiques ; F93.3 - Détection expérimentale d'un rayonnement étrange et de transmutations d'éléments chimiques :

http://perso.latribu.com/rocky2/screen/fusion_index.html

 

Tchernobyl

hM__iXO5-A9Kx_lRX1hS_IzCAAc

L’accident de Tchernobyl, que l’on attribue habituellement à la défaillance d’une installation archaïque et à l’incurie de l’administration soviétique, est quelque peu réinterprété ici. Selon la thèse officielle il s’agirait d’un test de dispositifs de secours qui aurait mal tourné. La centrale est par ailleurs fortement critiquée pour ses réacteurs de type RBMK, suspectés d’instabilité et conçus originellement en fonction d’objectifs militaires. La perte de contrôle du réacteur serait le résultat d’une inhomogénéité induite dans le comportement du coeur du fait de la descente des barres de graphite, et d’une augmentation du coefficient de vapeur dans l’eau supercritique du circuit de refroidissement, cette eau participant à l’atténuation des réactions de fission, tout comme les barres.

 

tchernobyl-3

Pour Georges Lochak ces explications ne tiennent pas. Lors de l’accident le réacteur n’était qu’à 6% de son régime nominal et les barres de combustible avaient déjà perdu 75% de leur potentiel initial. L’argument d’une augmentation de vapeur dans l’eau serait incompatible avec les simulations et les essais en grandeur nature effectués avant la construction et ne rends pas compte de la soudaineté du phénomène. Quant à l’inhomogénéité induite par la descente des barres de graphite, cette question aurait été tranchée par Enrico Fermi dès les débuts de l’industrie nucléaire, c’est d’ailleurs ce mécanisme qui est partout prévu pour l’arrêt d’un réacteur.

Nous laissons ici les autres thèses alternatives mais signalons quand même la présence à proximité de la centrale d’un puissant dispositif radar pour la détection des missiles intercontinentaux, dénommé Duga-3. Après l’accident, l’institut Kurtchatov se rend sur place et constate un certain nombre d’indices intrigants. Une première explosion s’est produite dans la salle des turbines, de gros conducteurs électriques ont été arrachés de leurs attaches et projetés sur des conduites de vapeur. On suspecte l’action d’une force de Laplace [10], soit donc du magnétisme.

[10] Un conducteur électrique parcouru par un courant selon une direction x, plongé dans un champ magnétique orienté selon une direction y, subit une force de déplacement selon la troisième direction z de l’espace. Cette force de Laplace est notamment celle mise en oeuvre dans tout moteur électrique.

A l’intérieur du réacteur on constate des dommages modérés sur les parois, même les peintures semblent ne pas avoir véritablement subi le feu d’une réaction de fission non contrôlée. Une importante partie du combustible semble avoir disparu tandis qu’est apparu une grande quantité d’aluminium, absent pourtant de la construction, et la présence d’un uranium bien plus riche que la normale. Enfin des anomalies sur la composition isotopique du césium rejeté conduisent à conclure à un phénomène dominé par les interactions faibles. Dans un tel cas en effet les températures sont basses, relativement, et des phénomènes de transmutations se produisent, ce qui laisse donc entendre que l’essentiel du combustible n’a pas été projeté dans l’atmosphère mais s’est transformé.

On s’étonne aussi du soulèvement et du dépôt sur le côté du réacteur du couvercle en béton armé de ferraille de 2500 tonnes sans qu’une explosion suffisamment forte depuis l’intérieur de l’enceinte puisse l’expliquer. En outre des lueurs aux couleurs étranges [11] ont été vues par de nombreux témoins autour du réacteur.

[11] Dans “La supplication” de Svetlana Alexievitch : « … une lueur framboise, flamboyante. Le réacteur semblait être éclairé de l’intérieur… Ce n’était pas un incendie ordinaire, mais une luminescence. C’était très beau… On dit que la radiation n’a pas de couleur, mais les flaques étaient vertes ou jaunes, fluorescentes”

Pour Georges Lochak et les chercheurs de l’institut Kurtchatov [12] il faut aller chercher l’explication du côté des monopôles magnétiques, à la lumière de l’expérience de décharge électrique, équivalente à un court-circuit ou à un arc électrique lors de la coupure d’un circuit. A la suite d’un défaut électrique des gerbes de monopôles auraient été produites et guidées par les circuits de vapeur jusqu’au coeur du réacteur, diminuant alors la part de désintégration béta dans le combustible au profit [13] des désintégrations génératrices de neutrons, ceci expliquant l’effet d’emballement. (3)

[12] F110.6 - Une nouvelle hypothèse sur l'origine de la catastrophe Tchernobyl - D. Filippov, G. Lochak, A. Rukhadze, L. Urutskoïev.

http://www.perso.latribu.com/rocky2/screen/fusion_index.html

Les Détectives de l'histoire : Tchernobyl

http://www.dailymotion.com/video/xgozwb_les-detectives-de-l-histoire-tchernobyl-1_news

[13] Les réactions dans le coeur sont celles de la fission additionnée de désintégrations béta. Seules les premières participent à la réaction en chaine contrôlée par l’émission de neutrons, les secondes étant plutôt une gène dans le processus, mais dont la proportion est supposée connue et stable.

AZF Toulouse

2001-09-21 AZF Cratere Photo EDF-RTE 17h

Le 21 septembre 2001 se produisait sur le site d’AZF Toulouse l’explosion d’un stock de 400 tonnes d’ammonitrate, produit communément employé par les agriculteurs comme engrais et dont le stockage ne nécessite pas de précautions exceptionnelles. L’explication officielle ne convainc pas, à tel point que la totalité des personnes inculpées sont relaxées à l’issue du procès. L’enquête elle-même, menée par des personnalités proches du CEA ou d’organismes liés au secteur militaire telle la DGA, semble avoir omis volontairement plusieurs éléments, dont la question essentielle d’une première explosion dans les dix secondes précédant celle du stock d’ammonitrate, ainsi que des enregistrements sismographiques.

On sait en effet qu’une première explosion, du type énorme claquement de pneu, s’est produite de l’autre côté de la Garonne, sur le site secret défense de la SNPE, ou bien sous la colline de Pech David, le tout étant parcouru de tous-terrains militaires et d’un bunker enterré. La possibilité d’un essai d’arme électromagnétique EMP est notamment évoquée [14]. Il est aussi question d’un accident électrique sur la ligne électrique de la SNPE avant l’explosion. La piste électrique ou électromagnétique pour l’identification du problème initial est corroborée par les nombreux témoignages concernant des éclairs lumineux, des lueurs et des perturbations sur les équipements informatiques et les télécommunications.

[14] AZF-Toulouse : accident et secret d’état, NEXUS no 62

Fond 3D

On rapporte des phénomènes peu communs qui incitent Henri Lehn, de la fondation Louis de Broglie, et Georges Lochak à évoquer la possibilité d’une piste « monopôles magnétiques » [15]. Plusieurs témoins affirment avoir vu des boules de feu de la taille d’un ballon de football, se déplaçant à vitesse lente à quelques mètres au dessus du sol dans la direction du hangar de stockage. Ce qui n’est pas sans faire penser à la présence d’un tel phénomène de foudre en boule au dessus du pot de tir de l’expérience russe.

[15] F100.3 - AZF Toulouse, l'hypothèse des monopôles - Emmanuel Grenier :

http://perso.latribu.com/rocky2/screen/fusion_index.html

Henri Lehn propose à l’équipe d’Urutskoiev d’exposer un échantillon d’ammonitrate à leur générateur de monopôles magnétiques. L’échantillon est hermétiquement enfermé, séparé matériellement du générateur, et l’on constate que le rayonnement décompose bel et bien l’échantillon d’ammonitrate. La même expérience sera reproduite à l’université de Kazan avec un dispositif un peu différent, pour le même résultat, ceci à deux mètres de distance tandis que les énergies mises en jeu n’ont rien de commun avec ce que l’on suspecte du défaut électrique de Toulouse.

La présence d’un câble hors service enterré sous le hangar et passant sous la Garonne, de conduites d’eau et autres éléments associant conducteurs électriques et milieu humide laissent à penser qu’un arc électrique du type de ceux produits par l’équipe d’Urutskoiev aurait pu se produire. Des câbles rompus ont été prélevés sur le site de l’explosion et mis sous scellés, ils auraient pu faire l’objet d’une analyse isotopique, mais ont entre temps été vendus, par inadvertance sans doute, à la ferraille.

Les applications

maxresdefault

Voyons maintenant les applications qu’envisage Georges Lochak, ciblant principalement les projets et réalisations en cours dans le domaine du nucléaire.

On sait la difficulté qui s’annonce à gérer les hautes températures dans une machine telle qu’ITER, les instabilités prévisibles et le risque de disruption, soit donc un échec programmé selon certains experts [16].

Pour pouvoir fonctionner ITER devra porter à 200 millions de degré un plasma de deutérium et de tritium pour l’obtention d’une réaction quasi instantanée de fusion, tandis que sur le soleil la fusion des hydrogènes est très lente mais se déroule en continu, à une température estimée de 15 millions de degrés.

[16] ITER : chronique d’une faillite annoncée, NEXUS no 77 4 

Hors il se trouve que dans les réactions stellaires les interactions fortes sont en quelque sorte commandées par les interactions faibles. Ce sont les équations de réactions qui nous le disent, elles intercalent des étapes à interactions faibles au milieu des réactions plus générales, à interactions fortes. Ces forces d’interaction faible font intervenir les neutrinos, qui selon Georges Lochak pourraient y tenir un rôle de catalyseur, avec comme conséquence l’abaissement de la température nécessaire à leur dynamique.

Revenons sur terre et considérons le fait que le monopôle magnétique est un neutrino magnétiquement excité, il est donc manoeuvrable par l’emploi de champs magnétiques. Vient donc l’idée d’un dispositif possible pour produire et guider des flux de monopôles, qui pourrait aider un projet tel qu’ITER à aboutir au succès par l’abaissement de la température de fonctionnement. Un tel dispositif a été ainsi breveté par Georges Lochak sur la partie cyclotron [17] (accélérateur), tandis que la source nous est déjà connue au moins dans une version, celle de l’expérience russe, et que le collimateur est proposé par Nikolai Ivoilov sous la forme de bobines d’Helmholtz.

[17] Sur une possible fusion nucléaire quasi-catalytique à basse température, Georges Lochak :

http://aflb.ensmp.fr/AFLB-371/aflb371m767.pdf

Une autre série d’applications envisagées concerne les effets de transmutations [18]. En amont de la filière nucléaire à fission il s’agit de l’enrichissement de l’uranium autrement que par l’emploi d’une cascade de centrifugeuses, et du retraitement des déchets radioactifs en aval de cette même filière. On imagine sans qu’il soit nécessaire de préciser ce que peuvent être les enjeux militaires ou géostratégiques lorsque l’on évoque les termes d’enrichissement et de centrifugeuses, ainsi que les enjeux environnementaux sur le second point.

[18] Une fusion nucléaire sous catalyse peut-elle supprimer les déchets et se passer des températures de millions de degrés ?

Georges Lochak : http://lochak.com/Z-files/AB_Georges_Lochak_Forum.pdf

Des applications médicales sont aussi imaginables puisqu’il a été constaté une action biologique favorable du rayonnement « étrange » sur la croissance de la moelle osseuse chez la souris. Enfin, une dernière application est à mentionner dans cette série quelque peu restrictive d’applications potentielles, qui se trouve être déjà en oeuvre sans qu’on ne le sache jusqu’à présent. Il s’agit des techniques utilisées pour la destruction de blocs de béton par l’emploi d’une explosion de fils électriques dans des trous forés et remplis d’eau. Le procédé est employé depuis longtemps déjà, on n’avait pas jusqu’à présent d’explication sur l’impressionnante force déployée et l’effet obtenu.

La série est quelque peu restrictive, à mon sens, quoiqu’il soit mentionné dans une lettre à la jeunesse la possibilité de concevoir des réacteurs fonctionnant au fer, plutôt qu’à l’uranium. La communauté scientifique ne se montre pas très accueillante pour les idées nouvelles, ni les industries auxquelles elle reste liée, une certaine diplomatie peut donc prévaloir afin de pousser les choses en avant. On ne trouvera rien au CEA par exemple sur l’existence de ces monopôles magnétiques, qui sont de nature à faire diverger des mécanismes de fission nucléaire contrôlée. Comme le dit si bien Jean Paul Bibérian, ancien chercheur au CNRS et porte parole de la cause « fusion froide » en France, le message adressé à la population française sur la sûreté de fonctionnement de nos 58 réacteurs ne doit pas être brouillé [19].

[19] La fusion froide : Interview de Jean Paul Biberian sur KnowledgeTVlive :

http://www.youtube.com/watch?v=Cu8H1JNJLa0

Corentin Louis Kervran pour sa part, dans une vision peut être plus profonde, suggère cette idée que les atomiciens seraient restés fascinés par la violence du feu nucléaire, suite aux nombreux essais et explosions atomiques réalisés dans l’après guerre. Sa réflexion fait suite à ses échanges avec Olivier Costa de Beauregard, élève de Louis de Broglie. C’est là peut être un trait caractéristique de notre civilisation, d’attacher plus d’intérêt à la puissance destructrice plutôt qu’à la douceur. Pourtant, et au-delà de l’écologisme, un autre nucléaire semble être possible, un nucléaire que l’on pourrait presque qualifier de «nucléaire de la sobriété heureuse », et de l’intelligence créatrice. (5)

7I-Tj0P_7XLeV5Jata_-srAcRa8

  

II. De Kervran à Vysotskii

Corentin Louis Kervran [1], bien connu pour ses ouvrages sur les transmutations naturelles et biologiques, envoie en 1962 à Olivier Costa de Beauregard les résultats de ses premiers travaux. Directeur de recherche au CNRS et ancien élève de Louis de Broglie, Olivier Costa de Beauregard [2] était aussi un ami et un proche collaborateur de Georges Lochak.

[1] Corentin Louis Kervran, « A la découverte des transmutations biologiques » réédité aux éditions sciences libres. [2] Site officiel du physicien relativiste et quantiste, et philosophe des sciences, Olivier Costa de Beauregard :

http://www.costa-de-beauregard.com/fr/

Au premier abord la réaction du théoricien fut celle du scepticisme, de la défiance même dit-il, compte tenu des remises en cause que ces travaux impliquaient. Mais devant le sérieux des observations et des arguments présentés, il dû trouver la justification pour l’existence d’une troisième voie, entre la physique nucléaire des hautes énergies, dont les rayonnements sont incompatibles avec la vie biologique, et la chimie classique.

On prouve en 1973 l’existence des courants neutres tel que prédits par Weinberg, principal instigateur de la théorie électrofaible [3], tandis que l’on était sur la piste des neutrinos depuis que Wolfgang Pauli [4] avait dans les années 30 posé le postulat de l’existence du neutrino, mis en évidence en 1956 par Cowan et Reines. C’est sur cette base que porte la réflexion d’Olivier Costa de Beauregard. Tous calculs faits il conclue que les microorganismes responsables de l’effet Kervran trouveraient en suffisance, dans le rayonnement naturel, les neutrinos de 10MeV dont ils ont besoin, et même plus, pour transmuter des éléments.

[3] Les courants neutres de Weinberg concernent l’intervention du boson Z0 non chargé électriquement dans des réactions à faible énergie entre particules neutres tels les neutrinos. Leur observation contribue à asseoir la théorie électrofaible qui englobe force faible et force électromagnétique. [4] Wolfgang Pauli postule en 1930 l’existence du neutrino: "J’ai fait une chose terrible, disait-il, j’ai postulé une particule qui ne peut être détectée." Elle était nécessaire pour expliquer le spectre d’énergie d’une désintégration bêta.

Il justifie l’existence de ces phénomènes par le principe de néguentropie, c'est-à-dire la tendance du vivant à créer de l’organisation, en opposition à celui d’entropie, second principe de Carnot en thermodynamique selon lequel le tout tend au désordre. Il voit dans le rayonnement cosmique de neutrinos une source chaude tandis que la source froide serait le lac de Fermi, un réservoir de neutrinos à très basse énergie. Ainsi est-il concevable que la vie puisse trouver dans ce différentiel énergétique les ressources qui lui sont nécessaires à accomplir des transmutations. Olivier Costa de Beauregard postface l’ouvrage de Kervran intitulé « Preuves en biologie de transmutations a faible énergie». Il apporte ainsi la partie théorique qui faisait défaut.

Un avant gout de tout ceci avait été donné dès 1894 par Pierre Curie qui écrivait alors: « Il n’y aurait rien d’absurde, au point de vue de la symétrie, à supposer que les molécules dissymétriques douées de pouvoir rotatoire[5] optique soient naturellement chargées de magnétisme libre », le magnétisme libre étant un autre nom pour les monopoles magnétiques.

[5] Le pouvoir rotatoire dont il est question concerne la rotation du plan de polarisation d’un faisceau de lumière polarisée.

Hors la chaine d’ADN est l’exemple même de la molécule dissymétrique douée de pouvoir rotatoire. Elle est aussi pelotonnée sur elle-même dans la cellule, si bien qu’elle contient quantité d’eau et de sels dissous confinés dans des structures d’une exiguïté telle que c’est la mécanique quantique qui gouverne, et non la mécanique classique. La chaine d’ADN est donc à double titre susceptible de manifester des effets autres que seulement chimiques.

Le monde de la biologie est d’ailleurs rempli de ces chaines d’acides aminés évoquant la rotation, ainsi les enzymes qui catalysent les réactions et toutes les protéines en général. (6)

En changeant le catalyseur du vivant par celui des pressions, des températures et des durées, on arrive à peu près aux mêmes conclusions dans le domaine des transmutations naturelles, c'est-à-dire géologiques. Ceci concerne principalement pour Kervran la genèse du calcaire et du granite, et celle du pétrole. La thèse pour une origine abiotique [6] du pétrole a d’ailleurs fait l’objet d’une multitude d’études en Russie et en Ukraine, et l’on trouve sur le site de la fondation Louis de Broglie un papier intitulé « Sur l’origine des champs pétroliers géants », signé Claude Daviau [7], dans lequel on s’interroge sur la présence d’hydrogène dans ces gisements, hydrogène dont on sait qu’il pourrait être un sous produit de réactions nucléaires à basse énergie.

[6] On entend par « origine abiotique » du pétrole l’idée selon laquelle le pétrole ne serait pas le produit de la décomposition des végétaux préhistoriques, mais le résultat d’une activité strictement minérale. Blog resistance71. Tout ce que vous avez toujours voulu savoir sur le pétrole abiotique.

http://resistance71.wordpress.com/2011/06/12/tout-ce-que-vous-avez-toujours-voulu-savoir-sur-le-petrole-abiotique/

[7] Annales de la Fondation Louis de Broglie. Lettre à la rédaction : sur l’origine des champs pétroliers géants. Claude Daviau

http://aflb.ensmp.fr/AFLB-324/aflb324m579.pdf

[ref supplémentaire ; « Nouvelle approche du modèle standard de la physique quantique en algèbre de Clifford» :

http://www.jepublie.com/livre-nouvelle-approche-du-996.aspx

ou en anglais

https://hal.archives-ouvertes.fr/hal-00907848

Ce papier fait suite au test effectué par l’explorateur Jean-Louis Etienne, qui embarque des pellicules X lors d’une expédition au pôle nord. On reconnaitra à son retour sur ces pellicules les traces caractéristiques que des monopoles magnétiques ont laissées dans l’environnement proche du pôle magnétique [8]. Des neutrinos excités magnétiquement sont donc émis par le soleil et déviés vers les pôles, nord ou sud selon leur « signe ».

[8] Annales de la Fondation Louis de Broglie. Lettre à la Rédaction : sur la présence de monopoles magnétiques légers au pôle Nord. Ghislain Bardouta, Georges Lochakb, Daniel Fargueb;

http://aflb.ensmp.fr/AFLB-324/aflb324m579b.pdf

En conséquence de quoi se pose la question de savoir ce qu’il se passe lorsque le champ magnétique terrestre subit de forts changements, changements dont on sait qu’ils se sont produits par le passé, notamment dans la version extrême de l’inversion pure et simple des pôles.

Puce-solenoid-Monopole-magnétique-4-répercutions-des-poles-magnétique-

Y aurait-il par ce biais une explication alternative concernant par exemple la fossilisation des ammonites ? Selon l’enseignement académique, la fossilisation pétrifiante serait le résultat du remplacement progressif de la matière organique par de la silice emmenée par l’eau. Mais la silice, et le silicium, sont connus comme étant peu solubles dans l’eau, au contraire de bien d’autres minéraux.

Cette explication heurte donc le sens commun, tandis qu’à la lumière de tout ce que nous avons dit, des transmutations, des monopoles et de la variabilité du magnétisme terrestre, il serait possible d’envisager un effet Kervran. Ainsi le silicium pourrait il être le résultat d’une fusion à basse énergie [9] du carbone et de l’oxygène qui composent la matière biologique, s’associant ensuite à l’oxygène restant pour cristalliser en silice. Ce genre de question, ou d’hypothèse, en engendre une multitude d’autres concernant l’histoire de notre planète, et notre propre histoire, tant il semble qu’on n’a pas pris en compte ces éléments mal connus mais qui sont pourtant absolument capitaux.

[9] Kervran désigne ce processus de fusion à basse énergie par le terme de frittage. Ici l’addition par frittage des 12 nucléons du carbone 12C et de ceux de l’oxygène 16O donne l’atome à 28 nucléons du silicium 28Si. Puis Si + 2O →SiO2, la silice.

Les travaux sur les transmutations biologiques se poursuivent de nos jours et se précisent, en particulier du côté de Vladimir Vysotskii en Ukraine, collaborateur de l’équipe d’Urutskoiev et intervenant régulier aux conférences ICCF sur la « fusion froide » [10]. Toujours du côté du soleil levant donc. Ce chercheur mène en particulier des expériences dans lesquelles des bactéries transforment le césium-137 radioactif en baryum-138 stable [11]. Ces résultats sont confirmés aux USA par Ludwik Kowalski de l'université d'État de Montclair, chercheur ayant passé sept années au laboratoire de Jolio Curie, par exemple et s’il en était besoin.

[10] The possible mechanism of creation of light magnetic monopoles in strong magnetic field of a laboratory system. in ICCF-14 International Conference on Condensed Matter Nuclear Science. 2008. Washington, DC. Adamenko, S. and V. Vysotskii.

http://lenr-canr.org/acrobat/AdamenkoSthepossibl.pdf

[11] Transmutation of stable isotopes and deactivation of radioactive waste in growing biological systems. Vladimir I. Vysotskii, Alla A. Kornilova

http://www.vglobale.it/public/files/2013/ANE_3339.pdf

Il semble bien qu’une telle approche soit d’ailleurs envisagée au Japon pour la décontamination des sols et des eaux de Fukushima. Ainsi le professeur Ken Sasaki de l’université Kokusai Gakuin de Hiroshima est sur cette même piste. On hésite entre étonnement et accablement à l’écoute des commentaires du reportage visionnable sur YouTube [12], qui suggèrent que ces bactéries captent le césium par effet phototrophe, le fixent donc, le césium et rien que le césium. On suppose qu’il suffira de les ramasser ensuite à la pince à épiler et au (7) microscope pour décontaminer les terres. Les commentaires sont donc trompeurs et ils ne résistent pas à l’analyse.

[12] Césium radioactif : des microbes transmutent la matière ~ Microbes used to remove cesium :

https://www.youtube.com/watch?v=1bKypeXZAZw

Se repose donc encore et encore inexorablement la même question. Pourquoi, alors que toutes les observations sont à disposition, appuyées par de grands noms de la physique, alors que tout n’est que promesse d’un monde meilleur et d’une sortie de crise, pourquoi cette chape de silence ? La sauvegarde des intérêts industriels et financiers suffirait elle à l’expliquer ? Les enjeux militaires le suffiraient-ils tandis qu’il est si facile de trouver des informations sur l’internet à ces propos ? On se perd en conjectures à essayer de comprendre.

Ne quittons pas Vladimir Vysotskii sans avoir signalé que ce chercheur travaille aussi sur la physique de l’eau, sur l’eau activée et sur la mémoire de l’eau. On est là aux avant postes du grand chambardement.

 

Réacteurs à fusion froide

afd452f04d_fusion_tri_alpha_Science_Magazine

Venons maintenant aux questions industrielles, à celle des réacteurs à fusion froide, terme employé communément pour désigner ces dispositifs. L’un d’eux est connu et l’on attend qu’il puisse sortir sur le marché, des problèmes de dépôts de brevets semblent faire obstacle. Il s’agit de l’E-Cat de Rossi et Focardi [13]. Ce dispositif emploie une poudre de nickel que la réaction transforme en cuivre, et en chaleur. On suspecte l’emploi d’un catalyseur tel que par exemple un stimulus par pulses électromagnétiques. Peut être cette hypothèse fait-elle écho au système développé par Brillouin Energy [14] qui revendique l’emploi d’un tel procédé pour catalyser les réactions, et dont le système est considéré comme appartenant à la même catégorie que l’E-CAT.

[13] E-CAT, une alternative à la fission et à la fusion nucléaires enfin validée ! NEXUS n° 87 , [14]  ou par Google avec “understanding brillouin pesn”;

Ce n’est ici que spéculation mais quand même, n’y a-t-il pas quelque question à se poser si l’on considère l’usage possible de pulses électromagnétiques dans ces réacteurs, tandis qu’à moins de dix kilomètres de la centrale de Tchernobyl se trouvait un radar très puissant générant des signaux électromagnétiques pulsés, et qu’il en serait de même dans le cas où une arme EMP aurait été testée dans les souterrains de la SNPE à Toulouse lors de l’accident de AZF ? Je pose la question.

Pour en revenir à la question plus générale du monopole magnétique, selon Georges Lochak il pourrait en exister d’autres que le « sien ». Il ne pense sans doute pas en écrivant cela aux monopoles magnétiques de la glace de spin, puisqu’il s’agit là d’une quasi-particule et non d’un corpuscule à proprement parler. C'est-à-dire un état localisé de la matière condensée [15], susceptible de se déplacer ou d’être déplacée, telle une onde ... De même que le monopôle magnétique suscite des approches qui lui sont distinctes mais intimement liées, telle celle des clusters d’électrons, voie soutenue par Michel Rambaut (CEA) et à laquelle se joint Henri Lehn ou encore Vladimir Vysotskii pour expliquer les réaction nucléaires à basse énergie (LENR).

[15] On entend par matière condensée la matière dans une forme ayant une structuration minimale, tel que solide ou liquide, susceptible de présenter des caractéristiques propres à la structure. L’étude de la supraconductivité ou de quasi-particules relèvent de ce champ de recherche par exemples.

Laissons à Louis de Broglie le soin de conclure sur tout ceci, par cette lettre datée de 1978 dans laquelle il écrit: « L’histoire des sciences montre que, dans leur domaine, les plus grands progrès ont été effectués par des penseurs audacieux qui ont aperçu des voies nouvelles et fécondes que d’autres n’apercevaient pas. Si les idées des savants de génie qui ont été les promoteurs de la science moderne avaient été soumises à des commissions de spécialistes, elles leur auraient sans nul doute paru extravagantes et auraient été écartées en raison même de leur originalité et de leur profondeur », … puis plus loin: «Tandis que, par la force même des choses, s’appesantissent sur la recherche et sur l’enseignement le poids des structures administratives et des préoccupations financières, et la lourde armature des réglementations et des planifications, il devient plus indispensable que jamais de préserver la liberté de la recherche scientifique et la libre initiative des chercheurs originaux, parce qu’elles ont toujours été et resteront toujours les sources les plus fécondes des grands progrès de la Science ». 8

 

III. Annexes

1. Le modèle standard en physique des particules

Les principales particules élémentaires du modèle standard se répartissent dans deux grandes familles; les fermions qui constituent la matière et les bosons qui sont les vecteurs (porteurs) des forces fondamentales.

Les bosons sont à spin entier, ils obéissent à la statistique de Bose-Einstein, et sont notamment impliqués dans les phénomènes de supraconductivité et de lumière laser, le photon étant un boson. Les fermions sont à spin demi-entier, ils obéissent à la statistique de Fermi-Dirac et au principe d'exclusion de Pauli selon lequel ils ne peuvent pas se trouver au même endroit dans le même état quantique, règle applicable aux électrons notamment et d'où découle toute la classification périodique des éléments.

Les fermions se subdivisent eux mêmes en deux sous-groupes, les leptons et les quarks. Les quarks sont les constituants des protons et des neutrons, qui constituent eux-mêmes les noyaux des atomes, noyaux autour desquels gravitent des électrons. Les atomes s’associent en molécules, changer un atome en un autre atome est une réaction nucléaire tandis que changer une molécule en une autre molécule est une réaction chimique. Les deux catégories de réactions sont supposées être parfaitement circonscrites l’une de l’autre du fait des énergies sans commune mesure qui sont mises en oeuvre dans chacun de ces cas, ce que nuancent fortement les thèses ici présentées.

La physique désigne quatre forces fondamentales comme responsables des phénomènes que nous observons dans l’univers. La force nucléaire forte maintient la cohésion des noyaux, c’est de cette force que provient l’énergie des réactions de fission ou de fusion nucléaire. La force électromagnétique détermine l’architecture des atomes et des molécules. Elle s’oppose à la fusion des noyaux par l’effet de répulsion coulombienne, c’est cet effet que l’on invoque si l’on soutient l’impossibilité des réactions nucléaires à basse énergie. Nous allons voir plus loin les particularités de la force faible. Ces trois forces sont vectorisées par des bosons « de jauge », les gluons pour l’interaction forte, le photon pour l’électromagnétisme et les bosons W+ W- et Z0 pour l’interaction faible.

Quant à la gravité, quatrième force fondamentale, on attribue son influence à la courbure de l’espace temps plutôt qu’à l’existence d’un hypothétique graviton. Le boson de Higgs n’intervient pas dans la gravitation, c’est un boson dit « scalaire » qui confère une masse aux seuls trois bosons de l’interaction faible, parachevant ainsi l’édification du modèle standard. (9)

Pour revenir à l’interaction faible, elle est la principale responsable de la radioactivité naturelle, sous la forme de la désintégration radioactive bêta qui transforme les protons et les neutrons. Ces deux nucléons se distinguent par leurs structures internes, l’un est composé de deux quarks « up » et d’un « down » (udu) tandis que la composition est à l’inverse pour l’autre (udd). Le changement d’un quark en un autre entraine la transformation d’un type de nucléon en l’autre type. Cette transformation peut se faire dans un sens ou bien dans l’autre (β+ ou β-), proton vers neutron ou bien neutron vers proton, mais il existe différents autres modes pour ces transformations (K capture et hypothèse de Widom-Larsen, double désintégration béta). Les conséquences en sont celle de la modification des éléments ou des espèces isotopiques, mais voyons un cas concret.

Nous avons ici représenté les premières étapes du cycle de la réaction proton-proton, qui est l’un des deux principaux cycles de réactions nucléaires en oeuvre sur notre soleil. Le proton étant la même chose que l’hydrogène simple 1H, car ici on ne s’occupe pas des électrons ni de savoir ou ils se trouvent. Deux protons vont s’associer tandis que l’un des deux protons subit une désintégration bêta + (en bas à gauche) et se transforme en neutron. Cette désintégration sous entend qu’un quark « up » s’est transformé en quark « down », elle s’accompagne de l’émission d’un boson W+ qui dégénère immédiatement en un positron (un anti-électron) et un neutrino. A ce stade la réunion des deux protons initiaux se solde par un assemblage proton-neutron, soit donc un noyau de deutérium, un isotope de l’hydrogène connu pour être celui qui compose l’eau lourde, sur terre.

Une seconde étape va consister dans la réunion d’un autre hydrogène avec le deutérium formé, il s’agit cette fois ci d’une réaction de fusion nucléaire à proprement parler. Le résultat de cette réaction est un noyau d’hélium 3, le noyau ayant deux protons il s’agit bien de l’hélium. Mais surtout cette réaction de fusion génère un rayonnement gamma très intense allant s’étaler dans tout le spectre électromagnétique au fur et à mesure de sa propagation vers la surface de l’astre, fournissant ainsi une partie de l’énergie solaire rayonnée que nous recevons. On voit donc que dans ce cycle, les interactions faibles viennent en préalable à la fusion thermonucléaire vers l’hélium. On peut aussi constater qu’il y a bien un effet de transmutation d’un élément en un autre dans la première étape de désintégration bêta, ici un isotope de l’hydrogène en un autre.

On peut généraliser cette désintégration béta décrite en bas à gauche sur le dessin, en relisant ce processus selon d’autres cheminements et d’autres arrangements, conformément à ce qui a été déjà dit pour l’existence d’autres modes. Les particules peuvent ainsi être remplacées par leurs antiparticules, le positron par l’électron et le neutrino par l’antineutrino, en les faisant intervenir en absorption ou en émission afin de modifier les neutrons en protons ou bien l’inverse, le tout étant de respecter les règles relatives à la conservation de l’énergie.

Les neutrinos dont il est question ici sont les neutrinos dits électroniques. On ne sait à peu près rien de ce qu’il en serait avec l’intervention d’autres types de neutrinos, notamment du neutrino monopôle magnétique sinon ce qu’en suggère Georges Lochak, encore moins du neutrino stérile ou du neutrino de Majorana. Aux dires même des grands chercheurs, le boson de Higgs parachève admirablement bien l’édifice théorique du modèle standard. Sa découverte est une grande réussite technique, théorique et humaine, mais ce boson de Dieu ne fait que fermer la porte derrière soi, tandis que ce qui se trouve devant semble être un vaste et mystérieux monde de neutrinos, neutrino dont le grand défaut est celui de la discrétion. Il pourrait être la matière même de la masse manquante, et expliquer la victoire dissymétrique de la matière sur l’antimatière. (10)

 

2. L’expérience du groupe d’Urutskoiev

Les premières expériences mettant en jeu ce que l’on suspecte être des monopoles magnétiques datent de 1998, elles ont lieu à l’Institut Kurtchatov de Moscou, sous la direction de Léonid Urutskoiev. C’est le principal centre de recherche nucléaire russe, l’équivalent du CEA pour la Russie. L’expérience type consiste dans l’explosion d’une mince feuille de titane plongée dans de l’eau déminéralisée à l’aide d’une décharge électrique. Le courant détruit la feuille de titane par effet fusible, et se maintient au travers du plasma formé entre les électrodes.

On observe l’apparition d’une intense sphère luminescente au-dessus du pot de tir hermétiquement clos. Sa persistance après l’extinction du courant et la composition de son spectre lumineux, qui ne correspond ni à l’azote ni à l’oxygène de l’air, font que l’on ne peut attribuer l’effet à la formation d’un plasma de l’air.

On trouve par contre dans ce spectre les signatures du titane, de fer et de différents autres éléments initialement absents. La simple perception visuelle du phénomène suggère de la « foudre en boule », ce que les anglo-saxons nomment « light ball », la boule n’étant pas nécessairement constituée de charges électriques. C’est un sujet de recherche spécifique qui fait l’objet de conférences spécialisées en Russie (RCCNT&BL), et de contributions lors des ICCF consacrées aux réactions nucléaires à basse énergie.

Un « rayonnement étrange » émis depuis le pot laisse des traces en forme de chenilles sur les émulsions photographiques. La forme de ces traces, l’absence d’émission électronique, la capacité des particules associées au rayonnement à traverser les matériaux et à franchir les distances ainsi que leur sensibilité à l’application d’un champ magnétique permettent d’affirmer que l’on a affaire à des particules non neutres, mais non chargées électriquement. Les traces correspondent par ailleurs avec ce que la théorie de grande unification prévoyait pour les monopôles magnétiques classiques. L’analyse isotopique des échantillons après le tir indiquent une augmentation de la quantité de fer et une dispersion des isotopes du titane au détriment de l’espèce standard, ainsi que l’apparition d’éléments étrangers, ceci sans radioactivité ni neutrons. On conclut donc sur un phénomène de réaction nucléaire à basse énergie faisant intervenir les interactions faibles.

Deux échantillons de Fe-57, un matériau magnétique se prêtant bien à une analyse par spectrométrie Mössbauer [1], sont soumis aux pôles d’un aimant et exposés au rayonnement. On constate le déplacement des raies spectrales du magnétisme hyperfin des noyaux, en sens contraire selon le pôle auquel l'échantillon est soumis. On en conclut que le rayonnement est constitué de charges magnétiques mono-polaires. Enfin, Nicolas Ivoïlov de l’université de Kazan, qui a conçu un miroir à monopôle au germanium, montre sur une même pellicule la trace «aller» ainsi que la trace «retour». Les deux traces sont identiques et simplement pivotées d’une demi-rotation, caractéristique de cette chiralité quelque peu exotique du monopôle magnétique tel que prévu par la théorie.

[1] La spectrométrie Mössbauer est applicable au fer et à quelques autres éléments, c’est une technique d’analyse par résonnance nucléaire. Elle rend compte de la composition chimique et isotopique des échantillons, mais aussi d’autres paramètres plus spécifiques à l’état des atomes. 

SOURCE : Jean Moncade moncad_j@hotmail.com

***************************************************

Publicité
Publicité
Commentaires
Publicité