bandeau 3

FLASH INFOS

   re-affichage page d'accueil icone retour page precedente5

Émergence du bio-électromagnétisme dans la panoplie des diagnostics du praticien

par Jean-François ELOY

 

Résumé : Ce mémoire a pour objet de faire le point sur les retombées des connaissances acquises récemment sur les propriétés de l’eau et le domaine de la physique appelé : bio-électromagnétisme. C’est un des mérites du travail de Rupert Sheldrake(1) d’avoir mis en relation les données de la nouvelle physique et les problèmes fondamentaux de la biologie.

Depuis quelques années, un nouveau champ d’investigation scientifique à caractère multidisciplinaire se présente aux chercheurs et aux praticiens. Tout cela procède des propriétés électromagnétiques de l’eau qu’un certain nombre de chercheurs(2,3,4,5) a mis en évidence depuis une cinquantaine d’années. Ils ont montré que l’eau sous ses différentes formes physiques, telles que liquide, glace, vapeur, ne consiste pas en de simples molécules de H2O (seulement à température > 400 °C). Ils ont montré que la molécule d’H2O est constituée d’un certain nombre de niveaux d’énergie quantique, DEn, correspondants à une somme de vibrations électromagnétiques photoniques, nn [1] . Ainsi, il est possible de différencier deux formes de molécules d’H2O par leurs propriétés électromagnétiques photoniques spécifiques distinctes : celles correspondant à un ensemble de molécules d’H2O individuelles et celles correspondants à un ensemble de molécules (pouvant aller jusqu’à 400 molécules d’H2O) associées comme un polymère appelé cluster [2] d’H2O. Plusieurs liquides aqueux physiologiques inclus dans nos organes possèdent donc une propriété spécifique corrélée à leurs niveaux d’énergie quantique propres. Ces molécules d’H2O sont donc :

- susceptibles de rentrer en vibration avec une onde électromagnétique ayant le même mode de vibrations photoniques, et,

- de stocker des informations sur de longues périodes de temps sous la forme de quantum d’énergie [3] électromagnétique(4,5) d’où la mémoire de l’eau(3,8).

Seulement une faible proportion de ces quanta est visible à l’œil humain : ceux compris dans le domaine visible du spectre allant de la « lumière bleue au rouge ».

D’où l’intérêt actuel pour les propriétés de l’eau sous toutes ses formes biologiques et pour le domaine du bio-électromagnétisme. Les conséquences qui résultent de ces avancées de la connaissance dans ces domaines semblent bénéfiques sur le développement de nouveaux moyens de diagnostic.

Introduction

Le bio-électromagnétisme couvre en fait trois domaines de propriétés physiques des tissus biologiques :

la bio-impédance(6),

la bio-électronique (familièrement appelée bioélectronique de Vincent(7))

le bio-magnétisme (qui est une partie indissociable du bio-électromagnétisme).

La bio-impédance est un terme connu dans le domaine de la santé. Le principe de la bio-impédance est de mesurer une tension créée par le passage d'un très faible courant dans les tissus biologiques. Ses propriétés sont étroitement liées à une multitude de paramètres qui pourrait permettre de développer une nouvelle technologie de diagnostic(6). La différence de propriétés électriques entre les différents tissus humains est la source même de cet essor. Mesurer l'impédance du corps humain pourrait permettre d'obtenir une nouvelle technique d'imagerie, ou de surveiller la pathologie de tel ou tel tissu. La sensibilité de ses propriétés a déjà été évaluée et s'est montrée très performante (supérieure à l'absorption aux rayons X ou aux propriétés optiques et mécaniques des tissus....). La bio-impédance semble donc pouvoir prendre une place prédominante dans la médecine de demain.

La théorie de la bio-impédance date des années 50-60, les premières applications (monitorage, imagerie..) datent des années 70 et aujourd'hui, à l'orée du 21e siècle, la bio-impédance n'a toujours pas sa place dans l'hôpital. Ses qualités semblent pourtant indiscutables et de plus, faciles à exploiter. Qu'est ce qui freine autant l' émergence de la bio-impédance ? Peut-être elle même. Sa sensibilité est telle que les mesures réalisées sont souvent peu reproductibles; elle dépend de tellement de paramètres qu'il est impossible de tous les maîtriser. Les signaux utilisés sont souvent si faibles que leur analyse est délicate, les modèles mathématiques utilisés sont d'une exceptionnelle complexité.

Enfin, on distingue :

les propriétés diélectriques des cellules,

les propriétés électromagnétiques des tissus biologiques. 

La bio-électronique, crée en 1948 (après 20 années de recherche) par l’ingénieur hydrologue Louis-Claude Vincent(7), fut utilisée pendant 50 ans, par de nombreux scientifiques français et étrangers. Cette technique s’est avérée très efficace :

pour déterminer l’état de vitalité (ou de maladie) des êtres vivants, (pour l’homme il existe un appareil de diagnostic basé sur le principe de mesure des courants récemment commercialisé sous le nom de Médiscan®)

pour favoriser la restauration de la santé,

pour connaître la qualité biologique des aliments, des boissons, des cosmétiques, etc ..

Rappelons, au préalable, que l’eau est le premier constituant de l’organisme. Le corps d’un adulte en contient environ 66%, soit pour une homme de 75 kg, le poids de 50 kg d’eau ! La proportion varie même de 75% pour un nouveau né à 60% pour une personne âgée. Certains tissus en contiennent jusqu’à 85% (matières grises du cerveau) et d’autres seulement 25% (tissus adipeux).

Les analyses ont permis de distinguer quatre catégories d’eau(7) (voir figure 1) :

- Les eaux thermales (acides et réductrices),

- Les eaux parfaites (acides et peu minéralisés) ,

- Les eaux traitées (alcalines et oxydées),

- Les eaux polluées (alcalines et réductrices).

Dans ce mémoire, nous n’aborderons pas les propriétés bio-chimiques des cellules et tissus. 

 A. La Bio-impédance 

1. Rappels Physiques de l’Électromagnétisme

L’Impédance

L’impédance est une caractéristique électromagnétique de tous milieux matériels qu’ils soient solides, liquides ou gazeux. Elle s’exprime en ohms. Son expression mathématique est un nombre complexe [4], tel que :

Z=R+ȷX       (1)

la partie réelle de ce nombre étant la résistance R (ou la résistivité r) et la partie imaginaire étant la réactance X. Cette partie imaginaire possède deux composantes : l’une inductive L et l’autre capacitive C, tel que:

X=Lω-1/Cω     (2)

Nous remarquons immédiatement que la réactance est dépendante de la fréquence w. 

En raison de cette propriété d’impédance complexe dépendante de la fréquence (donc des vibrations électromagnétiques quantiques du milieu liquide aqueux), un courant alternatif (AC) oscillant qui traverse tout milieu matériel (possédant une impédance complexe) révèlera une modification de son amplitude (suivant les propriétés de conductibilité : inverse de la résistance du milieu) et de phase (suivant son inductance capacitive) d’où l’importance dans la vie et la santé de l’espace des fréquences familièrement appelé Espace de Fourier.

Maintenant, ce qui semble d’importance cruciale dans l’interaction du corps humain avec le rayonnement du monde qui l’entoure, est l’exploitation des lois mathématiques de Fourier pour comprendre le rôle de récepteur-émetteur énergétique dus aux formes de repliement et  tortillement des chaînes polymériques de molécules de H2O i.e. des clusters [5] (des « kinks »), entre autres aux frontières des clusters.

20120322 bio electromagnetisme jfe img1

Figure 1 : Propriétés bio-électronique des différentes catégories d’eau, tiré de réf. : (7)


En effet, la transformée de Fourier des signaux électromagnétiques captés par nos récepteurs, donc l’analyse fréquentielle du sous-espace dual [6]  C indique en première approximation que la polymérisation limitée de l’eau a pour conséquence une signature magnétoélectrique qui se découpe en deux zones spectrales (et même trois en comptant le visible) :

- la THF (Très Haute Fréquence) qui est associée aux niveaux d’énergie quantique (i.e. photonique) des liaisons moléculaires et atomiques [7] , et  

- la TBF (Très Basse Fréquence) qui  est associée aux niveaux d’énergie quantique des molécules (photons invisibles) des formes de repliement et tortillement des chaînes polymériques (i.e. des kinks) qui sont dans la plage de vibration des ondes de W.O. Schumann(10,11) et donc des fréquences alpha, bêta, etc. de notre cerveau (voir dernier chapitre).

Ces bases étant établies, considérons un milieu biologique tel que celui du corps humain. 

2. Bio-électromagnétisme du corps humain

Le corps humain est composé de plus de 75% d’eau . Cette eau constitue la base de tous les fluides circulant dans le corps tel que : sang, liquide lymphatique, moelle osseuse, système neurovégétatif, fibres nerveuses, etc. La bio-conductivité au sein du corps humain est donc assurée par les fluides corporels qui véhiculent le courant grâce à la présence des électrolytes (8].

Tous ces milieux fluides aqueux possèdent des propriétés diélectriques caractéristiques différentes et spécifiques résultant essentiellement d’une composition chimique en espèces ioniques différentes :

- la résistance : toutes les substances ont une résistance (voir § A1) au flux de courant diélectrique. Dans le corps, les tissus maigres, contenant de grosses quantités d'eau et les électrolytes conducteurs, représentent un chemin de faible résistance électrique. Par ailleurs, la graisse et les os sont de pauvres conducteurs (haute résistance électrique) avec de petites quantités de fluides et d'électrolytes.

- la réactance : elle représente l'opposition au flux instantané de courant électrique causée par le condensateur. Elle est principalement inversement proportionnelle à la fréquence (voir § A1). Dans un condensateur, la réactance augmente avec la distance qui sépare les deux plaques conductrices. Appliquée à la membrane cellulaire, la réactance grandit avec la quantité de membranes. Les hautes valeurs de la réactance mesurées par impédance bioélectrique indiquent la santé et l'intégrité de la membrane cellulaire.

Physiologiquement, la réactance est une mesure de la capacité volumique de la membrane cellulaire et une mesure indirecte du volume intracellulaire de la masse cellulaire du corps. Alors que le corps entier offre une résistance au passage du courant, il n'y a que la membrane qui offre une réactance : c'est le cas de la graisse (i.e. les tissus lipidiques) dont la masse n'affecte pas la réactance globale.

- l'angle de phase : c'est une relation linéaire entre la résistance et la réactance dans les circuits en parallèle ou en série :

0° correspond à un circuit résistif,

90° correspond à un circuit capacitif,

45° correspond à autant de résistances que de capacités.

Pour un individu moyen, l'angle de phase varie de 3 à 10°. Une baisse de cet angle indique une baisse de la réactance donc une mort cellulaire. Une hausse de cet angle indique une hausse de la réactance donc une grande quantité de membrane cellulaire intacte.

3. Propriétés diélectriques des cellules

Les propriétés diélectriques des cellules sont dues à la structure des membranes cellulaires. La membrane cellulaire consiste en une bicouche lipidique non conductrice incrustée entre la membrane

La valeur de Cm, importante pour la capacité d'une membrane s'explique par le déplacement d'ions chargés sous l'influence d'une tension. Ces ions s'accumulent de part et d'autres de la membrane où ils ne peuvent perdre leur charge car la membrane est isolante. Il y a donc création d'une double couche que l'on peut considérer comme les armatures d'un condensateur. Cependant, en présence d'un courant alternatif variant à haute fréquence, les charges n'ont plus le temps de s'accumuler sur chaque face. C'est donc le phénomène de relaxation qui se produit au-delà d'une fréquence seuil (quelques kHz). Ainsi, la capacité qui est le rapport entre la quantité d'électricité qu'un condensateur peut emmagasiner et la tension appliquée, diminue. Donc, la permittivité de la membrane décroît.

Les études du comportement électrique de divers tissus biologiques ont montré une forte dépendance en fréquence des grandeurs tissulaires, notamment celle de la permittivité : ont été observées des décroissances divisées en 3 étapes représentant différents types de relaxation. Ces dispersions sont caractérisées par :

- la fréquence centrale de relaxation

- la variation diélectrique de la permittivité : plus la fréquence est élevée, plus le signal pénètre dans l'organe étudié, il faut donc adapter la fréquence à l'application souhaitée (mesure multi-fréquentielle).

Cependant, la géométrie de l'organe étudié joue un grand rôle dans les propriétés diélectriques et peut les affecter de manière significative.

Ainsi, théoriquement chaque organe pourra être identifié par sa fréquence propre de résonance. À cette fréquence (qui sera dépendante de l’âge, de la taille et de la race du patient étudié) les propriétés du signal de courant AC mesurées permettent donc de calculer les parties réelles et imaginaires de la bio-impédance de l’organe considéré et de les comparer à des valeurs moyennes que l’on peut appeler standard.

W. Ludwig(3,9) a montré par ses mesures sur des échantillons constitués de substances allergènes diluées dans un milieu aqueux qu’elles présentaient des fréquences électromagnétiques de résonance dans des régimes de 4 Hz, de 12 Hz, de 6,6 et 6,7 Hz et même de 20 kHz. Ces fréquences s’accordent assez bien avec les fréquences des ondes de W.O. Schumann(10,11) (voir dernier chapitre C).

4. Eléments du Diagnostic

Le corps est un conducteur non-homogène. Ses différences peuvent être mises en évidence grâce à des électrodes couplées à un ordinateur. C'est un appareil issu de la recherche spatiale russe que nous prendrons comme exemple, l'AMSAT Diagnostic System®. (illustration 2) .

L'algorithme dresse des facteurs de déviation par rapport à une base statistique de 10000 cas.

Initiée par les travaux du Dr Rheinhald Voll(12), la mesure de la bio-conductibilité électrique du corps peut être utilisée comme outil de diagnostic. L'organomètre de Voll est un procédé d'électro-acupuncture. Entre 2 électrodes, les tissus biologiques changent de conformation au passage du courant électrique, une résistance s’établit.

  La mesure de la bio-impédance électrique sur la gamme de 1KHz à 10MHz requiert une attention particulière aux divers aspects de la technologie employée. Ces différents points incluent, en particulier, l'influence de l'impédance de l'interface électrode / tissu, la cellule de mesure et l'instrumentation. Les lignes de courant doivent être parallèles afin de pouvoir utiliser la loi d'Ohm pour la détermination de l'impédance.

20120322 bio electromagnetisme jfe img2

Graphique  circulaire - Facteur de déviation (FD)

Illustration 2 : exemple de diagramme (fantôme) obtenu par l'AMSAT Diagnostic System.

L'étude de la distribution du courant dans les trois directions de la cellule de mesure permet l'utilisation de géométries adéquates visant à la minimisation de cette source d'erreur. Enfin, il existe généralement des erreurs d'instrumentation dues aux limitations inhérentes aux instruments utilisés et à l'interface de mesure. L'étude succincte de l'impédance de l'interface électrode/électrolyte des électrodes en acier inoxydable utilisées a conduit à limiter la gamme de fréquences étudiées entre 100 Hz et 10 MHz. Cependant, l'importance des travaux dans ce domaine ne permet pas de la résumer en quelques lignes. L'analyse des différents problèmes rencontrés a permis aux chercheurs de développer des cellules de mesure adaptées.

Conclusion

La théorie de la bio-impédance se révèle donc relativement simple et parfaitement maîtrisée. Le problème se situe au niveau de la prise de mesure qui peut présenter de grandes variations. Ces différentes difficultés qui ont été exposées peuvent être utilisées à l'avantage du patient. En effet, ces problèmes ont généré des applications très diverses basées justement sur le problème rencontré :

- la conductivité au sein du corps humain est assurée par les fluides corporelles qui véhiculent le courant grâce à la présence des électrolytes. Donc, la mesure de l'impédance représente l'état de ces fluides et pas celui du corps entier. Ce phénomène relie donc le concept d'impédance à la présence d'eau dans le corps : si l'on connaît l'un, on peut déterminer l'autre. L'équation utilisée à ce sujet est une équation de prédiction de l'eau corporelle totale (TBW). Connaissant par ailleurs les composantes du corps humain, il est possible de mesurer la masse de graisse (FFM), la masse de tissu maigres (LBM)... De manière générale, ce phénomène permet de déterminer un volume précis.

- la variation d'impédance est un autre problème et ses causes sont tellement diverses qu'il est difficile de les supprimer. Néanmoins, une des causes de variation peut être une éventuelle pathologie du patient. Par conséquent, il serait envisageable d'utiliser ce phénomène à des fins diagnostiques : C'est le but de l'imagerie d'impédance.

- les muscles possèdent une impédance relativement fixe et reproductible par rapport au reste du corps, du fait de la faible présence de membranes cellulaires. Une mesure de la bio-impédance des muscles peut donc révéler beaucoup de pathologies sur la structure de ce dernier. Cette possibilité, couplée avec la mesure de volume, a fait naturellement naître l'idée d'une autre application, celle de la bio-impédance cardiaque. Cette méthode permet de mesurer de multiples paramètres.

B. La Bio-électronique

 1. Rappels Physico-chimiques

La bio-électronique est une technique physico-chimique utilisant, à température donnée, les mesures du pH, du rH2 et de la résistivité électrique (rô) des solutions aqueuses et liquides physiologiques :

- le pH renseigne sur l’acidité ou l’alcalinité du milieu étudié. L’échelle du pH va de 0 à 14 avec la neutralité à pH 7 (solution acide si pH < 7 et alcaline si pH>7) ;

le rH2 indique pour un pH donné, les facultés réductrices ou oxydantes de la solution ou du liquide physiologique, ce facteur est lié au potentiel redox et au pH par la formule de Nernst. L’échelle du rH2 va de 0 à 42 avec la neutralité à rH2  28 ( solution réductrice si rH2 < 28,  solution oxydée si rH2 > 28) ;

le rô (en ohms =  symbole W ) renseigne sur les propriétés conductrices ou isolantes de la solution ou du liquide physiologique étudiés. L’échelle du rô est très étendue. Exemples : urines très chargée : rô = 30 W ; sang très fluide : rô = 300 W ; eau de Volvic :  rô = 6000 W (voir Figure 2 un exemple de classification des propriétés suivant le pH et le rH2). 

2. Bio-électronique du corps humain

La bio-électronique permet de caractériser les milieux liquides d’après leurs potentiels bio-physiques. Elle peut également caractériser les êtres vivants grâce aux mesures réalisées sur l’urine (eau libre), sur le sang (eau circulante) et sur la salive (eau liée). Il est possible de définir ainsi sur le plan médical, l’état sain ou pathologique du sujet examiné (voir par exemple  figure 3 ). Les mesures permettent de faire des comparaisons avec des chiffres de normalité, établis à partir d’individu sain (sportifs âgés de 20 ans).

20120322 bio electromagnetisme jfe img3

Figure 2  tirée de réf. (7)

Légende :  zone 1 : milieu acide – réducteur (zone de construction de la vie)

zone 2 : milieu acide – oxydé (zone des forces de conservation)

zone 3 : milieu alcalin – réducteur (zone de dégradation de la vie)

zone 4 : milieu alcalin – oxydé (zone des forces de destruction)

20120322 bio electromagnetisme jfe img4

Figure 3 : Bilan de santé bio-électronique d’un patient tiré de réf. (7)

La maladie se signale par un déséquilibre se traduisant par une altération des paramètres  pH, rH2, rô, …(voir un exemple figure 4).

20120322 bio electromagnetisme jfe img5Figure 4 : Bilan de santé bio-électronique d’un patient  atteint du cancer tiré de réf. (7)

Comment se répartissent les résultats de ces différentes mesures suivant l’état physiologique du patient et des différentes maladies (voir figure 5)

20120322 bio electromagnetisme jfe img6

Figure 5 : Évolution moyenne des paramètres bio-électroniques

d’un patient suivant les principales maladies tiré de réf. (7)

3. Éléments du Diagnostic

La bio-électronique utilise la même approche et les mêmes principes (i.e. mesure de l’activité électrique) que la mesure d’un électrocardiogramme et d’un électroencéphalogramme qui déterminent respectivement les fonctions temporelles analogiques cardiaques et cérébrales. Le principe du diagnostic consiste à mesurer l’activité électrique du corps en trois dimensions en s’appuyant sur les travaux de L.C. Vincent. En identifiant le degré d’activité des structures principales sub-cortical (hypothalamus, hypophyse, et système limbique), des lobes frontaux du cortex, du système immunitaire, du système neurovégétatif et de tous les organes, la méthode peut être utilisée pour fournir une approche plus globale de diagnostic médical pour une définition de traitement plus ciblée.

Il a ainsi été possible d’estimer les principaux facteurs responsables d’une dégradation de la santé (tous les facteurs d’agressions, alcool, tabac, nourriture suroxydée, stress, se situent dans la zone 3 du diagramme de Vincent) qui favorisent l’apparition des radicaux libres par oxydation.

Le système électronique utilisé met en œuvre, au moyen de six électrodes réparties sur les différents membres au contact de la peau, des signaux électriques de basse intensité. 

Les bases physiologiques du phénomène physiques exploité par l'AMSAT reposent sur les propriétés colloïdales du vivant. L'état colloïdal a été mis en évidence par T. Graham à la fin du XIXième siècle. C'est un état intermédiaire entre la matière minérale et la matière biologique. L'unité fonctionnelle de cet état est la micelle. Sa taille est comprise entre 0,001 et 0,3 microns (1 micron = 1 millionième de mètre). L'état colloïdal est présent dans le corps entier sauf dans les phanères (les ongles, la pilosité). C'est un environnement plus ou moins fluide.

Particules chargées électriquement, les micelles sont mobilisées par les champs d'actions externes naturels (gravité, électromagnétisme). Si le mouvement ralentit ou s'arrête, elles perdent leurs charges et inversement, si elles perdent leur charge, leurs mouvements se ralentissent ou s'arrêtent. Dans les deux cas, il y a coagulation, c'est la floculation. Certains venins entraînent cet état de floculation. La physiologie et la pathologie dépendent du maintien de l'état intermédiaire en mouvement. Une floculation non régulée correspond à la pathologie. L'homéostasie des fluides du corps est assurée par une régulation dite neuro-humorale, c'est l'un de nos plus anciens systèmes de régulation. Définie par Peter Pflaum(13), cette régulation neuro-humorale est objectivable par l'AMSAT.

L'orientation spatio-temporelle des micelles change dans un courant électrique. Nous savons qu'il se forme un flux, ionique, entre les deux électrodes. L'AMSAT possède 6 électrodes - 1 sous chaque pied, 1 dans chaque main et 1 sur chaque hémi-frontal - qui seront tour à tour chargées positivement ou négativement. Ces 6 points de contact sont considérés, en médecine quantique, comme des zones biologiquement actives, ce sont des points d'acupuncture. 22 flux ioniques seront créés et analysés grâce aux 6 électrodes : main droite - pied droit, front gauche - main droite, etc... Ce processus porte le nom d'électrotitrotion*.(voir un exemple de planche de résultats de mesures, illustration 3).

La conductibilité de l'axe colloïdal déviera ou non d'un modèle statistique. C'est le facteur de déviation, de 0 à 100 %. P. Pflaum nous apprend que tout désordre neuro-humoral amène à la maladie. Ainsi les diagrammes obtenus renseignent préventivement sur l'état de santé à venir (plusieurs années à l'avance). C'est une des raisons pour lesquelles l'AMSAT a été développé par le programme spatial russe.

20120322 bio electromagnetisme jfe img7

  Illustration 3 : Résultats de mesures de bio-conductivité.

Pour obtenir un examen fonctionnel global du corps humain, le système de Diagnostic DFAO mesure  l’activité électriquPour obtenir un examen fonctionnel global du corps humain, le système de Diagnostic DFAO mesure  l’activité électrique membranaire (conductivité, voltage, intensité) et la concentration ionique du liquide extracellulaire (interstitium) de  l’organisme localement et in vivo .noe membranaire (conductivité, voltage, intensité) et la concentration ionique du liquide extracellulaire (interstitium) de  l’organisme localement et in vivo.nous

C. Le Bio-Magnétisme

Le magnétisme terrestre : une énergie vitale pour l’homme

Le champ géomagnétique est partout : au fond d’une grotte,  en montagne, au fond des mers. Le magnétisme terrestre, véritable auréole maternelle, s’étend sur tout ce qui vit sur notre planète et imprègne toute forme de vie. « Une altération artificielle prolongée du géomagnétisme montre un effet défavorable sur les micro-organismes, plantes et animaux ; ce qui force à admettre que ce champ est un facteur écologique ». (Pr Dubrov, Membre de l’Académie des Sciences d’URSS).

Pour se convaincre de l’effet des champs magnétiques sur la vie, des expériences ont été menées. Par exemple des sujets humains artificiellement isolés du géomagnétisme ont souffert de déséquilibre hormonal, accompagné d’une baisse de leur acuité visuelle. Les équipages de sous-marins coupés du géomagnétisme, et de la lumière solaire, par l’épaisse coque d’acier subissent aussi certaines perturbations telles que ralentissement du métabolisme et troubles digestifs.

Ce n’est qu’après le début des programmes spatiaux dans les années 50 que les pays occidentaux commencèrent à reconnaître son potentiel. A leur retour sur terre les premiers astronautes montrèrent des signes de souffrance physique, ils étaient incapables de marcher et leur densité osseuse avait diminuée. C’est pour cela que la Nasa a mis des générateurs de magnétisme uniforme dans tous leurs véhicules spatiaux et ces problèmes disparurent.

D’autre part, certains experts estiment que 70% de l’énergie qui nous est nécessaire est procurée par une alimentation adéquate avec vitamines et sels minéraux. Les 30% restant viennent du magnétisme, énergie non alimentaire, responsable de l’efficacité de nos cellules.

Comment agit le magnétisme sur l’homme ?

- L’Homme étant constitué de 70 à 80% d’eau, et le magnétisme étant particulièrement influent sur cet élément, les liquides corporels voient leurs propriétés biologiques modifiées par les champs magnétiques.

- Les cellules humaines sont à leur échelle de petites usines électromagnétiques du fait de par leur structure de pile : il y a une polarité à l’intérieur de la cellule qui est différente de la polarité extérieure. Et un apport de magnétisme linéaire extérieur améliore la perméabilité des membranes.

-  L’incidence du magnétisme terrestre sur les rythmes corporels :

Dans le corps de tout animal, homme compris, a lieu un certain nombre de mouvements et vibrations : les pulsations cardiaques, le rythme respiratoire, l’écoulement de la lymphe, les contractions musculaires ou d’organes tels que l’estomac, les fréquences du cerveau, les oscillations cellulaires, etc. Par exemple, W.O. Schumann(10,11) a étudié et calculé les fréquences porteuses de résonance hélio-géomagnétique, donc d’échange d’énergie électromagnétique quantique avec les êtres vivants. L’onde prédominante est 7,83 Hz (i.e. cycle par seconde). La plage circadienne (i.e. rythmée par nos journées de 24 heures) typique va de 7,2 à 8,8 Hz. Le second mode varie autour de 14,1 Hz sur une plage allant de 13,2 à 15,8 Hz. Ces fréquences correspondent bien aux ondes cervicales (qu’il est possible de mettre en évidence lors d’un électro-encéphalogramme : EEC) sur rythme thêta de 4 à 7 Hz, et sur rythme bêta de 12 à 25 Hz (l’activité corticale possède deux autre fréquences caractéristiques : sur le rythme gamma de 25 à 60 Hz, et sur le rythme delta < 4 Hz).  Pour ces fréquences, nos membres jouent le rôle d’antenne. De plus, nos méridiens (terminés par nos doigts et nos ongles) sont de très bon émetteurs.

Le champ magnétique terrestre aura une influence d’apaisement ou de rééquilibrage de ces différents rythmes.

-  La découverte des propriétés magnétiques du fer sanguin a valu à Linus Pauling le prix Nobel de chimie de 1954. La longueur totale des veines et capillaires de l’Homme est d’environ 90 000 Km ! (Plus de 2 fois le tour de la terre ! Il est donc tout à fait étonnant que le ridicule pompe qu’est notre cœur puisse propulser le sang dans un réseau aussi gigantesque. L’explication de ce fait réside dans le même principe de fonctionnement que celui des célèbres trains sans roue japonais : la circulation de ces derniers s’effectue sur un coussin magnétique. De même, les globules rouges qui contiennent du fer, sont magnétiquement guidés car toutes les cellules du corps sont le siège de micro-courants et donc émettrices de magnétisme, y compris les cellules formant les parois veineuses et artérielles.

En accroissant le débit sanguin et la perméabilité des vaisseaux, le magnétisme implique simultanément un approvisionnement accru en tout ce que le sang transporte : oxygène, vitamines, minéraux, enzymes, globules blancs et rouges, hormones, chaleur et une épuration accrue des déchets métaboliques.

Certains de ces facteurs modulent le pH sanguin en le rendant moins acide voire  basique. Cela permet de lutter contre les effets acidifiants de notre alimentation de qualité moyenne, de l’activité physique, du stress sous toutes ses formes, des pollutions de tous ordres, etc.…

Le magnétisme terrestre n’a pas pour vocation de traiter des symptômes, faire de la « bobologie » mais de renforcer notre vitalité en agissant à de nombreux niveaux : atomes, ADN, enzymes, cellules, organes et enfin le corps dans sa globalité. 

Conclusion

 La bio-électronique et la mesure de la bio-conductivité peuvent être considérés comme des techniques de diagnostic d'avenir.

Ce rapide tour d'horizon de quelques notions de bio-électronique et de bio-conductivité a pour objectif d'informer sur le large éventail des possibilités offertes par ces deux techniques de mesures de ces propriétés respectives. L'utilisation de la bio-électronique et de la bio-conductivité dans les différents domaines ci-dessus évoqués, conduit à une interprétation nouvelle de nombreuses données scientifiques actuellement en vigueur. La mise en évidence de la mémoire de l’eau associée aux phénomènes de résonance par vibrations électromagnétiques quantiques (appelées onde de Schumann) et ses bases scientifiques sous-tendant cette approche, participent à l’émergence d’une vision dynamique de l’ensemble de toute forme de vie sur terre.

Gradignan le 26/05/2007                                                                                                         Dr ELOY Jean-François

Membre de l’Académie Internationale d’Électromagnétisme

Membre de l’Académie Royale Suédoise des Sciences et Arts 


Références

(1)           Sheldrake, R., Psychological Perspectives, 18, 1, 9-25, 1987.

(2)           Depeyrot, Michel Y., Experiments with the Memory of Water for the Negationist. April 2006. To be published in the Journal of "NAET, Energetics & Complementary Medicine". 2007

(3)           Ludwig W., The Memory of Water, 1997,  

(4)           Smith, C., W., Is a living System a Macroscopic Quantum System ?, The Center for Frontier Sciences at Temple University, 7, 1 (1998)

(5)           Benveniste, J., Molecular Signaling: what is so unacceptable for ultra-orthodox scientists ?, Digibio S.A. Webpage 2003 and "Ma vérité sur la mémoire de l'eau". Albin Michel. 2005

(6)           Bayod, S., & Hermant, A., Les applications de la bioimpédance, Projet DESS, UTC, 98-99, pp 53, 2000.

(7)           Vincent L. C., The research in bio-electronics. Evolution de 1952 à 1986, Publications Essentielles, Ed. Sté. Stec 63200 Monzac

(8)           Ludwig W., in Treven & Talkenhammer, ed., Umweltmedezin, Mowe-Verlag, Idstein,Germany, 1991.

(9)           Ludwig W., Informative Medizin, VGM Verlag für Ganzheitsmedizin, Essen, 1999.

(10)    Schumann, W.O., Über die strahlungslosen Eigenschwingungen einer leitenden Kugel, die von einer Luftschicht und einer Ionosphaerenhuelle umgeben ist, Z.Naturforsch. 7a, 149, 1952.

(11)        Schumann  W.O., König, H., Über die Beobachtung von Atmospherics bei geringsten Frequenzen, Naturwissenschaften, 41, 183, 1954.

(12)       Rossmann, H. Organometer von Voll, R., Haug Verlag, 1998

(13)      Pflaum, P., Untersuchungen zur Reproduzierbarkeit bioelektrischer Meßergebnisse an Hautpunkten nach dem Verfahren der Bioelektronischen Funktions- und Regulationsdiagnostik (BFD). Zahnmed. Diss. Würzburg. 1992

Notes

[1] : répondant à l’équation DEn = hnn avec h : constante de Planck

[2] : ensemble de molécules ou d’atomes liés chimiquement à conformation type chaîne ou amas, qui peut-être comparable à un polymère dans le cas des clusters d’H2O

[3] : par déformation des orbitales électroniques des liaisons chimiques H-O-H

[4] : un nombre complexe est un ensemble de deux nombres x et y pouvant s’écrire z = x + i y avec la convention

 i2 = -1,  x est appelée partie réelle de z et y sa partie imaginaire. Sous la forme trigonométrique, cela s’écrit

 z = S ( cosinus j + j sinus j ) avec tangente j = y/x. Ces expressions mathématiques particulières sont utilisées chaque fois qu’un phénomène physique oscillatoire est mis en jeu ce qui est le cas en bio-électromagnétisme.

[5] : kink = appelation d’origine anglo-saxonne signifiant repliement, tortillement.

[6] : appelé espace harmonique ou conjugué résultant de notre sous-espace réel de perception directe D.

[7] : pour la partie du spectre des fréquences micro-ondes équivalentes aux énergies de rotation et de vibration des molécules et infrarouge d’une part, pour la partie du spectre des fréquences visibles équivalentes aux énergies de liaisons des atomes et des électrons d’autre part .

[8] : i.e. liquide aqueux chargé en anions et cations constitués d’atomes type oligo-élément ayant soit gagnés une charge électronique soit perdus une charge électronique.

Peut-on dépasser la vitesse de la Lumière ?
Un retour sur les récentes expériences faites avec le Neutrino, le "Marsupilami" des particules

par Jean-Paul Prulhière

20120401 neutrino jpp img1  

La vitesse de la lumière: Une barrière infranchissable?

D’après les théories de la physique moderne, et notamment les équations de Maxwell, la lumière visible, et même le rayonnement électromagnétique en général, a une vitesse constante dans le vide. On l'appelle" vitesse de la lumière". C'est une constante physique fondamentale.

  Elle est notée c (du latin celeritas, « vitesse ») et égale à 299 792 458 mètres par seconde.

  Elle n’est pas seulement constante en tous les endroits (et à tous les âges) de l’Univers, mais aussi quel que soit le repère de référence d’un observateur.

  Elle est toujours inférieure à c dans un milieu qui contient de la matière, cela d’autant plus que la matière est plus dense.

Si aucun objet dans quelque milieu que ce soit ne peut dépasser la vitesse de la lumière dans le vide, dépasser la vitesse de la lumière dans le même milieu (liquide, solide, gaz) est possible : par exemple, dans l’eau les neutrinos peuvent aller considérablement plus vite que la lumière (qui s’y trouve elle-même considérablement ralentie). Cela est à l’origine de l’effet Tcherenkov.

Qu'est-ce qu'un neutrino?

En 1930, la communauté des physiciens est confrontée à une énigme : La désintégration des matériaux radioactifs  ne semble pas respecter la loi de conservation de l'énergie. Pour satisfaire ce principe, Wolfgang Ernst Pauli postule l'existence d'une nouvelle particule, de charge électrique nulle et de masse quasi-nulle impossible à mesurer directement. Enrico Fermi lui donne le nom de « neutrino » en 1933, en l’incorporant dans sa théorie de l’interaction faible.

Le neutrino appartient à la famille des Leptons. Il est découvert expérimentalement en 1956 auprès d’un réacteur nucléaire. En 1990, le LEP démontre l'existence de trois familles de neutrinos.

Leur probabilité d'interaction (donc de détection) est très faible. Sur 10 milliards de neutrinos (provenant des galaxies lointaines, essentiellement lors de la mort des Super-novas) qui traversent la terre, un seul va interagir avec les atomes constituant la terre. Il faudrait une épaisseur d’une année-lumière de plomb pour arrêter la moitié des neutrinos de passage. Les détecteurs de neutrinos contiennent donc typiquement des centaines de tonnes d’un matériau et sont construits de telle façon que quelques atomes par jour interagissent avec les neutrinos entrant.

Le neutrino a une masse quasi-nulle. Sa vitesse, proche de celle de la lumière dans le vide ne peut théoriquement la dépasser.

20120401 neutrino jpp img2

 

Le grand collisionneur électron-positon, ou LEP (de l'anglais Large Electron Positron collider) est un accélérateur de particules circulaire de 27 km de circonférence, passant sous le site du CERN entre la France et la Suisse. En fonctionnement de 1989 à 2000, le LEP demeure le plus puissant collisionneur de leptons jamais construit.

Qu'est ce qu'OPERA, l'objet de la découverte controversée?

OPERA (acronyme de l'anglais Oscillation Project with Emulsion-tRacking Apparatus) est une expérience internationale de physique des particules, destinée à observer et étudier certains paramètres des neutrinos (phénomènes d'oscillation). Elle utilise un faisceau de neutrinos à haute intensité et à haute énergie produit par le Super Proton Synchrotron (SPS) du CERN à Genève et dirigé vers un détecteur souterrain installé au Laboratori Nazionali del Gran Sasso (LNGS), en Italie, à environ 730 km de distance.

Les expériences ont commencé en été 2006.

20120401 neutrino jpp img3

20120401 neutrino jpp img4

Qu'a-t-on observé?

Le 23 septembre 2011, la collaboration OPERA annonce avoir mesuré un écart entre le temps de parcours des neutrinos du CERN au Gran Sasso par rapport au temps attendu, ce qui correspond à un dépassement apparent de la vitesse de la lumière.

Une réédition de cette expérience 2 mois plus tard, avec des paquets plus courts afin de minimiser les inexactitudes liées à cette donnée, aboutit au même résultat.

Si ces mesures étaient exactes,  cela signifierait que le neutrino se déplace à une vitesse supérieure à la vitesse de la lumière, et remettrait donc en cause la théorie de relativité d'Einstein.

Où en est-on?

Après de nombreux échanges dans la communauté scientifique, et dans des articles de presse (ex: France-Soir du 22 septembre 2011), on a maintenant la réponse quasi-certaine : La vitesse de la lumière n'est pas encore dépassée.

 

Einstein contredit ? Des neutrinos dépassent la vitesse de la lumière

SCIENCE/ÉCOLOGIE

La relativité contredite ? Le CNRS a annoncé jeudi le résultat surprenant d'une expérience : il a mesuré des particules élémentaires à une vitesse supérieure à celle de la lumière.

 

20120401 neutrino jpp img5

 

 Albert Einstein, il y a presque un siècle, n'imaginait pas que la vitesse de la lumière puisse être dépassée.

  Le 22 février, la revue Science fait état d'une mauvaise connexion au niveau de la fibre optique reliant un GPS à une carte électronique du dispositif expérimental d'OPERA et qui pourrait être à l'origine de l'effet observé.

  Le 23 février, le CERN a confirmé que cette hypothèse était en cours d'investigation, tout en mentionnant une autre défaillance possible au niveau d'un oscillateur utilisé pour la synchronisation avec un GPS, qui accentuerait l'effet observé

  Le 16 mars, un nouveau traitement expérimental des données acquises en septembre 2011 a été réalisé dans l'expérience ICARUS * par le laboratoire italien du Gran Sasso, Elle indique que les neutrinos ne dépassent pas la vitesse de la lumière au cours de leur voyage entre les deux laboratoires. Ce résultat contredit la mesure initiale annoncée par OPERA en septembre dernier. « Les données commencent à indiquer que le résultat d’OPERA est un artefact de mesure, déclare Sergio Bertolucci, directeur de la recherche au CERN, mais il est important d'être rigoureux, et les expériences du Gran Sasso, BOREXINO, ICARUS, LVD et OPERA, réaliseront en mai de nouvelles mesures avec faisceaux pulsés en provenance du CERN, ce qui nous donnera le verdict final.» 

 * L’expérience ICARUS a un système de mesure du temps indépendant de celui d’OPERA, et a mesuré sept neutrinos dans le faisceau envoyé par le CERN l’année dernière. Tous sont arrivés en un temps compatible avec la limite de la vitesse de la lumière.

Ces mesures sont difficiles à réaliser, et très sensibles, et elles soulignent l’importance du processus scientifique. La chambre à projection temporelle à argon liquide d’ICARUS est un détecteur innovant qui permet une reconstitution exacte des interactions de neutrinos, comparable aux anciennes chambres à bulles, mais avec des systèmes d’acquisition de données entièrement électroniques. La pulsation rapide de scintillation obtenue permet une mesure des temps précis de chaque événement, et a été exploitée pour la mesure du temps de vol du neutrino. Cette technique est désormais reconnue dans le monde entier comme étant la plus adaptée pour de futurs détecteurs de neutrinos de grand volume. »

Les yeux de Père Noël

par Bernard Barrière

Les flocons venaient lentement épaissir le manteau blanc qui depuis 1e matin couvrait le sol donnant à cette veille de Noël des allures de cartes postales. La voûte que formait le ciel noir et bas faisait penser à un vaste écrin enserrant la ville.

Je retrouvais ce soir l'image des Noëls de mon enfance, de ces Noëls que l'on revoit et que l'on embellit au fil des années.

Au milieu des attardés qui quittaient les magasins, les bras remplis de victuailles et de cadeaux, je marchais lentement, indifférent à cet air de fête, à ces sourires prometteurs de joie qui sont l'apanage des derniers jours de décembre. Car pour moi, les fêtes ne constituaient plus que des étapes à franchir dans le déroulement monotone des années qui passaient.

Le claquement du pêne dans la serrure ne déclenchait plus la petite sensation de bien être qui m'envahissait autrefois lorsque je pénétrais dans mon appartement.

Mais ce soir, un sentiment confus me troubla en apercevant la scène insolite qui s'offrait à mes yeux. Combien d'années s'étaient écoulées, vingt, vingt cinq, depuis que le dernier sapin qui, à chaque Noël, occupait cette place, avait disparu de ce coin de cheminée.20121016 conte pere noel img1

Les enfants partis, le cœur n'y était plus et si Geneviève avait continué pendant quelques années à poursuivre la tradition, la lassitude et la démotivation avaient eu raison de son obstination. Et quand une maladie, aussi subite qu'implacable l'avait emportée, j'avais compris que Noël, comme toutes les fêtes et même tous les jours à venir ne serait plus comme avant.

Bien sûr, quoique très éloignés, les enfants étaient venus plus souvent mais rapidement les visites s'étaient espacées et l'appartement s'était refermé sur ma solitude.

Étaient-ce ses grands yeux noirs où brillaient à la fois la crainte et l'espoir ou l'aspect malingre de cette gamine - enfant du voyage ou réfugiée - de huit à dix ans, qui m'avait attiré. Je ne saurais le dire. Par contre, la reconnaissance qu'avait exprimé son regard à la vue des pièces que je lui tendais en échange de son sapin m'avait ému. Ce sapin, l'avait-elle coupé dans un bois ? volé ? ou l'avait-on forcé à le vendre ? Chose certaine, elle n'attirait pas le chaland dans le recoin où elle se tassait, autant pour se faire oublier que pour se protéger du froid.

Même si elle ne profitait pas de son gain, peut-être au moins serait-elle bien accueillie par sa famille. Car j'imaginais qu'il devait s'agir d'un de ces enfants que des parents peu scrupuleux envoient apitoyer les passants.

Tout cela me revenait à l'esprit tandis que je m'approchais du sapin que j'avais ramené la veille chez moi, n'ayant rien trouvé pour m'en débarrasser. Je m'étais trouvé un peu gauche avec cet arbre à la main et j'avais forcé le pas pour rentrer. Par nostalgie autant que par désoeuvrement, j'avais recherché la boîte qui contenait tous les accessoires qui transforment un arbre mutilé en une cascade dorée et illuminée.

Je me sentais gêné et ridicule devant cette profusion de guirlandes qui dénotait dans cette pièce où la grisaille s'était peu à peu installée au fil du temps.

Le "joyeux Noël" que je lançais presque instinctivement rendit un écho lugubre et je détournais rapidement les yeux du sapin.

Le potage et la tranche de jambon rapidement avalés auraient fait triste mine auprès des repas de fête qui devaient s'étaler sur bien des tables. Et ma petite marchande, aurait-elle droit à un réveillon? L'état de ses vêtements et de ses joues pâles et creuses me port aient à penser le contraire. À cet instant, je souhaitais de tout coeur que ma petite générosité puisse contribuer à lui apporter quelque joie.

Encore cette année, le programme de la télévision ne me pousserait pas à une longue veillée. La gaieté affectée des présentateurs et de leurs invités sonnait faux pour moi qui n'avait ni l'ivresse des mots échangés entre amis, ni celle apportée par l'alcool qui poussent à rire et à s'amuser.

En repassant devant le sapin, une idée incongrue me vint à l'esprit. Et si je plaçais mes chaussures devant la cheminée! Décidément ce sapin perturbait le rythme et la monotonie de ma vie devenue sans attrait. Et si triste que l'idée du suicide m'effleurait de plus en plus souvent. Elle me tiraillait en proie au doute face à la voix d'une raison qui avait du mal à se faire entendre.

Alors que je repensais à toutes ces années gâchées, perdues, parce que je n'avais pas su ou voulu remplacer l'être cher que j'avais perdu, la vue de mes souliers posés devant la cheminée vint me voiler les pensées avant que je plonge dans un sommeil agité.

Depuis des années, les nuits se succédaient, faites d'un sommeil profond, calme où les rêves ne venaient plus apporter leurs questions ou leurs angoisses. Passées les nuits des mois qui avaient suivi la mort de Geneviève et qui m'amenaient au matin dans un total abattement, le calme m'avait envahi en même temps que mon existence sombrait dans la routine et la mélancolie.

Cette nuit de Noël au contraire fut agitée. Tout s'y confondait, la jeunesse, celle de mes enfants et la fillette de la rue se mêlait à ma famille. Était-ce ma fille, ma soeur que j'avais adorée jusqu'à ce qu'elle disparaisse dans l'accident qui l'emporta, avec mes parents, dans un monde dit meilleur.

 

Je sortis de cette nuit agitée dans une semi inconscience et, tel un somnambule, je me retrouvais, hagard, dans le salon.

Soudain, le souvenir du sapin, des souliers me revint. D'un coup, comme dégrisé, je retrouvai mes esprits.

Et là, oui là, devant la cheminée, près du sapin, les souliers... Ils ne gisaient plus inertes, abandonnés. Était-ce le Père Noël dont on attend tant de choses? un mirage? une illusion?

Étais-je bien réveillé ou avais-je des hallucinations ? Les souliers se déplaçaient, glissaient dans la pièce qu'éclairaient guirlandes du sapin. Dans ces souliers que je ne quittais plus du regard, je me tenais debout, déconcerté, tel un gosse qui n'en croit pas ses yeux. C'était mon cadeau de Noël, cette vie qui soudain me revenait, s'ouvrait à moi de nouveau.

Quel Noël ! Tel un gamin, je faillis remercier ce Père Noël qui comble les voeux les plus fous. Le merci s'arrêta dans ma gorge. Depuis trop longtemps, je ne croyais plus au Père Noël. Je l'oubliais sur le champ. Deux grands yeux qui m'illuminaient venaient de prendre le merci à leur compte, deux grands yeux qui avaient croisé mon regard dans un nuage de flocons blancs.

 

 

Du nouveau en provenance du Cosmos

par Pierre Laharrague

Des mesures et des observations récentes montrent qu’un phénomène tout à fait inattendu est à l’œuvre dans l’Univers son expansion accélère, alors que tous les cosmologistes étaient convaincus jusqu’ici qu’au contraire elle ralentissait inexorablement à cause de l’attraction gravitationnelle qui s’exerce entre les corps (c’est parce que la masse de la Terre attire la pomme, que celle ci tombe - et que cela , dit-on, inspira à Newton la loi de la gravitation universelle). Cette constatation entraîne un renversement complet de la pensée en cours qui est un véritable défi pour les théoriciens et qui a d’ores et déjà de profondes conséquences sur le modèle cosmologique en vigueur.

Alors, en cherchant à ne pas verser dans l’ésotérisme, tentons de nous faire une idée des réflexions actuelles  :

·       en rappelant brièvement les expériences en cause.

·       en examinant succinctement les interprétations et les réflexions que cela suscite.

Les observations

En 1998, deux équipes internationales, la High-z Supernova Search Team (HzSST) et le Supernova Cosmological Project (SCP) ont publié les résultats de mesures de la luminosité de supernovae  très lointaines (il s’agit d’explosions cataclysmiques d’étoiles en fin de vie qui se produisent au rythme d’environ 3 par siècle et par galaxie en émettant une lumière considérable qui peut être observée pendant plusieurs mois ).

La luminosité mesurée était environ 25% plus faible qu’attendue. Pour expliquer cela, il y avait 2 possibilités :

    - ou bien un processus physique, à déterminer, affaiblissait la luminosité ;

    - ou bien la distance des supernovae était à revoir à la hausse. Sur le graphique ci-contre, la distance est figurée par le « redshift » ou décalage spectral vers le rouge de la lumière qui nous parvient d’astres qui s’éloignent de nous, et qui lui est proportionnel.

20120417 cosmos pl img1

La première hypothèse ayant pu être écartée, restait la seconde, c’est à dire que la vitesse d’expansion de l’Univers augmentait au lieu  de diminuer.                                                             

En 2002, deux autres équipes étudiant des phénomènes complètement indépendants des supernovae, sont parvenues aux mêmes conclusions :

    - la première, 2dFGS ( pour Two Degree Field Galaxy Redshift Survey), a analysé la lumière émise par 221383 galaxies grâce au télescope anglo-australien de Siding Spring en Australie ;

    - la seconde, Archéops (équipe française qui a passé 19 heures en ballon au dessus de la base suédoise de Kiruna), a étudié le rayonnement fossile, émis 300 .000 ans après le Big Bang, sur une grande ouverture angulaire.

Pour interpréter leurs résultats, toutes deux ont dû admettre l’accélération de l’expansion , confirmant ainsi l’hypothèse avancée par les deux premières équipes.

Recherche d’une explication :  l’énergie noire

Tout d’abord, il est essentiel de rappeler que les équations de la relativité générale d’Albert Einstein montrent que l’expansion ultérieure au Big Bang doit inéxorablement ralentir sous le seul effet de l’action gravitationnelle  : la gravité attire mais ne repousse pas. À l’époque où Einstein publia sa théorie, soit une dizaine d’années avant la découverte de  l’expansion par Edwin Hubble, tout le monde était persuadé que l’univers était statique. Pour satisfaire à ce paradigme, Einstein intoduisit arbitrairement dans ses équations un terme constant dans le but d’annuler l’attraction gravitationnelle, une sorte de gravité répulsive ou d’antigravité qu’il appela constante cosmologique. Lorsque Hubble démontra l’expansion, Einstein déclara qu’il « avait commis la plus grande erreur de sa vie » et la fameuse constante tomba en désuétude, c’est à dire que les cosmologistes lui attribuèrent une valeur nulle. Aujourd’hui, elle refait surface car, par son caractère répulsif elle offre un moyen d’expliquer l’accélération constatée de l’expansion.

En relativité, la source de la force gravitationnelle est la masse ou son équivalent, l’énergie : celle liée à la constante cosmologique est spéciale car elle est invariable dans le temps et dans l’espace et elle existe même en l’absence de matière, autrement dit, elle apparait comme une propriété du vide, ce qui est une notion surprenante à laquelle la physique quantique donnera un sens. Ainsi le Vide des physiciens , plein d’énergie, est différent du Néant des philosophes.

  L’ensemble des  résultats expérimentaux accumulés à ce jour, conduit aux conclusions suivantes :

  la matière constituant  l’univers se présente sous 2 aspects :

    - une matière ordinaire visible ( par ex. les étoiles qui brillent ), observée par nos télescopes, ne représentant que moins de 1 % d’une densité dite critique pour laquelle l’univers est plat ( on dit aussi euclidien) tel que nos sens le perçoivent.

      -  une matière invisible ( on dit aussi noire) qui comporte deux composantes :

*   de la matière ordinaire trop sombre pour être vue (par ex.les naines noires ), représentant 3 à 4 %  de la densité critique ;

*   de la matiére exotique , de nature inconnue, qui se manifeste par des effets gravitationnels mesurables sur le mouvement de corps célestes et qui représente 26 % de la dite densité.

Au total, toute la matière compte pour 30%.

À grande échelle, l’univers est plat (ou euclidien), donc sa densité est égale à la valeur critique ce qui implique que 70% manque à l’appel.

 

 C’est cette masse (ou cette énergie manquante) que les cosmologistes désigne du nom d’énergie noire.

Remarque : matière noire et énergie noire sont deux choses différentes :

    - la matière noire a un effet gravitationnel attractif

    - l’énergie noire a un effet antigravitationnel répulsif

20120417 cosmos pl img2

Quelle peut être la nature de cette énergie ?

L’énergie du vide ou son équivalent la constante cosmologique, que l’on a introduite ci-dessus est un bon candidat. Mais par quel mécanisme le vide peut il être répulsif ? La réponse tient au fait que le vide exerce une pression négative, autrement dit une tension (cf encadré), contrairement à la matière qui, elle, exerce une pression toujours positive. C’est une telle tension qui étire l’espace à l’inverse de la matière qui a tendance à le réduire.

 

Pour ceux qui aiment les formules,  sinon s’abstenir !!

1.  La pression du Vide est négative :

À partir de la relation thermodynamique :

dE = - pdv, avec E (énergie) = rv, r (énergie par unité de volume), v (volume)

p (pression) = wr (équation d’état la plus simple du milieu considéré, w est une constante de proportionnalité), on obtient par différentiation : rdv + vdr = - wrdv, d’où on tire :

                                                                dr/r = - (w+1)dv/v

L’énergie du vide étant constante, il en résulte que dr = 0, d'où w = -1  et      p = - r

2.   Le Vide a une action répulsive :

À partir des équations de la relativité d’Einstein, on obtient : R’’/R = - 4pG/3 (r+3p)R ( facteur d’échelle de l’univers),       R’’ ( accélération ).

On voit qu’avec le vide, r+3p = - 2r, donc R’’ est positif,  c’est à dire que l’expansion accélère

3. Il peut y avoir aussi accélération :  pour une substance autre que le vide :  il suffit que r+3p soit négatif, c’est à dire que  p/r < -1/3  : c’est la « quintessence » ( voir ci-dessous )

 

Mais le vide pose un très sérieux problème : calculée à partir de la physique quantique, (c’est pour cela qu’on parle souvent de vide quantique), son énergie est énorme  : elle dépasse de 120 ordres de grandeur (10120 ) la densité  de toute la matière. C’est à dire que pour être aujourd’hui du même ordre de grandeur  (0,7 comparé à 0,3 pour une densité critique ramenée par simplicité au chiffre 1, soit à peu près le double), il faut qu’un mécanisme inconnu l’ait réduite, à l’origine, de 120 ordres de grandeur. En outre, une telle densité d’énergie courberait tellement l’espace (selon la relativité générale) que l’on ne pourrait pas  « voir plus loin que le bout de son  nez». On parle alors justement de catastrophe du vide.

 Les théoriciens se tournent alors vers d’autres possibilités : une substance produisant une pression négative, mais avec une équation d’état p/r différente de celle du vide (cf encadré). Ils l’appellent du joli nom de «quintessence» par référence aux philosophes grecs qui, aux 4 éléments que sont le feu, l’eau, l’air et la terre,  avaient ajouté un cinquième pour.... empêcher les astres de tomber sur la Terre. À la différence du vide, cette équation d’état est supposée pouvoir varier avec le temps. Il existe une infinité de modèles de quintessence selon l’équation utilisée, que les physiciens comparent aux observations  (rayonnement fossile, supernovae etc..). Actuellement les données sont trop imprécises pour voir un écart significatif. Quant à la nature de la quintessence, sans préciser davantage, nous dirons que des idées existent....à défaut de certitudes .

Une autre piste qui est explorée  est celle des neutrinos, ces particules insaisissables qui interagissent très faiblement avec la matière, mais qui existent car on les a détectés. Il est postulé , par contre, qu’ils interagissent avec des particules ... inconnues et cette interaction produirait de la pression négative !

 Enfin, l’imagination de nos théoriciens étant sans limites, certains pensent que la sacro-sainte loi de la gravitation pourrait être différente aux courtes et longues distances et ils imaginent des mécanismes pour cela.

En conclusion, on voit que l’énergie noire est aujourd’hui une profonde énigme. À dire vrai, ce n’est pas une surprise car il existe un précédent : il s’agit de l’épisode inflationnaire  qui se serait produit entre 10-34 et 10-32 sec, au cours duquel  l’univers primordial se serait dilaté davantage en ce bref instant qu’il ne l’a fait depuis cette époque jusqu’à nos jours. Le moteur de cette expansion gigantesque est inconnu : on lui a donné le nom d’inflaton.

Remarque à propos de l’âge de l’univers

Les mesures les plus récentes réalisées à partir du télescope spatial Hubble et du satellite européen Hipparcos ont modifié les valeurs retenues depuis une décade sur l’âge de l’univers (entre 11,5 milliards  et 13,2 milliards d’années)  et celui des plus vieilles étoiles observées (au moins 12,5 milliards d’années),  posant à nouveau un problème ancien : l’univers ne peut pas être plus jeune que certaines étoiles !

L’hypothèse d’une énergie noire antigravitationnelle offre une solution pour « vieillir » l’univers, comme le montre le dessin ci-dessous.

20120417 cosmos pl img3

 

Questions encore sans réponse

  1. Quelle est la nature de l’énergie noire?

Comme on l’a vu ci-dessus, la science n’a pour l’instant que des hypothèses à proposer. De futures observations devront les départager à moins qu’elles initient de nouvelles idées ou de nouvelles énigmes. Si, en outre, on y rajoute le problème de la matière noire exotique, on constate alors que 95% du contenu de l’univers nous échappe. De quoi  inspirer au savant beaucoup d’humilité et, dans le même temps, de le stimuler dans son profond besoin de comprendre. En l’an 1150, un poète et philisophe juif, Salomon Ibn Gabirol disait  : « La connaissance, qui est le but de l’existence de  l’Homme, c’est la connaissance de l’univers tel qu’il est, et particulièrement la connaissance de la substance  première qui le porte et le met en mouvement ». Neuf siècles plus tard, ces paroles sont étonnament actuelles.

 2. Pourquoi énergie noire et énergie matière sont elles quasi égales?

Aujourd’hui, à un facteur 2 près, les deux types d’énergie sont comparables. Est-ce une coïncidence ?  

Si l’origine de l’énergie noire est  le vide, nous avons vu qu’il faut résoudre le problème de la «catastrophe du vide».

Il y a pire encore : comme le montre le graphique ci-contre, en remontant dans le temps, la densité d’énergie noire reste constante, alors que la densité d’énergie matière augmente à mesure que la taille de l’univers décroît : très tôt, l’écart était considérable et il faut imaginer un réglage d’une extrême précision pour que les deux soient égales aujourd’hui. Quasi impensable!

La quintessence, avec une énergie suceptible de varier dans le temps et dans l’espace, offrira-t-elle une alternative?

20120417 cosmos pl img4

 3. Pourquoi la somme des deux énergies  égale-t-elle la densité critique?

C’est ce qui est constaté à l’époque actuelle de l’histoire de l’univers et qui lui donne son caractère plat ou euclidien. D’aucuns se demandent si cela coincïde avec notre apparition en tant qu’êtres conscients. 

Énergie noire et énergie matière sont elles indépendantes, ou leurs  destins sont-ils liés?

Observons enfin que dans le futur, cette égalité ne devrait plus être conservée : au moins dans le cas du vide, l’énergie noire devrait prendre le dessus et, donc, l’expansion se poursuivre indéfiniment (cf.ci-dessous).

    4.  Sur le destin de l’univers

La question essentielle à laquelle l’Homme a cherché de tout temps une réponse, c’est de connaître son sort, collectivement et individuellement. Avant la découverte de l’accélération de l’expansion, le modèle en cours pévoyait pour l’avenir de l’univers :

* soit une recontraction (big crunch) si la densité d’énergie matière était supérieure à la valeur critique de 10-29 gr/cm3,

* soit une expansion éternelle si cette densité était inférieure ou égale à la densité critique.

Cela résultait des équations de la relativité générale dans lesquelles on supposait que la constante cosmologique était nulle.

20120417 cosmos pl img5

Ces scénarios sont à reconsidérer dés lors que la dite constante n’est plus nulle. Du fait que la densité de la matière ira en diminuant proportionnellement à l’augmentation du volume de l’univers et que, par contre, la densité d’énergie noire reste constante, cette dernière l’emportera inéluctablement, comme le montrent les graphiques ci -dessus, et l’expansion sera éternelle quelle que soit la densité de la matière. L’univers deviendra ainsi de plus en plus hostile à la vie.

Mais si l’origine de l’énergie noire doit être attribuée à une autre chose qui n’est plus constante mais qui varie avec le temps, les deux alternatives redeviennent possibles, selon l’équation d’état utilisée. On voit sur le graphique qu’avec la quintessence l’évolution est moins rapide et peut même s’arrêter et s’inverser (courbes en pointillé). Le futur n’est plus figé comme dans le cas précédent : l’expansion peut durer éternellement ou évoluer vers une recontraction. Rien n’empèche aujourd’hui de considérer qu’après avoir provoqué une accélération, la quintessence change et initie une période de contraction. Au « crunch », le champ est converti en matière et rayonnement, initiant un nouveau « bang » : on voit ainsi réapparaitre l’idée d’un scénario cyclique propre aux religions hindouistes.

En guise de conclusion

La découverte intervenue au tournant de ce siècle constitue un fait capital qui a surpris le monde des cosmologistes. Comme il est habituel en pareil cas, un tel événement déclenche une grande effervescence intellectuelle pour en démonter les mécanismes et en comprendre l’origine C’est ainsi que la science progresse, par bonds successifs, voire par rupture avec les paradigmes du moment.. Parmi toutes les idées avancées aujourd’hui, un tri interviendra à mesure de l’obtention des résultats de futures observations.

Ces observations, profitant d’une technologie en progrès constant, sont axées sur :

· l’étude de la luminosité de supernovae de plus en plus lointaines à partir d’installations au sol (programme franco-canadien Supernovae  Legacy Survey lancé en août 2003, programme franco-américain SN Factory lancé en octobre 2004), ou d’installations embarquées sur satellites (Super Novae Acceleration Probe en 2010).

· l’étude de minuscules inhomogénéités dans le rayonnement fossile : satellites ( MAP pour Microwave Anisotropie Probe-USA, et Planck - Europe), révélatrices de petites variations dans le taux d’expansion.

· l’étude de la distribution du nombre de galaxies avec la distance, suceptible de fournir aussi des informations sur la variation du taux d’expansion avec le temps (projet Deep Extragalactic Evolutionary Probe).

· l’étude des ondes gravitationnelles qui sont des déformations du tissu de l’univers, l’espace-temps, émises lors d’événements violents et qui peuvent ouvrir une fenêtre sur ce qui s’est passé avant 300 000 ans quand l’univers était opaque.

· les travaux en physique des particules grâce au plus grand accélérateur du monde (le LHC, prévu d’être mis en service au CERN en 2007 ) qui devraient permettre de mieux cerner la physique des premiers instants. 

Ainsi les physiciens ont-ils du pain sur la planche. Depuis que les philosophes grecs ont ouvert la voie à une cosmologie scientifique, beaucoup de chemin a été parcouru. Nous, les héritiers de ces grands penseurs, poursuivons l’oeuvre , mais nous observons que le chemin à parcourir est encore très long : plus on comprend et plus il reste à comprendre. Einstein, dont nous célèbrons cette année le centenaire de sa première communication sur la relativité qui donna une impulsion décisive à la cosmologie, écrivait : « Ce qui est incompréhensible, c’est que l’univers soit compréhensible », et un autre prix Nobel, Stephen Weinberg, disait récemment en écho : « Je pense que nous ne pourrons jamais expliquer les principes scientifiques les plus fondamentaux ».

Mais le besoin de savoir est propre à l’Homme et la quête se poursuivra donc.

Mars 2005

 
 
 

Les capes d’invisibilité

par Bernard Miltenberger

Qui a vu ou lu Harry Potter connait la cape d’invisibilité sous laquelle le jeune magicien s’abritait pour disparaitre aux yeux de ses adversaires.

Qui a vu ou lu les aventures de l’homme invisible de H. G. Wells s’est toujours dit que cela n’était qu’une histoire et resterait impossible à réaliser dans la vraie vie.

Et pourtant, quelques uns d’entre nous, dés 1986, se sont attachés à rendre nos têtes nucléaires invisibles à l’œil des radars, et aujourd’hui encore nombreux sont ceux, à la DAM, qui travaillent  à améliorer sans cesse cette « furtivité » et cherchent à étendre ce concept d’invisibilité dans un domaine de fréquences de plus en plus large.

J’ai moi-même donné de nombreuses années à cette quête de performances, le CESTA, Le Ripault, et BIII aussi.

Et voila que, suite à un article du monde en ce début 2012, on découvre qu’un laboratoire américain, travaillant pour le compte de la Défense, annonce avoir réalisé une première expérience réussie d’invisibilité dans le domaine des longueurs d’ondes optiques du spectre de la lumière visible ! En élargissant la recherche sur le web on s’aperçoit que de nombreux universitaires creusaient la question depuis quelques années déjà et que des résultats concrets et étonnants sont obtenus.

Le plus étonnant c’est que les uns fabriquent des « trous  dans l’espace » (pour y camoufler les objets) les autres des « trous dans le temps » (pour y camoufler des « évènements » !).

De quoi s’agit-t-il ?

Les trous dans l’espace 

L’idée est ici de faire comme ce qui se passe lorsque l’eau s’écoule autour d’un obstacle. Elle fait quelques turbulences en le contournant et reprend rapidement son cours normal : celui qui observe le courant, redevenu normal, en aval de l’obstacle ne peut pas savoir qu’il y a eu un obstacle et donc « ne le voit pas »…

De la même façon que l’eau ci-dessus, on sait (depuis Descartes) que les rayons lumineux sont déviés dès qu'ils passent d'un milieu à un autre dont l'indice de réfraction est diffèrent.

Partant de ce constat, les équipes de recherche dirigées par Ulf Leonhardt (université de St Andrews, Ecosse) et de John Pendry (Imperial College, Londres) ont montré que, en théorie, des méta-matériaux pourraient faire « couler » la lumière autour d'un objet donné, et être utilisés pour construire des boucliers d'invisibilité.

En France Didier Lippens, à l’Institut d’Electronique de Microélectronique et de Nanotechnologie de Lille avec deux de ses étudiants, Davy Gaillot et Charles Croënne, a cosigné un article paru début 2008 dans Optics Express, sur la fabrication d’une « cape d’invisibilité », capable de rendre transparent tout ce qui se trouve à l’intérieur. Car sur le papier et dans leurs simulations informatiques, rien n’apparait impossible. Il « suffirait » de faire varier graduellement « l’indice de réfraction » dans la cape. En jouant sur cet indice à l’intérieur du matériau de la cape, on pourrait donc espérer forcer la lumière à «tourner» par petites touches jusqu’à suivre la courbe voulue.  Mais que sont ces « métamatériaux » ? 

20120419 capes invisibilite bm img1

Ce sont des matériaux artificiels qui ont la fabuleuse propriété, bien qu’ils ne soient pas magnétiques, d’avoir une réponse magnétique et des indices de réfraction bizarres, voire même négatifs. Plus précisément, on a imaginé placer dans ces matériaux de minuscules ingrédients selon des motifs périodiques adaptés au comportement optique recherché. Ces inclusions nanométriques, par la grâce des lois physiques à cette échelle, fabriquent des propriétés magnétiques aptes à dévier au fur et à mesure les rayons lumineux.  

Depuis l’université Saint-Andrews, en Écosse, Andrea Di Falco et ses collègues nous présentent aujourd’hui le Métaflex : un tissu en métamatériau flexible, premier du genre semble-t-il.

Épaisse de 4 micromètres seulement, cette membrane est transparente, enfin presque… Elle retient en effet un peu de lumière visible, quelque part du côté de l’orange et du rouge, comme le montre les courbes d’atténuation ci-dessous.

20120419 capes invisibilite bm img2 Résultats obtenus avec une membrane gravée d'un motif en filet, assurant une double polarisation (photographie (b) de droite les mailles mesurent environ 1 micromètre). À gauche (a), l'atténuation observée (la zone grisée) et le calcul théorique (la courbe noire). L'effet est bien obtenu dans le visible, à une longueur d’onde entre 600 et 700 nanomètres. © A. Di Falco et al. / New Journal of PhysicsIci l’invisibilité, mise en avant par les communiqués, n’a pas été recherchée et encore moins obtenue : la lumière traverse seulement la membrane et est atténuée à certaines longueurs d'onde. Mais l’expérience démontre que les propriétés d’un métamatériau à l’échelle atomique sont exploitables sur un support souple et cela change tout !

Les auteurs expliquent que ces membranes, très fines, pourraient être superposées, de manière à cumuler différents effets, par exemple camoufler différentes longueurs d’onde.

« Ces métamatériaux sont capables de dévier et d’accélérer la lumière, explique Didier Lippens, Résultat : la lumière contourne l’objet et se retrouve à l’arrière, exactement là où elle aurait dû être si elle était allée en ligne droite. L’objet contenu par la coque devient alors invisible. »

Résultats obtenus avec une membrane gravée d'un motif en filet, assurant une double polarisation (photographie (b) de droite les mailles mesurent environ 1 micromètre). À gauche (a), l'atténuation observée (la zone grisée) et le calcul théorique (la courbe noire). L'effet est bien obtenu dans le visible, à une longueur d’onde entre 600 et 700 nanomètres. © A. Di Falco et al. / New Journal of Physics

Les métamatériaux n’en sont qu’à leur début. Leurs propriétés, bien souvent « non naturelles » ouvriront un vaste champ d’applications futures, et la cape d’invisibilité verra sans doute le jour.

Mais mieux encore est de constater que cette nouvelle physique peut aussi être mise en œuvre à notre échelle courante. Ainsi les travaux évoqués ci dessus conduisent aujourd’hui à imaginer des dispositifs « anti-tsunami » en mettant à profit les similitudes entre les équations décrivant la propagation des ondes lumineuses et celles décrivant la propagation des ondes  dans les fluides ou dans la croute terrestre.

Si l’on s’y prend bien, estiment les physiciens, il doit être possible de protéger des villes des catastrophes naturelles en les entourant de dispositifs, reproduisant à l’échelle ad hoc ces structures périodiques (des « mégamatériaux » dirons-nous), et qui rendraient ces villes  « en quelque sorte invisibles » aux ondes sismiques des tremblements de terre ainsi qu'aux ondes en milieu liquide des tsunamis… ! Des essais à échelle réduite en bassin ont déjà confirmé ces espoirs.

Les trous dans le temps

Alors que de nombreuses équipes scientifiques rivalisent dans le monde pour tenter de rendre des objets indétectables dans l’espace, les chercheurs américains de l'université de Cornell de New York ont annoncé début janvier 2012 avoir mis au point un système de nature à dissimuler un évènement « dans le temps », pendant une toute petite fraction de seconde, et ne laissant aucune trace dans le futur.

L’espace et le temps étant liés, ces physiciens avaient suggéré dés 2011 qu’il devrait être possible de créer une cape d’invisibilité non pas spatiale mais temporelle. C’est cette prédiction qu’ils viennent de vérifier expérimentalement en créant un dispositif permettant de faire disparaître un événement d’une durée, ridiculement faible il est vrai, inférieure à 50 picosecondes (M. Fridman et al. Nature, 5 janvier 2012).

L’équipe, dirigée par Moti Fridman (et financée par le Pentagone), a utilisé les propriétés du spectre lumineux, et notamment la différence de vitesse entre les différentes couleurs qui le composent.

Selon les résultats de leurs travaux publiés dans la revue Nature, l'expérience menée en leur laboratoire a consisté à créer une sorte de « trou temporel » permettant de faire circuler, ni vue ni connue, une décharge laser dans un câble en fibre optique traversé par un rayon lumineux.

20120419 capes invisibilite bm img3Pour ce faire, ils ont envoyé une onde lumineuse au travers d’une « lentille temporelle » capable de découper la lumière et faire fluctuer sa couleur au cours du temps. Le spectre de lumière ainsi engendré passe ensuite dans un milieu dispersif qui accélère certaines couleurs lumineuses ou en ralentit d’autres. À la sortie un dispositif inverse reconstitue la lumière initiale.  En ralentissant les lumières les plus lentes et en accélérant les plus rapides, les chercheurs ont obtenu « un trou de 50 picosecondes » (50.10-12 secondes) dans l’information lumineuse. De quoi rendre invisible tout événement qui se serait déroulé dans cet intervalle de temps. Ce qu’ils vérifient en observant la disparition (pendant 50 picosecondes) d’un signal laser introduit dans la fibre. Le signal apparait ou disparait selon que les lentilles fonctionnent ou non !

Pour ce faire, ils ont envoyé une onde lumineuse au travers d’une « lentille temporelle » capable de découper la lumière et faire fluctuer sa couleur au cours du temps. Le spectre de lumière ainsi engendré passe ensuite dans un milieu dispersif qui accélère certaines couleurs lumineuses ou en ralentit d’autres. À la sortie un dispositif inverse reconstitue la lumière initiale.  En ralentissant les lumières les plus lentes et en accélérant les plus rapides, les chercheurs ont obtenu « un trou de 50 picosecondes » (50. 10-12 secondes) dans l’information lumineuse. De quoi rendre invisible tout événement qui se serait déroulé dans cet intervalle de temps. Ce qu’ils vérifient en observant la disparition (pendant 50 picosecondes) d’un signal laser introduit dans la fibre. Le signal apparait ou disparait selon que les lentilles fonctionnent ou non !

Difficile à comprendre, mais l’expérience peut être illustrée par l’image d’un flot régulier de voitures interrompu par un passage à niveau. Certaines sont passées, d’autres restent arrêtées. Mais lorsque la barrière se relève les véhicules arrêtés rattrapent ceux déjà passés et le flot redevient ce qu’il était avant l’évènement. « Tout se passe comme si l’évènement passage à niveau avait disparu »… C’est l’analogie « dans le temps » de notre écoulement d’eau « dans l’espace » de tout à l’heure.

D’après les chercheurs, en améliorant le système, il devrait être possible de créer des « capes d’invisibilité temporelles » de quelques millisecondes, soit un milliard de fois plus longtemps.

C’est encore bien court, mais en attendant, ce principe est en cours d’application par le Département Of Défense (DOD) pour sécuriser la transmission de données sensibles, en les faisant disparaitre au départ de l’expéditeur et en les reconstituant chez le destinataire, sachant que sur le trajet entre les deux elles sont « invisibles », donc non « interceptables » ! Fini la surveillance des échanges sur le Web !!

Conclusion 

Que l’on vise à faire des trous dans l’espace ou dans le temps, on est loin des durées d’invisibilité nécessaires au jeune Harry pour échapper aux méchants sorciers. Ces sujets sont effectivement plus ardus pour l’homme de laboratoire que pour le romancier.

Mais qui aurait cru ou imaginé, il y a seulement 10 ou 15 ans, que ce qui n’était que rêve ou imagination deviendrait sujet à recherches sérieuses, donc onéreuses, et pourrait conduire à réalisations concrètes, voire commerciales ?

Tout comme pour nos têtes nucléaires, on a ici la preuve qu’il suffit de s’y mettre pour que tout devienne possible, avec du temps et de la volonté.

Les dix derniers articles publiés ( # selon que vous êtes connecté ou pas)