bandeau 3

FLASH INFOS

Réponses à un petit fils…

Éléments d’un débat sur l’électricité nucléaire

par Bernard Miltenberger

 

Mon petit fils m’a demandé cet été : « Dis Grand Père, pourquoi on dit qu’il serait mieux pour nous que l’on ne « fabrique plus » d’électricité nucléaire ? Pourtant c’est le progrès. »

S’il vous arrive de telles questions, voila les antisèches que je me suis faites pour répondre à mon jeune curieux. Bien sûr, tous ne seront pas d’accord avec mes positions, mais le jeune homme m’a paru intéressé par les réponses que je lui avais préparées.

Introduction

Avant de se battre sur l’intérêt ou non d’une utilisation de la fission nucléaire pour produire de l’électricité il est indispensable de prendre conscience d’un certain nombre d’attendus et d’évidences, ne serait ce que pour « relativiser » la pertinence d’un tel débat.

Attendu n°1 : la part de l’énergie électrique dans la consommation d’énergie n’est que de 30 à 40% du total consommé en France. Le nucléaire, produisant 75% de l’électricité nationale, n’intervient donc que pour moins de 30% dans le débat sur la « transition énergétique », 70% des besoins ne sont pas concernés par la question du nucléaire.

Attendu n°2 : La production d’électricité ne satisfait qu’aux besoins énergétiques « à poste », ceux qui nécessitent « une prise de courant » (éclairage, chauffage, besoins domestiques, ordinateurs, moteurs fixes de quelques dizaines de chevaux vapeur…). Sauf pour le TGV, tout besoin impliquant mobilité ou déplacement n’est pas couvert par l’électricité fournie par les centrales (tant que les véhicules électriques n’ont pas pris un hypothétique relais). Ceci éclaire le chiffre de 70% précédent.

Attendu n°3 : A ce jour on ne sait produire de l’électricité qu’en faisant tourner des dynamos. Seules les technologies ont évoluées depuis la découverte de l’électromagnétisme, pas les principes de production d’électricité. (Cette affirmation est à pondérer par les quelques difficiles avancées de l’électrochimie et des recherches sur la conversion de l’énergie solaire, deux voies de production d’avenir encore bloquées par l’absence de résultats significatifs pour une exploitation intensive et rentable). La véritable transition énergétique se situerait dans l’avènement de ces nouveaux principes.

Attendu n°4 : Faire bouillir de l’eau grâce à la chaleur dégagée par la fission atomique apparait « démesuré ». Une telle outrance ne peut se justifier que par une notion de « coût-efficacité » du combustible.

Attendu n°5 : Le parc de centrales nucléaires français existe et couvre 70% de la production nationale, il serait stupide de le fermer.

Attendu n° 6 : La fission de l’atome restera longtemps encore un mystère pour le grand public, assorti d’une peur liée à son caractère « menaçant » (Hiroshima d’abord, Tchernobyl et Fukushima ensuite), et invisible. Des liens conscients ou inconscients associent le nucléaire avec une autre grande peur, celle des cancers, surtout lorsqu’ils sont prétendus capables d’hypothéquer les générations suivantes. Une telle puissance, cachée au coeur de la matière inerte, est ressentie comme « interdite » à l’homme car touchant aux fondamentaux de la nature réservés aux dieux. L’atome c’est le feu divin. Il y a du mythe de Prométhée dans ce ressenti, aucune plaidoirie, fut elle logiquement ou scientifiquement incontestable, ne peut véritablement combattre cet inconscient collectif.

Avantages et inconvénients de la production par le nucléaire

Avantages et inconvénients de la production par le nucléaire

Avantage 1 : Les quantités à brûler pour faire tourner les turbines

Une centrale nucléaire de 1000 MW nécessite chaque année quelques 100 à 200 tonnes d'uranium naturel pour fournir de l'électricité à un million de personnes environ.

Une centrale au charbon de la même taille nécessiterait la combustion de plus de deux millions de tonnes de charbon, une centrale au fioul de 1.400.000 tonnes d'huile lourde, et une centrale à gaz moderne de prés d’un million de tonnes de gaz naturel. On note que les quantités de matière à bruler pour une même production d’électricité sont de 5 à 10.000 fois plus faibles, c’est le même rapport qui se retrouvera sur la masse des déchets (pas de même nature il est vrai, et totalement évacués sous forme gazeuse nocive pour le fioul et le charbon).

La densité énergétique élevée de l'uranium et le volume comparativement très faible des déchets radioactifs engendrés expliquent en premier lieu pourquoi – conjointement avec le solaire, l'hydraulique et l'éolien – l'énergie nucléaire est la mieux placée par rapport aux autres techniques actuelles de production d'électricité sous l'angle de l'impact global sur l'environnement.

Avantage 2 : La pérennité et le coût

S’il y a un débat sur la dépendance nationale (ou non) des approvisionnements de matière nucléaire, il n’y en a pas sur la pérennité, les réserves mondiales assurant des milliers d’années de consommation. Les coûts (économiques et humains) d’extraction et de mise en condition du combustible nucléaire sont de plusieurs ordres de grandeurs inférieurs aux autres combustibles (cf. les nombreux accidents dans les mines de charbon depuis un siècle et encore de nos jours).

Par contre le coût de réalisation d’une centrale nucléaire se trouve être, lui, de plusieurs ordres de grandeurs supérieur à celui d’une centrale classique. Ce terme n’intervient dans le débat que pour les centrales à créer (l’investissement étant amorti pour les centrales existantes), et doit prendre en compte le coût de fonctionnement et la durée de vie de chaque technologie. Ce que l’on peut retenir c’est qu’au stade actuel le bilan économique de l’existant ne fait pas apparaitre de différences notables entre les modes de production (certains estiment même que le prix du KW nucléaire serait de 20 à30% inférieur à celui du KW classique).

La durée de vie des centrales est à ce jour inconnue. Elle n’est limitée que par le vieillissement par irradiation des matériaux de la cuve contenant le combustible, phénomène sur lequel les études n’ont pu apporter aucune conclusion définitive, au delà du constat expérimental actuel de l’absence de dégradations après 40 années de fonctionnement. Les règles de « péremption » administratives (mondiales et nationales) ont de ce fait tendance à prolonger régulièrement les autorisations de fonctionnement.

Avantage 3 : Les rejets atmosphériques

Inutile d’insister sur ce point qui n’est mis en cause par personne, les centrales nucléaires en fonctionnement normal « n’émettent » que de la vapeur d’eau.

Inconvénient 1 : La gestion des déchets

On retrouve quasiment toute la masse du combustible nucléaire en déchets appelés « produits de fission » puisqu’ils résultent de l’éclatement des atomes lourds initiaux (uranium) en deux ou trois atomes finaux et fortement instables (radioactifs donc).

Ils ont l’avantage de rester confinés dans les barreaux utilisés. Leur activité radioactive dépend essentiellement de leur « stabilité » mesurée aussi par leur durée de vie. On peut dire que les déchets les plus actifs (ceux qui produisent les rayonnements les plus nocifs énergétiquement) sont ceux qui s’éteindront le plus vite (déchets à vie courte : quelques mois à quelques années), les moins actifs (faibles, voire très faibles en terme de rayonnements) eux ne s’éteindront que dans des centaines, voire des milliers d’années.

Aucune autre véritable solution que le stockage n’a été proposée pour « gérer » ces résidus de fission. L’alternative au stockage, qui consisterait à les « diluer » jusqu’à un niveau de concentration non nocif pour les organismes vivants, et à les disperser dans un environnement choisi (dans l’espace par exemple) n’a pas été jugée « convenable » (risque de dérapage illégaux ? difficulté de contrôle des niveaux dispersés…).

Reste à savoir si les inquiétudes et craintes liées à cette gestion retenue des déchets par stockage sont fondées. Les risques associés sont essentiellement chimiques (ces produits tuent plus vite par empoisonnement que par irradiation, et à des doses souvent 1000 fois inférieures à celles capables de générer une pathologie par irradiation) et pourtant les oppositions ne mettent en avant que le risque d’irradiation. On retrouve ici la peur de l’invisible et la méfiance vis à vis du « non compris ».

On stocke (ou on dilue et disperse) pourtant bien d’autres types de déchets chimiques dangereux et l’on dispose pourtant de l’expérience « déjà réalisée par les militaires » d’une dilution atmosphérique de plusieurs dizaines de tonnes de produits de fission lors des essais nucléaires aériens, et du stockage par enfouissement de quantités équivalentes lors des tirs nucléaires souterrains. Le recul sur les effets de ces « gestions de déchets » est de plus d’un demi-siècle (argumentation provocatrice) et pourtant la poubelle nucléaire continue de faire plus peur que toute autre poubelle générée par notre société technologique, alors qu’elle n’en qu’une dangereuse parmi les autres.

Inconvénient 2 : les problèmes de sécurité

On demande à l’industrie nucléaire des niveaux de sécurité, vis-à-vis d’éventuelles configurations accidentelles, bien plus exigeants que pour toute autres technologies. La question est de savoir pourquoi ?

Exiger, pour une technologie, des précautions particulières se justifie généralement par deux critères :

- la technologie est par nature « accidentogène » ;

- les conséquences d’un accident créé par la technologie sont réputées insupportables.

Qu’en est-il de ces deux critères pour la technologie nucléaire, et comment la situer, de ce point de vue, par rapport à d’autres technologies ? Répondre à cette question sans parti pris ni cynisme est difficile, tant il est vrai que les arguments strictement « factuels » ne peuvent s’opposer à la « foi populaire ».

Le nucléaire est-il « accidentogène » ?

La réponse est dans les chiffres, soit : 3 accidents en 40 ans. On peut comparer ce chiffre aux nombres de ruptures de barrages hydrauliques, d'explosions d’usines chimiques (ou autres), de crashes d’avions, de naufrages maritimes, etc.

Quelles sont les conséquences d’un accident grave de centrale nucléaire ?

Seuls les accidents avec dissémination de combustible ou de déchets sont susceptibles de conséquences importantes. Dans tous les autres cas les risques sur les populations et l’environnement seront limités et maitrisés. Toutefois, même dans le cas d’une situation telle que celles vécues à Tchernobyl ou Fukushima, les bilans humains restent très inférieurs à ceux d’autres catastrophes ou accidents industriels, voir à ceux supportés dans nos vies normales (en France : 10.000 suicides annuels, 50.000 morts du tabac, autant par l’alcool…). Les estimations maximales de décès suite aux accidents des centrales ci-dessus n’excédent pas 50 000 morts induits, sachant qu’en décès « immédiats » les chiffres restent de l’ordre de quelques dizaines, alors que les accidents dans les mines provoquent chaque année dans le monde la mort de 10 000 à 20 000 mineurs. Et n’oublions pas que contrairement à une idée fort répandue, la mortalité la plus importante dans les mines n’est pas celle due à ces accidents, mais celle due aux maladies professionnelles. A l’échelle mondiale, elle est de l’ordre de  500 000 morts induits chaque année (source OMS), principalement à cause de la prévalence d’une très grave maladie pulmonaire, la silicose. Une deuxième très grande source de mortalité liée au charbon est due à l’utilisation domestique du charbon en espace confiné pour le chauffage et la cuisine. Et la troisième et la plus grande source de mortalité est la pollution atmosphérique émise par les industries utilisatrices de charbon, au premier rang desquelles la production d’électricité. Elle provoquerait, selon les modélisations actuelles, de l’ordre du million de morts chaque année dans le monde. Bien sûr des traitements chimiques sont capables aujourd’hui de réduire fortement la nocivité des rejets atmosphériques (cf. les pots catalytiques de nos voitures modernes) mais l’ampleur des dégâts humains demeure. Inutile d’aller plus avant sur les conséquences sanitaires de la production d’électricité par combustion du charbon ou d’hydrocarbures, les chiffres précédents sont sans aucune commune mesure avec les 50.000 victimes estimées comme un maximum résultant des accidents de centrales nucléaires dans le monde.

Au vu de ces résultats, force est de constater que les exigences extraordinaires imposées à la technologie nucléaire en terme de précautions sécuritaires semblent disproportionnées par rapport aux risques réels. Mais ne nous en plaignons pas, ces efforts sont productifs, puisque assurant une meilleure garantie de sécurité pour tous et, de plus, toute avancée dans ces domaines trouve ou trouvera des applications ailleurs. C’est cela aussi le progrès apporté par le nucléaire.

« Voila fiston, tu sais tout, du moins sur ce que pense ton Grand Père, qui lui a manipulé le nucléaire pendant une bonne partie de sa vie sans en avoir trop peur »

nucleaire

 

Charles Petitjean : pilote d’hélicoptère

par Pierre Couesnon

 

Charles Petitjean est né à Tunis le 15 juillet 1914. Avec son frère de quatre ans son aîné, pupilles de la Nation d’un père capitaine d’infanterie mort au champ d’honneur en 1915, il vit uneimage5 enfance heureuse et choyée à Paris entre une mère et un père en deuxième noce très unis. Toute sa jeunesse, il rêvera de voyage et de découverte du monde. À l’issue de brillantes études au lycée Henri IV, il intègre l’École centrale et se spécialise en aéronautique, sa passion. Peu après sa sortie, c’est la mobilisation : il est incorporé en septembre 1939 à l’école d’artillerie de Fontainebleau et est nommé sous-lieutenant de réserve. Intéressé par les voilures tournantes qui sont alors à leurs débuts dans l’armée de Terre pour le réglage des tirs d’artillerie, il devient élève pilote d’autogyre d’artillerie et est breveté en août 1940. Démobilisé en Algérie, il sert dans les chantiers de jeunesse. Après le débarquement allié en Algérie fin 1942, il reprend les armes, est nommé lieutenant de réserve en mars 1943 et est affecté à l’artillerie de la 7e division. Il n’y reste pas longtemps, car en août 1943, il est muté à la section d’avions d’observation à Lourmel, toujours en Algérie, comme observateur pilote. C’est dans cette école qu’il devient pilote de Piper Cub dont allait être dotée l’artillerie pour les réglages de tirs. En août 1944, lors du débarquement de Provence, il est affecté comme chef de la 46e section d’observation aérienne d’artillerie du 1er corps d’armée et participe aux campagnes de France et d’Allemagne. Jusqu’en mai 1945, il totalise 70 missions de guerre en 100 heures de vol . Plusieurs fois cité, il reçoit la Légion d’honneur en juin 1945.

En septembre 1945, il est intégré dans l’armée d’active comme lieutenant et est affecté au cours pratique d’observation aérienne d’artillerie de Wachenheim (région de Mayence). Il est nommé capitaine en octobre 1946. Il fait ensuite partie du groupe de trois pilotes d’avion détaché à l’école d’hélicoptères Fenwick d’Issy-les-Moulineaux et suit le stage de pilote puis de moniteur pilote d’hélicoptère sur Bell 47 D à Toussus-le-Noble. Le 1er janvier 1954, il devient le premier titulaire du brevet d’hélicoptère de l’armée de Terre, qui vient d’être créé, et par là même, le pionnier de l’aventure des hélicoptères dans l’armée. C’est d’ailleurs fin 1953 que l’armée acquiert ses premiers hélicoptères. En juin 1954, il est affecté au groupe d’hélicoptère n° 1 à Satory. Le 22 novembre 1954, l’Aviation légère d’observation d’artillerie (ALOA) devient l’Aviation légère de l’armée de Terre (ALAT). En avril 1955, il est désigné pour convoyer en Algérie, via l’Espagne, des Sikorsky H19/S 55 que l’armée vient d’acquérir.

image1En septembre 1945, il est intégré dans l’armée d’active comme lieutenant et est affecté au cours pratique d’observation aérienne d’artillerie de Wachenheim (région de Mayence). Il est nommé capitaine en octobre 1946. Il fait ensuite partie du groupe de trois pilotes d’avion détaché à l’école d’hélicoptères Fenwick d’Issy-les-Moulineaux et suit le stage de pilote puis de moniteur pilote d’hélicoptère sur Bell 47 D à Toussus-le-Noble. Le 1er janvier 1954, il devient le premier titulaire du brevet d’hélicoptère de l’armée de Terre, qui vient d’être créé, et par là même, le pionnier de l’aventure des hélicoptères dans l’armée. C’est d’ailleurs fin 1953 que l’armée acquiert ses premiers hélicoptères. En juin 1954, il est affecté au groupe d’hélicoptère n° 1 à Satory. Le 22 novembre 1954, l’Aviation légère d’observation d’artillerie (ALOA) devient l’Aviation légère de l’armée de Terre (ALAT). En avril 1955, il est désigné pour convoyer en Algérie, via l’Espagne, des Sikorsky H19/S 55 que l’armée vient d’acquérir.

C’est peu après cette mission qu’il est désigné, compte tenu de son expérience et de ses compétences, pour une mission aux Kerguelen. En effet, le ministère des Armées a été sollicité pour mettre en œuvre un hélicoptère à bord de l’aviso hydrographe Lapérouse afin de soutenir la mission du colonel Robert Genty chargé de valider l’emplacement d’un futur aérodrome aux Kerguelen et d’en tracer les pistes. C’est ainsi qu’il effectue un premier séjour aux Kerguelen du 3 février au 9 mars 1956 avec un hélicoptère Hiller 360. Il est accompagné du lieutenant Jean Argouet, second pilote, du maréchal des logis-chef Jacques Ducasse, mécaniciens du service du matériel.

À son retour, il est affecté au groupe d’hélicoptères n° 3 à Fès au Maroc. Mais en septembre 1956, il est désigné comme conseiller technique pour laimage2 préparation et la direction de la mission française en Terre Adélie dans le cadre de l’Année géophysique internationale (AGI). Il s’embarque à bord du navire norvégien Norsel à Hobart (Tasmanie) avec un hélicoptère Bell 47 G2, assisté du maréchal des logis-chef Yves Buhot-Launay, second pilote, du maréchal des logis-chef Marc Jardi et du maréchal des logis René Renard, mécaniciens. En Terre Adélie, du 23 décembre 1956 au 7 février 1957, 170 heures de vol sont effectuées et plus de 100 tonnes de matériel transportées entre le bateau, le continent et l’Île des Pétrels où est construite la base sous la responsabilité de Robert Guillard. À son retour, il est nommé chef d’escadron et promu Officier de la Légion d’honneur. Il rejoint à Fès son unité devenue groupe d’aviation de l’armée de Terre n° 4. En octobre 1957, il est muté au groupe d’expérimentation de l’ALAT à Satory en même temps qu’il est désigné pour une mission dans l’archipel Crozet, de nouveau sous la direction du colonel Genty, avant de repartir pour une nouvelle mission en Terre Adélie.

Du 30 octobre au 1er décembre 1957, avec un hélicoptère Djinn SO 1221 embarqué à bord du Gallieni, le navire de ravitaillement des terres australes françaises, il effectue une mission photographique pour la recherche de l’emplacement de la future base de l’Ile de la Possession et la cartographie de l’archipel Crozet puis de certains sites aux Kerguelen. Il est alors assisté du lieutenant André Morel, second pilote et du maréchal des logis Jean-Marie Michel, mécanicien.

Tout juste revenu de son périple dans les terres australes, il s’embarque pour la Terre Adélie via la Nouvelle-Zélande toujours à bord du Norsel avec un Bell 47 G2. L’adjudant Pierre Berthe second pilote, l’adjudant-chef Stanislas Fikowski et l’adjudant Georges Ostrowski, mécaniciens, l’accompagnent. Durant leur présence en Terre Adélie du 8 janvier au 7 février 1958, 108 tonnes de matériels sont transportés et 86 heures de vol effectuées.

C’est lui qui assurera à nouveau le soutien aérien de la campagne suivante en Terre Adélie, de janvier à février 1959, durant laquelle deux Djinn SO 1221 S sont mis en œuvre pour la dernière mission de l’AGI. Il est assisté pour cette mission du capitaine André Toupelin de la Doilière, pilote, du sergent-chef Charles Alaterre, pilote et des maréchaux des logis-chefs Jean-Marie Michel et Jean Aresten, mécaniciens. Durant cette mission, 137 heures de vol sont effectuées et 200 tonnes de matériels transportées. Cette mission sera la dernière du chef d’escadron Petitjean en Terre Adélie. Durant ces campagnes d’été de l’AGI, il image4noue des liens d’amitié très solides avec Paul-Émile Victor et Robert Guillard, le chef des opérations sur le terrain. L’un et l’autre apprécient l’homme, ses remarquables compétences techniques et son art du pilotage dans des conditions météorologiques particulièrement difficiles surtout à cause du vent. À son retour en métropole, il prend le commandement du groupe d’expérimentation de l’ALAT à Satory où il avait déjà servi, puis en décembre 1960, celui du groupe d’hélicoptères n° 2 à Sétif en Algérie. Il participe aux opérations et totalise plus de 500 heures de vol opérationnel. En janvier 1963, il est affecté à l’état-major de l’ALAT à Paris, puis à la section technique de l’armée avant d’être détaché à la Direction technique et industrielle de l’aéronautique  le 1er mai 1963.

C’est lui qui assurera à nouveau le soutien aérien de la campagne suivante en Terre Adélie, de janvier à février 1959, durant image3laquelle deux Djinn SO 1221 S sont mis en œuvre pour la dernière mission de l’AGI. Il est assisté pour cette mission du capitaine André Toupelin de la Doilière, pilote, du sergent-chef Charles Alaterre, pilote et des maréchaux des logis-chefs Jean-Marie Michel et Jean Aresten, mécaniciens. Durant cette mission, 137 heures de vol sont effectuées et 200 tonnes de matériels transportées. Cette mission sera la dernière du chef d’escadron Petitjean en Terre Adélie. Durant ces campagnes d’été de l’AGI, il noue des liens d’amitié très solides avec Paul-Émile Victor et Robert Guillard, le chef des opérations sur le terrain. L’un et l’autre apprécient l’homme, ses remarquables compétences techniques et son art du pilotage dans des conditions météorologiques particulièrement difficiles surtout à cause du vent.

À son retour en métropole, il prend le commandement du groupe d’expérimentation de l’ALAT à Satory où il avait déjà servi, puis en décembre 1960, celui du groupe d’hélicoptères n° 2 à Sétif en Algérie. Il participe aux opérations et totalise plus de 500 heures de vol opérationnel. En janvier 1963, il est affecté à l’état-major de l’ALAT à Paris, puis à la section technique de l’armée avant d’être détaché à la Direction technique et industrielle de l’aéronautique  le 1er mai 1963.

Il quitte l’armée en 1964 comme lieutenant-colonel et intègre la direction des armements militaires au Commissariat à l’énergie atomique (CEA). En 1965, il épouse une infirmière (DE) qu’il avait rencontrée en Algérie où elle effectuait une mission. Ils auront trois enfants. Ils s’installent la même année à Lacanau de Mios, proche du site où il travaille. Dans le cadre de son activité, il effectue de nombreuses missions à Mururoa et dans le Sahara.

L’énigme du Suaire de Turin

par Pierre Laharrague

 

 

De toutes les reliques, celle du Saint Suaire de TURIN, est certainement la relique qui a déclenché et  continue de déclencher le plus de débats passionnés. Quoi d’étonnant dès lors qu’il s’agit de savoir si ce linceul a enveloppé le corps de Jésus de Nazareth. Car ce qui caractérise ce linge funéraire et qui pose un problème non résolu à ce jour, c’est  l’image qu’il porte : on y voit comme « imprimée » l’image du corps d’un homme nu, allongé, les mains croisées sur le pubis ; l’image montre le corps en entier, de face et  de dos ; sur tout le corps, une centaine de taches brunes font penser à du sang ; il semble qu’il y n’y ait pas d’image sur l’envers du linge, mises à part  quelques taches de sang qui ont traversé ; enfin  le corps porte de nombreuses traces de blessures, à la tête, aux extrémités des membres, sur le flanc, sur le dos et la poitrine qui font penser que l’homme a dû subir le supplice atroce de la flagellation et de la crucifixion. Cette image et les plaies qui sont en correspondance étroite avec les Evangiles canoniques, font penser au Christ à l’issue de sa Passion.          

La question qui se pose, est de savoir si le linceul est authentique ou s’il s’agit d’un faux fabriqué de main d’homme, question qui fait l’objet de toutes les polémiques. Et dans le cas où  ce n’est  pas un faux, s’il s’agit de Jésus le Crucifié ?

Bien sûr, nous ne prétendons pas dans un si court article traiter en profondeur d’une telle énigme, mais simplement résumer les dernières avancées de la science et de l’archéologie afin d’aider les lecteurs qui s’interrogent. De plus, les multiples vicissitudes qu’a connues la relique au cours du temps, nous incitent à rappeler son histoire mouvementée.

Le  Suaire : description

L’empreinte L’image  
image1 image3 image4
Face ventrale Face dorsale   Face ventrale  Face dorsale

Il s’agit d’un linge de lin fin de 4,3 m de long et de 1,1 m de large, tissé en chevron. La structure du tissage est telle qu’on peut dire qu’il est très probablement d’origine antique et  proche-orientale.

L’étude anthropologique montre que l’homme représenté sur le linceul était  jeune (entre 30 et 35 ans), de grande taille (entre 1,78 m et 1,80m) et devait peser entre 77 et 80 kg. Son visage est  de type sémitique avec des cheveux longs, tressés , ce qui fait penser aux Juifs consacrés à Dieu à qui il était interdit de se couper les cheveux. Cet homme pourrait donc être un Juif inhumé dans l’antiquité.

La plupart des auteurs distingue l’empreinte et  l’image :

- L’empreinte  est constituée par les traces en positif laissées par les plis, par le feu et par différents liquides.

 1. taches et brûlures de l'incendie de Chambéry en1532

 2. cernes dus à  l’eau

3 .double image dorsale et  frontale du  corps

 4. marques de flagellation

 5 .taches de sang provoquées par un casque en  épines

 6. plaie dans le poignet gauche

 7. taches de sang sur les avant-bras

 8. grande tache de sang sur le côté droit de la poitrine

 9. grande tache de sang autour de la taille

10. sang de la transfixion des pieds

11. contusions dues au  transport d’une poutre

- L’image apparait sous les caractéristiques d’un négatif photographique : les zones claires et les zones sombres sont inversées ainsi que la droite et la gauche. Elle montre deux silhouettes de couleur jaune-sépia, opposées par la tête, d’un homme vu de face et de dos: très floues, on ne les distingue qu’à plus de 2 mètres de distance.

Elle a été photographiée pour la 1 ère fois en 1898 par Secondo Pia, un avocat  et photographe amateur qui en avait reçu l’autorisation : le négatif qu’il obtint, s’est avéré être un positif plus visible et plus contrasté que l’image, de sorte qu’on voit le personnage comme s’il  se trouvait devant l’observateur. C’est cette photo  qui est plus connue que l’image directement visible.

D’autres observations, certaines non visibles l’œil nu, ont été faites à l’aide d’appareils et de techniques sophistiquées. Nous ne les détaillerons pas afin de ne pas alourdir la présentation, mais nous y reviendrons dans l’étude scientifique. Mentionnons : les réparations des dégâts de l’incendie de 1532 faites par les Clarisses de Chambéry en 1534, la présence de poussières et  de pollens, l’existence d’inscriptions autour du  visage.

image5

Cliché de Secondo Pia

Le Suaire et la science

À peine le cliché de Secondo Pia avait-il été reproduit par les journaux de tous les pays, que la polémique se déclencha et deux camps s’opposèrent violemment : pour les uns, le phénomène tenait du prodige, pour les autres, il s’agissait d’un truquage. Un chanoine, Ulysse Chevalier, après avoir déclaré que le suaire avait été fabriqué au Moyen Age, expliqua que les Clarisses de Chambéry l’avaient aussi doublé d’une toile de Hollande mais avaient par erreur cousu ce tissu à l’envers, « l’image vers l’intérieur et pour cette raison, l’image apparaissait comme un négatif » (sic). Il a fallu attendre 70 ans  pour démontrer l’ineptie de cette affirmation.   

Pendant 30 ans, personne ne put réexaminer le suaire. Un deuxième photographe turinois, Giuseppe Enrie, fut autorisé en 1931 à  réaliser une série de photographies sous contrôle officiel, ce qui fut fait le 3 mai. Les clichés obtenus avec les nouvelles pellicules orthochromatiques (d’égale sensibilité à toutes les couleurs) confirmèrent exactement ceux de 1898 alors que beaucoup avaient  manifesté leur scepticisme, rétablissant ainsi la crédibilité sinon l’honneur de Secondo Pia.

En 1978, a été entrepris un programme de recherches multidisciplinaire, de très haut niveau, devenu célèbre sous le nom de STURP (Shroud of Turin Research Project) dont l’objectif était :

- de tester l’hypothèse que l’image du suaire puisse être une peinture.

- de réunir des données sur sa composition et  sa technologie de fabrication pour que des hypothèses soient énoncées sur son authenticité et  sur son âge.

Cet événement est exceptionnel car jamais l’Eglise n’avait permis qu’un objet de piété fût examiné par des savants éminents avec les instruments les plus modernes.

Ce qui  suit, résumé brièvement, est  issu de ces investigations.

Les  propriétés étranges de l’image

- l’image  a les caractéristiques d’un négatif photographique, le drap  jouant le rôle d’une pellicule sans en être vraiment une puisqu’il  ne porte aucune trace de réactif chimique.

- l’image est  tridimensionnelle

image6

Image obtenue avec le VP8 Analyser

 Il existe une étroite corrélation entre la densité optique en un point de l’image et la distance de ce point au suaire : les zones les plus sombres sont au droit des parties en  relief (nez, pieds, mains croisées) et les zones les plus claires correspondent aux parties moins saillantes (orbites, pommettes, coudes). Cette corrélation est suffisamment précise pour être traduite en  termes mathématiques de sorte qu’il a été possible d’obtenir en 1975, au moyen d’un analyseur d’image, l’image en relief ci-contre, réaliste et  sans distorsion (l’analyseur,  le VP8 de la Sandia Corp. permet de transformer une densité optique en un point par une valeur de hauteur). Le fait extraordinaire et unique  est que cette image est  une propriété intrinsèque de l’image en 2 dimensions dans laquelle elle est  littéralement encodée : aucun objet éclairé par une source extérieure de lumière ne pourrait donner une telle reproduction.

- l’image est  thermiquement stable

Lors de l’incendie de 1532, le suaire a été soumis à un environnement extrême : température de plusieurs centaines de degrés, fusion partielle du reliquaire d’argent dans lequel  le linceul était conservé, vapeurs brûlantes de l’eau  utilisée  pour éteindre l’incendie. Pourtant, même à  1 mm des brûlures, la pâle couleur de l’empreinte est  restée inchangée, ce qui n’aurait pas été le cas si une substance colorante de quelque nature qu’elle fût avait été utilisée pour peindre l’empreinte.

- l’image est monochrome, superficielle, plane,  isotrope

- monochrome : l’image a une couleur jaune sépia au niveau macroscopique et jaune paille au niveau des fibres de lin. Les fibres non image sont quasi incolores.

  - superficielle : seuls, les fils de surface  et dans un fil seules les fibres les plus extérieures sont colorées. Nulle part, l’image ne pénètre dans les profondeurs du tissu.

Remarque : récemment (2004), au  moyen de techniques très pointues, on a cru  déceler un vague contour du visage sur l’envers du  tissu : l’image serait ainsi doublement superficielle.

  - plane : aucune partie du corps n’est déformée en elle-même  et par rapport aux autres. Tout se passe comme si  l’image avait été projetée orthogonalement sur le drap  tendu  au dessus d’elle.

 - isotrope : il  n’y a aucune directionnalité dans l’image. A contrario, toute peinture directe se fait selon un mouvement  préférentiel aisément reconnaissable par les techniques modernes.

L’image n’est  pas une peinture du  Moyen-âge

Aucune trace de constituant des peintures utilisées à cette époque n’est décelable par un ensemble de méthodes scientifiques validées tant sur l’ensemble du linceul qu’au niveau des fibres elle mêmes. Ceci vient renforcer les constatations précédentes relatives à la thermostabilité et à l’isotropie de l’image.

L’image n’est pas une brûlure

Si une statue rougie au feu avait imprimé l’image, comme cela a été envisagé, celle-ci devrait donner les mêmes réponses aux tests qui ont été pratiqués que les zones brûlées de l’incendie de  1532. Or rien de tel  ne se produit, invalidant donc  l’idée d’un mécanisme de chauffage à  haute température.

La nature de l’image

Les études entreprises par le STURP montrent que la seule hypothèse compatible avec les observations est que la coloration de l’image provient d’un processus tel que celui  obtenu par une  déshydratation-oxydation de molécules d’hydrates de carbone au niveau des fibres. Logiquement, la cellulose des fibres semblait être le seul candidat pour être le support  de l’image et  il en  fut ainsi  jusqu’aux années 2000. Mais des données récentes (2000-2004),  et une meilleure connaissance de la chimie des hydrates de carbone , ont montré que cette explication avait quelques points faibles et  que plutôt que la cellulose du lin, la réaction concernerait davantage une fine couche d’impuretés à  l’extrême surface des couches superficielles. Les méthodes de fabrication des tissus de lin selon les indications données notamment par Pline l’Ancien, permettent de comprendre comment s’est  formée une telle couche. Cette explication est capable pour la première fois de rendre compte de l’ensemble des propriétés  de l’image.

La formation de l’image

Mais comment ce processus de déshydratation-oxydation s’est-il réalisé ? Diverses théories ont été élaborées que nous ne détaillerons pas, mais aucune n’est à ce jour acceptable sans restrictions ni limites.  Le suaire résiste encore à la science.

Les  pollens

image7

La palynologie (ou  étude des pollens) est  importante car   elle permet de situer les zones géographiques dans lesquelles un objet a séjourné : ceci repose sur le fait expérimental  que la plus grande partie des pollens d’une plante ( 90 %) se dépose dans un rayon de 150 à 200 mètres, le reste pouvant aller jusqu’à quelques km par vent fort . Dans le cas du  suaire, 58 pollens différents ont été dénombrés dont  beaucoup, (41), ne pouvaient  provenir que du  Moyen Orient (voir la carte ci-contre), ce qui  a permis de conclure que le suaire a séjourné au Moyen Orient, en particulier dans la région de Jérusalem, (néanmoins, il y a toujours une polémique  concernant des écarts sur certains échantillons). 

Les taches de sang

Le suaire présente des taches de couleur rouge ressemblant à du sang par leur aspect et  leur localisation par rapport au corps. Elles apparaissent en  positif  alors que l’image est  en négatif. A leur niveau, les fibres colorées semblent collées entre elles par un liquide visqueux ayant pénétré en profondeur et traversé par endroits toute l’épaisseur du  tissu. S’agit-il  de sang ou d’une peinture ?  Les mesures initiales du STURP de 1978 ont été complétées par des analyses microchimiques faites ultérieurement en  laboratoire. Elles ont donné lieu à une violente controverse entre deux équipes qui avaient des interprétations divergentes. Finalement, un large consensus s’est fait en faveur de sang humain, excluant toute possibilité de peinture : on peut  affirmer que le sang provient d’un homme dont le corps  a été placé dans le linceul moins de 3 heures après une mort très violente et qui  est resté moins de 40 heures en  contact avec le drap.

Les traces d’incendie. Le codex Pray

Par 3 fois au cours des siècles, le Suaire a subi l’agression de l’incendie :

- la plus récente date du 11 Avril 1997 : le feu ravagea la chapelle Guarini de la cathédrale de Turin dans laquelle il est  conservé ; mais il ne s’y trouvait pas ce jour là car il avait été déplacé provisoirement et il ne subit donc aucune détérioration.

- le 4 Décembre 1532, l’incendie se déclara dans le chœur de la Sainte Chapelle de Chambéry où le linceul, plié sur 48 épaisseurs et placé dans un reliquaire en argent, était gardé par la famille de Savoie. Une partie du reliquaire fondit et de l’eau utilisée pour éteindre les flammes pénétra à l’intérieur. Les dégâts qui en ont résulté sont visibles sur deux lignes parallèles longeant la silhouette : les taches sombres sont  les brûlures, celles plus claires en forme  de triangles sont les marques des réparations (22 pièces de tissu d’autel) faites par les Clarisses entre le 16 Avril et le 2  Mai 1534) ; à  cette occasion, les Clarisses renforcèrent le drap  en  cousant une toile de Hollande sur l’envers du linceul,  c’est à  dire  sur la face qui  n’a  pas contenu  le corps. Ces raccommodages ont été enlevés lors de la restauration de 2002 ; on devine aussi sur l’axe médian, les auréoles en forme de losange laissées par l’eau.

- Il existe une autre série de brûlures de faible superficie mais très nettes, constituées de 4  trous ronds alignés et  d’un isolé sur le côté, formant ensemble un bizarre L majuscule. Cette étrange figure se répète quatre fois en raison de la pliure du suaire.

 

image8

Brûlures en L

image9

 

On en déduit qu’à une époque et en un lieu inconnu, le linceul a subi un autre incendie. Or, la Bibliothèque Nationale de Budapest conserve un codex très célèbre et  de grande valeur- le Codex  Pray-du nom de son découvreur, daté des années 1150-1195. Une des miniatures dont il  est  orné, représente dans sa partie supérieure le Christ et dans sa partie inférieure les Saintes Femmes au tombeau avec ce qui ressemble bien à un suaire sur lequel on distingue nettement les trous en  L : il n’y avait aucune raison sérieuse pour que l’enlumineur dessine ces ronds selon ce schéma précis à l’emplacement où ils sont sur le drap, sinon de représenter ce qu’il voyait réellement. On peut en  conclure que le suaire existait bien  avant 1195, soit 1 siècle avant la datation au  carbone 14 (voir ci-après).

La datation au  carbone 14

Les mesures ont été effectuées en 1988 par  3 laboratoires - Oxford, Tucson (Arizona), Zurich - sur un échantillon prélevé la même année sur un bord du linceul. Les résultats publiés en  1989 dans la très sérieuse revue scientifique Nature, firent l’effet  d’une bombe. Il s’en suivit plusieurs années de controverses et  de manœuvres qui  prirent le pas sur la recherche sereine de la vérité. Car la conclusion affirmait que le suaire était un faux d’époque médiévale, daté de 1260-1390. Elle était en contradiction totale avec tous les résultats des diverses disciplines scientifiques démontrés jusqu’alors. De nombreux savants que ceci  interpellait, se penchèrent sur la validité des mesures tout en  approfondissant les recherches antérieures. Il serait fastidieux d’exposer tous les arguments qui ont été développés mais il en ressort  que l’échantillon daté n’est  pas représentatif de l’ensemble du suaire et que la zone où il a été prélevé est beaucoup plus récente. La radiodatation au C 14  a été ainsi définitivement invalidée.

Autres faits : les lettres invisibles – les pièces de monnaie

- En 1998, on a mis en  évidence autour du visage un ensemble de lettres disposées selon deux U emboités. Ces lettres, invisibles à  l’œil nu  et  extrêmement ténues, sont révélées par un  traitement d’images sophistiqué. On trouve en particulier :

- sur le côté gauche, les lettres IN NECE, abréviation du mot latin IN NECEM  signifiant « tu  iras à la mort »

- un ensemble de lettres pour le mot grec NASAPENOS , pour le « NAZAREEN », traduction contestée

- sous le menton, HSOY, serait un ensemble composé du  mot Jésus ?

- sur le côté droit,  les lettres grecques YSKIA  qui signifierait « visage à peine visible ».

À part leur existence bien réelle, on ignore tout de ces inscriptions : l’époque où elles ont été écrites et  par qui. 

image10

Lettres invisibles

- De nombreux auteurs, intrigués par la forme circulaire et globuleuse des yeux, ont émis l’hypothèse que des pièces de monnaie, des leptons frappés sous Ponce Pilate (ce que les Evangiles nomment deniers ou oboles), ont été placés sur les yeux, selon  une coutume juive du 1er siècle. Sur la photo prise au  microscope ci–contre, on distingue les lettres CAI de Tiberio YCAICesar (Tibère César) et la houlette de berger caractéristique  de son règne. Ces observations sont encore discutées.

Remarque : si elles étaient validées, cela daterait incontestablement le suaire du 1er siècle.

Photo  au microscope du  lepton

de l’œil  droit

Le suaire et  l’histoire

1357 est  une date clé dans l’histoire du suaire : cette date correspond  en  effet à la  1 ère exposition connue du suaire à Lirey en Champagne. Depuis, on connait sans interruption  tous les lieux et dates où il a séjourné ainsi que ses différents détenteurs. A contrario, la période antérieure est plus mystérieuse car il  existe de nombreux « trous » pendant lesquels le suaire  a disparu ; néanmoins des découvertes archéologiques et de nombreux documents anciens, fournissent un certain  balisage permettant de tenter une reconstitution de son parcours.

L’histoire après 1357

- En 1349, le Sire Geoffroy  de Charny, seigneur de Chavoisy et de Lirey, demanda au pape d’Avignon Clément VI  des indulgences pour l’église de son  fief à Lirey. Il annonça que « dans un esprit  de zèle et  de dévotion », il y exposerait « quondam figura sive representationem Sudarii Domine Nostri Jesu Christi ». Il refusa aussi de répondre à  l’évêque de Troyes, Henri  de Poitiers, sur l’origine de l’objet. Après sa mort en  1356 à  la bataille de Poitiers, sa veuve Jeanne de Vergy commença les ostensions qui durèrent jusqu’en 1360 où elles furent interdites par l’évêque qui contestait son authenticité. Le suaire fut alors transféré dans le  château de Jeanne en Montfort-en-Auxois où il restera jusqu’en 1389, date  à laquelle elle obtint du pape Clément VII (dont elle avait épousé l’oncle en secondes noces), l’autorisation  de reprendre les ostensions à Lirey. Le pape imposa silence sous peine d’excommunication, au nouvel  évêque Pierre d’Arcy, qui prétendait aussi que le suaire était un faux et il  autorisa sa vénération.

- 1418-1453 : en 1418, en  peine guerre de Cent ans, les chanoines de Lirey, craignant pour la conservation de la relique dont ils avaient  hérité, la confièrent à Marguerite de Charny, petite fille de Geffroy et à  son époux le comte de la Roche qui la ramenèrent à Montfort  puis à St Hippolyte- sur-Doubs, un autre de leurs fiefs.

- 1453 : Marguerite de Charny qui avait refusé de restituer le suaire aux chanoines de Lirey, le cèda à Anne de Lusignan, épouse de Louis 1er, duc de Savoie, contre le château  de Varambon (Ain). Le linceul  est  alors conservé dans la Sainte Chapelle de Chambéry. 

- 1454-1578 : le suaire est  exposé dans plusieurs villes.

- 1578 : Il est  à Turin où les ducs de Savoie ont transféré leur capitale en 1562. Le dernier, Humbert II, en fait don au pape Jean Paul II en 1983.

L’histoire avant 1357                         

- Autour de 560 : le suaire apparait à  Édesse (l’actuelle Urfa de Turquie), puissante cité indépendante entre le Tigre et  l’Euphrate, située au carrefour entre l’empire perse d’Orient et l’empire romain d’Occident, lors du  siège par l’armée perse alors en guerre avec l’empereur byzantin Justinien. En inspectant les remparts, ce dernier découvrit une cavité dissimulée où  était caché le linceul. Depuis toujours, la ville savait qu’elle avait possédé une relique extraordinaire : de nombreuses sources témoignent en effet de légendes et  traditions concernant une image « archéropoïétique » c’est-à-dire « non faite de main d’homme », visible sur un carré de tissu qu’on a appelé le mandylion (mouchoir), représentant le  visage du Christ ; celui-ci aurait répondu à  une demande d’Abgar V , roi d’Édesse qui aurait été ainsi guéri  d’une maladie  incurable et qui se serait converti. Notons qu’il y a une tendance fréquente dans les témoignages anciens à développer autour d’un fait, un merveilleux éclatant : aujourd’hui une série de textes converge pour que l’on considère le mandylion  comme identique au linceul. Justinien  vit dans sa (re)découverte, un signe divin. La sainte relique fut alors exhibée sur les remparts,  ce que voyant, les Perses levèrent le siège et Justinien  remporta la victoire contre toute attente. En reconnaissance, il fit bâtir pour l’abriter, une grande église qu’il appela « Hagia Sophia ». 

image12

 

Remarque : à peu prés à cette époque, le visage du Christ cessa d’être représenté à la manière grecque d’un jeune dieu païen et prit l’aspect de celui du suaire.

- Comment  le suaire parvint-il à Édesse ?

Ici se place un trou de 500 ans à propos duquel on peut conjecturer la version suivante. La première information écrite concernant le suaire, après qu’il eut été retrouvé dans le sépulcre vide, nous vient de l’Evangile des Hébreux, un évangile apocryphe: il fut confié à  la garde de l’apôtre Pierre. Il faut savoir que le linceul, aux yeux des Juifs, était impur (car ayant été au contact d’un cadavre), et aux yeux des Romains, était un emblème de révolte (car portant le souvenir d’une condamnation atroce). Ce qui donne à penser qu’il fut entouré de beaucoup de précautions et pris en charge par un petit nombre d’initiés qui s’imposèrent la loi du silence. A Jérusalem, la révolte grondait et avant que la 1ère guerre des Juifs n’éclate en l’an 70, les judéo-chrétiens s’éloignèrent, emportant textes et objets sacrés vers l’est du Jourdain en direction d’un territoire neutre que l’on appelle la Décapole (constitué de10 villes). Ils trouvèrent refuge auprès des moines esséniens de Qumran qui leur indiquèrent les niches secrètes où cacher leurs trésors et où eux-mêmes entreposèrent les leurs (les fameux manuscrits de la mer Morte retrouvés 1900 ans plus tard). Bien après que Jérusalem fut détruite, leurs descendants qui avaient conservé la mémoire du patrimoine, revinrent aux grottes et transférèrent le suaire à Edesse. Une icône du Vème siècle montre le roi d’Édesse Abgar  tenant le fameux linceul déployé sur ses genoux.

- 638-944 : le suaire est  à  Édesse.

- En 638, les Arabes envahirent la région et firent le siège d’Edesse. La cité signa sa reddition et, selon la loi  musulmane, elle ne fut pas mise à sac et put conserver une certaine liberté de culte.

-  En 678, l’Hagia Sophia fut endommagée par un tremblement de terre, mais peut-être à  cause du  prestige de la relique qu’elle abritait, fait rarissime en terre d’Allah, le calife la fit restaurer.

-  En  944, les Byzantins vainquirent les Arabes et  l’empereur Constantin Porphyrogénète exigea que le suaire lui soit restitué en tant qu’héritage du royaume chrétien d’Abgar. Elle lui fut remise le 16 août 944 par Grégoire le Référendaire, archevêque de l’Hagia Sophia de Constantinople.

 

image13

Abgar reçoit l’image du  Christ à  Edesse 

image14

L’évêque Grégoire présente le suaire à Constantin (miniature de Jean Skylitzés  XIe siècle)

 

- 944-1204 : le suaire est à Constantinople 

- il sera successivement placé à la basilique Hagia Sophia, puis à l’église Sainte-Marie du Pharos, puis à l’église Sainte-Marie des Blachernes

-  Constantin fit de chaque 16 Août la Fête du Suaire, célébrée selon le rituel composé de textes et de musiques de la grandiose liturgie byzantine.

- vers 1150, à l’époque où le quartier impérial était en chantier, l’empereur Manuel 1er reçut une  délégation hongroise venue  négocier le mariage de sa fille avec le roi de Hongrie. Parmi les visiteurs auxquels il montra le suaire, il y avait un peintre qui eut assez de mémoire pour reproduire l’enluminure du Codex Pray.

- 1204 : 4ème croisade lancée par le pape Innocent III. Au lieu de se diriger vers le but assigné de Jérusalem, les croisés - flotte vénitienne et armée franque - préférèrent Constantinople, fabuleusement riche. Ce fut un saccage d’une violence inouïe et un pillage sans retenue de trésors inestimables. Puis les croisés  se partagèrent les dépouilles de l’empire. Un certain Othon de la Roche hérita de la ville d’Athènes. Quant au suaire, comme dit le chevalier Robert de Cléry  « Ni ne sut-on oncques, ni Grecs, ni Français, ce que ce sydoine (le suaire) devint quand la ville fut prise ».

- 1205 : le suaire est vu à Athènes

- par un descendant de la famille impériale, Théodore Ange Comnène, qui adressa une supplique (dont une copie a été conservée) au pape Innocent III, laquelle disait : «…le suaire se trouve à Athènes… Les prédateurs peuvent garder l’or et l’argent pourvu qu’ils nous restituent ce qui est sacré… » 

- par le légat du pape, le cardinal di Santa Susanna  et l’abbé Nicolas d’Otrante qui en rendirent compte au pape.

- 1205-1357 : 150 ans de mystère

- une hypothèse veut que Othon de la Roche se l’étant approprié mais risquant l’excommunication décrétée envers tout détenteur illégal de reliques, la confia au célèbre Ordre desTempliers.Ceux-ci la mirent au secret. La seule piste crédible sera évoquée lors du procès de l’Ordre en 1307-1314 : des déclarations ont indiqué la vénération par rites secrets de l’image d’un homme barbu, laissant un souvenir marquant aux élus ayant accédé à cette étape, et ce, malgré une longue période d’initiation préalable. Ces témoignages furent obtenus sous la torture mais les Templiers gardèrent leur secret au-delà de la mort.

-  35 ans après la condamnation des Templiers, en 1349, apparait Geoffroy de Charny, fils  d’un autre Geoffroy de Charnay (ou Charny), chevalier de l’Ordre, qui avait péri sur le bûcher, et son épouse Jeanne de Vergy qui avait pour trisaïeul Othon de La Roche !!

 

 Esquisse d’un bilan

Au terme de ce bref  exposé, que peut-on conclure avec plus ou moins de certitude ?

    - l’ensemble des connaissances scientifiques, médicales, archéologiques, historiques, réunies après des décennies de recherche, conduit à  éliminer, à coup sûr, l’hypothèse d’une image « faite de main d’homme » et en particulier celle du faux réalisé au  Moyen Age. La  science du  XXème siècle, avec ses procédés les plus modernes, ne parvient pas expliquer la formation de cette image dotée de propriétés extraordinaires, image en outre unique dans l’histoire de l’art car n’ayant ni prédécesseur ni successeur. Que dire alors de l’éventuel  faussaire qui aurait dû être un véritable génie possédant des connaissances scientifiques et médicales en  avance de  plusieurs siècles sur son époque !!  

    - il existe de très fortes présomptions pour que le suaire soit de l’époque du Christ. En particulier, les études textiles montrent que le tissu est d’une fabrication de haute qualité produite par un métier à  tisser souvent utilisé dans l’antiquité, particulièrement en  Egypte ; la finition au niveau de l’ourlet et la couture sont très spéciales et  ressemblent fortement à  ce qui peut être observé sur des textiles datant de – 40 à 73 après JC, découverts en Judée. Seule une nouvelle datation au radiocarbone, incontestable, permettrait de conclure définitivement.

    - Reste la question : s’agit-il du  corps du  Christ ?

Il est  bien entendu impossible de démontrer scientifiquement que l’homme qui était dans le suaire est Jésus Christ. On peut simplement dire que cet homme présente toutes les caractéristiques de la crucifixion subie par Jésus selon les Evangiles. Alors 2 possibilités :

- soit il  s’agit bien du Christ

- soit il s’agit d’un autre supplicié ou d’un crucifié volontaire ayant subi le même martyre avec ses caractéristiques spécifiques et  uniques.

Les données historiques nous permettent d’avoir une bonne idée des pratiques ordinaires des Romains pour la crucifixion des criminels et  il est clair que le cas de Jésus fut irrégulier de ce point de vue : en particulier il a été couronné d’épines (ce qui est unique)  et  percé au  flanc (au lieu d’avoir classiquement les jambes brisées). La probabilité d’un autre homme est  infime (on l’a même évaluée à  1 sur 100 milliards !!). On est donc fondé à conclure que l’homme du  suaire est le supplicié du Golgotha.

Rappelons néanmoins que ce bilan comporte, comme nous l’avons vu, des incertitudes : comme le disait le pape Jean Paul II, le  suaire constitue « un défi  à  l’intelligence ». Le Vatican ne reconnait pas formellement son authenticité mais il le vénère avec un infini  respect : «le linceul est  une icône écrite avec le sang » soulignait son successeur Benoit XVI. C’est ainsi  qu’il est  exposé, rarement il est vrai, lors d’ostensions (la dernière en date a eu lieu  en  avril-mai  2010) qui reçoivent la visite de millions de pèlerins. Beaucoup de  ceux qui ont été mis en sa présence, témoignent qu’ils ont été émus et  marqués par cette image d’où émane une impression d’immense souffrance, de fragilité, de majesté et d’infinie sérénité.

Mai 2010

Bibliographie

La vérité sur le suaire de Turin de K.E. Stevenson et G.R. Habermas   Fayard 1981

Contre-enquête sur le Saint Suaire de Maria Grazia Siliato,   Plon 1998

 Sites Internet :

* www.spiritualité-chrétienne.com en particulier:

  - "Le St Suaire et  la science" de Thibault Heimberger

  - "Le St Suaire", un peu  d'histoire" de Ph Dalheur

  - " Controverse de la datation au  radiocarbone" de Fernand Lemoine

  - " Le St Suaire:  étude médicale et  scientifique "de François Giraud

* Il y a aussi  le site MNTV ( Montre Nous Ton Visage) dont j'ai  découvert  que Pierre de Riedmatten, un ancien du CESTA est président. On y  trouve un extrait des nouveaux livres parus en  2010 de Sébastien Cavaldo, Thibault Heimberger(déjà cité) et Thierry Castex ,mais je ne les ai pas eus entre les mains.

Le pétrole bleu

 

par Bernard Miltenberger

 

Un français met au point, avec l’aide d’une équipe universitaire espagnole, un procédé de fabrication de pétrole directement utilisable, sans métaux lourds, sans prélèvement dans la biodiversité, et recyclant le CO2 industriel au passage.

Cette information est passée quasiment inaperçue. Seules 2 minutes et 40 secondes lui ont été consacrées ce 31 janvier dernier au journal télévisé de TF1. Le peu d’enthousiasme à aider chez nous le projet, qui a finalement vu le jour à Alicante en Espagne, explique peut-être cette étonnante discrétion.

Depuis le début de cette année, la première usine pilote de la société BFS est entrée en production avec une capacité à terme de 220.000 barils annuels et la conversion de 450.000 tonnes de CO2 industriel. Deux installations de ce type par département couvriraient la totalité des besoins en pétrole pour le transport automobile en France. Enfin un espoir, ou encore un faux espoir ?

 

Comment cela marche-t-il ?

L’idée de fabriquer du pétrole artificiel n’est pas neuve. Déjà dans les années 1940 le Dr Jean Laigret communiquait à l’Académie des sciences ses travaux sur la fermentation de micro-algues pour la production de pétrole selon un cycle naturel. Ces idées ont été oubliées, mais récemment reprises dans plusieurs thèmes d’études de procédés utilisant diverses filières d’algues  réputées adaptées. Par ailleurs chacun connait les controverses sur la recherche de « biocarburants » qui ne cesse de proposer des solutions plus ou moins intéressantes, sans toutefois apporter de véritables réponses. Dans la nature, le processus se déroule sur plusieurs dizaines de millions d'années. L'écorce terrestre constitue le “ four ” naturel, à des profondeurs de deux à dix kilomètres, où règnent des températures comprises entre 50 et 300 °C. La transformation s'opère sur une substance organique nommée kérogène, qui résulte d'une lente dégradation de débris organiques par des bactéries anaérobies.

petrole 1

 Ces débris organiques proviennent de phytoplancton, de bactéries et parfois de plantes supérieures terrestres (le zooplancton et les animaux supérieurs ne jouent qu'un rôle mineur) qui se sont accumulés dans les sédiments argileux des fonds lacustres ou des mers fermées, puis qui ont été enfouis. Dans le “ four ”, le kérogène subit un craquage thermique, les grandes molécules organiques sont rompues en molécules plus petites d'hydrocarbures et, dans une moindre proportion, en diverses molécules complexes, dont le mélange est appelé pétrole.

Le concept proposé par B. Stroaïzzo-Mougin (ingénieur français, fondateur de la société espagnole BFS), cherche en fait à recopier le processus naturel d’élaboration des hydrocarbures, en l’accélérant à l’aide de nos connaissances technologiques actuelles.

Ainsi le procédé de synthèse développé et breveté par BFS s’inspire de ce processus naturel. Il utilise des éléments comme l’énergie solaire (comme source principale d’énergie), la photosynthèse et les champs électromagnétiques associés aux propriétés organiques du phytoplancton (micro-algues marines) pour convertir le CO2 issu des émissions industrielles, en une biomasse puis en un pétrole artificiel similaire au pétrole fossile, sans soufre et sans métaux lourds, en quelque sorte un pétrole propre.

La culture intensive des micro-algues et l’absorption massive du CO2 s’opère en milieu fermé et dans des « photobioréacteurs » verticaux pour une optimisation des surfaces d’implantation, un meilleur contrôle des propriétés physico-chimiques du milieu d’élevage et une rentabilité optimale.

Le phytoplancton et les cyanobactéries utilisés dans le procédé sont des organismes vivants unicellulaires microscopiques, ancêtres de toutes formes de vie animale et végétale. Ce sont des organismes « autotrophes », qui utilisent pour leur croissance un processus photosynthétique semblable à celui des plantes. Ce sont d’authentiques usines biochimiques en miniature, capables de réguler le CO2 (rappelons que le phytoplancton marin est responsable de plus de la moitié de la fixation totale du CO2 sur notre planète). Le rendement de ces micro-algues est nettement supérieur à celui des plantes terrestres. En effet, certains de ces micro-organismes unicellulaires se divisent par mitose toutes les 24 heures et se multiplient à l’identique sans autre apport que la cellule d’origine, de la lumière, de l´eau et… du CO2. Les équipes de recherche biologique BFS travaillent à partir de souches de phytoplancton à haute teneur en lipides, sélectionnées parmi plus de 30.000 espèces répertoriées, sans manipulation artificielle et sans prélèvement sur la biodiversité. La concentration cellulaire normale de ces micro-organismes dans l’eau de mer est de l’ordre de 100 à 300 cellules par millilitre. En milieu d’élevage, BFS atteint dans ses bioréacteurs une croissance exponentielle des micro-algues avec des concentrations de 500 millions à 1 milliard de cellules par millilitre.

Là où le procédé vient encore s’enrichir en termes d’opportunité écologique, c’est que le CO2 concentré nécessaire à cette culture des micro-organismes est celui obtenu à partir des rejets industriels, capté en sortie de cheminées d’usines.

perole 2

petrole 3

 

Ainsi l’usine pilote BFS d’Alicante en Espagne est construite au voisinage de la cimenterie CEMEX (3ème cimentier mondial) et recueille les rejets de cette cimenterie. Elle sera capable par hectare équipé et par an de convertir 12 000 tonnes de CO2 par an.

C’est ainsi que la fabrication de ce pétrole gère au passage la dépollution en CO2 des installations industrielles.

«Aujourd’hui, il est désormais possible de valoriser le CO2 en une véritable source d’énergie de qualité, similaire au pétrole d’origine fossile, propre, inépuisable et économiquement viable ». (Bernard Stroïazzo-Mougin, Président-fondateur de bio fuel systems)

 

Quelques chiffres (selon BFS) :

Pour produire 1 baril de pétrole, BFS absorbe 2.168 kg de CO2 et neutralise définitivement 937 Kg de C02 après combustion.

À échéance, l’usine d’Alicante sera déployée sur 40 hectares et neutralisera 450.000 tonnes annuelles d’émissions de CO2 dans l’atmosphère pour une production de 220.000 barils de pétrole sans compter la production de produits secondaires hautement nutritifs (type acides gras essentiels oméga 3, oméga 6…).

Cette usine préfigure l’usine-type de dépollution/valorisation retenue par BFS comme modèle à commercialiser pour un déploiement international. Deux usines-type dédiées à la production d’électricité sont en préparation sur l’archipel de Madère au Portugal et à Venise en Italie. D’autres projets sont en étude, notamment aux États-Unis et en Corée. D’ici 2020 et selon une feuille de route clairement établie, BFS prévoit de commercialiser 50 usines.

À la différence des biocarburants produits à partir de matières premières agricoles qui ne peuvent être utilisés qu’à hauteur de 5 voire 10% dans les moteurs, le pétrole issu de la technologie BFS est un excellent substitut au pétrole d’origine fossile. Il en présente les mêmes caractéristiques en matière de densité énergétique avec un pouvoir calorifique élevé, prouvé et certifié, de 9.700 kcal/kg. Une fois raffiné, il peut donc être utilisé sans aucune adaptation particulière dans les moteurs. Son coût de raffinage est par ailleurs moindre car exempt de soufre et de produits secondaires toxiques. À l’instar de son cousin d’origine fossile, le pétrole BFS peut également servir à fabriquer des plastiques, des solvants, des résines synthétiques, des détergents ou des engrais.

Alors que le pétrole d’origine fossile a nécessité des millions d’années pour se former à la suite d’un long et complexe processus de sédimentation, 48 heures suffisent à produire le pétrole BFS.

L'obligation pour BFS de maitriser totalement la transition du stade "Laboratoire" au stade "production industrielle" a justifié la construction de la première usine grandeur nature sur fonds propres. L’investissement des installations est estimé s’amortir en moins de cinq ans, notamment grâce à l’exploitation des revenus issus du pétrole, des crédits carbone générés par l’élimination massive du CO2 et des coproduits associés tels les acides gras essentiels.

Baptisé par ses inventeurs « pétrole bleu », ce pétrole est finalement très « vert »…

 

document au format PDF icone pdf

 Les trous noirs

par Pierre Laharrague

« De toutes les conceptions de l’Esprit humain, la plus fantastique, peut-être,
est le trou noir, un trou de l’espace dans lequel n’importe quoi peut tomber et
duquel rien ne peut s’échapper».
Kip S. Thornenoirs



                                                        

Le terme « trou noir » a été inventé en 1969 par le physicien américain John Archibald Wheeler de Princeton University pour désigner de façon imagée un objet céleste tellement compact, c'est-à-dire dont la masse est tellement concentrée, que  la lumière ne peut s’en échapper et qu’il n’est donc pas observable. L’idée que de tels objets pouvaient exister ne provenait donc que de considérations purement théoriques. Mais des observations indirectes réalisées depuis, ont permis de valider la pertinence de ce concept.

 

Qu’est ce qu’un trou noir ?

1- Historiquement, c’est un professeur de Cambridge, John Michell, qui écrivit en 1783 un  article dans le Philosophical Transactions of the Royal Society of London dans lequel il  mentionnait qu’une étoile suffisamment massive et  dense devait posséder un champ gravitationnel (sur la Terre, nous parlons plus communément de gravité ou de pesanteur) tel, qu’aucune particule, et en particulier, la lumière que l’on assimilait à des corpuscules ( les photons), ne pouvait s’en extraire.

13 ans plus tard, le Français Pierre Simon de Laplace fit la même prédiction dans son livre Le Système du Monde sans citer toutefois le travail précédent de Mitchell. Imaginons qu’on tire verticalement un boulet de canon. Son ascension sera freinée par la gravité et il finira par retomber. Mais si la vitesse initiale est plus grande qu’une valeur critique dite vitesse d’ « échappement »  ou  de « libération », il filera vers l’espace. La vitesse  de libération est d’environ 11 km/s pour la Terre et  de 100 km/s pour le Soleil. Ces vitesses sont très supérieures à la vitesse que peut atteindre un boulet mais très inférieures à la vitesse de la lumière qui vaut  300 000 km/s.

     Michell suggéra que des étoiles beaucoup plus massives que le soleil pourraient avoir des vitesses de libération supérieures à la vitesse de la lumière de sorte  que leur champ gravitationnel retiendrait celle-ci et qu’on ne pourrait donc les voir. Il appela ces étoiles des « étoiles sombres », on dit aujourd’hui des trous noirs.

Mais  il y avait  un  problème : c’est que les particules de lumière, à l’instar  du boulet  de canon, étaient  régies  par  la mécanique newtonienne : alors que la vitesse du boulet varie tout au long de sa trajectoire pour devenir nulle à l’impact sur le sol, la vitesse  de la lumière est constante et le photon poursuit son chemin toujours à la même vitesse. Aucune réponse ne fût apportée à cette question avant l’avènement de la théorie de la relativité généralisée en 1915.

2. Venons-en à la version contemporaine de la formation d’un trou noir. Ces considérations sont le fruit des travaux d’éminents physiciens parmi lesquels : Carter, Chandrasekhar,  Einstein, Hawking, Israël, Kerr, Kip Thorne, Oppenheimer, Penrose, Wheeler, Zel’dovich et d’autres…

A : Étoile normale

Considérons une étoile dont on suivra l’évolution à l’aide du schéma ci-dessous dans lequel on n’utilise, pour simplifier, qu’une seule coordonnée d’espace. On sait que l’étoile trouve son énergie dans le processus de fusion thermonucléaire de noyaux d’hydrogène comme cela est réalisé dans une bombe H.

La fraction de cette énergie qui n’est pas rayonnée se trouve sous forme de chaleur au sein de l’étoile et cette chaleur produit une pression thermique centrifuge qui s’oppose à la force gravitationnelle centripète qui  contracte  l’étoile.  Un  équilibre   apparait   et   l’étoile   reste   stable  tant  qu’il  y a  du

du combustible  à consommer (schéma A).  Notre soleil se trouve dans cette phase qui se maintiendra pendant encore 5 milliards d’années.

Mais lorsque le combustible est épuisé, l’étoile se refroidit et la contraction reprend le dessus. Son destin dépendra de sa masse :

¨ en dessous de 1,4 masse solaire, elle deviendra une naine blanche affichant une densité de plusieurs dizaines de tonnes par cm3. On appelle cette valeur, limite de Chandrasekhar, du nom d’un jeune étudiant indien de 19 ans qui la formulât en 1930. Pour  l’anecdote, c’est au cours du voyage vers l’Angleterre où il se rendait pour poursuivre ses études à l’Université de Cambridge, que Subrahmanyan Chandrasekhar profita  des 18 jours de mer pour réfléchir au sort des étoiles massives et énonça sa loi. Un  voyage particulièrement fertile puisqu’il sera lauréat du Nobel 53 ans plus tard.

La contre-pression permettant à la naine blanche de se stabiliser n’est plus la pression thermique devenue insuffisante, mais une nouvelle forme, appelée pression de dégénérescence électronique, qui est d’origine quantique : cela provient du fait qu’il existe un principe dit principe d’exclusion de Pauli, selon lequel il est impossible que 2 particules coexistent dans des états identiques ; il en résulte que 2 électrons ne peuvent avoir à la fois la même position et la même vitesse, ce qui les éloignera l’un de l’autre , engendrant la contre-pression mentionnée ; cette répulsion est toutefois limitée par le fait que la théorie de la relativité impose que la différence des vitesses ne dépasse pas celle de la lumière. ¨  entre  1,4 et 3 masses solaires, la pression électronique n’est plus suffisante pour contrebalancer la contraction gravitationnelle. Protons (les noyaux d’hydrogène) et électrons viennent quasiment au contact pour former des neutrons. L’étoile devient une étoile à neutrons, soutenue par une pression de dégénérescence neutronique homologue de la pression électronique précédente. Son rayon est d’une dizaine de km et la densité  de plusieurs millions de tonnes/cm3.

¨ au-delà de 3 masses solaires, aucune pression ne peut s’opposer à l’action de la gravité. Celle-ci poursuit inexorablement son action, aboutissant à l’effondrement de l’astre, ce qu’on appelle l’effondrement gravitationnel.  

  

Chandrasekhar [1910-1995] en 1934 

B : Vue en 1 dimension

C : Vue en 2 dimensions

 

Du fait que la gravité devient de plus en plus forte, l’espace,  à son voisinage, se courbe de plus en plus ainsi  que le prédit la relativité généralisée ; il en résulte que les trajectoires des rayons lumineux qu’on appelle aussi des géodésiques ( c’est l’arc de courbe le plus court entre 2 points), s’incurvent  de plus en plus vers la surface de l’astre et à la limite, ne peuvent plus le quitter. Dans le schéma B, à 1 dimension d’espace, ceci correspond aux rayons parallèles à l’axe du temps, qui restent à distance constante du centre de l’étoile. On a obtenu un trou noir.

La  surface  limite  que  nous venons de mettre en évidence, constitue, ce  qu’on  appelle  l’horizon des événements  car  on ne peut rien percevoir de ce qui se passe en dedans. Il n’y a aucune raison toutefois pour que la contraction s’arrête : elle se  poursuit donc jusqu’à  ce que la matière soit théoriquement concentrée  en  un   point,  c'est-à-dire  que  la  densité  y  devienne « infinie ». On a alors affaire à ce qu’on nomme une singularité  où la physique actuelle n’a plus de sens.

Les propriétés des trous noirs

Quelques mots d’histoire 

Les travaux sur les trous noirs connurent une forte accélération après la 2ème guerre mondiale du fait que de nombreux physiciens qui étaient engagés dans les programmes d’armes nucléaires des grandes puissances, se réorientèrent, dès lors que pour l’essentiel, les problèmes de physique et de technologie correspondants avaient été résolus. Beaucoup optèrent pour l’astrophysique car les outils développés pour les programmes militaires, étaient adaptés à l’étude de l’implosion des étoiles.

D’éminents théoriciens comme l’Américain John Archibald Wheeler et le Soviétique Yakov Borisovich Zel’dovich qui avaient été des acteurs importants des travaux de mise au point des engins thermonucléaires dans leurs pays respectifs, constituèrent autour d’eux des équipes de jeunes scientifiques prometteurs, très motivés par les nouveaux challenges à résoudre. Ainsi se prépara un véritable âge d’or concernant les recherches sur les trous noirs qui s’étala en gros de mi 60 à mi 70.

Cette intense activité trouva une conclusion sous la forme d’un traité que Chandrasekhar publia en 1983 sous le titre « La théorie mathématique des trous noirs » qui constitue toujours la bible des chercheurs.  

1. La taille de l’horizon: Rayon de Schwarzschild

Karl Schwarzschild (1873-1916)

 

En 1916, Karl Schwartzchild  servait dans l’Armée  allemande sur le front russe. Il venait de lire la publication d’Einstein sur la Relativité généralisée, parue en Novembre 1915. Il chercha aussitôt à découvrir les conséquences de cette théorie sur les étoiles et, pour ce faire, entreprit d’en résoudre les équations, ce qu’il parvint à faire en prenant un cas  idéalisé d’un étoile  parfaitement sphérique et ne tournant pas sur elle-même. Il envoya un manuscrit à Einstein qui le présenta, en son nom, à l’Académie des Sciences de Prusse en Janvier 1916. Son calcul, très élégant, prédisait  que pour chaque étoile, il existait une circonférence critique, dépendant de sa masse,  au voisinage de  laquelle le temps ralentissait de plus en plus, provoquant un décalage de plus en plus grand vers le Rouge de la lumière émise (on appelle cela le «redshift gravitationnel»).Sur la surface, le temps se « figeait », de sorte qu’aucune  onde de lumière ne sortait. Ainsi, retrouvait-il les idées émises deux  siècles plus tôt par Michell et Laplace, mais avec une interprétation différente.

Cette surface critique n’est autre que l’horizon des événements mentionné plus haut qui s’exprime par la formule :

   R(km) = 3M/Msol

La masse M étant rapportée à la masse du  soleil Msol selon une habitude des astrophysiciens.

Par ex : - si le soleil devenait un trou noir (ce qui ne sera pas le cas puisqu’ il finira en naine blanche), son horizon aurait un rayon de 3 km.                                                                                                                                                                    

- pour 3 fois la masse solaire, le rayon est de 9 km, ce qui correspond à une densité de 1 milliard de tonnes /cm!

 Malheureusement, Schwarzschild ne put poursuivre ce travail si prometteur, car il décédait quelques mois plus tard d’une maladie contactée sur le front.

 

 

2. Les trous noirs « n’ont pas de cheveux »

 

Étoile magnétisé           Étoile carrée         Étoile avec montagne

          Même trou noir

Cette expression est  due également à J.A.Wheeler. Elle  indique  de façon  imagée  que  lorsqu’une  étoile  devient            

un   trou  noir, ce  dernier ne peut rien révéler de l’étoile  génitrice. C’est ce qu’illustre le schéma ci-contre où l’on a         

un peu forcé le  trait afin d’être plus explicite.

Les seules grandeurs caractéristiques des trous noirs   (ses seuls cheveux) sont :                                                          

sa masse ;

son mouvement de rotation sur lui même ;

 ● sa charge électrique éventuelle.

Un comportement aussi surprenant, comme bien d’autres aspects concernant les trous noirs, a mis du temps pour  émerger et être admis par la communauté scientifique. C’est V.L.Ginzburg de l’équipe Zel’dovich qui, le premier, proposa cette conjecture en 1962  dont W.Israel qui, lui, dirigeait un un groupe de recherches au Canada, apporta une première preuve en 1967. Mais il fallut néanmoins attendre 1970-71 pour que Brandon Carter et Stéphan Hawking de Cambridge apportent la preuve définitive du théorème de la « calvitie ».

       

Vitaly L.Ginzburg en 1962  Werner Israel en 1964

3. Les trous noirs « sont gris »

 

Comportement des particules prés de l’horizon

Stephan Hawking en 2001 

 

Cette expression, imagée comme la précédente, signifie que les trous noirs peuvent rayonner de l’énergie autour d’eux. Une telle suggestion a été faite pour la première fois par Y.B.Zel’dovich en 1971, lequel soutenait aussi que la perte d’énergie ralentirait la rotation du trou noir qui ne rayonnerait plus dès qu’il serait devenu immobile. Mais elle fut jugée impossible par la communauté scientifique puisque rien ne pouvait sortir d’un trou noir.

Stephan Hawking est professeur lucasien à Cambridge où il est titulaire de la chaire qu’occupait Isaac Newton au XVII ème siècle. Il est atteint d’une maladie touchant son système nerveux et musculaire qui le contraint au fauteuil roulant. C’est un éminent astrophysicien et cosmologiste. Lors d’un voyage à Moscou en 1973, il rencontra Zel’dovich avec qui il discuta de son idée qui l’intriguait. Mais il était sceptique sur le traitement mathématique utilisé par le Soviétique,  de sorte que, revenu à Cambridge, il s’attaqua au  développement de sa propre méthode. Et en 1974, il fit une annonce stupéfiante, à savoir que les trous noirs, qu’ils tournent ou ne tournent pas, rayonnent, et tout comme un radiateur  qui dégage de la chaleur, ils possèdent aussi une température qui est inversement proportionnelle à

leur masse. La perte d’énergie entraine une perte de masse, donc un accroissement de la température, donc une augmentation de l’énergie rayonnée, donc une nouvelle perte de masse etc.., de sorte que le trou finit par s’évaporer.

L’explication  fait  appel à la mécanique quantique : celle-ci prédit que même dans le vide, des particules  identiques  mais  de  charge  opposée   peuvent  naître   spontanément ;  elles  s’annihilent

presqu’aussitôt en restituant l’énergie qu’elles ont empruntée aux régions voisines de sorte qu’en moyenne l’énergie reste nulle – ces particules sont dites virtuelles car elles ne sont pas observables directement, elles sont la manifestation de ce qu’on appelle des fluctuations du vide – En présence d’un trou noir, il est possible qu’un membre seulement d’une paire tombe dans le trou alors que l’autre s’échappe à l’infini , produisant le rayonnement cité ( voir figure ci-dessus).

Il convient toutefois d’avoir quelques chiffres présents à l’esprit : un trou noir de quelques masses solaires aura une température  de 1 millionième de °K de sorte qu’il s’évaporera très lentement, à peu prés 10 67 ans, soit infiniment plus de temps que n’a mis l’Univers de l’origine à nos jours (1010 ans).

Autant dire qu’en astrophysique, le phénomène d’évaporation n’a aucune influence. Néanmoins, dans la fournaise du Big Bang, il est possible que des trous noirs beaucoup plus petits aient été produits,  (on  les appelle pour cette raison des trous noirs primordiaux) qui auraient  eu le temps de s’évaporer, mais on  n’en a  pas encore trouvé de traces sûres.

4. À l’intérieur  de l’horizon

Roger Penrose

La première réponse à la question de savoir ce qu’il y a à l’intérieur d’un trou noir, est contenue dans les calculs que firent Robert Oppenheimer et son élève Hartland Snyder en 1939 mais qu’ils s’abstinrent de commenter. Peut être craignirent ils que l’idée d’une singularité, implicite dans leur solution,  n’en rajoute  à la controverse sur  leur prédiction  qu’une « étoile en fin d’implosion  se retranche du reste de l’Univers ». Les physiciens étant en  effet toujours très réservés vis-à-vis des infinis, la communauté scientifique se divisa en deux groupes, l’un conduit par J.Wheeler pensait que la théorie utilisée par Oppenheimer (la relativité généralisée) n’était pas valable aux densités extrêmes de la singularité et qu’il fallait la marier à la mécanique quantique, l’autre mené par les soviétiques Isaac Khalanitkov et Evgeny Lifshitz contestait le modèle de trou noir utilisé par l’Américain et  affirmaient  qu’une singularité était mathématiquement  impossible.

En 1964, Roger Penrose, mathématicien  et physicien anglais diplômé de Cambridge et doué d’un immense talent, révolutionna les outils mathématiques utilisés jusque-là, ce qui lui permit d’énoncer et de démontrer en collaboration avec Hawking, un théorème décisif, à savoir «  que si une étoile implose et devient un trou noir, elle renferme inévitablement une singularité à l’intérieur d’elle-même ».  Ce théorème mit un terme au désaccord et les soviétiques se rangèrent  à l’avis de l’Anglais.

En outre, Penrose  fit une autre proposition sans pouvoir toutefois  la démontrer, qu’on appelle  la conjecture de la « censure cosmique ». Selon celle-ci,  aucun objet qui implose ne peut créer une singularité nue. En d’autres termes, les singularités créées lors d’un effondrement gravitationnel, ne se produisent que dans des endroits comme les trous noirs où l’horizon des événements les dissimule au monde extérieur sur lequel, donc, elles n’ont aucune influence. En  paraphrasant, Hawking dira  « Dieu déteste les singularités nues ».

Que dire de la singularité ? On a vu que la densité et la courbure de l’espace y devenaient « infinies », c’est-à-dire que ce point marque la fin de l’espace et du temps et qu’au delà de cette limite,  la théorie devient inopérante : la matière engloutie dans le trou est anéantie et l’information détruite lorsqu’elle atteint la singularité. Même si nous disposons de quelques détails les concernant, nous ne savons pas encore comment penser ces singularités où les effets quantiques sont prédominants. C’est tout l’enjeu des recherches actuelles qui tentent de marier la mécanique quantique et la relativité.

5. Trou noir et information

À peine avait il publié ses résultats  que S. Hawking  réalisa que ses conclusions posaient une véritable énigme. Si une étoile disparaît dans un trou noir et  que le trou noir disparaît à son tour par évaporation, qu’advient-il de ce qui, à l’origine, constituait les caractéristiques de  l’étoile ? Hawking prenait le parti d’admettre que cette information était détruite, emportée par la singularité disparaissant de l’Univers.

Plusieurs physiciens dont John Preskill (Caltech), Léonard Susskind (Stanford), Gerard Hooft (Utrecht), étaient en désaccord avec ce point de vue, arguant que la mécanique quantique établit de façon catégorique que l’information ne peut être perdue. Des calculs tout récents semblent leur donner raison, encore qu’ils n’aient pas une portée générale. En 2004, Hawking s’est rangé à leur avis.

À la recherche de trous noirs

Bien qu’étant invisibles, les trous noirs exercent autour d’eux une action extrêmement puissante en raison de leur énorme champ gravitationnel. La stratégie de recherche consistera donc à déceler et mesurer les effets de cette action dans l’environnement d’un éventuel trou noir. Quels peuvent être ces effets ?

w considérons ce qu’on appelle un « système binaire », c'est-à-dire un ensemble de deux corps en  orbite l’un autour de l’autre. On sait qu’il existe beaucoup de ces systèmes, l’un des corps peut être un trou  noir  (si sa masse est supérieure à 3 masses solaires), l’autre, une  étoile  lumineuse.

 

Vue d’artiste d’un système binaire avec trou noir


L’attraction gravitationnelle  du trou  aspire  la matière du  compagnon qui tombe en spiralant vers l’horizon en formant un disque d’accrétion. La vitesse augmente de plus en plus jusqu’à devenir proche de celle de la lumière, la température s’accroit à cause du frottement, entrainant l’émission de rayons X par la région centrale  du disque, rayons qui sont détectés par des appareils embarqués sur satellites.

Le premier système de ce genre a été détecté en 1962 et  a été baptisé Cygnus X 1. Les mesures, de plus en plus précises faites depuis, montrent qu’il est constitué d’une étoile super géante de 20  à  30  masses  solaires  orbitant  autour d’un trou noir de 7 à 13 masses solaires, situé dans la constellation du Cygne à environ 8000 années-lumière de nous. C’est l’archétype de trou noir stellaire.

 

- imaginons dans une toute autre échelle un trou noir de plusieurs millions de masses solaires. On sait maintenant que ce type de trou noir, dit super massif, constitue le moteur qui fournit l’énorme énergie rayonnée par ce qu’on appelle les radios galaxies et par les quasars : comme précédemment,  la  matière est avalée via un disque d’accrétion, mais en  outre, de puissants jets sont émis perpendiculairement au disque sur distances considérables.

 

Quasar

 

image15Radio galaxie CENTAURUS A à différentes longueurs d’onde


  - dans le cas d’une radiogalaxie, ces jets de matière s’étalent sur plusieurs centaines de milliers d’années lumière et alimentent 2 lobes qui émettent en  bande radio : ci-dessus, images  de la radio galaxie, la plus proche (13 millions d’années lumière) dans la constellation du Centaure, montrant nettement ces jets. La masse du trou noir est évaluée à 200 millions MSol .

Remarque : toutes ? les galaxies recéleraient un trou noir massif, notre Voie Lactée, pour sa part, en contiendrait un de 2,6 millions MSol .

à  la  différence d’une radiogalaxie qui émet à partir d’une région très étendue, le quasar  rayonne  à  partir d’une région considérablement plus

image16

Quasar 3C273    

 faible, typiquement 1 million de fois plus petite en diamètre. Il apparaît aussi  des centaines de fois plus brillant que la plus brillante des galaxies et, de plus, il se situe aux confins de l’Univers, souvent à plusieurs milliards d’années lumière.  C’est dire qu’il  doit disposer d’une puissance gigantesque.

Les premiers quasars ont été découverts au  début des années 60 et les astronomes les prirent pour des étoiles d’origine inconnue. C’est pour cette raison qu’ils furent baptisés QUASAR, une abréviation de QUAsiStellAR.

La seule explication du « moteur hyper énergétique » qui les alimente, est  de faire appel à un trou noir massif qui transforme donc l’énergie de la

matière qu’il engloutit en énergie radiative. Le mécanisme est probablement  commun aux radiogalaxies et aux quasars.

 

Le quasar 3C273, ci-dessus, situé, dans la constellation de la Vierge est le plus brillant de notre ciel. Sa luminosité est 1 million de million de fois celle du  Soleil ou 100 fois celle d’une galaxie géante comme la Voie Lactée. Il est éloigné de 2,4 milliards d’années lumière et la masse du trou noir qu’il abrite  est  de l’ordre de 1 milliard de MSol.

Des paris à propos des trous noirs         

Objets fascinants, aux propriétés étonnantes, les trous noirs nous entrainent vers un monde de l’étrange régi par une physique de l’extrême que nous ne maitrisons pas encore. Une sorte de vertige nous saisit à l’idée de ces forces titanesques et de ces singularités où l’infini se confond avec le néant, où tout semble disparaître.

Certainement sensibles à ces impressions, peut être aussi au doute qui peut naitre de leurs   spéculations, parfois aussi en désaccord entre eux, les acteurs de ces travaux se sont quelque fois lancés des défis sous forme de paris. En voici quelques uns :

 

w Pari entre Stephen Hawking et Kip Thorne - 1974

Objet :   Cygnus 1 est- il un trou noir?

Pour :    K.T.

Contre : S.H.

Enjeu :   un abonnement d’un an à la revue «  Penthouse » si K.T. gagne

             un  abonnement de 4 ans à «  Private eye » en cas de victoire de S.H.

S. H. a finalement perdu son pari.

 w Pari entre Stephen Hawking , John Preskill et Kip Thorne - 1991

Objet  : la conjecture de la censure cosmique est-elle correcte?

Pour   : S.H.

Contre : J.P. et K.T.

Enjeu : le perdant récompensera le gagnant par un vêtement couvrant sa « nudité »

Le pari tient toujours.

w Pari entre Stephen Hawking et John Preskill - 1997   

Objet : l’information contenue dans un trou noir qui s’évapore, n’est pas perdue

Pour  :  J.P.

Contre : S.H.

Enjeu : une encyclopédie du base-ball

En 2004, S. H. estimera avoir perdu la partie.

Les dix derniers articles publiés ( # selon que vous êtes connecté ou pas)