ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

TRANSISTORS ET 3D

 

Paris, 1er mars 2013


Des transistors à l'assaut de la troisième dimension


Les limites de miniaturisation des composants électroniques pourraient être plus éloignées que ce que l'on pensait. Une équipe du Laboratoire d'analyse et d'architecture des systèmes (LAAS–CNRS, Toulouse) et de l'Institut d'électronique, de microélectronique et de nanotechnologie (CNRS/Université Lille1/Université de Valenciennes et du Hainaut-Cambresis/Isen) viennent de construire un transistor de taille nanométrique au comportement exceptionnel pour un dispositif de cette dimension. Pour y parvenir, les chercheurs ont conçu une architecture originale en trois dimensions composée d'un réseau vertical de nanofils dont la conductivité est contrôlée par une grille de seulement 14 nm de longueur. Ces résultats, publiés dans la revue Nanoscale, ouvrent la voie à des alternatives aux structures planaires des microprocesseurs et des mémoires actuels. Ces transistors 3D permettraient ainsi d'accroître la puissance des dispositifs microélectroniques.
Les transistors, briques de base de la microélectronique, sont composés d'un élément semi-conducteur, dit canal, reliant deux bornes. Le passage du courant entre les bornes est contrôlé par une troisième borne appelée grille : c'est celle-ci qui, tel un interrupteur, détermine si le transistor est ouvert ou fermé.  Au cours des 50 dernières années, la taille des transistors n'a cessé de se réduire à un rythme constant et soutenu, permettant la montée en puissance des appareils microélectroniques. Cependant, il est admis qu'avec les architectures de transistors planaires actuelles, la miniaturisation est proche de sa limite. En effet, au-delà d'une taille minimale, le contrôle du canal des transistors par la grille est de moins en moins efficace : on observe notamment des fuites de courant qui perturbent les opérations logiques réalisées par ces ensembles de transistors. Voilà pourquoi les chercheurs du monde entier étudient des alternatives permettant de poursuivre la course à la miniaturisation.

Les chercheurs du LAAS et de l'IEMN ont, pour la première fois, construit un transistor nanométrique véritablement en 3D. Le dispositif est constitué d'un réseau serré de nanofils verticaux d'environ 200 nm de longueur reliant deux plans conducteurs. Une grille, constituée de chrome, entoure complètement chaque nanofil et contrôle le passage du courant. Ainsi, les chercheurs ont obtenu un niveau de commande transistor très élevé pour un dispositif de cette dimension. La longueur de la grille est de seulement 14 nm, contre 28 nm pour les transistors des puces actuelles. Néanmoins, sa capacité à contrôler le passage du courant dans le canal du transistor est compatible avec les besoins de la microélectronique actuelle.

Cette architecture pourrait permettre de construire des microprocesseurs constitués d'un empilement de transistors. L'on pourrait ainsi augmenter considérablement le nombre de transistors dans un espace donné, et, par conséquent, augmenter les performances des microprocesseurs ou la capacité des mémoires. Un autre atout important de ces composants est que leur fabrication est relativement simple et ne nécessite pas de procédés lithographiques1 de haute résolution.  De plus, ces transistors pourraient s'intégrer facilement aux éléments microélectroniques classiques utilisés actuellement par l'industrie.

Un brevet a été déposé pour ces transistors. Les scientifiques veulent à présent poursuivre leurs efforts en miniaturisant encore la taille de la grille. Celle-ci pourrait être inférieure à 10 nm tout en offrant encore un contrôle du transistor satisfaisant. De plus, ils veulent commencer à concevoir, de concert avec des industriels, les dispositifs électroniques futurs qui mettront à profit l'architecture 3D de ces transistors.

 

DOCUMENT               CNRS                 LIEN

 
 
 
 

FAIRE PARLER LA LUMIÈRE

 

FAIRE PARLER LA LUMIÈRE


L'Astronomie est une science d'observation. En conséquence l'instrumentation et la mesure, depuis la collecte de la lumière à l'analyse des signaux, sont très importants. C'est aussi une science théorique où la simulation numérique et la modélisation sont primordiales.
Faire parler la lumière montre comment les progrès de la science sur la nature de la lumière ont permis à l’astronome de comprendre la formation des raies spectrales.

Dans ce cours filmé, Chantal Balkowski astronome à l'Observatoire de Paris, décrit aussi comment l’analyse de ces raies spectrales permet de déterminer la composition, la température et la vitesse des objets observés pourtant hors de portée des astronomes.

C’est cette même analyse qui a permis de mettre en évidence l’expansion de l’univers.

Enfin la vidéo montre comment les développements technologiques des télescopes au sol et dans l’espace permettent aujourd’hui d’envisager l’étude des objets jusqu’aux confins de l’univers.”

 

VIDEO             CANAL  U             LIEN

 

(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
 

QUELLES SOURCES D'ÉNERGIE D'ICI 2050 ?

 

Ce texte est similaire aux principaux points développés lors de la 594e conférence de l'Université de tous les savoirs donnée le 16 juillet 2005 par Sylvain David
Les sources d'énergie du 21e siècle[1]
par Sébastien Balibar, Sylvain. David, Ionel Solomon
Introduction & Contexte
Réchauffement global de la Terre, ou déchets nucléaires ? A l'aube du XXème siècle, tel semble être le dilemme auquel notre société se heurte. On parle d'énergies alternatives. Certains sont pour le nucléaire, d'autres sont contre, qu'en est-il vraiment ? Dans ce débat qui est complexe, face à des problèmes scientifiques et techniques difficiles, il est du devoir des physiciens de se mobiliser, pour informer le public et pour contribuer à la recherche de solutions.
figure 1
Les unités pour mesurer l'énergie
Sur les 14 000 Gigawatts thermiques que l'humanité consomme, environ 32 % proviennent du pétrole, 26 % du charbon et 19 % du gaz, soit 77 % de combustibles fossiles non-renouvelables, le reste se répartissant entre 5 % d'origine nucléaire, 6 % d'hydroélectrique, 10 % de la « biomasse traditionnelle » (essentiellement le bois) et 1 à 2 % d'autres énergies dites « renouvelables » telles que le solaire et les éoliennes. Cette énergie consommée est équivalente à 10 milliards de tonne de pétrole par an (10 Gtep/an), soit environ 1.5 tonne équivalent pétrole par habitant et par an. La consommation d'énergie varie grandement d'un région à l'autre ; alors qu'un américain du nord consomme près de 10 tep/an, un européen en consomme environ 4.5, un chinois 1.5 et un africain moins de 0.5 ( Cf. figure 2).
figure 2
Les projections pour le futur sont délicates, mais il apparaît aujourd'hui inévitable que cette consommation augmente significativement dans les décennies à venir. Les scénarios les plus sobres et très volontaristes prévoient une consommation de 15 milliards de tep par an (Gtep/an) pour 2050. Les scénarios qui prennent en compte une augmentation significative du niveau de vie des pays pauvres et un accès à l'énergie relativement facile atteignent 30 Gtep/an en 2050 ( Cf. figure 3). Ces derniers scénarios semblent aujourd'hui irréalistes, tant du point de vue des réserves de combustibles fossiles que de l'environnement et du climat. Un scénario envisageant un doublement de la consommation énergétique semble réaliste et souhaitable pour les pays en voie développement, et comme nous allons le voir, cette augmentation attendue doit être assurée par de nouvelles sources d'énergie.
figure 3
Les combustibles fossiles
En 2000, la consommation mondiale de combustible fossile atteignait 8 Gtep, répartie entre le pétrole (3.7), le gaz (2.1) et le charbon (2.0) ( Cf. figure 4).
figure 4
Il existe de grandes incertitudes concernant les réserves et les prix d'extraction, mais il est aujourd'hui admis que ce siècle verra la fin du pétrole et du gaz. Les géologues les plus pessimistes annoncent même que la production mondiale de pétrole commencera à décroître dès 2008 ( Cf. figure 5). Le gaz devrait durer un peu plus longtemps, quant au charbon, il en existe de grandes quantités réparties de façon plus homogène sur la planète ( Cf. figure 6).
figure 5
De grandes incertitudes sur les réserves de pétrole
(Référence : PR Bauquis - Total Prof. Associés)
figure 6
D'un point de vue environnemental, il ne fait plus aucun doute que brûler tant de combustibles fossiles a conduit à une augmentation très sensible du contenu en gaz à effets de serre de l'atmosphère, en particulier de CO2. Le contenu en CO2 de l'atmosphère vient de dépasser 365 ppmv (parties par million en volume) alors que, depuis 400 000 ans, il oscillait entre 180 ppmv lors des périodes glaciaires et un maximum de 280 ppmv dans les périodes chaudes. En conséquence, un réchauffement sensible de la planète a déjà eu lieu, environ 0.6 °C à ce jour. Cela peut paraître peu mais il semble inévitable que ce réchauffement s'accélère et atteigne au moins 3 degrés à l'horizon 2100 (dans l'hypothèse où l'on réduirait considérablement les émissions de CO2), peut-être 6°C si l'on ne réussit pas à réduire suffisamment ces émissions à très court terme. Ce réchauffement menace de transformer le climat global (fonte des glaces, augmentation des échanges d'eau entre l'équateur et les pôles, modification des courants marins, élévation du niveau des mers...), un phénomène que notre planète n'a jamais connu.
Stabiliser le climat nécessite de diviser par 2 l'émission de gaz à effet de serre, et compte tenu d'un doublement vraisemblable de la consommation d'énergie d'ici 2050, cela implique de diviser par 4 la proportion des combustibles fossiles dans le bouquet énergétique ( Cf. figure 7). Voilà l'ampleur du défi qui s'impose à nous.
figure 7
Les principales sources d'énergie, leurs potentiels et leurs contraintes, vont être maintenant passés en revue.
Le nucléaire de fission
Face à ces graves menaces, le nucléaire est une énergie abondante dès aujourd'hui, qui ne produit pas de gaz à effet de serre ( Cf. figure 8), mais qui nécessite néanmoins le recours à une technologie innovante pour être durable sur le long terme. Le nucléaire est-il donc la solution au problème énergétique de la planète ?
figure 8
L'énergie nucléaire ne représente aujourd'hui que 6 % de la production d'énergie primaire au niveau mondial. Il est probable que l'énergie de fission se développe au niveau mondial dans les 50 années à venir, même si la situation n'est pas claire aujourd'hui. En Europe, pendant que la France produit 80 % de son électricité avec ses réacteurs nucléaires ou que la Finlande commande un nouveau réacteur, l'Allemagne, la Belgique ou l'Italie se montrent très sceptiques vis à vis de cette énergie. Au niveau mondial, les Etats-Unis ont sensiblement augmenté leur production d'électricité nucléaire avec les réacteurs existants, et préparent un redémarrage de leur programme nucléaire dans les années à venir, et la Chine et l'Inde sont sur le point de commander des dizaines de réacteurs.
Un développement du nucléaire au niveau mondial amène à se poser de nouvelles questions en terme de gestion des ressources, de sûreté des installations et de gestion des déchets.
La vision du public vis à vis de cette énergie évolue avec le temps. Hier, la sûreté était au centre du débat, aujourd'hui les déchets focalisent l'attention de la société, alors que les risques de prolifération prennent de plus en plus de place dans le débat.
Les réacteurs actuels ont une puissance de l'ordre du GW électrique, et un rendement de 33 %. Ils utilisent le seul noyau fissile naturel, l'235U, présent à 0.7 % dans le minerai d'uranium naturel. Tout en restant prudent sur les estimations des réserves en uranium, cette filière permet de continuer pendant 200 à 300 ans au rythme actuel. Si le nucléaire est amené à jouer un rôle majeur dans les décennies à venir, les filières actuelles ne pourraient pas assurer un déploiement rapide et massif ( Cf. figure 9). Il faudrait alors passer à des réacteurs régénérateurs, utilisant beaucoup mieux le potentiel énergétique du minerai. Ces systèmes innovants font aujourd'hui l'objet de nombreuses recherches internationales, et pourraient être déployés avant le milieu du siècle. Ils permettraient d'utiliser la quasi totalité du minerai d'uranium, mais également d'utiliser les réserves de thorium. Ils pourraient ainsi produire massivement de l'énergie pendant plusieurs dizaines de milliers d'années ( Cf. encadré 1 en fin de texte). Ils présentent également l'avantage de recycler tous les noyaux lourds, et de limiter ainsi considérablement la radioactivité à long terme des déchets ultimes à stocker. Le cycle thorium, plus innovant, serait ici encore plus avantageux en ayant une masse réduite de combustible et de déchets de longue durée de vie.
figure 9
Concernant les déchets, le problème principal est celui des déchets issus du combustible usé qui sont très actifs pendant très longtemps. Le combustible usé contient trois types de noyaux : les produits de fission, qui sont les cendres des noyaux fissionnés, le plutonium, produit à partir de capture de neutrons sur l'238U, et les actinides mineurs (237Np, 241Am, 244Cm, ...). La radioactivité du combustible usé est dominée par le plutonium, qui est un noyau fissile, d'où toute l'ambiguïté : si le nucléaire doit s'arrêter, le plutonium est un déchet et doit être géré comme tel (stocké ou incinéré), mais si le nucléaire doit se développer, le plutonium est une matière fissile précieuse, indispensable au démarrage de réacteurs de 4ème génération. Cette ambiguïté concernant la qualité du plutonium (déchet ou combustible) est sans doute à l'origine des attitudes attentistes concernant la gestion des combustibles irradiés ( Cf. encadré 1), et il est probable que la décennie à venir clarifiera la situation, par l'engagement ou non des pays asiatiques dans un nucléaire massif.
L'avenir du nucléaire, source d'énergie propre du point de vue du climat, repose sur des technologies nouvelles, dont il faudra assurer la sûreté, en particulier dans l'hypothèse d'une mise à disposition auprès des pays émergeants. Toutes ces avancées nécessitent une intensification des recherches en cours.
La géothermie
L'énergie géothermique provient des désintégrations de l'uranium et du thorium contenus dans la terre. La puissance totale émise par la terre est de 22 TW. L'équilibre thermique étant atteint, toute cette puissance s'évacue par la surface, soit un flux de 0.06 W/m2 environ. Cette puissance correspond seulement au double de la consommation actuelle. Cependant, il existe une quantité d'énergie stockée dans les roches sous forme de chaleur, mais difficilement utilisable, étant donné sa faible concentration. De plus, cette énergie n'est pas renouvelable ; dans la plupart des installations actuelles, le gisement s'épuise en une trentaine d'années environ. Il est assez rare de disposer de vapeur à haute température susceptible de produire directement de l'électricité. Dans la plupart des cas, les roches chaudes à faible profondeur sont difficilement accessibles ; la roche doit être fracturée, afin que de l'eau puisse circuler et extraire la chaleur. Pour ces raisons, il est difficile d'envisager une production massive au niveau mondial à partir de la géothermie. Il existe cependant des cas particulier, comme l'Islande, où l'énergie géothermique est disponible en grande quantité. La géothermie représente aujourd'hui 0.3 % de la production électrique mondiale et a peu près autant pour le chauffage.
L'hydraulique
L'électricité d'origine hydraulique ne produit pas d'effet de serre, et permet de plus de gérer les pointes de façon très efficace. En France, la quasi-totalité du potentiel hydraulique est déjà utilisé, la puissance moyenne est de 8GW, soit 12 % de la production électrique. Au niveau mondial, le potentiel est de l'ordre de 1400 GW moyens, soit près de 90 % de la production électrique actuelle. Cependant, la mise en Suvre est délicate et il est difficile d'imaginer un déploiement massif dans les décennies à venir. En effet, dans la plupart des cas, les gisements se situent dans des régions dépeuplées, notamment en Afrique, où le développement d'un réseau gigantesque serait nécessaire. La Chine est en train de construire un immense barrage (2km x 640km) de puissance maximale 18 GW (environ 9GW moyens), et prévoit d'installer 4 autres barrages d'ici 2020 d'une puissance maximale cumulée de 38 GW. Aujourd'hui ces 5 barrages représenteraient 18 % de la production électrique de la Chine ( Cf. figure 10).
figure 10
L'éolien
L'énergie du vent est très diluée, et nécessite environ 8 ha pour 1 MW installé, fonctionnant environ 20 % du temps. Une éolienne géante (80 m de diamètre) peut atteindre une puissance crête de 2 MW. En France, le potentiel est estimé à 66 TWh/an sur terre soit 7.5 GW moyens, et 97 TWh/an en offshore soit 11 GW moyens, Cela représenterait 30 % de la production électrique. Pour produire 5 % seulement de l'énergie française, c'est-à-dire générer une puissance continue de 10 GW, il faudrait donc installer au moins 50 000 éoliennes. A raison d'une éolienne d'1 GW tous les 200 m cela signifierait un rideau continu d'éoliennes sur 10 000 km de long et il paraît douteux que la population française soit prête à accepter cela ( Cf. figure 11).
figure 11
Le cas de la France est particulier du point de vue des éoliennes, puisque économiser du combustible nucléaire n'a que peu d'impact sur l'économie énergétique ou les émissions de gaz à effet de serre (de plus il serait difficile de moduler la production nucléaire pour suivre les variations du vent). Ce n'est pas le cas en Allemagne ou au Danemark, où les éoliennes contribuent à limiter la consommation de gaz et de charbon, et donc l'émission de gaz à effet de serre.
Il est donc difficile de croire que les éoliennes puissent représenter l'avenir énergétique à moyen terme de la France, mais on aurait tort de négliger la recherche en ce domaine et l'apport complémentaire de l'énergie éolienne pour des usages particuliers, ou pour des pays ne poursuivant pas le choix du nucléaire. Le couplage au vecteur hydrogène devrait également rendre cette énergie intermittente plus attractive dans le futur.
Le solaire
L'énergie solaire est une énergie réellement inépuisable et abondante. En 12 heures, par exemple, l'énergie solaire arrivant sur terre est supérieure au total des énergies fossiles connues et prévisibles. Pour fixer un autre ordre de grandeur, l'énergie solaire qui arrive sur le sol est 10000 fois supérieure à ce que le monde consomme aujourd'hui.
Il serait vraiment dommage de ne pas utiliser un tel pactole ! Pourtant l'énergie solaire représente aujourd'hui 0 04% de la consommation d'énergie primaire.
L'utilisation la plus directe est le chauffage des habitations et de l'eau. On estime aujourd'hui à 50 % le gain possible sur le chauffage domestique (eau et habitation) en utilisant des panneaux solaires thermiques. Couplé à une bonne isolation c'est une économie de 10 à 20 % de combustibles fossiles qui serait possible.
Chauffer un fluide à haute température (plusieurs centaines de degrés) avec l'énergie solaire permet également de produire de l'électricité. Plusieurs technologies existent aujourd'hui, comme les centrales à tour ou la filière cylindro-parabolique. Ces systèmes peuvent être couplés à des réservoirs de chaleur pour assurer une production continue d'électricité entre le jour et la nuit.
Il existe également des dispositifs convertissant directement la lumière en électricité. Ce dispositif « photovoltaïque » possède des propriétés vraiment remarquables: il n'a pas de pièces mobiles, pas de liquide (il ne coule pas !), il ne s'use pas et sa longévité se compte en dizaines d'années. Le rendement de cette conversion photoélectrique est relativement grand: de l'ordre de 15 à 20 % en laboratoire, et 10 à 15 % en production.
En France, on reçoit en moyenne annuelle entre 100 et 200 W/m2 du soleil au niveau du sol, ce qui correspond, en tenant compte du rendement photovoltaïque à une production annuelle d'environ 100 kWh/m2, et en couvrant la moitié des toits, on couvrirait en même temps notre consommation électrique (sans tenir compte du caractère intermittent, et donc du stockage qui serait nécessaire).
Le principal obstacle à l'utilisation à court terme des dispositifs photovoltaïques n'est pas de nature technique ou scientifique, mais d'origine économique. La haute technicité de ces dispositifs conduit à un prix de revient élevé, aboutissant pour le moment à un prix du kWh de 5 à 10 fois plus élevé que celui produit par les sources d'énergie conventionnelles.
Les meilleurs capteurs réalisés à ce jour avec du silicium monocristallin sont chers, difficiles à fabriquer et n'ont qu'un rendement de 12 %. Les capteurs au silicium polycristallin sont moins chers et ont un rendement de 10 %.
L'avenir réside-t-il dans des films semiconducteurs incorporables dans les matériaux de construction ? Ils sont d'ores et déjà bon marché et leur coût baisserait évidemment encore s'ils étaient produits massivement. Mais leur rendement n'est encore que d'environ 5 %. Un autre paramètre à prendre en compte est le coût énergétique de construction du panneau qui diffère selon les technologies. Actuellement, on estime à près de 7 ans le temps que met un panneau au silicium à rendre l'énergie consommée pour sa production et on espère le ramener à 2 ou 3 ans dans les décennies à venir.
Potentiel de la biomasse
Quelques mots de la biomasse, c'est-à-dire le bois et différents alcools agricoles. Ce n'est une énergie renouvelable que si l'on replante autant que l'on consomme; dans ce cas, le CO2 dégagé est ensuite refixé. De plus, le bois est évidemment facile à stocker. Malheureusement, on doit remarquer que ce procédé utilise l'énergie solaire nécessaire à la photosynthèse. Or, ce rendement est inférieur à 0,5 %; même les cultures sucrières ne fournissent que 0,6 W/m2. Il faudrait consacrer à la culture de biocarburants une surface environ 20 à 100 fois plus grande que la surface actuellement consacrée à l'alimentation pour subvenir aux besoins énergétiques de la planète. La biomasse ne sera jamais qu'un complément énergétique. De plus le coût énergétique des bio-carburants est non négligeable. Le meilleur rendement énergétique est celui de l'ester de colza et vaut 2 environ ; cela signifie qu'il faut consommer environ 1 litre de pétrole pour produire 2 litres de bio-carburant ( Cf. figure 12). De plus, le développement d'une telle filière ne serait pas sans risque de dégagements importants de méthane, un gaz à effet de serre bien plus redoutable que le CO2, ou d'utilisation massive d'engrais, un risque potentiel pour la qualité de l'eau, autre problème planétaire d'actualité. Aujourd'hui le chauffage traditionnel au bois (très utilisé dans les zones rurales des pays émergeants) représente tout de même 1Gtep/an (soit 10 % de la production mondiale d'énergie primaire) de la consommation mondiale d'énergie, mais il semble difficile d'envisager une augmentation significative de la production d'énergie par la biomasse dans le futur.
figure 12
biocarburants (référence : J.M. Jancovici, www.manicore.com)
La fusion
On parle beaucoup actuellement de fusion thermonucléaire. Il s'agirait ici de faire fusionner des atomes d'hydrogène, plus précisément le deutérium (1 proton, 1 neutron) et le tritium (1 proton, 2 neutrons). Les produits de réaction sont un noyau d'Hélium-4 et un neutron, ce dernier emportant 80 % de l'énergie libérée.
Les réserves en deutérium sont infinies à l'échelle humaine. Le tritium a une durée de vie de 12 ans, et n'existe pas à l'état naturel ; il doit être produit à partir de lithium par la réaction 6Li+n ->T+a. Les réserves de lithium sont très grandes (sous forme de minerai ou dans l'eau des océans) ce qui permettrait de produire de l'énergie pendant des millénaires, c'est-à-dire autant qu'avec des réacteurs à fission régénérateurs.
La réaction de fusion se déroule à l'intérieur d'un plasma chauffé à plusieurs millions de degrés, le neutron émis joue un double rôle : il emmène l'énergie en dehors du plasma ou elle est récupérée sous forme de chaleur, et il doit également régénérer le tritium en cassant un noyau de lithium.
Cette technologie ne semble pas réaliste à moyen terme tant les problèmes posés sont difficiles. Le premier de ces problèmes est celui de la tenue des matériaux aux neutrons extrêmement énergétiques. L'énergie de ces neutrons, 14 MeV, est dix fois plus grande que celle des neutrons les plus rapides qui sont émis dans les réacteurs à fission. Sans mise au point de matériaux très spéciaux qui seraient susceptibles de résister à de telles particules, la fusion nucléaire n'a pas d'avenir. La gestion du tritium, de sa production à la réinjection en cSur est très délicate et en même temps incontournable pour assurer une production durable à partir de la fusion. La maîtrise d'un plasma chauffé à plusieurs millions de degrés reste à démontrer sur des temps longs. En revanche, cette source d'énergie ne produirait pas de déchets radioactifs à long terme, et limiterait considérablement les risques d'accidents majeurs et les rejets massifs de radioactivités.
Le réacteur expérimental ITER devrait être construit prochainement et fonctionner pendant une trentaine d'années. Il permettra de tester le confinement d'un plasma chaud, et ne répondra que partiellement à toutes les questions posées. L'avenir de la fusion n'est donc pas pour demain.
Le vecteur hydrogène
On l'a vu, certaines sources d'énergie renouvelable souffrent d'une production intermittente, qui rend difficile leur utilisation à court terme. Le stockage d'énergie est donc un aspect indissociable des questions des sources du futur. L'hydrogène est souvent présenté comme la meilleure façon de stocker de l'énergie (chaleur ou électricité). Il ne faudra pas oublier que les rendements se cumulent à chaque étape de production/transport/utilisation, et il est probable que le rendement global n'excède pas 20 %, même s'il est très difficile de donner un chiffre aujourd'hui.
La production d'hydrogène peut être envisagée à partir d'électricité (hydrolyse de l'eau) ou par cycle thermochimique à haute température. La première solution est disponible aujourd'hui, mais souffre d'un rendement faible et d'un prix élevé. La seconde demande encore beaucoup d'efforts de R&D (recherche et développement), mais semble prometteuse, notamment avec le cycle Iode-Souffre qui demande une source de chaleur à 850°C environ. Pour que l'hydrogène ne produise pas indirectement du CO2, cette source de chaleur doit être nucléaire ou solaire. Il existe aujourd'hui un concept de réacteur nucléaire à l'étude (VHTR) couplant un cSur en graphite à très haute température (près de 1000°C), couplée à une unité chimique produisant de l'hydrogène. Le même type de production est envisageable avec des centrales solaires à tour.
Une fois produit, l'hydrogène doit être stocké et utilisé. On parle beaucoup de l'utiliser dans le domaine des transports, et sur ce point, diverses opinions s'affrontent aujourd'hui. Certains voient une utilisation massive directe de l'hydrogène, notamment dans les piles à combustibles, qui permettent d'espérer un rendement bien meilleur qu'un moteur thermique. D'autres au contraire pensent qu'il sera impossible de remplacer les combustibles liquides pour le transport, tant les nouvelles infrastructures à mettre en place seraient coûteuses. Dans ce cas, on adjoindrait du carbone à l'hydrogène (charbon ou biomasse...) pour produire un carburant de synthèse utilisable dans la technologie standard des moteurs actuels.
La maîtrise de la demande
La source principale d'énergie à utiliser est négative: ce sont toutes les économies que l'on pourrait faire. En ce domaine, qu'il s'agisse d'éclairage, d'isolation thermique, de consommations automobiles ou autres, les progrès potentiels sont considérables. Un français moyen consomme 5kW et un américain du nord 11 kW, alors que la moyenne mondiale est de l'ordre de 1 kW seulement. D'une part les riches peuvent arrêter de gaspiller, d'autre part les pauvres ont un droit légitime de consommer plus. Le problème n'est pas seulement technique, c'est bien clair.
Dans un scénario de « laisser-faire », la consommation en 2050 pourrait atteindre 30 GteP, soit 3 fois la consommation actuelle, alors que les scénarios les plus sobres incluant un développement significatif des pays pauvres atteignent une consommation de 15 GteP en 2050. La maîtrise de la demande permettrait donc de gagner un facteur 2. Confronté au défi climatique, on peut conclure que cette maîtrise de l'énergie est indispensable, mais malheureusement non suffisante, et que le développement massif de sources n'émettant pas de CO2, nucléaires et renouvelables, est urgent.
Le problème des énergies, de leur consommation comme de leur production, de leur stockage et de leur transport est majeur ; ses solutions ne sont que partiellement connues et nécessitent une recherche scientifique et technique considérable, à soutenir dès aujourd'hui pour anticiper la fin des combustibles fossiles.
Au-delà des aspects technologiques, une politique mondiale de l'énergie, basée sur une approche pacifique et non sur un système de domination, est incontournable. Un droit d'accès à l'énergie est souhaitable pour les pays les plus pauvres, et cela doit passer par une mise à disposition de nouvelles technologies, respectueuses de l'environnement, mais très chères ; voilà sans doute le véritable défi du siècle à venir en matière d'énergie.
Pur en savoir plus :
http://sfp.in2p3.fr/Debat/debat_energie
http://manicore.com
http://www.iea.org/
http://peakoil.net
Encadré 1
Le nucléaire
Le nucléaire durable
Si le nucléaire est amené à se développer significativement, les filières actuelles épuiseront les réserves d'uranium avant la fin du siècle. En effet, elles utilisent essentiellement l'uranium-235, présent à 0.7 % seulement dans le minerai d'uranium. Ainsi, pour faire fissionner une tonne de matière, il est nécessaire d'extraire 200 tonnes d'uranium naturel, soit un taux d'utilisation du minerai très faible. Les réserves estimées d'uranium (environ 16 millions de tonnes) ne permettent pas d'envisager un déploiement durable d'une énergie nucléaire significative au niveau mondial basé sur les filières à uranium enrichi. L'essentiel du minerai d'uranium (U-238) ne fissionne pas mais, quand il capture un neutron, il produit un noyau susceptible de fissionner, dit « fissile », qui produira donc de l'énergie : U-238 + n ® Pu-239. On obtient également un noyau fissile en utilisant le deuxième actinide naturel, le Thorium-232 : Th-232 + n ® U-233. On parle alors de régénération ; dans ce cas, tout le minerai (dit alors « fertile ») est utilisé, et le problème des réserves est réglé pour des millénaires. Le thorium n'est pas utilisé aujourd'hui, mais pourrait s'avérer tout à fait intéressant dans le cadre d'un recours à des cycles régénérateurs ( Cf. figure 13).
figure 13
Il faut enfin noter que dans le cas d'un système régénérateur, tous les actinides peuvent être recyclés (matière fissile et noyaux plus lourds), ce qui diminue considérablement la radiotoxicité des déchets destinés au stockage géologique. Ces déchets ultimes contiendront des traces des noyaux lourds (pertes au retraitement), les performances de séparation sont donc primordiales pour minimiser la radiotoxicité à long terme des déchets destinés au stockage géologique, et de nouvelles méthodes sont explorées, et notamment la pyrochimie. Le cycle thorium a l'avantage supplémentaire de produire peu de noyaux lourds radioactifs.
La régénération n'est pas simple à obtenir, car elle nécessite de pouvoir disposer de suffisamment de neutrons. Les neutrons produits par les fissions (entre 2.5 et 3) doivent à la fois induire une nouvelle fission, mais également régénérer la matière fissile consommée. Les propriétés physiques des noyaux fissiles font que le cycle Uranium/Plutonium a besoin de neutrons de haute énergie cinétique pour pouvoir atteindre la régénération. L'extraction de chaleur doit alors se faire par des noyaux lourds (l'eau est proscrite), ce qui a conduit au concept de Superphénix, refroidi au sodium, qui permet de ralentir les neutrons suffisamment peu pour obtenir un système régénérateur. Le sodium pose des problèmes de manipulation, qui ont fait de Superphénix (en plus d'une victime politique) une machine d'une technologie complexe et difficilement commercialisable. Il faut également noter que le programme nucléaire mondial s'étant essoufflé, le recours à la régénération ne se justifiait plus, du moins économiquement. Les alternatives au sodium sont le Plomb, qui pose aujourd'hui des problèmes complexes de corrosion de matériaux, et le gaz (hélium) nécessitant quant à lui l'élaboration d'un combustible très innovant compatible avec les hautes températures spécifiques aux systèmes refroidis à l'hélium. Autre problème de taille, un réacteur à neutrons rapides (de 1GW électrique) nécessite de disposer d'au moins 12 tonnes de plutonium pour démarrer. Cet inventaire en matière fissile correspond à la masse totale de plutonium produite par un réacteur actuel pendant 50 ans de fonctionnement. Il apparaît clairement qu'il est impossible d'assurer un déploiement rapide du nucléaire basé seulement sur une filière rapide, et qu'il faudrait construire de nombreux réacteurs à uranium enrichi avant d'opérer la transition vers une filière durable basée sur le cycle uranium/plutonium à neutrons rapides.
Dans ce contexte, le cycle Thorium/Uranium-233 présente de nombreux avantages, à condition de mettre au point une nouvelle technologie. Il s'agit dans ce cas d'utiliser des neutrons de faible énergie, mais de retraiter efficacement le combustible, qui accumule des produits de fission. Compte tenu des faibles énergies de neutrons de ces réacteurs, ces produits de fission sont des poisons neutroniques efficaces, qui captureraient beaucoup de neutrons et rendraient impossible une régénération durable s'ils étaient laissés dans le combustible. Leur extraction rapide est rendue possible par l'utilisation d'un combustible liquide (sel fondu), servant lui-même de caloporteur, et qui peut être en partie dévié avant son retour en cSur, pour être retraité en ligne. Ce concept qui a fait l'objet d'études approfondies aux Etats-Unis dans les années 60 nécessite environ 2 tonnes de matière fissile (contre 12 pour un réacteur à neutrons rapides) pour démarrer, ce qui amène une souplesse de déploiement incontestable. Ces différents concepts sont étudiés dans le cadre du forum international Génération 4, lancés en 2001 à l'initiative des Etats-Unis, afin de mettre en commun au niveau mondial des efforts de recherche sur l'énergie de fission durable ( Cf. figure 14).
figure14
Les déchets : que faire en attendant ?
L'uranium enrichi après combustion contient encore 95 % d'uranium (essentiellement 238), environ 3 % de produits de fission (noyaux de masse 115 environ issus de la fission des actinides), et des noyaux plus lourds, plutonium en tête, lequel domine la radiotoxicité à long terme.
Comme on l'a vu, le plutonium est une matière fissile précieuse indispensable pour amorcer le déploiement de réacteurs régénérateurs durables. Il est par contre le déchet le plus important dans le cas d'un arrêt à court terme du nucléaire.
C'est pour cette raison qu'il est assez difficile aujourd'hui d'avoir une vision arrêtée de la gestion des déchets, inversement, il ne peut être envisageable de renvoyer toute décision au siècle prochain ; la souplesse et la capacité d'adaptation doivent donc être des caractéristiques recherchées dans les options retenues. En observant les diverses politiques de gestion de l'aval du cycle, on s'aperçoit qu'il existe déjà des différences notables entre divers pays. Certains pays (USA, Suède, ...) considèrent leur combustible irradié comme déchet à stocker (scénario de cycle ouvert). D'autres pays (France, Japon, ...) retraitent leur combustible pour en extraire l'uranium et le plutonium, ce dernier étant recyclé dans des combustibles de type MOX, pour un passage supplémentaire en réacteur. Ce scénario de mono-recyclage permet de réduire considérablement la charge thermique et radiotoxique des déchets destinés au stockage, puisque le plutonium en est absent. Il permet également de réduire les volumes de combustibles irradiés (contenant du plutonium) à entreposer, puisque seuls les MOX usés ne sont pas retraités. Cette stratégie constitue donc une solution d'attente assez optimisée, mais la gestion des MOX irradiés ne trouvera une réponse définitive que lorsqu'on sera certain de l'avenir du nucléaire.
Il est possible d'améliorer cette stratégie en séparant les actinides plus lourds (Am et Cm). Dans ce scénario optimisé, la radiotoxicité à long terme des déchets vitrifiés est réduite de près d'un facteur 1000. Une fois séparés, les actinides mineurs peuvent être incinérés dans des réacteurs dédiés, ou entreposés dans l'attente des réacteurs à neutrons rapides du futur, éventuellement capable de les incorporer à leur propre cycle. Encore une fois il ne s'agira que d'une solution d'attente.
Encadré 2
Le solaire photovoltaïque
Quel déploiement pour le solaire photovoltaïque ?
Il faut distinguer deux types d'utilisation de nature et d'horizons temporels très différents.
I - Zones rurales et isolées: les pays en développement (PED).
Parmi les problèmes auxquels doivent faire face les zones isolées, non reliées à un réseau électrique, et en particulier les PED, celui de l'énergie et de la production locale d'électricité pour satisfaire les besoins élémentaires des populations est certainement un des plus importants. Une quantité, même très faible, d'électricité (quelques watts pendant quelques heures par jour) est nécessaire pour atteindre un minimum de confort ou de sécurité médicale. Pour ces régions, le photovoltaïque est de loin la solution générale la mieux adaptée. En l'absence de connexion à un réseau électrique, la question du prix du kWh ne se pose pas, toutes les autres sources étant plus chères. Pour l'éclairage, par exemple, même la lampe à pétrole revient plus cher, sur le long terme, qu'un kit photovoltaïque ! La production individuelle, ou par mini-centrale à l'échelle d'un village, permet:
- de satisfaire les besoins de première nécessité (éclairage, pompage d'eau potable);
- de briser l'isolement des populations rurales (télévision, enseignement);
- la petite irrigation des cultures;
- de satisfaire certains problèmes de santé, comme le stockage au froid des vaccins ou l'alimentation de petites antennes médicales.
Bien sûr, l'alimentation en électricité des PED ne représente pas, même à l'échelle de la planète, une quantité d'énergie considérable, encore que l'on estime à 2 milliards, au moins, le nombre d'habitants qui ne sont pas (et ne seront sans doute jamais) reliés à un réseau de distribution électrique. Mais, le bénéfice humanitaire et politique est tellement conséquent, que c'est l'intérêt bien compris des pays industrialisés de participer, par leur capitaux mais aussi par leur potentiel de recherche, à ces opérations.
II - Production centralisée d'électricité: les centrales solaires
La production d'énergie solaire au niveau des mégawatts (MW) est d'une toute autre nature et fait l'objet de polémiques parfois passionnées. D'abord quelques remarques de mise au point pour corriger certaines opinions erronées et parfois absurdes.
a) Surface au sol. Le « sentiment » que la surface occupée par des centrales solaires serait rédhibitoire ne résiste pas à une analyse quantitative. L'énergie lumineuse reçue en plein soleil est proche de 1kW/m2. Mais cette énergie nous arrive d'une manière intermittente: il n'y en a pas la nuit, et même pendant le jour elle peut être fortement diminuée par la brume ou les nuages. Sur le territoire français, on observe effectivement que la puissance moyenne, sur une année, n'est que 100 à 200 W/m2 de puissance lumineuse suivant l'endroit. Le rendement de conversion électricité/lumière d'un capteur photovoltaïque industriel étant de 10 à 15 %, on arrive à une puissance moyenne électrique sur l'année de 10 à 30 W/m2. Pour une centrale de 1000 MW, cela représente une surface, dans le pire des cas de (10x10km2), à (6x6km2) dans un cas plus favorable. Ces surfaces sont acceptables pour un site industriel, et extrapolables à une centaine de sites totalisant toute la production française d'électricité.
b) Stockage inter saisonnier. Le stockage long terme n'est pas un problème spécifique du photovoltaïque. Il est vrai que l'énergie solaire nous arrive d'une manière intermittente et qu'un stockage inter saisonnier est nécessaire pour parler de moyenne annuelle. Mais s'il était réalisé, il permettrait de corriger dès maintenant la différence de rythme entre la production (continue) et l'utilisation (en pointes) de l'électricité. L'économie réalisée par ce stockage est estimée à 13 % de la production française, soit beaucoup plus que la production photovoltaïque avant de nombreuses années. Une des manières de réaliser ce stockage inter saisonnier serait, par exemple, de produire de l'hydrogène et de l'oxygène par électrolyse, et de stocker les gaz ainsi obtenus dans des anticlinaux vidés de leur pétrole ou de leur gaz naturel, par exemple sur le site de Lacq en Aquitaine.
Quand peut-on espérer une pénétration non négligeable (disons 25 %) du photovoltaïque dans la production française d'électricité ? Les avis divergent fortement, sans que personne de responsable n'avance de date inférieure à 2020-2030. La condition nécessaire pour une telle pénétration est que le kWh photovoltaïque descende au dessous du prix des autres sources d'énergie. Le problème est difficile et les prédictions aléatoires. Les paramètres techniques et scientifiques ne sont pas seuls en cause, encore que des grands progrès, ou même une percée, dans la physique des matériaux photovoltaïques pourraient changer la donne: il faut poursuivre et sans doute augmenter l'effort de recherche dans ce domaine.
Mais la réponse dépend fortement des conditions économiques et politiques. Les plus optimistes (les Allemands en particulier, surtout pour des raisons d'écologie) pensent que, à condition qu'un effort et qu'une volonté politique suffisants soient déployés, l'électricité solaire pourrait aboutir avant 2050. D'autres sont très sceptiques sur cette prédiction et pensent que l'électricité photovoltaïque ne pourra déboucher que lorsque les autres sources d'énergie auront disparu ou seront devenues très chères, soit pas avant la fin du siècle.
La France, fière (à juste titre) de son parc nucléaire, a fortement réduit ces dernières années son activité technique et scientifique dans le domaine des cellules solaires. C'est bien dommage, car notre pays, qui pourtant a été pionnier dans l'invention et la recherche du photovoltaïque, risque ainsi d'être absent dans les énergies du futur.
[1] Ce texte est paru initialement dans/Images de la physique de 2005/ (édition, année de la physique)

 

VIDEO                CANAL  U               LIEN


(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
 

PROJECTIONS CLIMATIQUES

 

Paris, 2 décembre 2013


Des projections climatiques d'une précision inégalée sur toute l'Europe


Une équipe internationale impliquant le CNRS, Météo-France, le CEA, l'UVSQ et l'INERIS1, a réalisé puis analysé2 un ensemble de projections climatiques sur toute l'Europe d'une résolution sans précédent (12 km), en affinant les simulations globales réalisées pour le 5e rapport du GIEC. Ces simulations pour le XXIe siècle offrent désormais une représentation beaucoup plus fine des phénomènes locaux et des événements extrêmes. Les premières analyses confirment un accroissement sensible de la fréquence des événements extrêmes : pluies intenses, vagues de chaleur et périodes de sécheresses. Les données de ce projet Euro-Cordex viennent d'être rendues publiques et mises à disposition des scientifiques. Elles permettront de nouvelles études, plus précises, de l'impact du changement climatique en Europe sur la qualité de l'air, l'hydrologie et les événements extrêmes. Autant de domaines qui concernent des secteurs clés comme l'énergie, la santé et l'agriculture.
Euro-Cordex : des prévisions plus fines sur le climat de l'Europe 
Ces nouvelles simulations confirment les projections présentées en septembre dernier3 pour la planète tout en donnant une vision beaucoup plus précise sur l'Europe. Elles prévoient une hausse des températures en Europe de 1°C à 5°C d'ici la fin du XXIe siècle, avec des différences d'une région et d'une saison à une autre. L'Europe du Sud devrait subir un réchauffement beaucoup plus rapide que l'Europe du Nord en été, et le réchauffement hivernal serait plus rapide sur l'Est et le Nord de l'Europe. Les précipitations devraient être plus fortes sur le Nord de l'Europe et plus faibles sur le Sud. Dans pratiquement tous les pays européens, les simulations projettent une fréquence accrue des précipitations intenses, phénomènes bien mieux représentés qu'auparavant grâce à la haute résolution obtenue. Des périodes sèches plus longues et des vagues de chaleur plus fréquentes sont annoncées. La France quant à elle a un futur contrasté avec une augmentation marquée et généralisée des précipitations en hiver, ainsi qu'une augmentation des périodes sèches en été, particulièrement dans sa partie méridionale. Les simulations de haute résolution permettent de représenter des phénomènes comme les précipitations intenses sur les massifs montagneux (voir figure ci-dessous).

 

DOCUMENT                CNRS                LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google