text stringlengths 1 572k |
|---|
Tableau périodique des éléments Le tableau périodique des éléments, également appelé tableau ou table de Mendeleïev, classification périodique des éléments ou simplement tableau périodique, représente tous les éléments chimiques, ordonnés par numéro atomique croissant et organisés en fonction de leur configuration électronique, laquelle sous-tend leurs propriétés chimiques. La conception de ce tableau est généralement attribuée au chimiste russe Dmitri Ivanovitch Mendeleïev, qui, en 1869, construisit une table, différente de celle qu'on utilise aujourd'hui, mais semblable dans son principe, dont le grand intérêt était de proposer une classification systématique des éléments connus à l'époque en vue de souligner la périodicité de leurs propriétés chimiques, d'identifier les éléments qui restaient à découvrir, voire de prédire certaines propriétés d'éléments chimiques alors inconnus. Le tableau périodique a connu de nombreux réajustements depuis lors jusqu'à prendre la forme que nous lui connaissons aujourd'hui. Il est devenu un référentiel universel auquel peuvent être rapportés tous les types de comportements physiques et chimiques des éléments. Depuis la mise à jour de l'UICPA du , sa forme standard comporte , allant de l'hydrogène H à l'oganesson Og. Le tableau périodique standard. Ce tableau est la représentation la plus usuelle de la classification des éléments chimiques. Certains chimistes ont proposé d'autres façons de classer les éléments, mais celles-ci restent bornées au domaine scientifique. Parmi les chimiques connus, 83 sont dits primordiaux parce qu'ils possèdent au moins un isotope stable ou suffisamment stable pour être plus ancien que la Terre. Parmi eux, trois sont radioactifs : l'uranium U, le thorium Th et le bismuth Bi ; la radioactivité de ce dernier est cependant si faible qu'elle n'a été mise en évidence qu'en 2003<ref name="10.1038/nature01541"> </ref>. existent naturellement dans l'environnement terrestre, mais sont trop radioactifs pour que leurs isotopes présents lors de la formation du Système solaire aient pu subsister jusqu'à nos jours : ils sont formés continuellement par désintégration radioactive d'autres éléments chimiques, principalement de l'uranium et du thorium. C'est par exemple le cas du technétium Tc, le plus léger d'entre eux, qui est un produit de fission de l'uranium, ou encore du plutonium Pu, le plus lourd d'entre eux, qui est considéré comme un radioisotope naturel présent à l'état de traces dans la pechblende, principal minerai d'uranium. La chaîne de désintégration de l'uranium 238, principal isotope naturel d'uranium, produit ainsi continuellement du protactinium Pa, du thorium Th et Th, du radium Ra, du radon Rn, du polonium Po, Po et Po, du bismuth Bi et Bi, et du plomb Pb, Pb et Pb ; ce dernier est stable. Les éléments sont dits synthétiques, car ils n'existent pas naturellement dans l'environnement terrestre et sont produits artificiellement dans les réacteurs nucléaires ou expérimentalement en laboratoire. On peut cependant trouver certains d'entre eux dans la nature à la suite d'essais nucléaires atmosphériques ou d'accidents nucléaires, comme c'est le cas, dans certaines zones contaminées, pour l'américium Am, le curium Cm, le berkélium Bk et le californium Cf. Hors de notre planète, ces éléments, ainsi que l'einsteinium Es, sont peut-être produits naturellement par <ref name="10.1007/s11443-008-3006-1"> </ref> lors d'explosions de supernovae, comme on l'a longtemps pensé de l'isotope Cf<ref name="10.1103/PhysRev.103.1145"> </ref><ref name="10.1086/126941"> </ref><ref name="10.1007/BF00630928"> </ref>, hypothèse cependant réfutée depuis lors<ref name="10.1364/JOSA.52.000222"> </ref> ; ils auraient également été détectés dans le spectre de l'étoile de Przybylski<ref name="10.3103/S0884591308020049"> </ref>. Parmi les dont l'état standard est connu aux conditions normales de température et de pression ( et ), 90 sont solides, 11 sont gazeux, et seulement deux sont liquides : le brome Br, fondant à , et le mercure Hg, fondant à ; plusieurs éléments solides ont cependant un point de fusion voisin de la température ambiante, par exemple le francium Fr, à , le césium Cs, à , le gallium Ga, à , le rubidium Rb, à , ou encore le phosphore blanc P, à . Construction du tableau. Dans la mesure où les propriétés physico-chimiques des éléments reposent sur leur configuration électronique, cette dernière est sous-jacente à l'agencement du tableau périodique. Ainsi, chaque ligne du tableau, appelée période, correspond à une couche électronique, identifiée par son nombre quantique principal, noté : il existe sept couches électroniques connues à l'état fondamental, donc sept périodes dans le tableau périodique standard, numérotées de 1 à 7. Chaque période est elle-même scindée en un à quatre blocs, qui correspondent aux sous-couches électroniques, identifiées par leur nombre quantique secondaire, noté : il existe quatre types de sous-couches électroniques connues à l'état fondamental, notées "s", "p", "d" et "f" (ces lettres viennent d'abréviations utilisées initialement en spectroscopie). Chacune de ces sous-couches contient respectivement 1, 3, 5 et 7 orbitales atomiques, identifiées par leur nombre quantique magnétique, noté . Enfin, chaque orbitale est occupée par au plus deux électrons, identifiés chacun par leur nombre quantique magnétique de spin, noté . Chaque électron d'un atome est donc décrit par quatre nombres quantiques, qui vérifient les propriétés suivantes : En vertu du principe d'exclusion de Pauli, selon lequel deux fermions (ici, deux électrons) d'un même système (ici, un même atome) ne peuvent partager le même état quantique, les sous-couches électroniques "s", "p", "d" et "f" ne peuvent contenir chacune qu'au plus 2, 6, 10 et 14 électrons respectivement ; dans le tableau périodique, elles matérialisent ainsi le bloc s, le bloc p, le bloc d et le bloc f, contenant respectivement 2, 6, 10 et 14 éléments par période. Si l'on respecte la construction du tableau par blocs en fonction des configurations électroniques, l'hélium devrait se trouver au-dessus du béryllium dans la , celle dont les atomes ont une sous-couche externe "n"s, et non au-dessus du néon dans la , dont les atomes ont une sous-couche externe "n"p ; l'hélium est cependant positionné usuellement dans la , car c'est celle des gaz nobles, dont il fait chimiquement partie. Règle de Klechkowski. Toutes les sous-couches d'une période n'appartiennent pas nécessairement à la même couche électronique : à partir de la , des sous-couches appartenant à des couches différentes se remplissent sur une même période. En effet, la distribution des électrons sur les différents niveaux d'énergie quantiques autour de l'atome obéit au principe d"'Aufbau" (« "édification" » en allemand), selon lequel l'ordre précis des sous-couches électroniques est donné par la règle de Klechkowski : les sous-couches sont remplies afin que les valeurs puis soient croissantes, avec le nombre quantique principal et le nombre quantique azimutal. C'est la succession des sous-couches électroniques de chaque période qui détermine la structure du tableau périodique en blocs, chaque période étant définie par le retour d'une sous-couche "s" suivant une sous-couche "p" de la période précédente, avec un nombre quantique principal incrémenté d'une unité. Exceptions et règle de Hund. La règle de Klechkowski est observée pour plus de 80 % des 103 éléments dont la configuration électronique à l'état fondamental est connue avec précision, mais une vingtaine d'éléments y font exception. L'état fondamental est en effet, par définition, celui dont l'énergie est la plus faible, et le nombre quantique magnétique de spin des électrons entre en jeu pour déterminer cette énergie : plus le spin résultant des électrons d'une orbitale atomique est élevé, plus la configuration de ces électrons sur cette orbitale est stable (règle de Hund). Il s'ensuit que, pour les éléments du bloc "d" et du bloc "f" (métaux de transition, lanthanides et actinides), il est énergétiquement moins favorable de suivre la règle de Klechkowski que de favoriser l'occupation impaire des sous-couches les plus externes lorsque la couche "d" ou "f" est vide, à moitié remplie ou entièrement remplie, car l'écart d'énergie entre ces sous-couches est inférieur au gain d'énergie induit par la redistribution des électrons de telle sorte que leur nombre quantique magnétique de spin résultant soit le plus élevé — dans le tableau qui suit, les distributions d'électrons irrégulières sont indiquées en gras : Périodicité des propriétés chimiques. Le grand intérêt de la classification périodique est d'organiser les éléments chimiques de telle sorte que leurs propriétés physico-chimiques puissent être largement prédites par leur position dans la table. Ces propriétés évoluent différemment selon qu'on se déplace verticalement ou horizontalement dans le tableau. Périodes et groupes du tableau périodique. Une période désigne une ligne du tableau périodique. Elle se définit par le remplissage progressif des sous-couches électroniques jusqu'à atteindre la sous-couche "s" de la couche électronique suivante. Les propriétés des éléments varient généralement beaucoup le long d'une période, mais peuvent être localement assez semblables et constituer des familles d'éléments chimiques complètes, notamment dans le bloc d (métaux dits « de transition ») et surtout dans le bloc f (lanthanides sur la et actinides sur la ). Un groupe désigne une colonne du tableau périodique. Chacun des 18 groupes du tableau périodique standard constitue souvent un ensemble d'éléments aux propriétés distinctes des groupes voisins, notamment aux extrémités gauche et droite du tableau périodique (c'est-à-dire dans les blocs s et p), où ils se sont vu attribuer des noms d'usage au fil du temps : Si les termes "pnictogène" et "chalcogène" sont aujourd'hui assez désuets, les quatre autres en revanche sont encore très employés car ils se confondent usuellement avec des familles de même nom : Le groupe 3 est un cas particulier dans la mesure où sa composition ne fait pas l'objet d'un consensus parmi les chimistes : si les éléments des périodes 4 et 5 qui le constituent sont toujours le scandium et l'yttrium, ceux des périodes 6 et 7 sont en revanche ou bien le lanthane et l'actinium, ou bien le lutécium et le lawrencium. Cela signifie que la composition des blocs d et f est également variable selon les auteurs, car le groupe 3 fait partie du bloc d. La première option, plaçant le lanthane et l'actinium dans le groupe 3, et donc dans le bloc d, était prépondérante jusqu'au début du siècle, avec, semble-t-il, un renversement de tendance depuis lors ; ce choix relève essentiellement d'une convention : les propriétés chimiques du scandium, de l'yttrium et des (lanthane et lutécium compris) sont ainsi suffisamment semblables pour que ces éléments soient collectivement appelés "terres rares". De son côté, l'Union internationale de chimie pure et appliquée () a émis en une proposition plaçant le lutécium et le lawrencium dans le groupe 3 comme compromis satisfaisant les principes généraux qui, selon elle, doivent guider la mise en forme du tableau périodique. Variations des propriétés des éléments à travers le tableau. La description quantique de la configuration électronique des atomes permet d'expliquer la similitude des propriétés chimiques au sein d'un groupe par une configuration identique des électrons dans la couche de valence. Le rayon atomique augmente rapidement de haut en bas d'une colonne, car à chaque période s'ajoute une couche électronique. En corollaire, l'énergie d'ionisation et l'électronégativité diminuent, car les électrons périphériques sont moins fortement liés au noyau dans le bas du tableau. Outre les analyses par lignes et par colonnes, le tableau périodique permet également d'établir des relations diagonales entre certains éléments chimiques des deuxième et troisième périodes qui se trouvent en diagonale les uns par rapport aux autres dans le tableau. Il s'agit toujours de la direction diagonale allant du haut à gauche vers le bas à droite, car parcourir une période vers la droite et descendre le long d'une colonne se traduisent de façon opposée sur la couche de valence des atomes (respectivement, diminution et augmentation du rayon atomique, d'où augmentation et diminution de l'électronégativité). Il s'ensuit certaines similitudes entre éléments diagonaux, qui pourtant ne partagent ni la même période ni le même groupe : la distribution des métalloïdes dans le tableau périodique illustre cet effet. Rayon atomique. D'une manière générale, le rayon atomique tend à décroître lorsqu'on parcourt une période de gauche à droite, depuis les métaux alcalins jusqu'aux gaz nobles, et à croître lorsqu'on parcourt un groupe de haut en bas. Il croît brutalement lorsqu'on passe d'une période à la suivante, entre le gaz noble d'une période "P" et le métal alcalin de la période . Ceci s'explique très bien par les couches électroniques constituant les atomes, et ces observations fournissent des preuves importantes pour l'élaboration et la confirmation des théories de la mécanique quantique. La décroissance du rayon atomique le long des périodes résulte notamment du fait que la charge électrique du noyau atomique augmente tout au long de chaque période, ce qui accroît l'attraction du noyau sur les électrons et réduit par conséquent le volume des orbitales atomiques. La contraction des lanthanides, observée au cours du remplissage de la sous-couche 4f, illustre très bien ce phénomène : le rayon atomique de l'osmium () est quasiment identique à celui du ruthénium (), qui lui est juste au-dessus dans le tableau. Cette particularité s'observe le long de la à partir du hafnium () jusqu'au platine (), après lequel elle est masquée par un effet relativiste appelé effet de paire inerte. Un phénomène semblable s'observe également avec le remplissage des sous-couches "n"d du bloc d, mais est moins marqué que celui observé avec les lanthanides, bien qu'il ait la même origine. Le tableau ci-dessous présente les rayons de covalence moyens mesurés pour la plupart des atomes, qui illustrent les tendances observées pour les rayons atomiques à travers le tableau périodique : Énergie d'ionisation. L'énergie d'ionisation, qui correspond implicitement à l'énergie de première ionisation, est l'énergie minimum nécessaire pour retirer un électron à un atome et former un cation. L'électron retiré est le moins lié au noyau atomique et se trouve dans la couche de valence. L'énergie de deuxième ionisation est par conséquent l'énergie nécessaire pour retirer un deuxième électron à l'ion précédemment formé, etc. Pour un atome donné, les énergies d'ionisation successives augmentent avec le degré d'ionisation. Pour le magnésium, par exemple, l'énergie de première ionisation est de pour former le cation Mg, tandis que l'énergie de deuxième ionisation est de pour former le cation Mg. Cela s'explique par le fait que les électrons sont d'autant plus liés au noyau qu'ils sont dans des sous-couches intérieures, ce qui explique également que l'énergie de première ionisation croisse quand on se rapproche du haut et de la droite du tableau. L'énergie d'ionisation fait un bond lorsqu'on tente d'arracher un électron à une configuration électronique de gaz noble, ce qui est par exemple le cas du magnésium ionisé deux fois Mg, dont la configuration électronique est très semblable à celle du néon : l'énergie de troisième ionisation passe à pour former le cation Mg et correspond à l'arrachement d'un électron de la sous-couche 2p après que les deux électrons de la sous-couche 3s ont été retirés lors des première et deuxième ionisations. Le tableau ci-dessous représente la première énergie d'ionisation mesurée pour la plupart des éléments, ce qui permet de visualiser les variations de cette grandeur à travers le tableau périodique. On observe en particulier plusieurs minima locaux autour de l'angle inférieur gauche des différents blocs, césium et francium pour le , actinium pour le , lawrencium pour le et thallium pour le : Électronégativité. L'électronégativité est une indication de la tendance d'un atome à attirer les électrons. Elle dépend à la fois du numéro atomique et de l'éloignement des électrons de valence par rapport au noyau atomique. Plus l'électronégativité est élevée, plus l'élément attire les électrons. Cette grandeur, déterminée par exemple par l'échelle de Pauling, suit globalement la même tendance que l'énergie d'ionisation : elle croît quand on va vers le haut et vers la droite du tableau, avec un maximum pour le fluor et un minimum pour le francium. Il existe cependant des exceptions à cette règle générale, qui suivent les exceptions à l'évolution du rayon atomique : le gallium et le germanium ont une électronégativité supérieure à celle de l'aluminium et du silicium respectivement en raison de la contraction du bloc d. Les éléments de la qui viennent immédiatement après les métaux de transition ont des rayons atomiques particulièrement petits, d'où une électronégativité plus élevée. On observe également que les métaux du groupe du platine et les métaux nobles ont une électronégativité particulièrement élevée et croissante vers le bas du tableau, phénomène qu'on observe également le long du groupe. Affinité électronique. L'affinité électronique d'un atome est la quantité d'énergie libérée lorsqu'un électron est ajouté à un atome neutre pour former un anion. Cette grandeur varie beaucoup d'un élément à un autre, mais des tendances sont perceptibles à travers le tableau périodique, présentant certaines similitudes avec l'électronégativité. Les halogènes présentent la plus forte affinité électronique, très supérieure à celle de tous les autres éléments ; elle est maximum pour le chlore, et non le fluor, à la différence de l'électronégativité. D'une manière générale, les non-métaux ont une affinité électronique plus positive que celle des métaux, tandis que celle des gaz nobles, réagissant trop peu, n'a pas été mesurée. L'affinité électronique croît généralement le long d'une période, mais il est plus difficile de dégager une tendance le long des groupes : elle devrait décroître en descendant le long d'un groupe puisque les couches de valence sont de moins en moins liées au noyau, mais on observe expérimentalement qu'environ un tiers des éléments échappent à cette tendance, et présentent une affinité électronique supérieure à celle de l'élément situé au-dessus d'eux dans le tableau périodique ; seul le , celui des métaux alcalins, est caractérisé par une décroissance régulière de l'affinité électronique. Caractère métallique. En fonction de leurs propriétés physiques et chimiques générales, les éléments peuvent être classés en métaux, métalloïdes et non-métaux : Plus l'énergie d'ionisation, l'électronégativité et l'affinité électronique sont faibles, plus l'élément a un caractère métallique prononcé. Réciproquement, les éléments pour lesquels ces grandeurs sont élevées sont non métalliques. Les non-métaux se regroupent par conséquent autour de l'angle supérieur droit du tableau (typiquement le fluor et le chlore), tandis que la grande majorité des éléments ont un caractère métallique plus ou moins prononcé, les plus métalliques se regroupant autour de l'angle inférieur gauche (typiquement le francium et le césium). Entre ces deux extrêmes, on a coutume de distinguer parmi les métaux : Parmi les non-métaux, on peut distinguer, outre les familles conventionnelles : Familles d'éléments chimiques et autres regroupements. Au-delà des lignes, des colonnes et des diagonales, les éléments sont traditionnellement regroupés en familles aux propriétés physico-chimiques homogènes : Aux extrémités gauche et droite du tableau, ces familles se confondent à peu près avec les groupes, tandis qu'au centre du tableau elles ont plutôt tendance à se confondre avec les blocs, voire avec les périodes. Ces regroupements d'éléments fondés sur leurs propriétés physiques et chimiques sont par essence imparfaits, car ces propriétés varient souvent de manière assez continue à travers le tableau périodique, de sorte qu'il est fréquent d'observer des recouvrements aux limites entre ces regroupements. Ainsi, le béryllium est toujours classé parmi les métaux alcalins bien que ses oxydes soient amphotères et qu'il présente une tendance marquée à former des composés covalents, deux caractéristiques des métaux pauvres comme l'aluminium. De même, le radon est toujours classé comme gaz noble bien qu'il ne soit pas chimiquement inerte et tende à former des composés ioniques, ce qui le rapproche des métaux. D'autres regroupements sont également en usage, par exemple : Limites à la périodicité aux confins du tableau. La configuration électronique des éléments est décrite de façon satisfaisante par le modèle des orbitales atomiques jusqu'au milieu de la . Pour , des effets relativistes deviennent significatifs sur des électrons en interaction avec un noyau très fortement chargé, certaines corrections induites par l'électrodynamique quantique ne peuvent plus être négligées, les approximations considérant les électrons de façon individuelle pour déterminer les orbitales — approximation du champ central — ne sont plus valides, et des effets de couplage spin-orbite redistribuent les niveaux d'énergie, et donc les sous-couches électroniques. Il s'ensuit que la distribution des électrons autour du noyau devient délicate à modéliser pour ces éléments, et qu'on peut s'attendre à ce que leurs propriétés chimiques soient plus difficiles à prévoir. Si les propriétés physiques et chimiques de tous les éléments jusqu'au hassium Hs sont bien connues, seuls deux éléments de numéro atomique supérieur à 108 ont fait l'objet d'études expérimentales : le copernicium Cn et le flérovium Fl ; on n'a par conséquent que très peu d'informations sur les propriétés physiques et chimiques des autres éléments de numéro atomique supérieur à 108. Le copernicium Cn, dont les propriétés chimiques ont été particulièrement étudiées, s'est révélé être un homologue plus volatil du mercure et prolonge donc bien le . Il peut ainsi être rangé parmi les métaux pauvres comme le mercure, mais il semble également répondre à la définition de l'IUPAC pour les éléments de transition, c'est-à-dire « un élément chimique dont les atomes ont une sous-couche électronique "d" incomplète, ou qui peuvent former des cations dont la sous-couche électronique "d" est incomplète » en raison d'effets relativistes stabilisant la sous-couche électronique "s" au détriment de la sous-couche "d" : le cation Cn aurait ainsi la configuration électronique . Le copernicium présente par ailleurs certaines propriétés le rapprochant des gaz nobles et pourrait d'ailleurs être gazeux. Le flérovium, quant à lui, présente des propriétés ambiguës : davantage métal que gaz noble, contrairement à ce que laissaient penser les premiers résultats obtenus en 2008, il serait lui aussi volatil, mais plus réactif que le copernicium, et pourrait appartenir, tout comme lui, à une nouvelle famille correspondant à des « métaux volatils », intermédiaires entre métaux et gaz nobles du point de vue de leurs propriétés d'adsorption sur l'or ; dans la mesure où il s'avère chimiquement semblable au plomb, il peut être vu comme un métal pauvre, mais ne peut en toute rigueur être rangé dans une famille d'éléments en l'état actuel de nos connaissances. Les propriétés de l'oganesson Og, qui devrait être un gaz noble en vertu de son positionnement en bas de la du tableau, n'ont pas été étudiées expérimentalement ; des modélisations suggèrent qu'il pourrait peut-être s'agir d'un solide semiconducteur ayant des propriétés évoquant les métalloïdes<ref name="10.1007/978-3-642-37466-1_8"> </ref>. Isotopes et radioactivité. Isotopes. Les éléments chimiques sont identifiés dans le tableau périodique par leur numéro atomique, qui représente le nombre de protons que contient leur noyau, mais il peut exister plusieurs atomes différents pour un même élément chimique, différant les uns des autres par le nombre de neutrons dans leur noyau. Dans la mesure où ces atomes occupent la même case dans le tableau périodique, ils sont dits "isotopes" — avec une étymologie issue du grec ancien ἴσος τόπος signifiant « "au même endroit" ». Les isotopes d'un élément ont généralement exactement les mêmes propriétés chimiques, car leur configuration électronique est identique. Mais la masse du noyau étant différente, on observe un effet isotopique d'autant plus prononcé que l'atome est léger. C'est notamment le cas pour le lithium Li, l'hélium He (du point de vue de ses propriétés physiques) et surtout l'hydrogène H. L'isotope H (deutérium) de l'hydrogène est suffisamment différent de l'isotope H (protium) pour que l'UICPA admette — mais sans le recommander — l'usage d'un symbole chimique spécifique au deutérium (D) distinct de celui de l'hydrogène (H). Radioactivité. 80 des 118 éléments du tableau périodique standard possèdent au moins un isotope stable : ce sont tous les éléments de numéro atomique compris entre 1 (hydrogène) et 82 (plomb) hormis le technétium Tc et le prométhium Pm, qui sont radioactifs. Dès le bismuth Bi, tous les isotopes des éléments connus sont radioactifs. L'isotope Bi a ainsi une période radioactive valant un milliard de fois l'âge de l'univers. Lorsque la période dépasse quatre millions d'années, la radioactivité produite par ces isotopes devient négligeable et présente à court terme un risque sanitaire très faible : c'est par exemple le cas de l'uranium 238, dont la période est de près de 4,5 milliards d'années et dont la toxicité est avant tout chimique<ref name="10.1016/S0162-0134(02)00391-4"> </ref>, à travers notamment des composés solubles tels que , , , , , , , certains composés peu solubles tels que et étant quant à eux radiotoxiques. Au-delà de Z = 110 (darmstadtium Ds), tous les isotopes des éléments ont une période radioactive de moins de 30 secondes, et de moins d'un dixième de seconde à partir de l'élément 115 (moscovium Mc). Le modèle en couches de la structure nucléaire permet de rendre compte de la plus ou moins grande stabilité des noyaux atomiques en fonction de leur composition en nucléons (protons et neutrons). En particulier, des « nombres magiques » de nucléons, conférant une stabilité particulière aux atomes qui en sont composés, ont été observés expérimentalement, et expliqués par ce modèle. Le plomb 208, qui est le plus lourd des noyaux stables existants, est ainsi composé du nombre magique de et du nombre magique de . Certaines théories extrapolent ces résultats en prédisant l'existence d'un îlot de stabilité parmi les nucléides superlourds, pour un « nombre magique » de et — selon les théories et les modèles — 114, 120, 122 ou 126 protons ; une approche plus moderne montre toutefois, par des calculs fondés sur l'effet tunnel, que, si de tels noyaux doublement magiques sont probablement stables du point de vue de la fission spontanée, ils devraient cependant subir des désintégrations α avec une période radioactive de quelques microsecondes, tandis qu'un îlot de relative stabilité pourrait exister autour du darmstadtium 293, correspondant aux nucléides définis par Z compris entre 104 et 116 et N compris entre 176 et 186 : ces éléments pourraient avoir des isotopes présentant des périodes radioactives de l'ordre de la minute. Extension du tableau périodique. Limite du tableau périodique. On ignore jusqu'à combien de protons et d'électrons un même atome peut contenir. La limite d'observabilité pratique est généralement estimée à au plus , dans la mesure où l'existence des atomes superlourds se heurte à la limite de stabilité des noyaux<ref name="10.1038/nature03336"> </ref>. Cela place la fin du tableau périodique peu après l'une des valeurs proposées pour le dernier îlot de stabilité, centré dans ce cas autour de . Richard Feynman releva en 1948 qu'une interprétation simple de l'équation de Dirac semi-relativiste aboutit à une impossibilité pour représenter les orbitales atomiques lorsque le numéro atomique vaut , où α est la constante de structure fine : de tels atomes ne pourraient avoir d'orbitale électronique stable pour plus de , ce qui rendrait impossible l'existence d'atomes électriquement neutres au-delà de ; l' est depuis lors parfois surnommé « feynmanium »<ref name="10.1007/978-3-642-28506-6_1"> </ref>. Le modèle de Bohr donne par ailleurs une vitesse supérieure à celle de la lumière pour les électrons de la sous-couche 1s dans le cas où . Une étude plus poussée, prenant notamment en compte la taille non nulle du noyau, montre cependant que le nombre critique de protons pour lequel l'énergie de liaison électron-noyau devient supérieure à 2"m""c", où "m" représente la masse au repos d'un électron ou d'un positron, vaut : dans ce cas, si la sous-couche 1s n'est pas pleine, le champ électrostatique du noyau y crée une paire électron-positron<ref name="10.1119/1.2820395"> avec notamment toute une liste de références à consulter sur le thème de l'électrodynamique quantique. </ref>, d'où l'émission d'un positron<ref name="10.1126/science.1234320"> </ref> ; si ce résultat n'écarte pas complètement la possibilité d'observer un jour des atomes comprenant plus de , il met en lumière un facteur supplémentaire d'instabilité les concernant. Conjectures au-delà de la. Au-delà des sept périodes standard, une huitième période est envisagée pour classer les atomes — à ce jour inobservés — ayant plus de . Cette huitième période serait la première à posséder des éléments du bloc g, caractérisés à l'état fondamental par des électrons sur une orbitale g. Néanmoins, compte tenu des limites à la périodicité aux confins du tableau — effets relativistes sur les électrons des très gros atomes — qui deviennent significatifs dès le dernier tiers de la , il est peu probable que la configuration électronique de tels atomes obéisse aux règles observées tout au long des six premières périodes. Il est en particulier délicat d'établir le nombre d'éléments contenus dans ce : la règle de Klechkowski en prédit 18, mais la méthode de Hartree-Fock en prédit 22. Le tableau périodique étendu à la huitième période avec dans le pourrait ainsi présenter l'aspect suivant : Une neuvième période est parfois évoquée, mais, compte tenu de l'incertitude réelle quant à la possibilité d'observer à terme plus d'une dizaine d'éléments nouveaux sur la huitième période, tous les éléments de numéro atomique supérieur à 130 relèvent "a priori" de la pure extrapolation mathématique. À noter qu'une variante de la table ci-dessus, proposée par Fricke en 1971<ref name="10.1007/BF01172015"> </ref> et revue par Pekka Pyykkö en 2011<ref name="10.1039/C0CP01575J"> </ref>, répartit les éléments sur , et non 8, en les distribuant de manière non périodique : les éléments 139 et 140 sont ainsi placés entre les éléments 164 et 169, dans le et non plus dans le , tandis que les éléments 165 à 168 sont placés sur une dans les et p. Historique. De la toute première tentative de classification des éléments chimiques par Antoine Lavoisier en 1789 au tableau périodique de Glenn Seaborg que nous utilisons aujourd'hui, de nombreux hommes de sciences, issus d'horizons — et parfois de disciplines — différents, ont apporté chacun leur contribution, sur une période de près de deux siècles. Première classification d'Antoine Lavoisier. C'est en 1789 que le chimiste français Antoine Lavoisier a publié à Paris son "Traité élémentaire de chimie, présenté dans un ordre nouveau et d'après les découvertes modernes". Cet ouvrage en deux volumes a jeté les bases de la chimie moderne, en faisant le point sur les connaissances de la fin du dans cette discipline. Il y précise notamment le concept d'élément chimique comme une "substance simple" qui ne peut être décomposée en d'autres substances, avec en corollaire la loi fondamentale de conservation de la masse de chacune de ces "substances simples" au cours des réactions chimiques. Il mentionna également le fait que de nombreuses substances considérées comme simples par le passé, se sont révélées être en réalité des composés chimiques (par exemple, l'huile et le sel marin), et il précisa s'attendre à ce qu'on considère sous peu les "terres" (c'est-à-dire certains minerais) comme des substances composées de nouveaux éléments. Il publia dans cet ouvrage un tableau récapitulatif des « substances » considérées à son époque comme des éléments chimiques, en prenant soin d'établir une équivalence avec le vocabulaire hérité des alchimistes afin d'éliminer toute ambiguïté. Ce tableau, qui se voulait exhaustif et outil de référence, mentionnait ainsi, parmi les éléments chimiques, la lumière et le feu, encore considérés à cette époque comme des principes « chimiques » bien que Lavoisier lui-même ait invalidé la théorie du phlogistique : Les éléments chimiques y sont classés en quatre familles : Le chlore est désigné comme « "radical muriatique" », car Lavoisier considérait que tous les acides étaient des oxoacides — le nom "oxygène" signifie étymologiquement « formant des acides » — et cherchait donc le « radical » que l'oxygène aurait rendu acide — l"'acide muriatique" désignait l'acide chlorhydrique, qui ne contient cependant pas d'oxygène. Cette classification a surtout le mérite de clarifier certaines notions fondamentales, mais ne révèle encore aucune périodicité des propriétés des éléments classés : les métaux sont ainsi recensés tout simplement par ordre alphabétique en français. Triades de Johann Döbereiner. La première tentative de classification moderne des éléments chimiques revient au chimiste allemand Johann Wolfgang Döbereiner qui, en 1817, nota que la masse atomique du strontium (88) était égale à la moyenne arithmétique des masses atomiques du calcium (40) et du baryum (137), qui ont des propriétés chimiques semblables (aujourd'hui, ils sont classés parmi les métaux alcalino-terreux). En 1829, il avait découvert deux autres « triades » de ce type : celle des halogènes (la masse atomique du brome (80) étant égale à la moyenne arithmétique (81) de celles du chlore (35,5) et de l'iode (127)) et celle des métaux alcalins (la masse atomique du sodium (23) étant égale à la moyenne arithmétique de celles du lithium (7) et du potassium (39)). D'autres chimistes identifièrent d'autres séries d'éléments, et Leopold Gmelin publia en 1843 la première édition de son "Handbuch der Chemie", qui mentionnait des triades, ainsi que trois « tétrades » et une « pentade » — azote, phosphore, arsenic, antimoine et bismuth, que nous connaissons aujourd'hui comme les éléments du groupe 15 du tableau périodique. Tétrades de Jean-Baptiste Dumas. En 1859, le chimiste français Jean-Baptiste Dumas généralisa les triades de Döbereiner en les étendant en tétrades incluant les éléments les plus légers, définies non plus par les moyennes arithmétiques, mais par une progression similaire d'une tétrade à l'autre, par exemple : Bien qu'en apparence similaire à celle de Döbereiner, l'approche de Dumas était potentiellement bien plus féconde, car applicable de façon pertinente à un bien plus grand nombre d'éléments : alors que les progressions arithmétiques sont restreintes à quelques groupes d'éléments, l'incrément constaté par Dumas entre éléments successifs aux propriétés similaires mesure précisément la longueur de la période qui sépare ces deux éléments — incrément d'environ 16 entre les deux premiers éléments d'une tétrade, puis incrément d'environ 48 entre deuxième et troisième éléments, puis entre troisième et quatrième éléments. Vis tellurique de Chancourtois. Le premier à remarquer la périodicité des propriétés chimiques des éléments fut le géologue français Alexandre-Émile Béguyer de Chancourtois lorsqu'il classa en 1862 les éléments chimiques alors connus en fonction de leur masse atomique déterminée en 1858 par le chimiste italien Stanislao Cannizzaro. Il normalisa la masse atomique de tous les éléments en prenant celle de l'oxygène égale à 16, et, considérant que « les propriétés des éléments sont les propriétés des nombres » organisa les éléments chimiques en spirale sur un cylindre divisé en seize parties, de telle sorte que les éléments aux propriétés similaires apparaissent l'un au-dessus de l'autre. Chancourtois remarqua alors que certaines « triades » se retrouvaient précisément alignées dans cette représentation, ainsi que la tétrade oxygène – soufre – sélénium – tellure, qui se trouvait également avoir des masses atomiques à peu près multiples de seize (respectivement 16, 32, 79 et 128). C'est la raison pour laquelle il appela cette représentation « vis tellurique » en référence au tellure. C'était la première ébauche de classification périodique des éléments. Celle-ci ne retint cependant pas l'attention de la communauté scientifique, car Chancourtois n'était pas chimiste et avait employé des termes appartenant plutôt au domaine de la géochimie dans la publication qu'il avait adressée à l'Académie des sciences, laquelle fut éditée de surcroît sans ses schémas explicatifs, ce qui rendit le texte abscons. D'un point de vue conceptuel, c'était une grande avancée, mais, d'un point de vue pratique, Chancourtois n'avait pas identifié la période correcte pour les éléments les plus lourds, de sorte que, dans sa représentation, une même colonne regroupait le bore, l'aluminium et le nickel, ce qui est correct pour les deux premiers, mais totalement erroné d'un point de vue chimique pour le troisième. Loi des octaves de John Newlands. Dans la foulée, le chimiste anglais John Alexander Reina Newlands publia en 1863 une classification périodique qui eut, elle, un plus fort retentissement (quoique tardif, et "a posteriori"), car il avait organisé les premiers éléments alors connus par masse atomique croissante — plus précisément, par masse équivalente croissante — dans un tableau à sept lignes en les arrangeant de telle sorte que leurs propriétés chimiques soient similaires par lignes, sans hésiter à placer deux éléments dans une même case si nécessaire pour éviter de laisser des cases vides par ailleurs. Ce faisant, il avait identifié une nouvelle triade, dont les extrémités étaient le silicium et l'étain, et dont l'élément médian restait à découvrir : il prédit ainsi l'existence du germanium, en lui assignant une masse atomique d'environ 73. Mais la grande faiblesse de son travail était qu'il n'avait pas laissé de case vide dans son tableau pour accueillir notamment le futur germanium : il avait en fait cherché avant tout à classer les éléments connus dans un tableau complet sans chercher de classification plus large tenant compte de possibles éléments à découvrir, qu'il avait pourtant pressentis. De plus, comme Chancourtois, il avait un problème de périodicité, car si les éléments légers connus à l'époque avaient bien une périodicité chimique tous les sept éléments, cela cessait d'être valable au-delà du calcium, et le tableau de Newlands s'avère alors inopérant : La mise en évidence d'une périodicité globale jusqu'au calcium était néanmoins une grande avancée, et Newlands présenta cette classification en l'appelant « loi des octaves » par analogie avec les sept notes de musique, mais ce travail fut assez mal accueilli par ses pairs de la Société de chimie de Londres, qui le tournèrent souvent en ridicule et firent obstacle à sa publication ; ce n'est qu'après la publication des travaux de Dmitri Mendeleïev que la qualité de cette analyse a été reconnue. Notation d'éléments manquants par William Odling. Le chimiste anglais William Odling — secrétaire de la Société de chimie de Londres, et donc rival de Newlands — travaillait également, dans les années 1860, à une table périodique des éléments chimiques remarquablement proche de celle que publierait Mendeleïev en 1869. Elle était organisée en périodes verticales avec des cases vides pour les éléments manquants et plaçait — à la différence du premier tableau de Mendeleïev — le platine, le mercure, le thallium et le plomb dans les bons groupes. Son action négative à l'encontre de Newlands entacha néanmoins définitivement la renommée d'Odling, et sa contribution à l'élaboration du tableau périodique des éléments est aujourd'hui largement méconnue. Introduction de la valence avec Lothar Meyer. La contribution du chimiste allemand Lothar Meyer est à peine mieux reconnue que celle d'Odling, car ses travaux décisifs ont été publiés après ceux de Mendeleïev alors qu'ils étaient pour la plupart antérieurs. Il publia ainsi une première version de sa classification des éléments en 1864, puis finalisa en 1868 une seconde version plus aboutie qui ne fut intégralement publiée qu'à sa mort, en 1895. Le premier tableau de Meyer comprenait vingt-huit éléments classés en six familles définies par leur valence : c'était un grand pas en direction de la forme moderne du tableau périodique, organisé en groupes dépendant de la configuration électronique des éléments, elle-même directement en relation avec leur valence ; ce n'était néanmoins pas encore le même tableau qu'aujourd'hui, car les éléments étaient toujours rangés par masse atomique croissante. Le second tableau de Meyer, qui élargissait et corrigeait le premier, fut publié en 1870, quelques mois après celui de Mendeleïev, dont il renforça l'impact sur la communauté scientifique en apportant aux thèses du chimiste russe, encore très contestées, le soutien de travaux indépendants. La grande force de ce travail résidait dans les périodes de longueur variable, avec une disposition des éléments qui permettait d'éviter les regroupements fâcheux de Newlands, tels que le fer, l'or et certains éléments du groupe du platine parmi l'oxygène, le soufre, et les autres éléments du groupe 16 : Meyer avait également remarqué que si l'on trace une courbe représentant en abscisse la masse atomique et en ordonnée le volume atomique de chaque élément, cette courbe présente une série de maxima et de minima périodiques, les maxima correspondant aux éléments les plus électropositifs. Classification périodique de Mendeleïev. Malgré la qualité réelle des travaux de ses contemporains, c'est bien au chimiste russe Dmitri Mendeleïev qu'on doit le premier tableau périodique des éléments s'approchant de celui que nous utilisons aujourd'hui, non seulement dans sa forme, mais surtout par la vision qui l'accompagne. À la différence de ses prédécesseurs, Mendeleïev a, en effet, formulé explicitement en quoi son tableau constituait un outil d'analyse théorique des propriétés de la matière : L'avancée était significative : Les travaux de Mendeleïev ont été accueillis avec scepticisme par ses pairs, mais la publication subséquente de plusieurs résultats similaires (ceux de John Newlands et de Lothar Meyer en particulier) obtenus de façon indépendante a fait basculer le consensus en faveur de cette nouvelle vision des éléments chimiques. Découverte de l'argon par William Ramsay et Lord Rayleigh. C'est en voulant mesurer avec précision la masse atomique de l'oxygène et de l'azote par rapport à celle de l'hydrogène que John William Strutt Rayleigh nota une divergence entre la masse atomique de l'azote produit à partir d'ammoniac et celle de l'azote séparé de l'air atmosphérique, légèrement plus lourd. Employant une méthodologie rigoureuse, William Ramsay parvint en 1894 à isoler l'argon à partir de « l'azote » atmosphérique, et expliqua l'anomalie apparente de la masse atomique de l'azote atmosphérique en déterminant la masse atomique de ce nouvel élément, pour lequel rien n'était prévu dans le tableau de Mendeleïev. Sa nature gazeuse et son inertie chimique l'avaient rendu jusqu'alors invisible aux chimistes. La masse atomique de l'argon (un peu moins de 40) est très voisine de celle du calcium (un peu plus de 40) et donc supérieure à celle du potassium (39,1), ce qui posa quelques problèmes de classification, car il semblait y avoir « plus de place » dans le tableau périodique entre le chlore et le potassium qu'entre le potassium et le calcium. Les choses se compliquèrent encore lorsque Ramsay et Morris Travers découvrirent le néon en 1898, matérialisant, avec l'hélium (découvert en 1868 par l'astronome français Jules Janssen et l'Anglais Joseph Norman Lockyer), le groupe nouveau des gaz rares (ou gaz nobles), appelé « groupe 0 » : la masse atomique du néon (20,2) était exactement intermédiaire entre celles du fluor (19) et du sodium (23). Ainsi, les gaz rares semblaient se positionner tantôt entre un métal alcalin et un métal alcalino-terreux, tantôt entre un halogène et un métal alcalin. Classement par numéro atomique avec Henry Moseley. À la suite de la découverte de l'électron et de celle des isotopes par l'Anglais Joseph John Thomson — qui ont accompagné les débuts de la physique de l'atome avec les travaux de l'Allemand Max Planck, du Néo-Zélandais Ernest Rutherford et du Danois Niels Bohr — les recherches du physicien anglais Henry Moseley sur la corrélation entre la charge du noyau atomique et le spectre aux rayons X des atomes ont abouti en 1913 au classement des éléments chimiques non plus par masse atomique croissante, mais par numéro atomique croissant. C'était une évolution majeure, qui résolvait toutes les incohérences issues du classement en fonction de la masse atomique, lesquelles devenaient gênantes depuis les travaux de systématisation de Dmitri Mendeleïev. L'argon était ainsi placé entre le chlore et le potassium, et non plus entre le potassium et le calcium, tandis que le cobalt était clairement positionné avant le nickel bien qu'il soit un peu plus lourd. Il confirma que le tellure devait être placé avant l'iode sans nécessiter de revoir sa masse atomique, contrairement à ce qu'avait suggéré Mendeleïev. Il releva également que les éléments de numéro atomique 43 et 61 manquaient à l'appel : l'élément 43 avait déjà été prédit par Mendeleïev comme eka-manganèse (il s'agit du technétium, radioactif, synthétisé en 1937) mais l'élément 61 était nouveau — il s'agit du prométhium, radioactif également, isolé en 1947 : Ce tableau, directement inspiré de celui de John Newlands, constituait l'étape conduisant à la disposition contemporaine. En particulier, la numérotation des groupes avec des chiffres romains de à , qui remontent à Newlands, et les lettres A et B, introduites par Moseley, étaient encore largement utilisées à la fin du : Il était identique au tableau actuel, hormis pour ce qui avait trait à la septième période. Concept des actinides de Glenn Seaborg. Le physicien américain Glenn Theodore Seaborg contribua dès 1942 au projet Manhattan dans l'équipe du physicien italien Enrico Fermi. Il était chargé d'isoler le plutonium — que lui-même avait synthétisé et caractérisé en — de la matrice d'uranium au sein de laquelle il se formait. C'est au cours de ce travail qu'il développa une connaissance approfondie de la chimie particulière de ces éléments. Il établit ainsi que leur position dans le tableau périodique (l'uranium était alors placé sous le tungstène et le plutonium sous l'osmium) ne rendait pas compte de leurs propriétés. En 1944, il parvint à synthétiser et à caractériser l'américium et le curium (éléments 95 et 96), ce qui lui permit de formaliser le concept des actinides, c'est-à-dire d'une nouvelle famille aux propriétés spécifiques et formée des éléments 89 à 103, située sous les lanthanides dans le tableau périodique, qui prit ainsi sa configuration actuelle. Seaborg conjectura également l'existence des superactinides, regroupant les éléments 121 à 153 et situés sous les actinides. Le tableau périodique utilisé de nos jours est celui remanié en 1944 par Seaborg. Présentations alternatives. Tableau périodique de Charles Janet. De très nombreuses présentations alternatives du tableau périodique ont été proposées tout au long du , et des présentations graphiques innovantes sont encore régulièrement proposées. L'une des plus anciennes et des plus simples est celle d'un autodidacte français, par ailleurs méconnu, Charles Janet, qui a donné son nom à une disposition du tableau élaborée au début du et récemment redécouverte par les Anglo-saxons, chez lesquels elle est assez bien connue des spécialistes du sujet (sous les noms de "Janet Form" ou de "Left-Step Periodic Table") car elle range les éléments chimiques sur des périodes définies chacune par une valeur de donnée (où est le nombre quantique principal et le nombre quantique azimutal) tout en ayant le double mérite de rester familière et de disposer les éléments dans l'ordre naturel des blocs (de droite à gauche), à la différence du tableau usuel : Autres représentations. Une autre représentation est celle de Theodor Benfey, datée de 1960, dont l'objectif était de remédier aux discontinuités du tableau standard à l'aide d'une représentation en spirale : De nombreux modèles en trois dimensions ont également été proposés afin d'enrichir la représentation des éléments par diverses informations spécifiques. Une autre représentation a été proposée par Timmothy Stowe, en losanges par niveaux de remplissage : voir Tableau radial des éléments chimiques. Le tableau de Mendeleïev a été adapté pour représenter d'autres données physiques des éléments, et été appliqué pour visualiser des éléments totalement différents. Usages des éléments de la table dans l'industrie. Jusque dans les années 1970, l'industrie utilisait moins de vingt métaux. Depuis les années 2000, par suite du développement des produits électroniques, des technologies de l'information et de la communication, de l'aéronautique, allié à l'innovation technique dans la recherche de performances et de rendements, la demande en nouveaux métaux « high tech » a explosé, et concerne maintenant environ 60 métaux. Pratiquement tous les éléments de la table sont utilisés jusqu'au (uranium). Les réserves de la plupart des métaux au niveau de production 2008 varient de 20 ans à 100 ans. Commémorations. L'ONU a décrété 2019 « année internationale du tableau périodique des éléments ». |
Théâtre Le théâtre () est à la fois l'art de la représentation d'un drame ou d'une comédie, un genre littéraire particulier, et l'édifice dans lequel se déroulent les spectacles de théâtre. On parle aussi de genre dramatique. Le mot en , « theatron », désignait également auparavant la scène ou le plateau, c'est-à-dire toute la partie cachée au public par le rideau. Au sens figuré, « théâtre » désigne un lieu où se déroule une action importante (par exemple, un théâtre d'opérations militaires). Aujourd'hui, à l'heure des arts dits pluridisciplinaires, la définition de l'art du théâtre est de plus en plus large (jusqu'à se confondre avec l'expression spectacle vivant), si bien que certains grands metteurs en scène n'hésitent pas à dire que pour qu'il y ait théâtre, il suffit d'avoir un lieu, un temps, un acte et un public. Il s'agit de spectacles dans lesquels des comédiens, mis dans les circonstances et les situations créées par un texte et la vision d'un metteur en scène/réalisateur, incarnent des personnages pour un regard extérieur (le public), dans un temps et un espace limité. Les dialogues écrits sont appelés pièces de théâtre, mais il peut y avoir également du théâtre sans texte écrit ou même sans aucune parole. Il existe aussi des œuvres de théâtre musical, le genre étant particulièrement représenté dans les célèbres quartiers de Broadway aux États-Unis ou du West End à Londres, mais aussi de plus en plus autour des Grands boulevards à Paris. Dans la création contemporaine, les frontières entre les différents arts de la scène (théâtre, mime, cirque, danse...) sont de plus en plus ténues, si bien que certains professionnels n'hésitent pas à remplacer le mot "théâtre" par les mots "spectacle pluridisciplinaire" ou "spectacle vivant", mettant ainsi l'accent sur le métissage des disciplines. Histoire. Dès les débuts de l'humanité, le « théâtre » désignait l'acteur qui racontait, qui revivait une expérience de chasse, de conflit, pour la partager avec son groupe. Dans la civilisation occidentale on considère les cortèges en l'honneur du dieu grec Dionysos comme les premières représentations théâtrales, bien avant le . C'est en effet d'abord à l'époque grecque antique qu'apparaît le "Theatron" (, qui vient de : regarder, contempler). Le terme désigne alors l'hémicycle destiné aux spectateurs. Un théâtre est donc à l'origine un lieu d'où le public observe un spectacle. À la Renaissance, la signification s'étend non seulement à l'ensemble de l'édifice de spectacle, scène comprise, mais également à l'art dramatique. Ce n'est qu'après la période du théâtre classique que le terme devient par antonomase le texte qu'il soit lu ou joué. Le théâtre est né en Grèce, où des concours tragiques existent depuis le Il est apparu à Rome à la fin du Les représentations font partie des « jeux » ("ludi"), fêtes officielles de la cité. À Rome, on édifie d'abord des théâtres en bois, où seuls les spectateurs des premiers rangs sont assis, puis des théâtres en pierre : théâtre de Pompée en 55 av. J.-C., de Balbus en 13 av. J.-C., de Marcellus en 12 ou 11 av. J.-C. En Campanie, par exemple à Pompéi, on construit des théâtres en pierre dès le . À l'époque impériale, chaque ville romaine a son théâtre, comme Ostie en Italie, Orange en Gaule ou Sabratha en Afrique. Dans le théâtre romain, plus anciennement dans le théâtre grec, les acteurs portaient un masque : cet accessoire leur permettait d'être mieux vus des spectateurs assis sur les gradins parfois éloignés et d'en être mieux entendus, leur voix étant amplifiée comme par des porte-voix. Il y avait des masques tragiques (un visage triste) ou comiques (un visage fendu d'un large rire) ainsi que des masques doubles (un côté tragique, un côté comique) ; les acteurs qui se servaient de ces derniers devaient jouer de profil. L'acteur, exclusivement masculin, porte aussi des vêtements aux rembourrages voyants et cloturaux ainsi qu'une coiffure très haute, censés évoquer le gigantisme des dieux et des héros qu'il incarne. Au Moyen Âge, des troupes itinérantes jouent des pièces de genre dites des « Miracles », des "Mystères" et des « drames liturgiques », d'abord dans les églises puis dans leurs porches, sur leurs parvis et sur les places publiques. Elles ont pour vocation de raconter la vie des Saints mais sont très longues, alors pour maintenir le spectateur éveillé on y glissait en intermède quelques petites farces. Aujourd'hui, le théâtre amateur tend à se développer partout en province. Les genres. Un genre théâtral est le résultat d'une création comique correspondant à une forme particulière : le spectateur, connaissant un genre donné, sait à quoi s'attendre, et selon la présentation de l'œuvre (tragédie, comédie…), il a une vision stéréotypique de l'œuvre. Le genre est donc, avant tout, une convention qui donne un cadre, une forme précise. C'est un premier échange implicite entre l'artiste et le spectateur. Il inclut diverses formes théâtrales dont la farce, la comédie, la pantomime, la tragédie, le drame romantique, le drame bourgeois, la tragédie lyrique, le vaudeville, le mélodrame, les mystères médiévaux, le théâtre de marionnettes, le théâtre forum, le théâtre d'improvisation, le théâtre en plein air, le théâtre de rue, le théâtre expérimental, le théâtre installation performance, la danse-théâtre (ou théâtre-danse), le web-théâtre avec les expérimentations d'e-toile, le café-théâtre d'improvisation, le théâtre de l'absurde, le conte, la revue. Le théâtre de société, théâtre amateur joué dans les demeures privées de riches propriétaires, par, et pour, des proches de ces derniers, est une forme théâtrale qui s'est développée plus particulièrement à partir du . Notamment en Suisse romande sous l'influence de Voltaire, installé près de Genève, et de Germaine de Staël, au château de Coppet. Des témoignages exceptionnels (costumes et décors) ont été conservés au château d'Hauteville. Molière disait, traduisant ainsi une devise de Santeul : le but de la comédie est de corriger les mœurs ("castigat ridendo mores"), ce qui vaut aussi pour la tragédie. Ces deux formes théâtrales ont en effet une "portée édifiante". Depuis quelques années est apparu un genre nouveau : le théâtre témoignage. Les premiers spectacles abordaient la question des drames vécus par les personnes ayant subi des licenciements économiques ("Les yeux rouges" pour les employés de Lip ; "501 blues" pour ceux de Levis). Puis sont apparus des spectacles témoignant des horreurs des génocides de la fin du : Olivier Py et son "Requiem pour Srebrenica", ou encore Jacques Delcuvellerie avec "Rwanda 94". Les auteurs célèbres. Auteurs ayant eu le plus d'influence et d'audience dans le domaine du théâtre de façon permanente depuis leur vie. Il n'y a pas d'autrices ou d'auteurs pour le théâtre contemporain à cause de la proximité temporelle : nous n'avons pas le recul nécessaire, à notre époque, pour déterminer les auteurs qui seront confirmés comme des auteurs célèbres. Scène. Mise en scène. Le théâtre prend sa conception actuelle au début du , grâce à des pionniers et des pédagogues comme Constantin Stanislavski et Bertolt Brecht (pour l'enseignement du théâtre et la place du comédien), Vsevolod Meyerhold (entraînement physique), Edward Gordon Craig (laboratoire expérimental et importance de la marionnette), Adolphe Appia (espace théâtral en trois dimensions), Jacques Copeau (honnêteté, sincérité, simplicité avec le Théâtre du Vieux-Colombier), ou Antonin Artaud (la souffrance d'exister avec le Théâtre de la cruauté). Le metteur en scène au théâtre prend une réelle dimension à la fin du . Il acquiert la place de « maître du plateau ». Ce bouleversement est notamment provoqué par Constantin Stanislavski, auteur et metteur en scène russe né en 1863 à Moscou, qui va, à , créer avec Vladimir Nemirovitch-Dantchenko le Théâtre d'art de Moscou. Il y crée des spectacles de Tchekhov notamment ("Les Trois Sœurs", 1900) et y enseigne une nouvelle pratique du théâtre basée sur le travail corporel, le travail physique et le refus du jeu conventionnel. Ce « système » (nom donné, par les contemporains, à sa façon de travailler), également intitulé « La Méthode (théâtre) », qu'il décrit dans son livre, "La Formation de l'acteur", influence ses successeurs, dont Valère Novarina, Claude Régy ou encore Jean Vilar qui, dans la préface du roman, expose qu'« "il n'est pas de comédien authentique qui n'ait, un jour ou l'autre, emprunté, sciemment ou non, quelques-uns des sentiers" » du livre de Stanislavski. En constituant leurs écoles, Constantin Stanislavski ou Vsevold Meyerhold, en particulier, veulent mettre fin au mythe du talent et de l'inspiration. Le théâtre se construit, selon eux, sur des bases scientifiques. Si l'on devient acteur, si l'on devient actrice, c'est grâce à une pédagogie et une pratique rigoureuses - ils ne seront pas d'accord sur ce qu'est cette pédagogie et cette pratique, mais c'est un autre question. Pour la préparation d’une production et les représentations, le metteur en scène peut faire appel à plusieurs autres personnes, notamment : Le jeu, l'acteur. Métier d'acteur. L'acteur de théâtre ne joue généralement qu'un seul rôle à la fois, clairement défini et cohérent. L'acteur sait qu'il n'est pas réellement le personnage, même s'il doit s'identifier à lui. Les rôles de théâtre ne sont donc pas constituants. Cependant, afin de rendre celui-ci fort et cohérent, un acteur peut s'investir dans son rôle avec sa personnalité et son vécu. Le fait de créer un passé au personnage à l'aide d'événements déjà vécus par l'acteur est théorisé par Constantin Stanislavski comme le « revivre » et l'exploration de la mémoire affective. Il n'empêche que certains sont accusés de jouer tous leurs personnages de la même manière, de cabotiner. Ce problème du paradoxe sur le comédien est exposé par Diderot. Contrairement à Stanislavski, Diderot croit que le meilleur comédien est celui qui garde une distance entre son personnage et lui et qui ne joue pas la pièce en allant puiser dans ses propres émotions. La vision du jeu théâtral de Diderot le rapproche donc de Brecht et de sa théorie de la distanciation. Les humains, vivant en société, deviennent nécessairement des acteurs sociaux, qui changent de rôle constamment (au travail, en famille, entre amis, etc.). Cela renvoie à la notion de Theatrum mundi qui soutient que la vie est un spectacle, que le monde est une scène, que les êtres humains sont des comédiens et que Dieu est l'auteur et le metteur en scène de cette grande pièce de théâtre. Le public en France. À rebours de la plupart des autres spectacles, où l'on admet, et quelquefois recherche, une certaine décontraction des individus composant le public, il s'est construit au une discipline de spectacle acceptée de tous. Par exemple, au , il était très courant que le public siffle un spectacle de théâtre ou se mette à se disputer ; ce n'est plus le cas aujourd'hui. Aujourd'hui prime le respect du travail présenté, et la recherche d'une communion entre les personnes présentes. Cette exigence n'est pas toujours bien vécue lorsque le spectacle n'est pas intéressant : le spectateur se mettant à remuer, à tousser, quitter la salle, etc, toutes attitudes qui ne sont pas considérées comme correctes ; en cas de spectacle ennuyeux, seulement deux attitudes sont admises : dormir sur son siège, ou partir à l'entracte. Ces règles sont si bien acceptées qu'il est exceptionnel, de nos jours, de voir des spectateurs siffler, manifester bruyamment un désaccord, encore moins envahir la scène. Pour préserver le travail des acteurs et actrices, pour ceux qui prennent plaisir au spectacle, il est même exceptionnel de les voir applaudir à contre-temps, c'est-à-dire avant la fin. Le public recherche avant tout un plaisir partagé par toute la salle, des bruits d'émotions, un pari, que les émotions de chacun viendront conforter les émotions de tous et non les contredire. La salle est importante pour déterminer comment faire collectif. Le public français est réflexif, c'est-à-dire qu'un individu donné comprend intuitivement comment fait le public où il est pour faire public. Pour cet individu, cela a des conséquences importantes sur sa sensation d'être à l'aise ou pas, quel que soit le spectacle présenté. Chaque théâtre « suggère » comment se comporter. Par exemple, à la Comédie-Française, « il faut » parler doucement et se tenir à certaines règles vestimentaires ; au Théâtre national de Chaillot, « il faut » être plus libre. Le théâtre n'est pas seulement un rapport à une œuvre, mais il est aussi une façon d'être ensemble, il est aussi la manifestation d'une solidarité sociale. Théories sur le théâtre. Pourquoi, s'ils jouent déjà naturellement des rôles, les humains se sont-ils mis à jouer du théâtre ? De façon générale, comme le rappelle Aristote dans "La Poétique", les gens réagissent différemment dans la vie, et face à une œuvre d'art. Un cadavre en décomposition horrifie, mais une nature morte ravit. Il y a donc un pouvoir propre à la représentation ("mimésis"), au jeu, qui permet d'appréhender avec plaisir ce qui autrement pose problème. Le théâtre est donc joué pour faire face aux mystères et conflits qui inquiètent. Les gens de théâtre cherchent ainsi à créer un "miroir social", un reflet plus ou moins caricatural de la société, qui permet de mieux la comprendre, et de mieux dénoncer ses failles : ce rôle politique était particulièrement évident dans la Grèce antique, avec la comédie ancienne. Mais cette citation du "Hamlet" de Shakespeare peut aussi être mentionnée : « "for any thing so overdone is from the purpose of playing, whose end, both at the first and now, was and is, to hold, as 'twere, the mirror up to nature" ». Le théâtre est aussi un miroir tendu à la nature : le spectateur, comme l'acteur, vient chercher une réponse, se construire une identité. Le théâtre peut avoir un effet cathartique, servant d'exutoire aux passions qui ne sont pas autorisées par la société. Le théâtre peut aussi être un divertissement, sans autre objectif que de changer les idées à ses spectateurs, par l'utilisation du comique notamment. Augusto Boal, qui aborda une manière de faire du théâtre résolument politique, c'est-à-dire qu'il faisait jouer à des gens des situations conflictuelles en changeant la position des personnages : par exemple, le directeur qui avait licencié tel salarié jouait le rôle du salarié. Cela permettait selon lui de régler certains conflits. C'est l'origine de ce qu'on a appelé le théâtre forum, et en Belgique le théâtre-action. Peter Bu propose une définition générale du théâtre permettant d'inclure toutes ses formes. Institutions. Festivals. Le festival le plus renommé en France est le "Festival d'Avignon". Le plus grand festival européen, et peut-être mondial est le festival international d'Édimbourg. Il existe de nombreux festivals, notamment en période estivale. Certains se concentrent sur un genre particulier (Aurillac pour le théâtre de rue, ou celui de Charleville-Mézières pour le théâtre de marionnettes, "Mimos" de Périgueux pour le théâtre gestuel, par exemple) ou bien restent « généralistes » en tentant la plupart du temps de programmer un spectacle avec une tête d'affiche pour attirer le public. Formation en France. Une majorité des comédiens en activité a suivi une formation, que ce soit par le conservatoire national supérieur d'art dramatique, un Conservatoire de musique, danse et art dramatique ou un cours privé. Théâtre et internet. Internet est considéré par certains comme un concurrent du théâtre voire un adversaire qui encourage le goût de la dématérialisation de relations, contraire à la proximité humaine propre au théâtre. Certains ont considéré les sites de théâtre sur Internet comme « des officines responsables de la régression du théâtre ». D'autres personnes estiment qu'Internet apporte beaucoup au théâtre : une popularisation par la diffusion d'opinions sur les pièces, une démocratisation par la pression à la baisse des tarifs initiée par les billetteries en ligne et un accès facilité à l’information (programmation, réservation). Ainsi, en septembre 2006, la Comédie-Française a ouvert ses portes aux acteurs du web, que ce soit pour publier sur le Web des avis sur les pièces, ou pour proposer des tarifs réduits aux spectateurs. Le Théâtre des Osses, compagnie suisse fondée en 1978 et devenue Centre dramatique fribourgeois en 2003 ouvre un site d'archives. |
Tricky Tricky , de son vrai nom Adrian Nicholas Matthews Thaws, est un musicien britannique, né le . Il est considéré comme un des piliers du trip hop, mouvement musical des années 1990 et il mélange notamment rock, hip-hop, musique électronique et musique soul. Son premier album, "Maxinquaye", a été nommé pour le Mercury Prize et fut élu album de l’année par la revue musicale NME. Il fut membre de Massive Attack mais il quitte le groupe en 1994 après la sortie de l'album "Protection". Biographie. Son enfance à Bristol. Tricky est né dans le quartier de Knowle West, à Bristol, au sud-ouest de l'Angleterre. Son père abandonna sa famille avant même sa naissance et sa mère, Maxine Quaye se suicida alors qu’Adrian n’avait que quatre ans. Tricky nomma son premier album "Maxinquaye" en hommage à sa mère, et affirma un jour que, bien qu’il ne l’ait connue que très peu, il avait le sentiment qu’elle parlait encore à travers lui. Adrian passa une grande partie de sa jeunesse avec sa grand-mère, qui le laissait souvent regarder de vieux films d’horreur plutôt que d’aller à l’école. À 15 ans, Tricky commença à écrire ses premiers textes, qui reflétaient plus les préoccupations sexuelles d’un adolescent que les thèmes sombres et ambigus qu’on trouverait plus tard sur ses albums. À 17 ans, il fit un séjour en prison pour avoir acheté des faux billets de 50 livres sterling à un ami, qui le dénonça par la suite. Tricky déclara à ce sujet dans une interview : (NME, 1995). Premiers pas musicaux. Après avoir rencontré DJ Milo, Tricky commença à fréquenter les membres d’un "sound system" nommé The Wild Bunch (des rangs duquel naquit entre autres le groupe Massive Attack). Adrian fut alors surnommé « "Tricky Kid" », et à 18 ans il intégra le groupe de rap Fresh 4, qui gravitait autour du Wild Bunch. Tricky collabora sur le premier album de Massive Attack, "Blue Lines", sorti en 1991. Mais dès qu’il devint clair que faire de la musique était aussi un business, Tricky fut passablement échaudé. Bien qu’il apparaisse à nouveau sur l’album suivant de Massive Attack, "Protection" (1994), Tricky n’eut jamais le sentiment de faire partie du groupe. En 1991, avant la sortie de "Blue Lines", il rencontra Martina Topley-Bird. Quelque temps plus tard, de passage chez Thaws, elle lui dit, ainsi qu’à Mark Stewart, qu’elle savait chanter. Martina n’avait que 15 ans à l’époque, mais sa voix impressionna grandement les deux hommes, et ensemble ils enregistrèrent "Aftermath" (bien que le magazine musical anglais "The Face" prétendît en 1995 que la première chanson que Tricky et Martina enregistrèrent ensemble était "Shoebox"). Tricky fit écouter "Aftermath" aux membres de Massive Attack, qui ne furent pas intéressés. En conséquence de quoi, en 1993, Tricky fit presser la chanson sur une centaine de vinyles. Il la copia directement depuis la cassette, pour un rendu plus brut. Finalement, le single "Aftermath", édité en white label, lui permit de décrocher un contrat avec la maison de disques Island Records, de sorte qu’il put commencer l’enregistrement de son premier album. "Maxinquaye", ou la percée de Tricky. Après avoir quitté Massive Attack Tricky sort son premier album solo "Maxinquaye". Cet album sera un succès massif et lui vaudra une célébrité internationale avec laquelle il sera notoirement mal à l'aise. La richesse de cet album réside dans le mélange d'influences musicales variées qui parviennent toutefois à produire un son unique et original. À propos de cet album le magazine Rolling Stone écrit : "Tricky a tout absorbé depuis le hip-hop et la soul américaine jusqu'au reggae et aux racines les plus mélancoliques du rock anglais des années 80. Il dira notamment que Kate Bush l'a beaucoup inspiré pour ce premier album. Sorti quelques mois après le premier album de Portishead, "Maxinquaye" contribue à faire de Bristol une capitale (éphémère) de la pop. Tricky apparaît ensuite à l’écran dans "Le Cinquième Elément" de Luc Besson et livre six albums, dont le chef-d’œuvre "Nearly God" sorti en 1996 où il reprend "Tattoo", un morceau pré-trip-hop de Siouxsie and the Banshees. À ses débuts en solo, la chanteuse qui l'accompagnait était Martina Topley-Bird, son ex-femme. Puis, il a rencontré Costanza Francavilla qui lui a passé une maquette en Italie à la fin d'un de ses concerts. Elle l'a accompagné sur le disque Vulnerable. Tricky a collaboré également avec Björk et Neneh Cherry, les Red Hot Chili Peppers, Cyndi Lauper, repris Nirvana, Eurythmics, XTC, Kylie Minogue, le thème de "Wonder Woman" signé Charles Fox ("Barbarella", "La croisière s'amuse")... Il est apparu sur la compilation "Mr Gainsbourg Revisited" en hommage à Serge Gainsbourg, au côté de Placebo, Franz Ferdinand, Marianne Faithfull, Marc Almond et Carla Bruni entre autres. Il a donné un concert le au Zénith de Paris. Il est aussi passé régulièrement par le festival des Eurockéennes de Belfort en 1999, 2001, 2003 et 2009. Tricky s'est forgé une image forte et à part à travers ses clips, notamment ceux réalisés par Stéphane Sednaoui pour les morceaux "Hell Is Round The Corner" et "For Real". Il s'est aussi essayé avec succès à la réalisation. En 2008, il réside à Paris au Cent Quatre (établissement culturel) du décembre à mi-février. En 2009, il est accompagné sur scène de la chanteuse Francesca Belmont avec qui il a commencé à écrire un nouvel album, entre Paris et Londres. Collaborations. La carrière de Tricky est marquée par un nombre important de collaborations et de duos. L'album "Nearly God" en particulier est composé uniquement de duos. Certaines de ces collaborations se sont achevées de manière brutale. Il a notamment exprimé son animosité envers le groupe Massive Attack et utilise parfois le terme «vampire» quand il parle de Björk. Voici une liste non exhaustive des artistes et des groupes ayant travaillé avec Tricky : |
Tercet En poésie, un tercet est une strophe de trois vers. Par exemple, dans un sonnet, on trouve deux tercets précédés de deux quatrains. Origine. Le nom "tercet" est un emprunt à l'italien "terzetto", lui-même dérivé de nombre "trois", et son existence est attestée en 1606 sous la forme "tiercet", mot qui persiste jusqu’à la fin du comme le prouve le vers 802 des "Femmes Savantes" de Molière en 1672 : La forme actuelle « tercet » est repérée à partir de 1658 et désigne une strophe de trois vers, essentiellement utilisée dans le sonnet. Usage. Dante invente le tercet dans sa "Divine Comédie" en 1307 en instituant la "terza rima" qui prolonge le système de rime de tercet en tercet sur le modèle aba/bcb/cdc… en achevant la cascade par un vers isolé final. Cette structure est également connue en Espagne sous le terme de "tercet enchaîné" ("terceto encadenato"). Cette strophe impaire sera exploitée en tant que telle par Pétrarque qui en fera également une des composantes du sonnet. Une combinaison des rimes concernant les deux tercets s'intitule et ouvre la voie à des dispositions diverses structurant de fait un distique avec une rime suivie et un quatrain aux rimes croisées ou embrassées (ccd/ede ou ccd/eed). Cette technique est utilisée en France aux et siècles (dans la villanelle par exemple : 19 vers sur 2 rimes avec 5 tercets et un quatrain final, système aba/aba/…abaa) mais tombe assez vite en désuétude et les poètes majeurs comme du Bellay et Ronsard ne l'utiliseront qu'en association avec des quatrains dans le sonnet. Le tercet est repris par exception par la suite : on repère son emploi au par Vigny (dans le poème d'ouverture des "Destinées"), par Gautier ou Leconte de Lisle avant Paul Valéry au siècle suivant dans son poème "La fileuse". Aujourd'hui le tercet réapparaît avec l'adaptation du haïku japonais qui est un poème réduit à un seul tercet codifié (5/7/5 syllabes). La poétesse américaine Linda Gregerson s'est approprié cette technique pendant une vingtaine d'années. Problème. Son statut de strophe lui est parfois contesté en raison de son défaut d'autonomie quant aux rimes puisqu'il est soit monorime, soit déséquilibré par une rime orpheline. Certains théoriciens préfèrent alors parler de « groupement de vers », typographiquement repérable, en signalant que la mise en page qui isole le tercet n'est pas toujours respectée même si, dans l'habitude française, elle est commune. |
Terminatif En linguistique, le terminatif est un cas grammatical présent dans certaines langues, exprimant la limite spatiale ou temporelle, le point ultime d'un déplacement ou d'une période de temps. Il correspond à la préposition française "jusqu'à". Exemple : |
Translatif En linguistique, le translatif est un cas grammatical présent dans certaines langues qui exprime le résultat d'un processus de transformation. Ainsi, le translatif existe en finnois (langue agglutinante) où il se construit avec le suffixe "-ksi". Du fait de son sens, ce cas s'utilise fréquemment avec le verbe "tulla", « devenir », comme dans l'exemple suivant : On le trouve dans d'autres emplois, comme les demandes de termes étrangers : soit plus correctement « Comment dit-on « kissa » en français ? » (la réponse étant « chat »). Précisons aussi que le translatif a d'autres emplois spécifiques plus éloignés de cette valeur première dans les grammaires des langues qui en possèdent un. Autre exemple, en estonien : |
Tsui Hark Tsui Hark (en chinois : 徐克), né le sous le nom de Tsui Man-kong, est un réalisateur, producteur, scénariste et acteur hongkongais considéré comme une figure prédominante de la Nouvelle Vague hongkongaise. Biographie. Débuts. Né au Viêt Nam, il étudie à Hong Kong, puis part aux États-Unis, au Texas dans les années 1970 pour étudier le cinéma à la Southern Methodist University. Il participe d'abord à des documentaires puis revient à Hong Kong en 1977. Il tourne d'abord des séries pour la télévision avant de passer au cinéma en 1979 avec "The Butterfly Murders" (un film de sabre, le "wu xia pian", très populaire dans le monde chinois), puis deux autres films : "Histoire de cannibales" et "L'Enfer des armes". Ceux-ci, extrêmement agressifs et provocateurs, sont rejetés par le public. En 1981, il entre à la Cinema City du producteur Karl Maka pour tourner des films plus conventionnels mais qui auront un meilleur succès auprès du public. Films de combats. En 1983, "Zu, les guerriers de la montagne magique" est le film qui marque le tournant de sa carrière. Il marque également le renouveau du film de combat hong-kongais avec des combats spectaculaires, des experts en arts martiaux qui volent... Il essaie d'apporter des effets spéciaux qui tiennent la route comme dans les films occidentaux, mais le film, sorti trop tôt à son goût, ne va pas avoir un succès public. Il retourne donc au cinéma commercial. Pour avoir son indépendance, il fonde sa propre maison de production, Film Workshop, en 1984. Il tourne de nouvelles œuvres importantes : "Shanghai Blues" et "Peking Opera Blues". Il déborde d'idées et cherche notamment à remettre au goût du jour la culture chinoise. En tant que producteur, il s'attaque au polar avec "Le Syndicat du crime" en 1986, au film en costumes avec "Histoire de fantômes chinois" en 1987, au film de sabre avec "Swordsman" en 1990. Comme réalisateur, il renouvelle le film de kung-fu avec "Il était une fois en Chine" en 1991. Il crée sa propre société d'effets spéciaux, Cinefex. Il s'entoure de gens talentueux : les réalisateurs John Woo (avec qui il se brouille en 1990), Ching Siu-tung, Yuen Woo-ping, Kirk Wong, Ringo Lam, les acteurs Chow Yun-fat, Leslie Cheung, Joey Wong ou Zhao Wen-zhou, sans oublier Jet Li (qui se brouillera aussi momentanément avec lui après "") et Brigitte Lin. Au milieu des années 1990, la crise du cinéma n'a pas épargné Hong Kong et la Film Workshop. Tsui Hark s'est recentré sur ses propres réalisations. Il signe alors quelques-unes de ses œuvres majeures : "Green Snake" (1993) d'après la Légende du serpent blanc, "The Lovers" (1994) d'après la légende des amants papillons et "The Blade" (1995), remake plus ou moins avoué du classique de Chang Cheh pour la Shaw Brothers : "La Rage du tigre", qui sera un échec commercial bien que le film deviendra culte des années plus tard. Il décide de tenter sa chance à Hollywood pour deux films mineurs : "Double Team" et "Piège à Hong Kong" avec Jean-Claude Van Damme. Il ne s'est pas fait aux méthodes américaines et est donc revenu à Hong Kong où il réalise une nouvelle œuvre majeure, "Time and Tide". Tsui Hark a également collaboré à la réalisation d'un film d'animation : "", dirigé par Andrew Cheng. Années 2000 et 2010. Par la suite, il poursuit ses films liés à la culture chinoise en retournant une nouvelle version de "Zu" en 2001, "La Légende de Zu", un film contenant une débauche d'effets spéciaux. En 2005, il adapte la nouvelle "Seven Swordsmen from Mountain Tian", de Liang Yusheng avec "Seven Swords". En 2007, il réalise la première partie de "Triangle"; les deux autres parties étant réalisés par Ringo Lam et Johnnie To. C'est en 2010 qu'il lance une série de films mêlant enquêtes policières, cadre historique et légendes chinoises : "Détective Dee". Le premier opus, , sort en 2010. Il est suivi en 2013 de ' et enfin en 2018 avec '"." Il poursuit la réalisation de films sur fond d'histoire avec par exemple "La Bataille de la Montagne du Tigre", sorti en 2014 et adapté du roman "Tracks in the Snowy Forest" de Qu Bo publié en 1957. |
TGV Le TGV (sigle de train à grande vitesse) est une rame automotrice de conception française alimentée par caténaire et propulsée par des moteurs électriques, atteignant régulièrement la vitesse de croisière de sur des lignes à grande vitesse (LGV). Depuis sa mise en service en 1981, un réseau de lignes nouvelles à grande vitesse a été construit en France, qui atteint en juillet 2018, le quatrième au monde par sa taille, après ceux de la Chine, du Japon et de l'Espagne. Les trains ont été initialement conçus par la SNCF et Alstom, et largement construits par la société Alstom en France, permettant des améliorations techniques et la modernisation des intérieurs (fournis par Bombardier Transport). Les TGV sont notamment fabriqués à Belfort (Alstom) pour les motrices et à Aytré (Alstom) pour les remorques intermédiaires, d'autres composants venant d'autres sites comme Tarbes (Alstom) pour la traction, Le Creusot (Alstom) pour les bogies Un TGV est habituellement composé de deux locomotives, appelées motrices, indépendantes, encadrant une rame articulée de huit ou dix voitures. Les TGV TMST d'Eurostar présentent toutefois des particularités liées aux règles de sécurité pour le franchissement du tunnel sous la Manche. Depuis le retrait, en 2015, des sept demi-rames du TGV postal utilisées par La Poste entre Paris et Cavaillon (Vaucluse), les TGV d'Alstom assurent exclusivement le transport de voyageurs. Ils circulent principalement en France (avec les marques « TGV inOui » et « Ouigo » de SNCF Voyageurs), mais également entre la France et ses voisins ; ils sont alors exploités soit par la SNCF elle-même, soit par des entreprises ferroviaires filiales de la SNCF (Eurostar et Thalys), soit encore dans le cadre de partenariats commerciaux entre la SNCF et les opérateurs nationaux concernés (par le biais de la marque « DB SNCF en coopération », qui fut gérée par Alleo, ou encore de la société « Lyria »). En outre, des dérivés du matériel roulant TGV ont été spécifiquement conçus pour circuler en Espagne, en Corée du Sud et aux États-Unis, mais les services commerciaux respectifs n'ont aucun rapport avec la SNCF. Un record du monde de vitesse sur rail a été homologué par la rame V150. La rame était constituée des deux motrices du , encadrant les deux remorques d'extrémité du TGV Duplex . La rame a atteint le . Histoire. Aux origines du TGV. L'idée de créer un train à grande vitesse pour relier les principales villes françaises émerge au cours des années 1960, après que le Japon commence en 1959 la construction du premier train à grande vitesse au monde, le Shinkansen, qui est mis en service en 1964 avec l'inauguration de la première ligne à grande vitesse reliant Tokyo à Osaka. À l'époque, la SNCF cherchait un moyen de redresser la fréquentation de ses trains, qui baissait inexorablement. Une augmentation substantielle de la vitesse apparut comme la solution qui lui permettrait de concurrencer efficacement l'automobile et l'avion. Elle était stimulée par les expérimentations du projet Aérotrain qui faisait appel à la technologie du coussin d’air radicalement différente du contact roue/rail du chemin de fer classique. Elle expérimentait également la voie des turbotrains légers testant dès 1967 le prototype TGS puis les ETG en service commercial dès mars 1971. Le , un service de recherche naît à la SNCF, avec le lancement de l’étude « possibilités ferroviaires à très grande vitesse sur infrastructures nouvelles », le projet « C03 ». Ce projet innove à la fois par l’idée de la création de lignes nouvelles et par l'attention portée à la qualité de service et à la tarification, alors que la politique de la SNCF visait à cette époque prioritairement la réduction des coûts. Après avoir été présenté aux pouvoirs publics en 1969, le projet C03 est adopté en comité interministériel le 25 mars 1971. Toutefois, la mise en concurrence de ce projet avec celui de l’aérotrain laisse planer un doute sur l’issue de cette opération. Dans sa première version, le TGV devait être mû par des turbines à gaz. Ce choix était motivé par la taille relativement petite des turbines, leur puissance massique élevée et leur capacité à délivrer une puissance élevée pendant un temps important. Décisions, essais et prototype de 1971-1972. Le conseil interministériel du décide finalement le principe de la construction, en 1978 ou 1979, d'une liaison Paris-Lyon en moins de deux heures, pour un coût de plus de et demi de francs, jugée rentable, même si Olivier Guichard, ministre de l'aménagement du territoire et de l'équipement, estime lui plus intéressant un renforcement des liaisons aériennes entre Paris et Lyon ou même l'installation d'une ligne d'aérotrain. Le premier prototype TGV 001 sortit des ateliers Alsthom de Belfort le et est la seule rame de ce type construite. Une seconde rame était prévue mais ne voit jamais le jour pour cause de budget serré. La SNCF présente, dès le , dans les usines Alsthom à Belfort, le « turbotrain à grande vitesse », appelé « », qui est l'héritier de troisième génération des turbotrains à turbine à gaz "ETG" et "RTG", circulant avec un succès croissant, depuis le , à sur la ligne Paris-Caen-Cherbourg (). Le TGV a un potentiel d'exportation car il où le ministère fédéral des transports commande à la société Sofrerail, un contrat de cession de connaissances sur la question des grandes vitesses, en . Les essais du TGV 001, qui débutent le 4 avril 1972 sur la ligne de la plaine d'Alsace, apportent cependant beaucoup d'enseignements utiles à la suite du projet, notamment dans le domaine du freinage à haute vitesse, qui nécessitait de dissiper une importante quantité d'énergie cinétique, de l'aérodynamique et de la signalisation. La rame était articulée, deux caisses adjacentes s'appuyant sur un bogie commun (comme sur les rames inox Z 3700) tout en conservant une possibilité de mouvement relatif. Après les au printemps 1972, ce prototype atteint la vitesse de à l'été 1972, pulvérisant ainsi le record du monde de vitesse ferroviaire en traction thermique. Le style du TGV, tant intérieur qu'extérieur avec le nez caractéristique des motrices, est dû au "designer" français Jacques Cooper et marque les générations suivantes de matériel. Depuis 2003, l'une des motrices du est exposée aux abords de l'autoroute A36, près de Belfort, tandis que l'autre l'est à Bischheim, près de Strasbourg, le long de l'autoroute A4, où se situe également un centre industriel de rénovation et d'entretien des rames et des motrices. La construction d'une ligne reliant Paris et Lyon en deux heures est confirmée en 1972 par le ministre des Transports Robert Galley puis réaffirmée en 1974 lors d’un conseil interministériel restreint, le président Georges Pompidou, déjà malade, abrégeant les débats au bout de trois heures. Naissance du TGV actuel. La crise pétrolière de 1973 ne fait que renforcer l'intérêt du TGV face à l'avion. À la suite de la flambée des prix de l'énergie, le choix est fait de passer à la traction électrique, avec acheminement du courant par caténaires et captage par pantographe. Les raisons de ce choix furent autant politiques que techniques ou économiques : en effet, le coût de l’énergie ne représentait alors que 5 % environ du coût de traction, soit de l'époque par rame et par km ( équivalent 2007), et le coût d’une rame électrique était d’environ 10 % plus élevé que celui d’une rame à turbines, pour une capacité inférieure, sans compter le coût des installations fixes. Le passage à la traction électrique impose de reprendre le programme de recherches et d'essais dans nombre de domaines. La SNCF transforme, en 1974, une automotrice pour construire le prototype surnommé Zébulon, qui permit de tester plusieurs innovations : pantographes à deux étages ; moteurs de traction suspendus à la caisse pour alléger ( en moins) les masses non suspendues des bogies et réduire ainsi les efforts sur la voie ; nouvelles dispositions en matière de suspension et de freinage. Zébulon parcourt environ un million de kilomètres en marches d'essais. En 1974, le président Pompidou confirme le lancement de ce projet plutôt que celui de l'aérotrain (moteur thermique), puis le Premier ministre Pierre Messmer décide le d'engager la construction d'une première ligne entre Paris et Lyon, la LGV Sud-Est (LN1). Une campagne d'essais est menée avec deux rames de présérie, appelées en interne Patrick et Sophie (initiales de PSE : Paris Sud-Est), livrées en 1978. Le service commercial TGV ouvre au public entre Paris et Lyon le . La France entre ainsi dans l'histoire ferroviaire à grande vitesse après le Japon avec son Shinkansen en service depuis 1964. Entre septembre 1981 et septembre 1983, seule la partie sud de la LGV Sud-Est (entre Saint-Florentin et Sathonay) est utilisée pour la grande vitesse. La partie Nord du trajet s'effectue encore sur les anciennes voies PLM. Seulement à partir du service d'hiver 1983, la LGV est ouverte en intégralité entre Lieusaint et Sathonay. Le temps de parcours considérablement réduit par rapport à la situation antérieure (grâce aussi au tracé plus direct de la ligne, qui ramenait la distance entre les deux villes de ) permit au rail d’acquérir de nouvelles parts de marché au détriment de l’automobile et surtout de l’avion. L’innovation était non seulement technique, mais aussi commerciale : la réservation obligatoire assura un coefficient de remplissage très élevé en contre pointe, contrairement à une tarification calendaire qui ne pouvait discriminer le sens de circulation. C’est Jacques Cooper qui a dessiné les prototypes, la livrée et les matériels de série du TGV Sud-Est. Il est également à l’origine de la silhouette du TGV Atlantique, dont le design (principalement intérieur) sera finalisé par Roger Tallon. Ce dernier a ensuite dessiné le Duplex entre 1988 et 1998. Le , la SNCF dévoile à la gare de Lyon la nouvelle livrée du TGV. Il arbore désormais les couleurs violettes et grises, rappelant les uniformes du personnel dessinés par Christian Lacroix. Tous les TGV seront restaurés dans cette nouvelle livrée parallèlement à l’acquisition de nouvelles rames. Conquête de la vitesse. Le 26 février 1981, la rame TGV obtient un premier record de vitesse sur la LGV Sud-Est à . Ce record de vitesse, pour lequel des dizaines de journalistes avaient été conviés, n’avait pas pour but d’ajouter un nouveau record au palmarès de la SNCF, mais plutôt de rassurer les futurs voyageurs, en montrant que les auxquels ils seraient bientôt transportés pouvaient être atteints en toute sécurité. Le deuxième but était de démontrer l’élargissement possible du transport ferroviaire par rapport à l’aérien, tout en conservant confort, sécurité et rapidité, ainsi que sa faible consommation d'énergie. Après qu’une rame d’essais allemande Intercity-Express (ICE-V) de la Deutsche Bahn (DB) eut roulé à sur la LGV Hanovre – Wurtzbourg le , la SNCF battit officieusement ce record le 12 décembre 1988 en faisant rouler la rame TGV PSE 88 à sur la LGV Sud-Est au cours d’essais de la chaîne de traction synchrone des futurs TGV Atlantique. Le 18 mai 1990, le TGV a obtenu le record du monde de vitesse sur rail, à sur la LGV Atlantique, avec une rame d’essai Atlantique numérotée 325 raccourcie à trois caisses intermédiaires au lieu de dix. Le 3 avril 2007 sur la LGV Est européenne, la SNCF bat son propre record en faisant rouler la rame d’essais 4402 à la vitesse de (soit ). Cette vitesse correspond à (pour une température de ). Ce record s’inscrivait dans le cadre du programme « V150 » visant à dépasser la vitesse de (soit ). Une rame Duplex composée de trois remorques uniquement avait été spécialement préparée et sa puissance (, soit environ ) avait été doublée par rapport au TGV classique (, soit environ ). Elle possédait des roues d’un diamètre plus important et la voiture au centre de la rame était équipée de bogies motorisés de la future AGV. Pour le reste, ce train était similaire à un train de série SNCF. Durant la phase d’essais, la vitesse de avait déjà été atteinte. Il s’agissait le 3 avril d’obtenir un record de vitesse homologué. Le TGV a également établi un record de vitesse sur une longue distance, le 26 mai 2001 avec le trajet Calais - Marseille () en , soit de moyenne, lors de l’inauguration de la LGV Méditerranée, avec la rame Réseau 531 (opération "Sardine"). Il a également établi le 17 mai 2006 le « record du monde de la plus longue distance parcourue sans arrêt par un train de voyageurs », en transportant dans une rame TGV TMST d’Eurostar l’équipe du film "Da Vinci Code" de Londres à Cannes, soit en (soit une moyenne de ). Sigle et identité visuelle (logo). Le sigle "TGV" signifie à l'origine « Turbotrain à Grande Vitesse », dans la dénomination du premier turbotrain expérimental . Il s'agit de marquer une nouvelle étape, en dépassant les pratiqués occasionnellement sur le réseau classique français depuis 1967. L'usage courant de ce sigle pour désigner cette rame a fait évoluer sa signification pour « Train à Grande Vitesse ». « TGV » est désormais une marque déposée de la SNCF. Le troisième logo de la marque TGV a un aspect métallisé, qui évoque la fluidité, la vitesse et la puissance du train à grande vitesse. Par détournement, le logo inversé peut ironiquement évoquer un escargot, la vitesse du TGV étant ainsi mise en opposition à ce symbole de lenteur. Cette opposition vitesse / lenteur est renforcée par le slogan qui accompagne le logo, , comme un oxymore à la fois littéraire et graphique. À partir de , la SNCF choisit de ne plus utiliser de logo spécifique pour la marque TGV (ainsi que TGV Lyria), comme pour les trains de types Transilien et Intercités, pour identifier ses services ferroviaires. Le troisième logo, métallisé, est encore utilisé sur les trains TGV Sud-Est, TGV Réseau et TGV Duplex, en livrée Carmillon. À partir de , certains TGV sont désignés par le nom commercial « TGV inOui », à commencer par la liaison Paris – Bordeaux – Toulouse. Cette marque est destinée à être étendue à toutes les relations effectuées en TGV "classiques" d'ici 2020. Par ailleurs, les rames Ouigo disposent d'un logo et de couleurs spécifiques à ce service à bas coûts. Un maillon de la chaîne de la grande vitesse ferroviaire française. Le TGV ne suffit pas à voyager à grande vitesse, il faut également construire un réseau de voies ferrées, ainsi que des nouvelles gares, pour l'exploiter. Le TGV ne peut en effet atteindre ses vitesses maximales que sur une ligne à grande vitesse. Il peut cependant emprunter les autres voies, à la vitesse maximale autorisée par ces lignes, jusqu’à selon le tracé et le type de signalisation. Aspects techniques. Conception. La particularité des rames TGV, par exemple par rapport aux matériels ICE de Siemens et ETR de Fiat Ferroviaria, est qu’elles sont constituées de deux motrices à deux bogies encadrant un tronçon articulé composé de remorques dont les bogies intermédiaires sont communs à deux caisses adjacentes (principe du bogie Jacobs). L’articulation entre deux caisses fait appel à un dispositif original qui permet de solidariser avec amortissement les deux caisses. Cette disposition présente plusieurs avantages : Elle présente cependant l’inconvénient de faire reposer le poids de chaque caisse sur seulement deux essieux. La limite de de charge à l’essieu a donc été l’une des difficultés à résoudre lors de la conception du TGV Duplex. L’impossibilité de séparer facilement les remorques du tronçon central nécessite aussi des installations de levage capables de soulever une rame entière d'environ dans les ateliers d’entretien. Deux rames peuvent être couplées en unité multiple ce qui permet de doubler la capacité offerte par un train qui atteint alors la longueur maximale de normalisée par UIC ou pour le TGV Atlantique. Roulant sur des voies ferrées classiques, le TGV est parfaitement compatible, à vitesse adaptée, avec les installations existantes, dès lors qu’elles sont électrifiées. De 2000 à 2004 le « TGV Vendée » était tracté par une locomotive Diesel CC 72000 entre Nantes et Les Sables-d'Olonne. Motorisation. Les premiers TGV fonctionnaient à l’aide de moteurs à courant continu alimentés par des redresseurs. À la fin des années 1980, le développement de l’électronique de puissance a permis de substituer le moteur synchrone au moteur à courant continu. Ces moteurs sont d’abord alimentés à l’aide d’onduleurs de courant à thyristor (1988). À cette époque l’électronique de puissance nécessaire à leur alimentation est beaucoup plus simple que celle requise par les moteurs asynchrones. L’utilisation de moteurs synchrones présente plusieurs avantages : Néanmoins, le moteur synchrone est plus coûteux et nécessite plus d’entretien que le moteur asynchrone. Avec les progrès de l’électronique de puissance (onduleur de tension à IGBT), ce dernier va supplanter le moteur synchrone dès le milieu des années 1990 dans quasiment tous les domaines de la traction. Ce type de motorisation est installé sur les motrices de l’Eurostar, avec des thyristors GTO, et maintenant sur le TGV POS, avec des IGBT. L'introduction du moteur synchrone à aimant permanent alimenté par IGBT sur l'AGV marque une nouvelle étape, avec pour (soit ). Circuits électriques de commande. Le TGV Atlantique a inauguré la gestion de la rame par ordinateurs reliés en réseau. Baptisé TORNAD (), le système est composé de (ordinateurs). Pour les générations suivantes de TGV : TGV Réseau, TGV Duplex et TGV POS, les ordinateurs sont reliés entre eux par le réseau TORNAD. Il s’agit d’un réseau de type (802.4). Parc des TGV. Environ (août 2010) de type TGV sont en service dans le monde, la grande majorité étant exploitée par la SNCF ou ses filiales internationales qui gèrent un parc de TGV (septembre 2010) dont pour la SNCF en propre (septembre 2010). Les différents types de rames TGV. TGV 001. La rame prototype TGV 001 était motorisée par quatre turbines à gaz pour hélicoptère. Le sigle TGV signifiait alors « turbotrain à grande vitesse ». Les quatre turbines à gaz entraînaient des alternateurs fournissant la puissance électrique aux moteurs de traction accouplés aux roues. Ce prototype était d'une certaine manière l'héritier des rames ETG (« élément à turbine à gaz ») qui circulèrent en Normandie dès 1970 ainsi qu'une réponse au projet d'aérotrain mû lui aussi par des turbines (actionnant une hélice). Parallèlement, la SNCF menait des essais de rame automotrice électrique avec le « Zébulon », surnom de la rame . Le choix de l'électrification fut fait en mars 1974 lors d'un conseil ministériel consacré aux économies d'énergie. Il fallut aussi, entre autres, mettre au point des pantographes adaptés à la grande vitesse. TGV Sud-Est. Construits entre 1978 et 1985, les TGV Sud-Est sont destinés à l'origine à la LGV Sud-Est à son ouverture. En 1990, ces trains sont numérotés de 01 à 118 dans la série TGV et sont limités à , puis la plupart sont rénovés dans les années 2000 pour atteindre . Initialement de couleur orange, ces rames ont été repeintes en bleu et argent, puis, dans les années 2010, en « Carmillon » pour certaines d'entre elles. Sur le plan commercial, les sont désormais les « TGV Nord » (Lille – Paris, Valenciennes – Paris…) et certains TGV intersecteurs (les rames concernées sont limitées à ) ; ils étaient aussi les TGV Lyria (la limitation à des rames concernées ne fut jamais levée). Les TGV SE se composent de deux motrices encadrant huit voitures. Les deux voitures d'extrémité possèdent chacune un bogie moteur. Toutes les rames sont bicourant ( continu et alternatif, c'est-à-dire les standards français) ; cependant, quelques rames (« Ligne de Cœur » ou maintenant « Lyria », numérotées ) sont tritension et peuvent circuler en Suisse ( alternatif de fréquence ). Les ne peuvent être couplés qu'avec d'autres . À partir du milieu des années 2000, le nombre de rames desservant le sud-est de la France au départ de Paris-Gare-de-Lyon se voit réduit, afin de remplacer les TGV Réseau bicourant sur la LGV Nord (ces derniers étant mutés pour l'ouverture de la LGV Est en 2007). Les livraisons de TGV Duplex (première génération jusqu'en 2006) ont permis d'anticiper cette évolution et de répondre à un taux de fréquentation en augmentation depuis l'ouverture de la LGV Méditerranée en 2001. Les rames sont retirées du service depuis 2012 (en commençant par les rames dites « Lyria »), puis radiées, exception faite des rames à nouveau rénovées dans les années 2010. À partir de 2014, les n'assurent plus les liaisons empruntant la LGV Méditerranée, comme Paris – Marseille, Paris – Nice et Paris – Nîmes – Montpellier, en raison de leur capacité insuffisante par rapport à la demande. Ces liaisons sont désormais entièrement assurées par des TGV Duplex et 2N2. Depuis le , les rames SE ont définitivement quitté les quais de Paris-Gare-de-Lyon (elles desservaient encore Chalon-sur-Saône, Besançon, Grenoble, Annecy et Miramas) et roulent uniquement sur les liaisons au départ ou à l'arrivée de Paris-Nord. Depuis début 2020, les TGV Sud-Est ne circulent plus. Seule la rame 16, celle du record du monde effectué le , qui était de , peut encore rouler : elle est ainsi sortie le pour fêter les du record de vitesse. TGV postal. Il s'agit de TGV SE décorés en jaune La Poste et aménagés pour le transport du courrier. Ils circulaient, sur les lignes à grande vitesse, à . Chaque nuit, ce train postal à grande vitesse transportait environ de courrier, colis et presse en liasse (journaux…) entre l’Île-de-France, la Bourgogne, Rhône-Alpes et Provence-Alpes-Côte d’Azur. Tout comme les TGV SE, ces TGV postaux étaient bicourant et couplables uniquement avec d'autres TGV SE (bien que cela fut rare, mais leurs motrices compatibles pouvaient parfois remplacer une motrice sur une rame classique TGV SE). Ces rames ont toutes été retirées du service en 2015. TGV P01. Convertie en 1997, la rame TGV Sud-Est est dotée d'un système de pendulation. Le TGV P01 était un prototype et démonstrateur du TGV pendulaire pour assurer les dessertes POLT et Paris - Strasbourg à plus de sans construire de ligne à grande vitesse. La puissance de la rame a été considérablement réduite et les installations électriques aux extrémités des rames ont dû être enlevées. Le développement d'un bogie jacobs pendulaire a été entrepris, mais il était impossible de faire penduler les motrices, le mécanicien dans la motrice ressentant une force centrifuge importante dans les virages. Ce projet a été abandonné en 2003 au profit des voitures Corail. La rame a ensuite été reconvertie en TGV Sud-Est et a été remise en opération après avoir bénéficié d'une rénovation de type 2. TGV Atlantique. Construits entre 1988 et 1992, les TGV Atlantique sont destinés à l'origine à la LGV Atlantique à son ouverture. En 2010, ces trains sont numérotés de 301 à 405 dans la série TGV, et sont aptes à . Entre 2005 et 2009 l'intérieur a été rénové selon le design de Christian Lacroix. Ils sont bicourant et se composent de dix remorques non motorisées encadrées par deux motrices. Ils ne sont compatibles qu'avec d'autres TGV A. Ils peuvent circuler en dehors du réseau Atlantique sous réserve de compatibilité technique, en raison de la longueur des rames supérieure aux autres TGV d'une part ( contre 200), et selon leur système de signalisation embarqué d'autre part (TVM300 ou TVM430). La mise à la retraite de ces rames a commencé en 2015. À partir de 2021, les rames Atlantique restantes sont progressivement rénovées, et arborent désormais la livrée Carmillon et le logo TGV inOui. TGV Réseau. Construits entre 1992 et 1996, les TGV Réseau sont destinés à l'origine à la LGV Nord à son ouverture. Il existe une version tricourant capable de rouler sous tension de pour assurer les relations entre Bruxelles et des destinations françaises hors Paris, et Paris-Milan, sur lesquelles ils sont toujours en service. En 2007 les TGV Réseau ont été rénovés selon le design de Christian Lacroix en vue de leur changement de service (TGV Est). C'est la première génération de TGV à utiliser la TVM 430. Les trains bicourant ont beaucoup assuré les relations intersecteurs et Nord avant de tous être regroupés au technicentre est-européen pour assurer les services nationaux sur la LGV Est. En 2011, ces trains sont numérotés de 501 à 553 (bicourant) et de 4501 à 4540 (tricourant) dans la série TGV, et sont tous aptes à . Depuis 2013, les TGV Réseau perdent leur livrée extérieure d'origine bleu et gris métallisé, au profit de la nouvelle livrée Carmillon. La mise à la retraite de ces rames a également commencé en 2015. TGV TMST. Construits entre 1993 et 1996, les TGV TMST sont destinés à l'origine à emprunter le tunnel sous la Manche à son ouverture. On les connaît plus sous leur nom commercial d'« Eurostar ». Le TGV TMST peut circuler, en service commercial, à la vitesse de . Son alimentation électrique était à l'origine compatible avec trois types de courants : en courant continu délivré par (supprimé en 2007), en courant continu délivré par caténaire, et en courant alternatif à délivré par caténaire. Il est moins large que les autres types de TGV, pour se conformer au gabarit britannique. Quelques TGV TMST ont été utilisés par la SNCF, notamment pour le TGV Nord. Ces dernières rames ont été réformées au profit de rames Duplex. TGV PBKA. Construits dans les années 1990, les TGV PBKA (pour Paris, Bruxelles, Köln, Amsterdam) sont destinés à l'origine à circuler entre Paris et Cologne. Ce sont les Thalys. Ils circulent maintenant en Belgique, en Allemagne et aux Pays-Bas en passant par la LGV Nord. Le TGV PBKA peut circuler en service commercial à la vitesse de . Son alimentation électrique est compatible avec quatre types de courants délivrés par caténaire : en courant continu, en courant alternatif à , et en courant alternatif à . Le TGV PBKA est compatible avec les éléments de sécurité ferroviaire suivants: KVB et TVM (utilisés en France), ATB (utilisé aux Pays-Bas), TBL (utilisé en Belgique), PZB et LZB (utilisés en Allemagne), et enfin ETCS de niveau 2 depuis la rénovation du matériel effectuée en 2009. TGV avec voitures à deux niveaux. Ce type de TGV a été commandé par la SNCF pour répondre à l'augmentation du trafic sur le réseau Sud-Est, où on le voit le plus souvent. Trois générations de TGV Duplex ont été conçues : Duplex, Dasye et Euroduplex. TGV Duplex. Les TGV Duplex sont couplables avec les TGV Réseau, dont ils reprennent la chaîne de traction (pour la première génération), et les TGV POS (même chaîne de traction que les rames Dasye). Cette première génération a été construite entre 1995 et 2006. Une partie de ces TGV sont (ou sont en passe d'être) transformés en « Néo-Duplex », avec leurs motrices initiales et des remorques de TGV Dasye. Les remorques d'origine sont quant à elles installées sur les rames utilisées par le service Ouigo. Par ailleurs, les rames Duplex (transformées en « Néo-Duplex » ou non) sont en cours d'équipement du Wi-Fi. La livrée Carmillon leur est également apportée. TGV Réseau Duplex. Ces rames ont la particularité d'être constituées de motrices issues des TGV Réseau et de remorques à deux niveaux parfaitement identiques à celles de la première génération des TGV Duplex. Il ne s'agit donc pas d'une génération à part entière. Depuis la fin 2020, toutes les rames portent la livrée Carmillon et le logo TGV inOui. TGV Dasye. Seconde génération de TGV Duplex, ce type de rames a été construit entre 2008 et 2012. TGV Dasye "Ouigo". Les rames Ouigo, de , sont composées de voitures Duplex (de première génération, rénovées et modifiées) et de motrices de type Dasye. Ces rames ne sont pas concernées par l'équipement en Wi-Fi. TGV 2N2 (Euroduplex). En fabrication depuis 2011, ce TGV peut être considéré comme la troisième génération de Duplex. Cette série a été commandée par la SNCF pour des liaisons vers l'Allemagne et la Suisse (rames tricourant) et pour faire face à l'augmentation du trafic due à l'ouverture de la LGV Rhin-Rhône. Depuis , les premières rames de cette série sont en exploitation, principalement sur la LGV précitée. Les rames bicourant, construites en 2012, sont numérotées à partir de 800 dans la série TGV. Elles sont limitées à . Leur système ETCS (système européen de contrôle des trains) leur permet d'assurer les missions vers l'Espagne, en support des rames Dasye. Les rames numérotées de 4701 à 4730 (, dites RGV 2N2-3UA (trois tensions Allemagne) circulent également sur la LGV Est européenne. Les rames numérotées de 801 à 810 (dix rames) sont les RGV 2N2-3UH (trois tensions hispanisées). Les rames numérotées de 811 à 825 () sont les RGV 2N2-3UF (trois tensions France). Les rames numérotées de 826 à 865 et de 867 à 896 (soit un total de ), commercialement appelées "L'Océane", techniquement dénommées RGV 2N2-3UFC (deux tensions France), circulent sur la LGV SEA, vers la Nouvelle-Aquitaine (Bordeaux et Hendaye) et l'Occitanie (Tarbes et Toulouse), depuis l'ouverture de cette ligne le . En outre, elles ont progressivement été déployées pour le trafic entre Paris et la Bretagne, en empruntant la LGV BPL et les lignes classiques bretonnes. À noter que certaines de ces rames ont aussi rejoint la LGV Sud-Est, entre Paris et Lyon. Les premières rames de cette sous-série avaient été mises en service le , entre Paris et Toulouse. TGV M. Officiellement présenté en , ce nouveau modèle de TGV commandé à Alstom sera livré entre 2024 et 2031, et circulera d'abord sur les liaisons desservant le sud-est de la France. La rame 996 est partie en direction de la République tchèque pour les essais sur le circuit d'essai de Velim. Elle sera équipée de sa livrée d'essai à son retour en France courant 2023 TGV POS. Construits dans les années 2000, les TGV POS ("POS" pour "Paris - Ostfrankreich - Süddeutschland", en français : "Paris - Est de la France - Allemagne du Sud") sont destinés à l'origine à la LGV Est européenne à son ouverture. À l'origine il s'agissait de TGV Duplex tricourants, cependant pour l'ouverture de la LGV Est européenne prévu pour 2007, la SNCF ne souhaitait pas mettre en service des rames à deux étages sur ce tronçon qui était jugé à l'époque "trop jeune" selon-elle, la SNCF a alors décidé d'échanger les voitures avec bicourants TGV Réseau, les TGV POS récupèrent les voitures à un seul étage des rames Réseau, et les rames Réseau récupèrent les voitures Duplex, ce qui donne naissance aux TGV Réseau Duplex, qui circuleront sur le tronçon de la LGV Méditerranée, en raison de sa forte fréquentation. En 2010, ces trains sont numérotés de 4401 à 4419 dans la série TGV. En 2012, la SNCF a cédé la totalité du parc au réseau TGV Lyria, compagnie ferroviaire franco-suisse. Lors de cette cession les TGV POS sont passés de la livrée Lacroix à la livrée Lyria. En , ce parc est retransféré à la SNCF qui assure désormais des services domestiques TGV inOui, sur les LGV Nord et Est européenne. Le TGV POS peut circuler en service commercial à la vitesse de . Son alimentation électrique est compatible avec trois types de courants : en courant continu délivré par caténaire, en courant alternatif à délivré par caténaire, et en courant alternatif à délivré par caténaire. Le TGV POS est compatible avec les éléments de sécurité ferroviaire suivants : KVB et TVM (utilisés en France), PZB et LZB en Allemagne, ZUB en Suisse, et enfin ETCS de (système européen de contrôle des trains). Dérivés. Acela Express. Construit par le canadien Bombardier Transport et motorisé par Alstom sur le même principe que le TGV, l'Acela est un train pendulaire mis en œuvre par Amtrak et circulant sur le « Corridor Nord-Est » ("Northeast Corridor") entre les villes de Boston dans le Massachusetts et Washington (district de Columbia). Contrairement aux TGV qui circulent sur une ligne à grande vitesse, l'Acela circule sur une ligne classique modernisée, ce qui ne lui permet d'atteindre que des vitesses commerciales de l'ordre de . AVE S-100. Le S-100 (pour Série 100, nom d'exploitation) est un train à grande vitesse construit dans les années 1990 par Alstom (qui s'appelait à l'époque Alsthom) et qui circule en Espagne pour le service Alta Velocidad Española de la Renfe. AVE S-101. Le S-101 est un train construit par Alstom en 1994 dérivé du S-100, la seule différence étant l'écartement espagnol. Ce train était utilisé sur des lignes à . Contrairement au S-100, le S-101 était limité à , avant de rejoindre la flotte des S-100. Korean Train Express 1. Ce matériel est dérivé du TGV Atlantique, avec un transfert partiel de technologie à la Corée du Sud. Dessertes assurées par le TGV. Le premier service TGV entre Paris et Lyon a été lancé en 1981, utilisant une partie de la « LGV Sud-Est » encore partiellement en construction. Dès l’origine le service TGV continuait par voie classique vers Marseille et vers Montpellier en desservant les gares intermédiaires. Depuis, le réseau TGV centré sur Paris s’est étendu jusqu’à relier désormais de nombreuses villes françaises, en partie grâce à la construction de lignes nouvelles à grande vitesse vers le sud, l’ouest, le nord et l’est de la France depuis le . Le kilométrage relativement faible de lignes nouvelles ( environ en décembre 2011) fait que beaucoup de dessertes en TGV empruntent les lignes nouvelles sur une partie de leurs parcours et continuent sur le réseau classique sur des distances parfois assez longues, y compris dans les pays voisins de la France. Le TGV dessert ainsi l’Allemagne, la Belgique et les Pays-Bas (sous la marque Thalys ou TGV pour la province française au départ de Bruxelles), le Royaume-Uni sous la marque Eurostar, l’Italie sous la marque Artesia, l'Espagne, mais aussi la Suisse sous la marque Lyria, qui dessert Genève depuis 1981, Lausanne depuis 1984, Berne depuis 1987, Bâle et Zurich depuis 2007. Ces dessertes sont assurées par la SNCF dans le cadre de partenariats internationaux pour lesquels des structures "ad hoc" ont été créées sous forme de sociétés ou GEIE. La plupart des liaisons TGV partent de Paris ou y arrivent, mais d'autres évitent Paris intra-muros en empruntant la ligne d’interconnexion à l’est de la capitale ou la Grande Ceinture au sud, ou ne desservent pas l’Île-de-France. Les TGV desservent plus de en France, dont huit en Île-de-France et plus d’une trentaine dans les pays limitrophes. Comme les TER de nombreuses régions, les TGV Paris – Bruxelles, Paris – Lille, Paris – Nantes et Paris – Lyon ont des horaires cadencés (départs et arrivées aux mêmes minutes de chaque heure pendant toute la journée). Tous les TGV circulants en France sont soumis à tarification SNCF, sauf dans la région Hauts de France seule en France à opérer certaines de ses lignes avec des rames TGV circulant sur LGV avec une tarification TER Hauts de France sous l’appellation : TER-GV Un enjeu national. Comme le Minitel, la fusée Ariane, le Concorde, le nucléaire civil ou Airbus par exemple, le TGV fait partie des « grands projets » qui associent fortement l’État français à un « champion national ». Ces entreprises, domaine d'excellence en France des grand corps d’ingénieur, sont caractérisées par leur intégration verticale ; la R&D y est notamment fortement internalisée et les partenariats avec des universités ou des bureaux d’étude indépendants sont rarissimes. Ces technologies sont aussi des vitrines de démonstration de savoir-faire exportables. Par exemple pour Jacques Chirac en 2007, alors président de la République française : Les TGV ne s'arrêtent plus aux frontières. Il existe une association « Villes et Régions européennes de la Grande Vitesse » (VREGV), présidée (en 2010) par Bernard Soulage (vice-président de la région Rhône-Alpes et député européen). Critiques. Hausse des prix. Le TGV constitue un facteur de « déséquilibre » partiel parce qu'il dessert moins de gares et ne relie que de grands pôles, ce qui désavantage les territoires ruraux. Il entraîne par ailleurs une hausse de prix de 30 % en moyenne par rapport aux liaisons classiques qu’il remplace. Après la mise en service des premières LGV (vers Lyon et vers Rennes/Bordeaux) une desserte par la ligne classique avait été maintenue. Elle a été supprimée par la suite par manque de fréquentation. Contrairement au système allemand, il n’existe généralement pas d'alternative ferroviaire commode au TGV sur les liaisons qu'il dessert. Comme la plupart des moyens de transports à grande distance, le TGV est surtout utilisé par les professionnels (30 % des voyages sont professionnels) et les ménages aisés, pour lesquels le TGV remplace bien souvent l’avion. Les cadres et leurs familles représentent 56 % des voyageurs alors qu’ils ne forment que 28 % de la population française. La SNCF estime cependant que ces trains à grande vitesse sont en moyenne 30 % moins chers que leurs équivalents en Espagne ou en Allemagne ; et ils seraient approximativement 50 % moins chers que le Shinkansen japonais, qui offre en revanche un haut niveau de services et de confort à ses passagers. La SNCF développe néanmoins à partir du printemps 2013 une offre à bas coût, sous l'appellation Ouigo. Confort. L’aménagement intérieur, en classe, est d’un certain niveau . Cependant, dès l’origine, il n'y a pas de voiture-restaurant, puis la restauration à la place est supprimée progressivement et les oreillers repose-tête disparaissent, tandis que les services et le confort proposés aux voyageurs sont jugés modestes par rapport aux défunts Trans-Europ-Express ou à certains trains à grande vitesse étrangers, notamment l’Acela Express, le Shinkansen, l’ICE ou le KTX coréen. Sous la pression de la concurrence, cette situation est en train d’évoluer, avec l’adoption d’un nouveau décor luxueux conçu par le grand couturier Christian Lacroix et l’instauration d’un véritable service à bord sur les grandes liaisons : Eurostar, Lyria, TGV Pro. Enfin, le retour d’une restauration à la place généralisée est de nouveau envisagé. Des voyageurs trouvent le TGV moins confortable en classe que les rames Corail qu’il a remplacées. Les principaux problèmes évoqués sont la diminution du pas (distance entre deux sièges, augmentée sur l’AGV par un plancher un peu plus bas et donc plus large), un rembourrage des sièges moins épais et l’obligation de réservation, jugée contraignante, notamment pour les trajets très courts. Le placement de certains sièges à hauteur des trumeaux (montants de fenêtre) produit des places aveugles où les passagers n’ont presque aucune vue sur l’extérieur. Le confort acoustique est généralement très bon. Le niveau de bruit moyen, à , peut atteindre aux meilleures places (salle hautes, duplex, classe) notamment du fait de l'éloignement des sources de bruit solidien (équipements techniques, essieux, bogies et suspension), contre plus de à bord de certains « vieux » Shinkansen (anciennes générations) et près de à bord d'un avion de ligne. Exploitation. Secours en ligne. En cas de panne interdisant la traction, les rames sont secourues par des locomotives diesel BB 67200 en unités multiples munies d'un attelage spécial. Ce sont d’anciennes BB 67000 spécialement modifiées pour pouvoir circuler et remorquer les rames TGV sur LGV. Elles assurent également la traction des trains de travaux pour l’entretien des LGV. Gestion. La gestion des TGV est sectorisée en plusieurs partie à l’échelle Nationale: Entretien. L’entretien du parc TGV, pour les opérations de maintenance régulière, a nécessité l’aménagement d’ateliers situés à proximité des gares en têtes de lignes. C’est ainsi que les rames TGV Sud-Est étaient entretenues aux ateliers de Villeneuve-Saint-Georges et de Paris-Conflans, celles du TGV Atlantique aux ateliers de Châtillon et celles du TGV Nord aux ateliers du Landy à Saint-Denis. Depuis, avec l’apparition du TGV Duplex (TGV à deux niveaux), le parc a été redéployé et les ateliers du Landy entretiennent des rames TGV Sud-Est, tandis que les ateliers de Paris-Conflans entretiennent d'autres rames TGV Sud-Est, mais également de rames Réseau et Duplex. La répartition du parc entre les ateliers était, au , la suivante : Le Technicentre de Lyon-Gerland, inauguré le 31 mars 2009, est le seul centre TGV en province. Initialement, il était prévu Duplex d’ici fin 2009 (60 horizon 2011 ; à l’ouverture de la LGV Rhin-Rhône), pour l’entretien de TGV Duplex de la ligne Paris – Lyon et du futur TGV Rhin-Rhône. Depuis début 2010, la maintenance des rames Duplex est mutualisée entre les technicentres Sud-Est Européen, Atlantique et Lyon-Gerland. De ce fait, l’autocollant apposé sur le devant des motrices, indiquant l’appartenance au Technicentre (par exemple : « Paris Sud-Est », pour le TSEE, et « Châtillon », pour le TA) est maintenant remplacé par la mention « rame à grande vitesse entretenue par les technicentres SNCF ». Grandes révisions périodiques : Les TGV s’y rendent en circulation non commerciale (ou « en W », pour vide voyageurs, dans le jargon cheminot). Romilly étant située sur une ligne non électrifiée, les TGV s'y rendent remorqués par des locomotives diesel. Entretien courant en Europe : Activité. Le TGV a fêté son premier milliard de voyageurs transportés depuis l’inauguration du premier service en septembre 1981, le . Son deuxième milliard est atteint le 25 janvier 2013. En 2004, le TGV a transporté de voyageurs en France (cette valeur ne concerne que le trafic national, les dessertes internationales étant gérées par des sociétés spécifiques). Ce trafic est en croissance de 4 %, soit trois millions de voyageurs supplémentaires par rapport à l’année précédente. Le chiffre d’affaires correspondant s’élève à trois milliards d’euros, en progression de 7,3 %. En fin d’année 2004, sa part de marché (par rapport à l’avion) s’établit à 68 % sur la ligne Paris-Marseille, et à 66 % sur Paris-Bordeaux. Il y a environ de TGV parmi les de la SNCF. Après un mois d’exploitation, la SNCF annonce le 9 juillet 2007 avoir transporté un million de personnes sur le TGV Est, soit en moyenne par jour avec quotidiennes. Les taux d’occupation des TGV Est sont bons (en moyenne de 88 % en seconde classe et 75 % en classe) mais le taux de régularité des TGV Est n’est en moyenne que de 86 %. À titre de comparaison, la régularité 2006 moyenne de l’Eurostar était de 91,5 % et de 92 % au premier semestre 2007 (communiqué de presse Eurostar). Ces comparaisons brutes sont toutefois peu significatives en elles-mêmes, car elles éludent différents éléments : En 2013, le nombre de passagers diminue pour la deuxième fois consécutive. La marge opérationnelle est en retrait et le modèle est confronté à la crise économique et à la concurrence de Ouigo. Accidents. En trente ans, le TGV a connu plusieurs accidents dont quatre déraillements à grande vitesse. Le TGV a causé la mort de onze personnes (neuf employés et deux passagères) présentes à bord d'une rame d'essai qui effectuait des essais de vitesse sur le nouveau tronçon de la LGV Est européenne au nord de Strasbourg, en raison de son déraillement le . Deux minutes avant de dérailler, le TGV allait à , c'est-à-dire au-dessus de la vitesse limite de pour laquelle il était homologué. Cependant, l’exploitation sur LGV ne représente que 25 % environ des trains-kilomètres réalisés par les TGV. Sur le réseau classique, le TGV est confronté aux mêmes aléas que les autres trains et plusieurs accidents, impliquant notamment des collisions avec des véhicules routiers à des passages à niveaux, ont causé la mort de personnes extérieures au train. De plus, deux attentats mortels se sont produits sur une ligne classique, en 1983 et en 1986. |
Train Le train est un matériel roulant ferroviaire assurant le transport de personnes ou de marchandises sur une ligne de chemin de fer. Par extension, on appelle train le service que constitue chacun de ces transports, réguliers ou non. Le train est un mode de transport, s'effectuant sur voie ferrée. Étymologiquement parlant, le mot train désigne une rame de wagons de marchandises ou de voitures de passagers tractée par au moins une locomotive, par opposition aux rames automotrices (catégorie dont fait partie le TGV) ou autorails qui assurent leur propre propulsion. Cependant, dans l'usage courant, le mot train désigne n'importe quelle circulation ferroviaire, quelle que soit sa composition, depuis le plus simple autorail local jusqu'aux longs trains de grandes lignes ou de transports industriels. Un train se compose de plusieurs éléments dont au moins un véhicule moteur (locomotive, locotracteur, rame automotrice) assurant la traction de la rame, accompagné de n'importe quelle combinaison, inclusive et exclusive, de voitures pour le transport de personnes, de fourgons assurant différents services comme le transport de colis ou de bagages, et de wagons pour le transport de marchandises. Il peut s'agir également d'engins spécialisés pour l'entretien des voies (trains de travaux). Pour la traction, la locomotive à vapeur, omniprésente au , laisse place à la locomotive électrique dès le début du , puis à l'autorail à partir des années 1930 pour s'effacer finalement avant la fin du devant la locomotive électrique ou Diesel sur les lignes non encore électrifiées. D'autres modes de traction marginaux ont été employés par le passé et sont parfois encore utilisés : animaux (chevaux, bœufs), câbles, cordes et cabestans, gravité, pneumatique ou turbines à gaz. Aujourd'hui, pour le transport de passagers, les rames remorquées cèdent régulièrement du terrain devant les rames automotrices qui composent désormais aussi bien des trains de banlieue que des trains à grande vitesse. Histoire. Origine du mot. Le terme « train », écrit "traïn" ou "trahin" en ancien français, est le déverbal du verbe « traïner », à l'origine de notre verbe traîner ; ce premier emploi correspond en particulier à toute la gamme des divers systèmes de traînes sur la surface du sol (traîneau), dans l'eau (filet) ou sur l'eau (flottage, halage, touage). Bien avant l'invention de la voie ferrée, on appelait « train » une file de chevaux de bât, une suite ordonnée d'hommes et de bêtes de charge accompagnant une personnalité éminente en déplacement, un convoi de bateaux rendus solidaires, pour mettre en commun les équipages et parfois l'énergie du vent. Dans ce dernier registre, le plus grand bateau, portant la plus haute voile, en tête servait de « locomotive ». Cette pratique fut énormément utilisée sur la Loire, pour la remontée de Nantes à Orléans, voire plus en amont si les conditions le permettaient. On appelait « train » également les longs radeaux formés de planches, de troncs attachés entre eux, dans le but d'en faire une embarcation suffisamment solide pour descendre ainsi les bois des montagnes jusqu'aux grandes villes par flottage, comme cela s'est pratiqué sur l'Yonne et ses affluents (comme la Cure), ou même ses sous-affluents, du au . Pourtant, le mot « train », dans le vocabulaire de la langue française et spécifique du chemin de fer et de la traction à vapeur, provient bien du mot anglais ', à la prononciation différente et concernant l'industrie britannique naissante des transports par rails et locomotive à vapeur, lui-même emprunté au français. Les adaptations-traductions, en particulier celles de l'inspecteur divisionnaire des Ponts et chaussées Joseph Cordier dans ses "Considérations sur les chemins de fer" parues en 1826 ou du livre ' de Nicolas Wood traduit en 1835 par l'ingénieur des Ponts et Chaussées Franquet de Franqueville, ne comportaient pas de détail phonétique. Lorsque la technique du chemin de fer fut importée, par exemple après 1827 pour les rares trains transportant les produits pondéreux des industries minières ou charbonnières ou après 1836 pour les voyageurs et/ou les marchandises, d'abord sur quelques lignes à Saint-Étienne, au Pecq près de Saint-Germain ou à Mulhouse, le mot français le plus semblable se calqua et se surimposa sur celui-ci, avec un certain nombre d'autres expressions communes du monde du transport terrestre, maritime et fluvial. Par exemple, les premières gares étaient nommées « embarcadères ». Plus tard, linguistes et érudits, à l'instar de Pierre Larousse, avalisent tacitement ce choix, arguant que le mot ancien français avait bien franchi la Manche avant de s'intégrer au lexique technique anglo-saxon. Le train, terminologie des chemins de fer, provient du verbe traîner, comme l'indique le Grand Larousse de 1923. Notons que quelques siècles se sont écoulés avant l'apparition de ce terme technique dans les mines et les ports britanniques au début des Temps modernes : l'ancien français, langue migratrice aux , était alors représenté soit par une langue véhiculaire, celle parlée ou écrite par les élites françaises seigneuriales, soit par les multiples dialectes de l'Ouest, en particulier de Normandie, des hommes de métiers ou de services, appelés par les premières mais se mêlant plus facilement aux populations locales. C'est plutôt par ce dernier biais que les Anglo-saxons ont emprunté le terme. Trois arguments simples peuvent justifier l'évolution moderne en France par emprunt et calque-superposition : la prononciation française "a posteriori", la préservation intégrale du sens anglais, le mot anglais "" lui-même. D'autre part, selon François Crouzet, il n'existe en France avant 1838 que des locomotives importées de Grande-Bretagne. Ce n'est qu'en 1840 que débute une production locale concurrentielle. Il faut signaler que, avec le temps, certains usages bien antérieurs du terme français, train, ont pâti de l'irruption de ce sens spécifique. Ainsi, le train de charronnage, le train d'animaux de trait, le train d'attelage, le train d'artillerie, le « train des équipages », le train de flottage, le train d'engrenages ne sont bien souvent plus compris ou pire, parfois assimilés fautivement et univoquement au dernier vocable du train sur chemin de fer. Certains érudits nostalgiques de la création du régiment du train à l'époque napoléonienne citent comme origine un spirituel acronyme TRAIN signifiant « Transport et Ravitaillement de l'Armée Impériale de Napoléon ». Cette étymologie est fantaisiste au niveau historique : aucun service de l'armée impériale n'était nommé ainsi. Histoire des chemins de fer. C'est le qu'a lieu la première circulation sur des rails d'une locomotive à vapeur, construite par Richard Trevithick près de Merthyr Tydfil, au pays de Galles. Cependant, des convois formant un train ont été signalés bien auparavant. La première utilisation attestée de chariots sur rails (non motorisés) remonte à 1550, sous la forme de gravures montrant des wagonnets sur rail dans les mines de Leberthal en Alsace. On suppose que les Romains ont pu utiliser un système similaire à des voies ferrées, certaines de leurs routes étant dotées de deux ornières à écartement fixe, parfois proche de celui de notre voie actuelle, qui ne fut cependant uniformisé que tardivement en Grande-Bretagne au profit de l'écartement « Stephenson ». La généralisation du système ferroviaire a été permise par la mise au point de la machine à vapeur, mais de nombreux systèmes alternatifs ont été utilisés au début, pour faire face au manque de puissance de celle-ci, ou pour s'adapter à des situations particulières, notamment la traction par chevaux, ou par câble, ainsi que l'utilisation de la simple gravité quand la pente le permettait. Ces méthodes à la fois lentes et hasardeuses ont rapidement pris fin avec la généralisation de la traction par locomotives à vapeur et les progrès rapides de ces machines. À partir de 1900 environ, l'apparition de moteurs électriques puissants et suffisamment compacts a permis l'apparition de la traction électrique, toujours utilisée à l'heure actuelle. Ce mode de traction nécessite cependant que la ligne sur laquelle le train circule soit équipée soit d'une caténaire, soit d'un troisième rail, alimenté en électricité. L'entre-deux-guerres verra l'apparition de locotracteurs diesel puis progressivement de locomotives diesel dans l'après-guerre (puis locomotives diesel-électriques). Les années 1950 sont la charnière entre disparition de la traction à vapeur et développement des moteurs thermiques. C'est également à cette époque que l'on observe l'apparition de locomotives capables de fonctionner sous courant alternatif. Le système ferroviaire. Les trains nécessitent une voie ferrée pour circuler. Elle se compose de rails posés sur des traverses à un écartement précis, elles-mêmes posées sur du ballast. La source d'énergie est soit portée par le train lui-même comme dans le cas de la traction vapeur ou de la traction diesel, soit apportée par l'infrastructure sous forme de caténaire ou de troisième rail pour l'électricité. En général, les locomotives diesel sont diesel-électriques : un moteur diesel entraîne un alternateur qui produit de l'électricité pour faire tourner un moteur électrique qui entraîne les roues de la motrice. Le mode de roulement, qui est un contact roue/rail (acier sur acier) à adhérence réduite, donne un rapport entre puissance et charge tractée favorable mais réduit considérablement les déclivités admissibles pour la voie : 4 % est un maximum. Certains métros ont des roues munies de pneumatiques, à la suite des essais de Michelin dès les années 1930. Les premiers véhicules équipés ont été les fameuses michelines, sortes de petits autocars sur rail (le mot a été appliqué improprement aux autorails en général par le grand public). Par la suite, le train Paris-Strasbourg a disposé pendant plusieurs années de véhicules à pneus. Le rayon de courbure des voies ne doit pas descendre en dessous d'une centaine de mètres. Ces deux contraintes fortes ont donc obligé les constructeurs à des prouesses, notamment en zone montagneuse, en réalisant de nombreux ouvrages d'art de génie civil comme des ponts, tunnels, viaducs, remblais, tranchées. Pour les pentes fortes, on a parfois recours au système de crémaillère. À l'inverse d'un véhicule routier, un train ne peut pas changer d'itinéraire par lui-même. Il doit emprunter des appareils de voie, dont les plus connus sont les aiguillages, afin de passer d'une voie à une autre. Une contrainte forte d'exploitation est qu'un train ne peut en dépasser un autre qu'à des endroits particuliers d'une ligne, d'où une moindre souplesse dans l'organisation des circulations et la nécessité d'un suivi rigoureux des plans de marche. Différents types de trains. Le terme « train » désigne plusieurs types de convois. Le plus connu consiste en une (éventuellement plusieurs) locomotive(s) et des véhicules ferroviaires, voitures ou wagons. Il peut aussi s'agir de plusieurs éléments autonomes constituant un train d'automoteurs. Il a aussi existé des trains simplement poussés à la main ou tirés par des chevaux. Des types de trains tout à fait spéciaux nécessitent une voie adaptée, par exemple les chemins de fer atmosphériques, les monorails, les Maglevs et autres funiculaires. Trains de voyageurs. Les trains de voyageurs sont constitués par des automotrices (ou autorails s'il s'agit de traction diesel) ou de rames tractées composées d'une ou plusieurs locomotives et une ou plusieurs voitures. Dans certains pays (Chine, France, Espagne, Allemagne, Corée, Japon…), il existe des trains à grande vitesse, composés de matériel spécifique et roulant principalement sur des lignes spécialement construites ou adaptées. Les trains de voyageurs sont souvent adaptés aux distances à parcourir et à la période de transport. Ils peuvent intégrer des voitures destinées à la restauration, à la détente ou au sommeil des passagers. Ainsi, pour les voyages de nuit, on peut emprunter un train de nuit, ou un service auto-train qui permet de faire transporter son véhicule avec soi. Ce service auto-train est également utilisé pour franchir des obstacles naturel (navette d'Eurotunnel pour franchir la Manche, transport d'automobiles accompagnées en Suisse pour la traversée des Alpes). Pour les trajets autour d'une métropole, la compagnie exploitante fait circuler des trains de banlieue. Ceux-ci sont équipés pour pouvoir faire face au trafic des heures de pointe : nombreuses portes et places debout. Pour assurer les transports au cœur même des villes, on a recours au métro ou au tramway. Sur des lignes à très faible trafic, il existait des trains mixtes voyageurs/marchandises, qui ont partout disparu, à de rares exceptions, parmi lesquelles les convois de minerai de fer de Mauritanie qui comportent une ou deux voitures de voyageurs. Sur les lignes à très fort trafic, des voitures à deux niveaux sont utilisées comme sur le réseau Transilien et certains TGV. De nombreuses compagnies ont pour usage de classer leurs trains selon la distance parcourue et la desserte. On trouve ainsi souvent : Un regain d'intérêt pour les trains d'autrefois fait se développer des trains touristiques, comme le Chemin de fer de la baie de Somme. Ces trains ont la particularité de servir à la promenade et non au réel transport de voyageurs. Certains trains continuent à offrir un service quotidien, mais y est adjoint un service hebdomadaire, le samedi et/ou le dimanche, lors de certaines périodes (l'été), avec l'utilisation des anciennes machines à vapeur et wagons, avec en plus des animations. C'est le cas du Train des Pignes qui circule entre Nice et Digne, le train à vapeur, quant à lui, circulant entre Puget-Théniers et Annot. Trains de marchandises. Les trains de marchandises, appelés trains de fret en France, comprennent des wagons ou du matériel à voyageurs devant être acheminé dans la même direction. Il existe des types de wagons spécialisés en fonction de la marchandise à transporter, comme le wagon-citerne, le tombereau, le wagon couvert, plat, etc. De plus en plus fréquemment, un train de marchandises est constitué de wagons de même type (train d'hydrocarbure, train de céréales, etc.). En France, si tous les wagons ont la même origine et la même destination, on parle de train entier ou train complet ; si la rame est composée de wagons variés ayant des destinations diverses, on parle de trafic « diffus » ou de « wagons isolés ». Un train postal (service totalement disparu en France), dans lequel éventuellement du personnel travaille au tri du courrier en cours de route, appartient également à la catégorie des trains de fret. Le train de marchandises doit de plus en plus s'adapter aux contraintes de l'intermodalité des transports. Des trains transportant des conteneurs ou des remorques peuvent participer à une chaîne globale, combinée avec le transport maritime et le transport routier. En France, on appelle train de marchandises (MA) un train ayant une vitesse comprise entre 80 et , et train de messageries (ME) un train circulant de 100 à . Les trains dits « MVGV » étaient des trains de messageries qui pouvaient circuler à 200 km/h sur des lignes à grande vitesse, ce qui en faisait les trains de fret les plus rapides au monde. Traction multiple. La traction d'un train peut être assurée par plusieurs locomotives. On dira qu'elles sont en « unité multiple » si la commande est assurée depuis un seul poste de conduite et en « double traction » si un conducteur par machine est nécessaire. Lorsque d'autres machines sont attelées au convoi mais ne sont pas en marche, il s'agit de locomotives en "marchandise roulante" (France) ou "comme véhicule" (Belgique), et si le train ne comporte que des locomotives, d'un train de machines. La longueur totale peut atteindre des valeurs importantes (par exemple pour , sur parcourus en ), afin d'obtenir un meilleur taux de rentabilité. Dans d'autres pays, aux États-Unis par exemple, il est fréquent de trouver des trains en triple, quadruple, voire quintuple traction. Les locomotives complémentaires peuvent être ajoutées en queue de train ou même au milieu de la rame : cela permet d'accélérer le freinage des trains très longs et de diminuer les efforts sur les attelages. Dans de nombreux pays, l'emploi de l'expression « unité multiple » (UM) est normalement réservé aux couplages de locomotives dirigés par un seul conducteur, les commandes étant transmises de la machine de tête aux suivantes par un câblage spécifique. La double traction repose sur le même principe d'utilisation simultanée de plusieurs machines, mais dans ce cas-ci, il faut un conducteur par engin. En France, ces derniers se transmettent les indications par radio. En Belgique, des voyants sont installés à l'arrière de la locomotive de tête afin d'indiquer les différentes actions du conducteur de tête. On utilise ce système lorsque les machines ne sont pas compatibles. Autres convois. En cas d'accident, on dispose d'un train de secours, constitué d'équipements de relevage et de voitures d'hébergement du personnel. Dans certains pays, notamment en Suisse et au Canada, où il y en aurait une vingtaine, il existe également des trains de lutte contre le feu, qui ont pour mission d'intervenir en cas d'incendie ou d'accident sur tout le réseau et en particulier dans les tunnels ferroviaires. Plus fréquemment, on peut être amené à rencontrer un train de travaux constitué soit d'un ou plusieurs engins moteurs et de wagons, soit du matériel automoteur spécifique aux différentes opérations de voie (bourreuse, régaleuse, dégarnisseuse, train-caténaires…) ; ils permettent l'entretien des voies et des ouvrages d'art, et aussi la construction des voies nouvelles. Un train laveur n'est pas considéré comme un train de travaux ; il circule sous le régime des marchandises avec une vitesse spécifique sur son parcours de travail. Les draisines (automotrices légères servant à l'acheminement du personnel chargé de l'entretien des voies sur les chantiers) tirant ou non une ou plusieurs allèges (remorques légères plates servant au transport de l'outillage et du matériel léger) sont considérées comme un train si elles sont capables de fermer les circuits de voie. Un véhicule ferroviaire isolé n'est pas considéré techniquement comme un train (mais peut l'être d'après la réglementation). Train autonome. Bien que déjà développé dans le cadre des métros, le principe du train autonome reste encore à l'état de prototype et d'expérimentation par plusieurs entreprises de construction ferroviaire et d'entreprise d'exploitation ferroviaire. Sécurité ferroviaire. Elle a beaucoup varié selon les époques et les pays. En Europe à la fin du statistiquement, c'est dans le train qu'un voyageur risque le moins un accident, et notamment un accident mortel (Le risque en termes de . Culture. Le thème du train est fortement présent dans la littérature, les arts plastiques (affiches, dessins, gravures, photographies…), le cinéma, les jeux vidéo, etc. C'est à la fois un monde clos propice aux intrigues (policier, espionnage, rencontres et drame sentimental) et un lieu qui voyage, propice à l'aventure et au suspense (passage de frontière, arrivée qui se rapproche). Un imaginaire fort est notamment lié à certains types de trains (trains de luxe internationaux de style Orient-Express ou Transsibérien, train de nuit, etc.). Littérature. Le monde ferroviaire est particulièrement présent dans la littérature, et ce quasiment depuis son apparition : Victor Hugo, en 1837, en fait mention alors que les premières lignes ouvrent aux voyageurs. Honoré de Balzac, qui avait, en 1838, au bout de sa propriété des Jardies, l'embarcadère du chemin de fer de Paris à Versailles, cite ce moyen de transport dans "La Cousine Bette", "Le Cousin Pons", "Les Comédiens sans le savoir". L'ambiance du voyage et des gares, l'univers tantôt feutré tantôt sombre en font un cadre de choix pour le roman autour de thématiques particulièrement variées. La technologie et l'imaginaire associé lui ouvrent les portes de la science-fiction, tandis que l'espace clos des voitures donne bien des idées aux auteurs de policiers. La bande dessinée : "Des rails sur la prairie", ou la poésie : "Crains qu'un jour un train ne t'émeuve plus" de Guillaume Apollinaire, ne dérogent pas à la règle et il n'est pas rare d'y trouver un sujet ferroviaire. Aussi, dans Harry Potter, J. K. Rowling introduit le fameux Poudlard Express, un train qui conduit les sorciers jusqu'à l'école de Poudlard. Plusieurs études ont été réalisées sur le train dans la littérature. Pour la francophonie, on trouve notamment "Le train dans la littérature française" de Marc Baroli. Il existe également de nombreuses études sur des thèmes précis : la métaphore du tunnel, le voyage en train au . Une revue en ligne, "Des Rails", est spécialisée dans l'imaginaire ferroviaire et la littérature en particulier. Quelques exemples d'auteurs, en langue française (ou largement traduits), et d'ouvrages dont le thème principal est ferroviaire : Arts plastiques. Le thème du train a largement inspiré les artistes dès son apparition ; leurs œuvres, notamment gravures et photographies utilisées pour l'illustration d'ouvrages, nous permettent de visualiser les machines et chemins de fer disparus. De grands peintres ont produit des toiles inspirées par ce sujet, entre autres : Cinéma et télévision. Depuis que le train existe, il est indissociable des histoires des hommes, qu'ils soient cheminots ou voyageurs. Les cinéastes auteurs, toujours avides d'alimenter leur imaginaire, y trouvent un sujet inépuisable d'inspiration : Le Western a quant à lui popularisé les attaques à cheval de trains, que ce soit par des bandits ou des indiens. Le cinéma muet a également popularisé le chemin de fer avec le mythe de la femme attachée sur des rails alors qu'un train va lui foncer dessus, sauvée "in extremis" par le héros du film. Quelques œuvres mettant en scène le train : |
TeX TeX est un système logiciel libre de composition de documents, indépendant du matériel utilisé pour la visualisation ou l'impression. Il fut créé à partir de 1977 par le mathématicien et informaticien Donald Knuth, excédé par la piètre qualité de la typographie des logiciels d'édition de l'époque. Il est principalement conçu pour l'édition de documents techniques et est largement utilisé par les scientifiques, particulièrement en mathématiques, physique, bio-informatique, astronomie et informatique. Il est également extensible et permet notamment l'édition de documents plus complexes (affiches, plaquettes publicitaires, partitions musicales...). TeX vient de , début du mot , "tékhnê" (« art, science », en grec ancien), et se prononce // ou //, au choix. On écrit parfois au lieu de TeX, le logiciel permettant les mises en forme correspondant au logo. Origine et historique. Origines du programme. Lorsque le premier volume de "The Art of Computer Programming" fut publié en 1968, le premier livre de Donald Knuth, celui-ci fut d'abord imprimé par composition par métal chaud, une technique datant du qui donnait un caractère « ancien » apprécié par Knuth. Cependant lors de la seconde édition du second volume en 1976, le livre entier a dû être recomposé parce que les éditeurs utilisaient une nouvelle technique appelée photocomposition qui ne fonctionnait plus avec les anciennes polices. En effet, les anciennes imprimeries avaient été remplacées par des imprimeries à impression photographique. Lorsque Knuth reçut les premiers essais de son deuxième livre, il les trouva horribles. Tant et si bien qu'il décida de résoudre le problème et de réaliser lui-même son outil d'édition typographique qui ne serait d'aucun ressort photographique mais bien informatique. Knuth prévoyait initialement de le terminer en six mois pour la fin de son année sabbatique. Il prendra finalement presque 10 ans, soit de 1977 à 1989. Bien qu'il fût seul à le développer, il reçut cependant de l'aide de nombreux collaborateurs dont Hermann Zapf, Chuck Bigelow, Kris Holmes, Matthew Carter et Richard Southall. Décidant d'aller travailler dans les locaux de Stanford au lieu des laboratoires Xerox de Palo Alto, Knuth se mit au travail sur TeX lors du printemps 1977. En tenant comme référence un grand nombre de livres de typographie, notamment ceux de l'ancienne collection Aldine, il se mit en tête de retranscrire les anciens caractères dans son programme en utilisant des formules mathématiques. Il tentait alors de comprendre la logique derrière les lettres. C'est ainsi qu'il se mit à travailler sur son propre logiciel de polices de caractères Metafont. Le premier prototype de TeX fut implémenté pendant l'été 1977 par 2 étudiants de Knuth, Michael F. Plass et Frank M. Liang, d'après les spécifications qu'il leur avait données. Il ne contenait initialement que quelques définitions de macros et d'opérations élémentaires sur les boîtes. Première version. La première version de TeX, également dénommé Tau Epsilon Chi, fut achevée en 1978 par Knuth sur base du prototype. Celle-ci était implémentée en langage SAIL, un langage de compilation semblable à Algol, et le premier manuel utilisateur fut rédigé durant l'été 1978. Au début de 1979, Trabb Pardo et Knuth commencèrent à planifier une conversion du SAIL au WEB. Cela se traduira par une conversion complète entre 1979 et 1980 faite par Ignacio A. Zabala. Parallèlement, Knuth sortit la première version de Metafont en 1979. Deuxième version. En 1982 est publiée une nouvelle version nommée "TeX82", pratiquement réécrite de A à Z. Cette version inclut notamment des idées de l'implémentation de 1979 en MESA écrite par Leonidas Guibas, Robert Sedgewick et Douglas Wyatt du centre de recherche Xerox de Palo Alto. L'algorithme de césure original fut remplacé par un nouvel algorithme écrit par Frank Liang en 1983. "TeX82" utilisa une représentation à virgule fixe à la place de virgule flottante afin de renforcer la portabilité sur plusieurs hardwares. Knuth inclut également un véritable langage de programmation certifié Turing-complet sous la pression de programmeurs, notamment Guy Steele. En , Donald Knuth entame de nouvelles modifications dans le code de TeX et Metafont. En effet, jusque-là les caractères étaient codés sur 7 bits, ce qui est suffisant pour afficher 128 lettres, soit l'alphabet anglais plus quelques caractères spéciaux, mais nettement insuffisant pour des alphabets étrangers (notamment en Europe et en Asie). Il dut donc réadapter entièrement TeX et Metafont pour fonctionner en 8 bits, soit 256 caractères différents, ce qui le rendit utilisable pour une bonne partie des langues d'Europe occidentale. Il introduisit également dans TeX la capacité de faire la césure dans d'autres langues que l'anglais, basée sur plusieurs idées de Michael J. Ferguson. TeX passa alors dans sa version stable 3.0. Troisième version. À partir de la version 3, TeX utilisa un système idiosyncrasique de numérotation de version, les mises à jour étant indiquées en ajoutant un chiffre supplémentaire après le point décimal, le numéro de version approchant ainsi asymptotiquement le nombre formula_1. La version actuelle de TeX est la 3.14159265, la dernière mise à jour datant du . Les caractéristiques essentielles de TeX ont été figées après la , et toutes les versions suivantes ne contiennent que des corrections de "bugs". Donald Knuth, bien qu'ayant signalé des améliorations possibles, a insisté sur le fait qu'avoir un système fixe qui produira toujours la même sortie est plus important que d'introduire des caractéristiques nouvelles. Fonctionnement. Principales caractéristiques. Dès le départ, le système TeX fut conçu afin d'être : Durant le développement, le logiciel devint indépendant par rapport à son support. Pour un même fichier d'entrée, il délivre le même fichier de sortie quel que soit l'ordinateur ou système d'exploitation sur lequel il est installé. Le langage TeX. Le langage TeX est un langage balisé. Il utilise à la fois du texte brut pour le corps du texte ainsi que des commandes commençant par une contre-oblique « \ ». Les commandes reconnues par le compilateur TeX sont divisées en « primitives » (on en compte environ 300), et « macros », créées à partir des primitives. Les macros rendent possibles des structures assez complexes (boucles, conditions, etc) ainsi que la réalisation de calculs. Afin de simplifier la préparation d'un document, D. Knuth a défini un ensemble d'environ 600 macros appelé plain TeX qui est décrit dans son livre "The TeXbook" en même temps que les primitives et les mécanismes internes. Cela fait qu'il y a souvent confusion entre plain TeX et le compilateur TeX. Afin d'accélérer la création d'un document, cet ensemble de macros, appelé "format", est précompilé. L'utilisation directe du format plain TeX étant assez ardue, il a été étendu en LaTeX (là encore, pas de distinction avec le nom du langage dans lequel est décrit le document que l'on appelle également LaTeX), écrit à l'origine par Leslie Lamport, qui constitue en fait un jeu de macro-commandes basées sur TeX. D'autres formats sont aussi disponibles, comme ConTeXt, AMS-LaTeX. Les commandes TeX ont de nombreuses utilisations. Elles servent par exemple à définir les polices à utiliser, ajouter des espaces, etc. Exemples. Voici un exemple de code TeX pour afficher "Hello World!". Hello World! \bye %\Bye désigne la fin du fichier Voici un exemple de code de formule mathématique. Celui-ci montre les solutions d'une équation du second degré. Le programme TeX. TeX interprète un langage de description formel de document défini par D. Knuth (couramment, on ne fait pas la distinction entre le logiciel TeX et ce langage que l'on appelle également TeX). Autrement dit, ce n'est pas un formateur de texte à rendu immédiat où le document en préparation apparaît à l'écran comme il est censé être une fois imprimé, mais un logiciel traduisant une description textuelle en un document graphique. TeX prend en entrée un document écrit en langage TeX et crée un fichier au format dvi contenant une description des pages, c'est-à-dire les positions des caractères, images, figures, etc sur la page. Afin d'être imprimé ou exporté, le dvi doit être traduit dans un autre format reconnu par l'appareil. PostScript (pour les imprimantes notamment) et PDF sont les formats les plus populaires pour TeX. TeX lit l'entrée octet par octet. Dans un premier temps, il va assembler ces octets en unités lexicales. Pour cela TeX utilise un système très souple de catégorisation des caractères. Dès qu'il rencontre un caractère d'échappement, il lit tout ce qui suit jusqu'à rencontrer un caractère qui n'est pas catégorisé comme une lettre. Cet ensemble de caractères est stocké comme un nom de commande. Celle-ci peut ou bien servir d'abréviation, et elle sera simplement développée lors de la composition, ou bien être exécutée, un peu comme une fonction ou une procédure d'un langage de programmation. Certains des algorithmes utilisés par TeX sont assez complexes. Par exemple, l'un d'entre eux lit un paragraphe en entier afin de décider de l'endroit où faire un retour à la ligne. Celui de la césure est notamment décrit peu après. Algorithme de césure de Frank Liang. Il a été écrit par Frank Liang lors de sa thèse de doctorat en 1983 au département informatique de Stanford. C'est cet algorithme qui détermine à quels endroits un mot doit être correctement coupé entre deux lignes. L'implémentation utilisée dans TeX, le programme Patgen, utilise peu de place et son taux de réussite se trouve vers 90-95 % de chances de trouver une césure correcte. Son principe repose sur l'utilisation de dictionnaires et sur la reconnaissance de motifs dans les mots. Metafont. Metafont est un logiciel également conçu par Knuth qui permet de créer des caractères et, par extension, des polices de caractères. Bien que Metafont ne fasse pas partie de TeX à proprement parler, il reste très lié à celui-ci. En effet, la police de caractère utilisée par TeX, Computer Modern, a été conçue à l'aide de Metafont. Metafont utilise de nombreuses techniques pour tracer les lettres, comme les courbes de Bézier. Lors de sa conception, Knuth essayait de trouver une certaine logique entre lettres. Par exemple la lettre "n" prend exactement la largeur de la lettre "i", la lettre "m" prend la largeur de la lettre "i" et la lettre "u" prend la même largeur que la lettre "n". Sous Metafont, les lettres sont créées à partir d'équations. Utilisation. TeX est souvent utilisé dans les milieux académiques et scientifiques afin de produire des documents techniques, cela principalement dû à son rendu de formules et autres symboles. Cependant, il a d'autres usages notamment dans le milieu professionnel. Il peut par exemple produire des cartes de visites, des lettres, des programmes de concert ou encore des livres (la motivation de départ de Knuth). Il est possible d'utiliser TeX pour générer de manière complètement automatique la mise en page délicate de données XML. Ceci permet la conciliation des différences syntaxiques entre les deux langages descriptifs à l'aide de TeXML. On peut donc considérer TeX comme une alternative à XSL-FO dans le cadre de publication en XML. Licence. Donald Knuth a répété plusieurs fois que le code source de TeX était dans le domaine public et qu'il encourageait fortement les modifications de celui-ci. D'autre part, bien qu'il soit dans le domaine public, Knuth demande que, lorsqu'une modification de TeX est publiée, celle-ci porte une autre dénomination que TeX, pour permettre de la distinguer (exemple avec LaTeX ou ConTeXt). Extensions. Le compilateur TeX a fait l'objet de quelques extensions (à ne pas confondre avec des formats comme LaTeX, ConTeXt), parmi lesquelles : Communauté. Il existe de nombreux groupes d'utilisateurs de TeX/LaTeX de par le monde, qui sont généralement liés à une langue : GUTenberg (francophone), (anglophone, signifie "TeX Users Group"), (germanophone), CervanTeX (hispanophone), GuIT (italophone), NTG (néerlandophone)… Certains de ces groupes publient des journaux (les "Cahiers GUTenberg", la "Lettre GUTenberg", "PracTeX", "TUGboat"…) et organisent aussi des conférences, parfois de façon conjointe ("EuroTeX"…). Chasse aux bugs. Donald Knuth encourage quiconque à trouver des bugs et des erreurs de typographie dans le code source de TeX et dans le reste de son œuvre . Jusqu'en 2008, il offrait même une financière. Celle-ci s’élevait à (un « dollar hexadécimal ») pour une erreur (coquille ou autre) dans un livre imprimé. Pour un bug logiciel, le montant augmentait avec l’âge : de la première année d’existence du bug, il était ensuite doublé chaque année jusqu’à un plafond de (soit , atteint après huit ans). Malgré le grand nombre de chèques envoyés et leur montant parfois élevé, très peu d’entre eux étaient encaissés, leurs destinataires préférant les encadrer. Depuis 2008, Knuth n’envoie plus de chèques réels, leur préférant des certificats de dépôt de la banque de la nation imaginaire de San Serriffe. Étymologie et prononciation. Selon son auteur, le mot « TeX » dérive du grec ancien τέχνη (, signifiant « art » ou « artisanat », racine étymologique du mot « technique ») ; le logotype est en fait composé des lettres grecques tau, epsilon et khi sous leur forme capitale. Selon les époques, cette dernière lettre s’est prononcée (comme "k" dans « kayak » et "ch" dans « technique ») puis (comme "ch" dans l'allemand et "j" dans l’espagnol ). Donald Knuth recommande la seconde prononciation, . Cependant, le son n’étant connu ni en français ni en anglais (hors mots d’emprunt), de nombreux utilisateurs emploient plutôt la première prononciation, . |
Tom-Tom et Nana Tom-Tom et Nana est une bande dessinée jeunesse qui paraît dans la revue mensuelle "J'aime lire" dès le premier album en 1977. La bande dessinée portait initialement le titre "La famille Dubouchon". Les auteures initiales de la série sont Jacqueline Cohen pour les textes et Bernadette Després pour les dessins. Elles ont ensuite été rejointes, pour les scénarios, par Évelyne Reberg. Catherine Viansson-Ponté met en couleur. Elle met en scène la famille Dubouchon, tenancière du restaurant "À la bonne fourchette", dont la tranquillité est troublée par les fantaisies des deux plus jeunes enfants, Tom-Tom et Nana. Réception. Extrêmement peu médiatisée au début, sans doute par la faute de son statut de bande dessinée en fin de magazine donc créée uniquement pour fidéliser les jeunes lecteurs, la BD connut pourtant un grand succès qui atteint son apogée vers les années 1995-2000 (pendant lesquelles un dessin animé est créé). Mais, pendant les années 2000, elle perd en régularité : les histoires, qui avaient jusque-là toujours fait 10 pages, changent souvent de nombre de pages. Les histoires (qui ne font plus qu'une page) paraissent irrégulièrement dans "J'aime lire". Au festival de la BD d'Angoulême en 2019, les dessins de Tom-Tom et Nana de Bernadette Després sont exposés dans une salle du musée. Elle y est honorée d'un Fauve d'honneur. Deux fans obtiennent en 2020 une interview vidéo de la dessinatrice. Ils y analysent aussi leur propre passion de jeunesse pour Tom-Tom et Nana. En janvier 2021, Bernadette Després est faite chevalier de la Légion d'honneur. Gags récurrents. De nombreux gags récurrents pimentent la série : Albums. Les histoires sont régulièrement regroupées dans des albums dédiés. La première collection débute en 1985 et regroupe les aventures de Tom-Tom Dubouchon. Chaque album est composé de neuf histoires de dix planches chacune. "Le Meilleur de Tom-Tom et Nana". Cette série présente des compilations d'aventures précédemment publiées. Série télévisée. La bande-dessinée fut adaptée en 1997 en une série télévisée d'animation, diffusée à partir du sur France 3 dans l'émission "Les Minikeums", Canal J en 2005, France 5 dans "Zouzous" depuis 2011, ou encore Tiji de 2007 à 2012. Une nouvelle série inédite est diffusée sur la chaîne TéléTOON+ depuis le et disponible à la demande et sur myCANAL. |
Terraformation La terraformation (de l'anglais "« terraforming »") d'une planète, d'un satellite naturel ou d'un autre corps céleste est le processus consistant à transformer l'environnement naturel de ce corps céleste afin de le rendre habitable par l'homme en réunissant les conditions nécessaires à la vie de type terrestre. En pratique, il s'agit généralement de modifier la composition de son atmosphère, sa température et éventuellement sa biosphère en les rapprochant des caractéristiques terrestres. Le concept relève aujourd'hui de la science-fiction car, si des solutions techniques ont été esquissées, celles-ci nécessitent des moyens hors de portée de nos sociétés, sans garantie de parvenir au résultat souhaité. La terraformation de la planète Mars, dont les caractéristiques ont été proches de notre Terre au Noachien, est le cas le plus souvent étudié. Les techniques permettant d'enclencher le processus de terraformation les plus souvent évoquées sont celles détaillées par Robert Zubrin et Christopher Mc Kay : installation de miroirs géants en orbite ( de rayon et ) pour faire fondre les calottes glaciaires et créer une atmosphère dense activant l'effet de serre, injection dans l'atmosphère martienne de gaz à effet de serre, détournement d'une comète, par nature composée principalement d'eau, pour la précipiter à la surface de la planète afin d'atteindre le même objectif. Le processus de terraformation est un processus long dont l'aboutissement pourrait prendre des centaines d'années, voire des centaines de milliers d'années. La terraformation : thème de science-fiction. La terraformation est un thème classique de la science-fiction, évoqué pour la première fois par William Olaf Stapledon, un poète et philosophe anglais surtout connu pour ses romans de science-fiction. Il décrit pour la première fois ce processus dans un roman de 1930, "Last and First Men". Le thème est popularisé par l'écrivain américain Jack Williamson. C'est aujourd'hui un thème classique de la hard science-fiction. De la fiction à la science. Progressivement, les scientifiques se sont intéressés à la terraformation, à commencer par l'Américain Carl Sagan qui proposa de terraformer Vénus en 1961, à l'aide d'algues injectées dans son atmosphère. L'environnement vénusien est cependant assez infernal, avec une température de l'ordre de . Ces conditions sont liées à la présence de dioxyde de carbone () et à l'effet de serre qui en résulte. Les algues devaient générer du dioxygène par photosynthèse et du carbone minéral en se décomposant. La baisse du taux de entraînait alors le refroidissement et la condensation de la vapeur d'eau. Néanmoins, le carbone a tendance à reformer du sous forte température ; l'objectif ne semble donc pas accessible. À la suite de cette première théorisation, la terraformation s'est petit à petit imposée comme une réelle possibilité et, aujourd'hui, la terraformation de Mars est un sujet sérieusement envisagé par de nombreux acteurs médiatiques (et notamment des entrepreneurs abonnés aux grandes déclarations comme Elon Musk). Toutefois, les astrophysiciens professionnels réfutent la possibilité d'une terraformation de Mars, du fait de la gravité trop faible pour retenir une quelconque atmosphère et de la radioactivité puissante des roches, interdisant toute vie au contact direct du substrat. Dans tous les cas, la terraformation même d'une planète aux caractéristiques proches de celles de la Terre demanderait des moyens techniques bien supérieurs à ce que peut fournir l'Humanité, et prendrait des millions d'années. Déroulement d'une terraformation. L'action primordiale pour y arriver est la modification ou la création d'une atmosphère de composition proche de celle de la Terre, composante essentielle au développement de la vie. On parle aussi d'ingénierie planétaire si l'objectif n'est pas de faire ressembler la planète en question à la Terre. Chaque candidat à la terraformation présente des conditions qui lui sont propres, rendant le processus spécifique pour chacun d'eux. Les principales études menées concernent la planète Mars. D'autres concernent Vénus, Europe (satellite de Jupiter) et Titan (satellite de Saturne), voire d'autres corps, mais les conditions semblent beaucoup plus difficiles à modifier. Mars. Les images évoquées par Mars sont celles d'une planète rouge, sèche, rocailleuse… et (du moins actuellement) surtout sans vie. Cependant, on y distingue parfois des vallées d'apparence érodée et les recherches "in situ" semblent indiquer la présence d'anciens fleuves et d'anciennes mers. Or, si l'eau, élément essentiel à la vie telle que nous la connaissons, a coulé sur Mars, où se trouve-t-elle aujourd'hui et peut-on la faire resurgir ? Ce sont les principales questions qui animent les débats autour de la terraformation de la planète. L'objectif est donc de redonner à Mars cet environnement qu'elle semble avoir perdu et y ajouter le nécessaire pour l'Homme. État des lieux. Plan géologique. Mars possède plusieurs points communs avec la Terre. Sa vitesse de rotation, l'inclinaison de son orbite ou l'aspect de sa surface laissent entrevoir des paysages modelés par des saisons proches de celles que connaît la Terre - mais tous ces phénomènes se sont figés il y a plusieurs milliards d'années. Le sol (régolithe) martien est composé de nombreux oxydes ( à 45 % et à 15 % environ). Cependant, le climat actuel n'est pas tout à fait favorable : du fait de son éloignement du Soleil, la température moyenne avoisine les et la pression atmosphérique est inférieure à celle que l'on trouve sur Terre, ce qui rend cette planète définitivement incapable de retenir une atmosphère permettant la vie. Plan biologique. De plus, Mars a une gravité équivalente à environ un tiers seulement de celle de la Terre : une si faible gravité provoquerait à moyen terme un relâchement et une perte de contrôle musculaires. Seule une activité physique importante permettrait d'éviter cette atrophie. En l'absence de champ magnétique et d'une atmosphère consistante, la surface de Mars est constamment bombardée par des rayons cosmiques et ultraviolets qui ont un effet létal sur l'homme à court/moyen terme. Le régolite martien, radioactif, très fin et abrasif aurait des effets particulièrement néfastes sur la physiologie humaine. Vénus. Le principal obstacle à la Terraformation de Vénus est sa température de surface pouvant dépasser les . La pression y est d'environ celle de l'atmosphère de la Terre et elle est recouverte de nuages d'acide sulfurique. Vénus fait cependant à peu près le même diamètre que la Terre. Diminuer la température. Deux pistes sont explorées pour diminuer la température à la surface de Vénus : Diminuer la pression atmosphérique. Expulser du gaz hors de la planète semble très difficile. La meilleure solution semble être de transformer le gaz en composés solides ou liquides. Plusieurs méthodes sont envisageables : soit en envoyant de la poussière de magnésium ou de calcium (que l'on pourrait prélever sur Mercure), ce qui conduirait à la formation de carbonates, soit en injectant de l'hydrogène, qui conduirait à la production de graphite et d'eau via la réaction de Bosch. Une autre solution serait d'introduire des organismes vivants, comme des bactéries extrêmophiles, mais si la température au sol reste la même, la matière organique redeviendrait immédiatement du gaz carbonique. Transformer une quantité importante de gaz carbonique en carbone et eau, comme expliqué plus haut, permettrait à ces organismes de survivre en haute atmosphère et de faire croître le taux d'oxygène à une vitesse honorable. Des cités flottantes dans les nuages. Une idée originale pour permettre une colonisation rapide de Vénus, proposée par Geoffrey A. Landis, est de faire flotter d'immenses sacs de gaz à environ d'altitude, à condition de veiller à ce que lesdits sacs résistent aux pluies d'acide sulfurique courantes à cette altitude, là où la pression atmosphérique et la température sont proches des conditions terrestres. On pourrait construire des villes à l'intérieur des sacs, qui flotteraient sur l'atmosphère dense de Vénus comme des montgolfières dont l'habitacle serait à l'intérieur du ballon. Le gaz à l'intérieur serait un mélange respirable. De telles cités pourraient former des têtes de pont, depuis lesquelles seraient assurées les interventions lourdes, dans la perspective d'une terraformation complète de Vénus. Autres modifications envisageables. La rotation de Vénus est très lente, ce qui fait qu'un jour vénusien dure quasiment une année. Accélérer la rotation demanderait une énergie colossale, sans même préciser le moyen d'exercer un couple significatif à l'échelle de cette planète. Lune. Des projets de terraformation de la Lune existent dans la science-fiction . Terminologie. Le terme officiel en France a été dans un premier temps « écogenèse », préconisé en 1995 puis en 2000. En 2008, il a été remplacé par le terme « biosphérisation », défini comme la . |
Typhlodromus Typhlodromus est un genre d'acariens de la famille des Phytoseiidae. Ces espèces présentes notamment dans les domaties sont des prédateurs dont les formes mobiles ont pour proies principalement d'autres acariens et les thrips sur les arbres fruitiers et la vigne, ou sont des consommateurs de champignons phytopathogènes. Plus de 300 espèces sont connues. Taxinomie. "Typhlodromus" ; synonymes "Amblydromella" , "Aphanoseius" , "Berethria" , "Clavidromus" , "Colchodromus" , "Indodromus" , "Litoseius" , "Mumaseius" , "Orientiseius" , "Seiodromus" , "Taxodromus" , "Typhlodromella" et "Vittoseius" Liste d'espèces. Selon : Utilisations en agriculture biologique. Les typhlodromes sont utilisés en lutte biologique dans les vergers en tant que prédateurs efficaces contre les araignées rouges. |
Terre La Terre est la troisième planète par ordre d'éloignement au Soleil et la cinquième plus grande du Système solaire aussi bien par la masse que par le diamètre. Par ailleurs, elle est le seul objet céleste connu pour abriter la vie. Elle orbite autour du Soleil en solaires et réalise une rotation sur elle-même relativement au Soleil en un jour sidéral (environ ), soit un peu moins que son jour solaire de du fait de ce déplacement autour du Soleil. L'axe de rotation de la Terre possède une inclinaison de 23°, ce qui cause l'apparition des saisons. D'après la datation radiométrique, la Terre s'est formée il y a d'années. Elle possède un unique satellite naturel, la Lune, qui s'est formée peu après. L'interaction gravitationnelle avec son satellite crée les marées, stabilise son axe de rotation et réduit graduellement sa vitesse de rotation. La vie serait apparue dans les océans il y a au moins d'années, ce qui a affecté l'atmosphère et la surface terrestre par la prolifération d'organismes d'abord anaérobies puis, à la suite de l'explosion cambrienne, aérobies. Une combinaison de facteurs tels que la distance de la Terre au Soleil (environ de kilomètres ), son atmosphère, sa couche d'ozone, son champ magnétique et son évolution géologique ont permis à la vie d'évoluer et de se développer. Durant l'histoire évolutive du vivant, la biodiversité a connu de longues périodes d'expansion occasionnellement ponctuées par des extinctions massives ; environ 99 % des espèces qui ont un jour vécu sur Terre sont maintenant éteintes. En 2022, plus de d'êtres humains vivent sur Terre et dépendent de sa biosphère et de ses ressources naturelles pour leur survie. La Terre est la planète la plus dense du Système solaire ainsi que la plus grande et massive des quatre planètes telluriques. Son enveloppe rigide est divisée en différentes plaques tectoniques qui migrent de quelques centimètres par an. Environ 71 % de la surface de la planète est couverte d'eau et les 29 % restants sont des continents et des îles. La majeure partie des régions polaires est couverte de glace, notamment avec l'inlandsis de l'Antarctique et la banquise de l'océan Arctique. La structure interne de la Terre est géologiquement active, le noyau interne solide et le noyau externe liquide (composés tous deux essentiellement de fer) permettant notamment de générer le champ magnétique terrestre par effet dynamo et la convection du manteau terrestre (composé de roches silicatées) étant la cause de la tectonique des plaques. Chronologie. L'âge de la Terre est aujourd'hui estimé à d'années. L'histoire de la Terre est divisée en quatre grands intervalles de temps, dits éons, dont la frise est donnée ci-dessous (en millions d'années) : Hadéen. L'Hadéen débute il y a d'années (Ga), lorsque la Terre se forme en même temps que les autres planètes à partir d'une nébuleuse solaire . La formation de la Terre par accrétion se termine en moins de d'années. Initialement en fusion, la couche externe de la Terre se refroidit pour former une croûte solide lorsque l'eau commence à s'accumuler dans l'atmosphère, aboutissant aux premières pluies et aux premiers océans. La Lune se forme peu de temps après, il y a d'années. Le consensus concernant la formation de la Lune est l'hypothèse de l'impact géant, selon laquelle un impacteur communément appelé Théia, de la taille de Mars et de masse environ égale au dixième de la masse terrestre, serait entré en collision avec la Terre. Dans ce modèle, une partie de cet objet se serait agglomérée avec la Terre tandis qu'une autre partie, mêlée avec environ 10 % de la masse totale de la Terre, aurait été éjectée dans l'espace puis se serait agglomérée pour former la Lune. L'activité volcanique qui suit l'impact, associée aux très importantes températures (jusqu'à ), produit une atmosphère primitive par dégazage. De la vapeur d'eau condensée ayant plusieurs origines possibles, mêlée à de la glace apportée par des comètes, produit les océans lorsque les températures baissent. Les gaz à effet de serre de cette atmosphère permettent de maintenir une température compatible avec la présence d'eau liquide à la surface de la Terre et empêchent les océans de geler alors que la planète ne recevait qu'environ 70 % de la luminosité solaire actuelle. Deux principaux modèles sont proposés pour expliquer la vitesse de croissance continentale : une croissance constante jusqu'à nos jours et une croissance rapide au début de l'histoire de la Terre. Le consensus est que la deuxième hypothèse est la plus probable avec une formation rapide de la croûte continentale suivie par de faibles variations de la surface globale des continents. Sur une échelle de temps de plusieurs centaines de millions d'années, les continents ou supercontinents se forment ainsi puis se divisent. Avec l'Archéen et le Protérozoïque (les deux éons suivants), ils forment un superéon nommé le Précambrien. Archéen. L'Archéen débute il y a environ d'années et est l'éon marqué par les premières traces de vie. En effet, il est supposé qu'une activité chimique intense dans un milieu hautement énergétique a alors permis de produire une molécule capable de se reproduire. La vie elle-même serait apparue entre 200 et d'années plus tard, avant environ , point de départ de l'évolution de la biosphère. Par ailleurs, la date d'apparition du dernier ancêtre commun universel est estimée entre . Parmi les premiers signes de vie, on trouve notamment des biomolécules dans du granite âgé de au Groenland ou des traces de carbone potentiellement biogène dans un zircon âgé de en Australie. Cependant, la plus ancienne preuve fossilisée de micro-organismes date d'il y a et a également été trouvée en Australie. Par ailleurs, vers d'années, le champ magnétique terrestre se forme et permet d'éviter à l'atmosphère d'être emportée par le vent solaire. Protérozoïque. Le Protérozoïque débute il y a et marque l'apparition de la photosynthèse chez les cyanobactéries, produisant de l’oxygène libre et formant des stromatolithes. Cela conduit à un bouleversement écologique majeur vers , appelé la Grande Oxydation, en formant la couche d'ozone et en faisant graduellement évoluer l'atmosphère alors riche en méthane en celle actuelle, composée essentiellement de diazote et de dioxygène. C'est toujours la photosynthèse qui permet de maintenir le taux d'oxygène dans l'atmosphère terrestre et qui est à l'origine de la matière organique . Du fait de l'augmentation de la concentration en oxygène dans l’atmosphère, des organismes multicellulaires appelés eucaryotes (bien que certains d'entre eux sont unicellulaires), plus complexes, voient le jour par un mécanisme supposé être l'endosymbiose. Les plus anciens retrouvés datent de et ont été appelés "Gabonionta", car découverts au Gabon. Les eucaryotes forment par la suite des colonies et, protégés des rayons ultraviolets par la couche d'ozone, ces formes de vie pourraient avoir dès lors colonisé la surface de la Terre. De d'années, pendant le Néoprotérozoïque, la Terre aurait connu une ou plusieurs séries de glaciations globales qui auraient couvert la planète d'une couche de glace. Cette hypothèse est nommée "snowball Earth" (), et est d'un intérêt particulier parce qu'elle précède directement l'explosion cambrienne et pourrait avoir déclenché l'évolution de la vie multicellulaire. Par ailleurs, le plus vieux des supercontinents connus, Rodinia, commence à se disloquer il y a environ d'années. Les continents entre lesquels il s'est divisé se recombinent plus tard pour former Pannotia, il y a d'années. Phanérozoïque. Le Phanérozoïque est marqué par l'apparition des premiers animaux à coquille. Il débute il y a d'années et s'étend jusqu'à nos jours. Son commencement coïncide avec l'explosion cambrienne, l'apparition rapide de la plupart des grands embranchements actuels de métazoaires (animaux pluricellulaires). Le dernier supercontinent, la Pangée, se forme il y a approximativement d'années puis commence à se disloquer il y a d'années. Pendant cet éon, la biosphère a connu cinq extinctions massives. La dernière d'entre elles se produit il y a d'années, sa cause généralement admise étant une météorite entrée en collision avec la Terre qui aurait créé l'impact de Chicxulub. La conséquence est l'extermination des dinosaures (excepté les aviens) et d'autres grands reptiles, affectant sans les éteindre de plus petits animaux comme les mammifères, les oiseaux, ou encore les lézards. Au cours des suivants, les mammifères se sont diversifiés et, il y a environ , des hominiens comme le "Orrorin tugenensis" développent la capacité de se tenir debout. Il s'est ensuivi un développement simultané de l'utilisation d'outils et du développement du cerveau au cours de l'histoire évolutive de la lignée humaine. Le développement de l'agriculture puis des civilisations a permis aux humains d'avoir une influence sur la Terre, la nature et les autres formes de vie. Le schéma actuel de périodes glaciaire s'établit au cours du Pléistocène il y a environ . Depuis, les régions de latitudes hautes connaissent des cycles de glaciation d'environ , la dernière s'étant achevée il y a environ . Futur. Le futur de la Terre est très lié à celui du Soleil. Du fait de l'accumulation d'hélium dans le cœur de l'étoile, sa luminosité solaire augmente lentement à l'échelle des temps géologiques. Ainsi, la luminosité va croître de 10 % au cours des années à venir et de 40 % sur les prochaines d'années. Les modèles climatiques indiquent que l'accroissement des radiations atteignant la Terre aura probablement des conséquences dramatiques sur la pérennité de son climat « terrestre », notamment la disparition des océans. La Terre devrait cependant rester habitable pendant encore plus de d'années, cette durée pouvant passer à si la pression atmosphérique diminue en retirant une partie de l'azote de l'atmosphère. L'augmentation de la température terrestre va accélérer le cycle du carbone inorganique, réduisant sa concentration à des niveaux qui pourraient devenir trop faibles pour les plantes ( pour la photosynthèse du) dans environ 500 à d'années. La réduction de la végétation entraînera la diminution de la quantité d'oxygène dans l'atmosphère, ce qui provoquera la disparition progressive de la plupart des formes de vie animales. Ensuite, la température moyenne de la Terre augmentera plus vite en raison de l'emballement de l'effet de serre par la vapeur d'eau. Dans , la température sera si élevée que les océans s'évaporeront, précipitant le climat de la Terre dans celui de type vénusien, et faisant disparaître toute forme simple de vie à la surface de la Terre. Même si le Soleil était éternel et stable, le refroidissement interne de la Terre entraînerait la baisse du niveau de du fait d'une réduction du volcanisme et 35 % de l'eau des océans descendrait dans le manteau du fait de la baisse des échanges au niveau des dorsales océaniques. « Fin ». Dans le cadre de son évolution, le Soleil deviendra une géante rouge dans plus de d'années. Les modèles prédisent qu'il gonflera jusqu'à atteindre environ son rayon actuel. Le destin de la Terre est moins clair. En tant que géante rouge, le Soleil devrait perdre environ 30 % de sa masse. Ainsi, sans prendre en compte les effets de marée, la Terre se déplacerait sur une orbite à 1,7 ua (environ 250 millions de km) du Soleil lorsque celui-ci atteindra son rayon maximal de 1,2 ua (environ 180 millions de km). Dans ce modèle, la planète ne devrait donc pas être engloutie par les couches externes du Soleil même si l'atmosphère restante finira par être dans l'espace, et la croûte terrestre finira par fondre pour se transformer en un océan de lave, lorsque la luminosité solaire atteindra environ son niveau actuel. Cependant, une simulation de 2008 indique que l'orbite terrestre va se modifier du fait des effets de marées et poussera en réalité la Terre à entrer dans l'atmosphère du Soleil où elle sera absorbée et vaporisée . Forme et taille. Forme. La forme de la Terre est approchée par un ellipsoïde de révolution, une sphère aplatie aux pôles. Plus précisément, elle est dite oblate car son axe secondaire est aussi son axe de rotation. En effet, la rotation de la Terre entraîne un aplatissement aux pôles du fait de la force centrifuge, de sorte que le rayon terrestre à l’équateur est environ plus grand que celui aux pôles Nord et Sud, soit une variation de moins de 1 % du rayon. Le diamètre moyen du sphéroïde de référence est d'environ , ce qui est approximativement /π car le mètre était initialement défini comme 1/ (dix-millionième) de la distance de l'équateur au pôle Nord en passant par Paris (donc un demi méridien terrestre). Les plus grandes variations dans la surface rocheuse de la Terre sont l'Everest ( d'altitude, soit une variation de 0,14 % du rayon) et la fosse des Mariannes ( sous le niveau de la mer, soit une variation de 0,17 %). Du fait de l'aplatissement aux pôles et du plus grand diamètre à l'équateur, les lieux les plus éloignés du centre de la Terre sont les sommets du Chimborazo en Équateur distant de du centre de la Terre suivi du Huascarán au Pérou, et non l'Everest comme cela est parfois pensé. Pour la même raison, l'embouchure du Mississippi est plus éloignée du centre de la Terre que sa source. Par ailleurs, du fait de sa forme, la circonférence de la Terre est de à l'équateur et de pour un méridien. Rayon. Le rayon équatorial de la Terre est de alors que le rayon polaire est de (modèle ellipsoïde de sphère aplatie aux pôles). De plus, la distance entre son centre et la surface varie également selon les caractéristiques géographiques de au fond de l'océan Arctique à au sommet du Chimborazo. Du fait de ces variations, le rayon moyen d'une planète selon le modèle d'une ellipsoïde est défini par convention par l'Union géodésique et géophysique internationale comme étant égal à : formula_1, où "a" le rayon équatorial et "b" le rayon polaire. Pour la Terre, cela donne donc formula_2 . Masse. La masse de la Terre est déterminée en divisant le paramètre gravitationnel standard formula_3"= GM" par la constante de gravitation "G". De fait, la précision de sa mesure est donc limitée par celle de "G", le produit "GM" pouvant être déduit pour un corps disposant de satellites avec grande précision grâce à des mesures d'accélération gravitationnelle (où la distance planète-satellite). Parmi les expériences célèbres pour la mesure de cette masse, on compte notamment l'expérience de Cavendish et des méthodes liées au calcul de la densité de la Terre. L'UAI donne pour estimation formula_4. Composition et structure. La Terre est une planète tellurique, c'est-à-dire une planète essentiellement rocheuse à noyau métallique, contrairement aux géantes gazeuses telles que Jupiter, essentiellement constituées de gaz légers (hydrogène et hélium). Il s'agit de la plus grande des quatre planètes telluriques du Système solaire, que ce soit par la taille ou la masse. De ces quatre planètes, la Terre a aussi la masse volumique globale la plus élevée, la plus forte gravité de surface, le plus puissant champ magnétique global, la vitesse de rotation la plus élevée et est probablement la seule avec une tectonique des plaques active. La surface externe de la Terre est divisée en plusieurs segments rigides qui migrent de quelques centimètres par an et connaissent ainsi des déplacements majeurs sur la surface de la planète à l'échelle géologique. Environ 71 % de la surface est couverte d'océans d'eau salée, les 29 % restants étant des continents et des îles. L'eau liquide, nécessaire à la vie telle que nous la connaissons, est très abondante sur Terre, et aucune autre planète n'a encore été découverte avec de telles étendues d'eau liquide (lacs, mers, océans) à sa surface. Composition chimique. La Terre est principalement composée de fer (32,1 %), d'oxygène (30,1 %), de silicium (15,1 %), de magnésium (13,9 %), de soufre (2,9 %), de nickel (1,8 %), de calcium (1,5 %) et d'aluminium (1,4 %), le reste (1,2 %) consistant en des traces d'autres éléments. Les éléments les plus denses ayant tendance à se concentrer au centre de la Terre (phénomène de différenciation planétaire), il est estimé que le cœur de la Terre est composé majoritairement de fer (88,8 %), avec une plus petite quantité de nickel (5,8 %), de soufre (4,5 %) et moins de 1 % d'autres éléments. Le géochimiste F. W. Clarke a calculé que 47 % (en poids, soit 94 % en volume) de la croûte terrestre était faite d'oxygène, présent principalement sous forme d'oxydes, dont les principaux sont les oxydes de silicium (sous forme de silicates), d'aluminium (aluminosilicates), de fer, de calcium, de magnésium, de potassium et de sodium. La silice est le constituant majeur de la croûte, sous forme de pyroxénoïdes, les minéraux les plus communs des roches magmatiques et métamorphiques. Après une synthèse basée sur l'analyse de nombreux types de roches, Clarke a obtenu les pourcentages présentés dans le tableau ci-contre. Structure interne. L'intérieur de la Terre, comme celui des autres planètes telluriques, est stratifié, c'est-à-dire organisé en couches concentriques superposées, ayant des densités croissantes avec la profondeur. Ces diverses couches se distinguent par leur nature pétrologique (contrastes chimiques et minéralogiques) et leurs propriétés physiques (changements d'état physique, propriétés rhéologiques). La couche extérieure de la Terre solide, fine à très fine relativement au rayon terrestre, s'appelle la croûte ; elle est solide, et chimiquement distincte du manteau, solide, sur lequel elle repose ; sous l'effet combiné de la pression et de la température, avec la profondeur, le manteau passe d'un état solide fragile (cassant, sismogène, « lithosphérique ») à un état solide ductile (plastique, « asthénosphérique », et donc caractérisé par une viscosité plus faible, quoique encore extrêmement élevée). La surface de contact entre la croûte et le manteau est appelée le Moho ; il se visualise très bien par les méthodes sismiques du fait du fort contraste de vitesse des ondes sismiques, entre les deux côtés. L'épaisseur de la croûte varie de sous les océans jusqu'à plus de en moyenne sous les continents. La croûte et la partie supérieure froide et rigide du manteau supérieur sont appelés lithosphère ; leur comportement horizontalement rigide à l'échelle du million à la dizaine de millions d'années est à l'origine de la tectonique des plaques. L'asthénosphère se trouve sous la lithosphère et est une couche convective, relativement moins visqueuse sur laquelle la lithosphère se déplace en « plaques minces ». Des changements importants dans la structure cristallographique des divers minéraux du manteau, qui sont des changements de phase au sens thermodynamique, vers respectivement les profondeurs de et de sous la surface, encadrent une zone dite de transition, définie initialement sur la base des premières images sismologiques. On appelle manteau supérieur la couche qui va du Moho à la transition de phase vers de profondeur, la transition à de profondeur étant reconnue pour ne pas avoir une importance majeure sur le processus de convection mantellique, au contraire de l'autre. Par conséquent, on appelle manteau inférieur la zone comprise entre cette transition de phase à de profondeur et la limite noyau-manteau. Sous le manteau inférieur, le noyau terrestre, composé d'environ 88 % de fer, constitue une entité chimiquement originale de tout ce qui est au-dessus, à savoir la Terre silicatée. Ce noyau est lui-même stratifié en un noyau externe liquide et très peu visqueux (viscosité de l'ordre de celle d'une huile moteur à ), qui entoure un noyau interne solide, également appelé graine. Cette graine résulte de la cristallisation du noyau du fait du refroidissement séculaire de la Terre. Cette cristallisation, par la chaleur latente qu'elle libère, est source d'une convection du noyau externe, laquelle est la source du champ magnétique terrestre. L'absence d'un tel champ magnétique sur les autres planètes telluriques laisse penser que leurs noyaux métalliques, dont les présences sont nécessaires pour expliquer les données astronomiques de densité et de moment d'inertie, sont totalement cristallisés. Selon une interprétation encore débattue de données sismologiques, le noyau interne terrestre semblerait tourner à une vitesse angulaire légèrement supérieure à celle du reste de la planète, avançant relativement de par an. Chaleur. La chaleur interne de la Terre est issue d'une combinaison de l'énergie résiduelle issue de l'accrétion planétaire (environ 20 %) et de la chaleur produite par les éléments radioactifs (80 %). Les principaux isotopes producteurs de chaleur de la Terre sont le , l', l' et le . Au centre de la planète, la température pourrait atteindre et la pression serait de . Comme la plus grande partie de la chaleur est issue de la désintégration des éléments radioactifs, les scientifiques considèrent qu'au début de l'histoire de la Terre, avant que les isotopes à courte durée de vie ne se soient désintégrés, la production de chaleur de la Terre aurait été bien plus importante. Cette production supplémentaire, deux fois plus importante il y a trois milliards d'années qu'aujourd'hui, aurait accru les gradients de températures dans la Terre et donc le rythme de la convection mantellique et de la tectonique des plaques. Cela aurait permis la formation de roches ignées comme les komatiites, qui ne sont plus formées aujourd'hui. La perte moyenne de chaleur par la Terre est de pour une perte globale de (). Une portion de l'énergie thermique du noyau est transportée vers la croûte par des panaches, une forme de convection où des roches semi-fondues remontent vers la croûte. Ces panaches peuvent produire des points chauds et des trapps. La plus grande partie de la chaleur de la Terre est perdue à travers la tectonique des plaques au niveau des dorsales océaniques. La dernière source importante de perte de chaleur est la conduction à travers la lithosphère, la plus grande partie ayant lieu dans les océans, car la croûte y est plus mince que celle des continents, surtout au niveau des dorsales. Plaques tectoniques. Les plaques tectoniques sont des segments rigides de lithosphère qui se déplacent les uns par rapport aux autres. Les relations cinématiques qui existent aux frontières des plaques peuvent être regroupées en trois domaines : des domaines de convergence où deux plaques se rencontrent, de divergence où deux plaques se séparent et des domaines de transcurrence où les plaques se déplacent latéralement les unes par rapport aux autres. Les tremblements de terre, l'activité volcanique, la formation des montagnes et des fosses océaniques sont plus fréquents le long de ces frontières. Le mouvement des plaques tectoniques est lié aux mouvements de convection ayant lieu dans le manteau terrestre. Lorsque la densité de la lithosphère dépasse celle de l'asthénosphère sous-jacente, la première plonge dans le manteau, formant une zone de subduction. Au même moment, la remontée adiabatique du manteau asthénosphérique amène à la fusion partielle des péridotites, ce qui forme du magma au niveau des frontières divergentes et crée des dorsales. La combinaison de ces processus permet un recyclage continuel de la lithosphère océanique qui retourne dans le manteau. Par conséquent, la plus grande partie du plancher océanique est âgée de moins de d'années. La plus ancienne croûte océanique est localisée dans l'ouest du Pacifique et a un âge estimé de d'années. Par comparaison, les éléments les plus anciens de la croûte continentale sont âgés de d'années. Il existe sept principales plaques, Pacifique, Nord-Américaine, Eurasienne, Africaine, Antarctique, Australienne et Sud-Américaine. Parmi les plaques importantes, on peut également citer les plaques Arabique, Caraïbe, Nazca à l'ouest de la côte occidentale de l'Amérique du Sud et la plaque Scotia dans le sud de l'océan Atlantique. La plaque indienne s'est enfoncée il y a 50 à 70 millions d'années sous la plaque eurasienne par subduction, créant le plateau tibétain et l'Himalaya. Les plaques océaniques sont les plus rapides : la plaque de Cocos avance à un rythme de et la plaque pacifique à . À l'autre extrême, la plus lente est la plaque eurasienne progressant à une vitesse de . Surface. Le relief de la Terre diffère énormément suivant le lieu. Environ 70,8 % de la surface du globe est recouverte par de l'eau et une grande partie du plateau continental se trouve sous le niveau de la mer. Les zones submergées ont un relief aussi varié que les autres dont une dorsale océanique faisant le tour de la Terre ainsi que des volcans sous-marins, des fosses océaniques, des canyons sous-marins, des plateaux et des plaines abyssales. Les 29,2 % non recouvertes d'eau sont composés de montagnes, de déserts, de plaines, de plateaux et d'autres géomorphologies. La surface planétaire subit de nombreuses modifications du fait de la tectonique des plaques et de l'érosion. Les éléments de surface construits ou déformés par la tectonique sont sujets à une météorisation constante du fait des précipitations, des cycles thermiques et des effets chimiques. Les glaciations, l'érosion du littoral, la construction des récifs coralliens et les impacts météoritiques contribuent également aux modifications du paysage. La lithosphère continentale est composée de matériaux de faible densité comme les roches ignées : granite et andésite. Le basalte est moins fréquent et cette roche volcanique dense est le principal constituant du plancher océanique. Les roches sédimentaires se forment par l'accumulation de sédiments qui se compactent. Environ 75 % des surfaces continentales sont recouvertes de roches sédimentaires même si elles ne représentent que 5 % de la croûte. Le troisième type de roche rencontré sur Terre est la roche métamorphique, créée par la transformation d'autres types de roche en présence de hautes pressions, de hautes températures ou les deux. Parmi les silicates les plus abondants de la surface terrestre, on peut citer le quartz, le feldspath, l'amphibole, le mica, le pyroxène et l'olivine. Les carbonates courants sont la calcite (composant du calcaire) et la dolomite. La pédosphère est la couche la plus externe de la Terre. Elle est composée de sol et est sujette au processus de formation du sol. Elle se trouve à la rencontre de la lithosphère, de l'atmosphère, de l'hydrosphère et de la biosphère. L'altitude de la surface terrestre de la Terre varie de au niveau des rives de la mer Morte à au sommet de l'Everest. L'altitude moyenne des terres émergées est de . Hydrosphère. L'abondance de l'eau sur la surface de la Terre est une caractéristique unique qui distingue la des autres planètes du Système solaire. L'hydrosphère terrestre est principalement composée par les océans, mais techniquement elle inclut également les mers, les lacs, les rivières et les eaux souterraines. La Challenger Deep de la fosse des Mariannes dans l'océan Pacifique est le lieu immergé le plus profond avec une profondeur de . La masse des océans est d'environ , soit environ 1/e de la masse totale de la Terre. Les océans couvrent une superficie de avec une profondeur moyenne de , soit un volume estimé à . Environ 97,5 % de l'eau terrestre est salée. Les 2,5 % restants sont composés d'eau douce, mais environ 68,7 % de celle-ci est immobilisée sous forme de glace. La salinité moyenne des océans est d'environ de sel par kilogramme d'eau de mer (35 ‰). La plupart de ce sel a été libéré par l'activité volcanique ou par l'érosion des roches ignées. Les océans sont également un important réservoir de gaz atmosphériques dissous qui sont essentiels à la survie de nombreuses formes de vie aquatiques. L'eau de mer a une grande influence sur le climat mondial du fait de l'énorme réservoir de chaleur que constituent les océans. Par ailleurs, des changements dans les températures océaniques peuvent entraîner des phénomènes météorologiques très importants comme El Niño. Atmosphère. La Terre est entourée d'une enveloppe gazeuse qu'elle retient par attraction gravitationnelle : l'atmosphère. L'atmosphère de la Terre est intermédiaire entre celle, très épaisse, de Vénus, et celle, très ténue, de Mars. La pression atmosphérique au niveau de la mer est en moyenne de , soit par définition. L'atmosphère est constituée (en volume) de 78,08 % d'azote, de 20,95 % d'oxygène, de 0,9340 % d'argon et de 0,0415 % ou 415 ppmv (ppm en volume) soit 0,0630 % ou 630 ppmm (ppm en masse) (27 décembre 2020) de dioxyde de carbone, ainsi que de divers autres gaz dont de la vapeur d'eau. La hauteur de la troposphère varie avec la latitude entre aux pôles et à l'équateur, avec quelques variations résultant de facteurs météorologiques et saisonniers. La biosphère de la Terre a fortement altéré son atmosphère. La photosynthèse à base d'oxygène apparue il y a plus de a contribué à former l'atmosphère actuelle, principalement composée de diazote et de dioxygène, pendant la Grande Oxydation. Ce changement a permis la prolifération d'organismes aérobies de même que la formation de la couche d'ozone bloquant les rayons ultraviolets émis par le Soleil. L'atmosphère favorise également la vie en transportant la vapeur d'eau, en fournissant des gaz utiles, en faisant brûler les petites météorites avant qu'elles ne frappent la surface et en modérant les températures. Ce dernier phénomène est connu sous le nom d'effet de serre : des molécules présentes en faible quantité dans l'atmosphère bloquent la déperdition de chaleur dans l'espace et font ainsi augmenter la température globale. La vapeur d'eau, le dioxyde de carbone, le méthane et l'ozone sont les principaux gaz à effet de serre de l'atmosphère terrestre. Sans cette conservation de la chaleur, la température moyenne sur Terre serait de par rapport aux actuels. Météorologie et climat. L'atmosphère terrestre n'a pas de limite clairement définie, elle disparaît lentement dans l'espace. Les trois quarts de la masse de l'air entourant la Terre sont concentrés dans les premiers de l'atmosphère. Cette couche la plus inférieure est appelée la troposphère. L'énergie du Soleil chauffe cette couche et la surface en dessous, ce qui entraîne une expansion du volume atmosphérique par dilatation de l'air, ce qui a pour effet de réduire sa densité et ce qui l’amène à s'élever et à être remplacé par de l'air plus dense, car plus froid. La circulation atmosphérique qui en résulte est un acteur déterminant dans le climat et la météorologie du fait de la redistribution de la chaleur entre les différentes couches d'air qu'elle implique. Les principales bandes de circulations sont les alizés dans la région équatoriale à moins de 30° et les vents d'ouest dans les latitudes intermédiaires entre 30° et 60°. Les courants océaniques sont également importants dans la détermination du climat, en particulier la circulation thermohaline qui distribue l'énergie thermique des régions équatoriales vers les régions polaires. La vapeur d'eau générée par l'évaporation de surface est transportée par les mouvements atmosphériques. Lorsque les conditions atmosphériques permettent une élévation de l'air chaud et humide, cette eau se condense et retombe sur la surface sous forme de précipitations. La plupart de l'eau est ensuite transportée vers les altitudes inférieures par les réseaux fluviaux et retourne dans les océans ou dans les lacs. Ce cycle de l'eau est un mécanisme vital au soutien de la vie sur Terre et joue un rôle primordial dans l'érosion des reliefs terrestres. La distribution des précipitations est très variée en fonction de la région considérée, de plusieurs mètres à moins d'un millimètre par an. La circulation atmosphérique, les caractéristiques topologiques et les gradients de températures déterminent les précipitations moyennes sur une région donnée. La quantité d'énergie solaire atteignant la Terre diminue avec la hausse de la latitude. Aux latitudes les plus élevées, les rayons solaires atteignent la surface suivant un angle plus faible et doivent traverser une plus grande colonne d'atmosphère. Par conséquent, la température moyenne au niveau de la mer diminue d'environ à chaque degré de latitude en s'éloignant de l'équateur. La Terre peut être divisée en ceintures latitudinaires de climat similaires selon la classification des climats. En partant de l'équateur, celles-ci sont les zones tropicales (ou équatoriales), subtropicales, tempérées et polaires. Le climat peut également être basé sur les températures et les précipitations. La classification de Köppen (modifiée par Rudolph Geiger, étudiant de Wladimir Peter Köppen) est la plus utilisée et définit cinq grands groupes (tropical humide, aride, tempéré, continental et polaire) qui peuvent être divisés en sous-groupes plus précis. Haute atmosphère. Au-dessus de la troposphère, l'atmosphère est habituellement divisée en trois couches, la stratosphère, la mésosphère et la thermosphère. Chaque couche possède un gradient thermique adiabatique différent définissant l'évolution de la température avec l'altitude. Au-delà, l'exosphère se transforme en magnétosphère, où le champ magnétique terrestre interagit avec le vent solaire. La couche d'ozone se trouve dans la stratosphère et bloque une partie des rayons ultraviolets, ce qui est primordial à la vie sur Terre. La ligne de Kármán, définie comme se trouvant à au-dessus de la surface terrestre, est la limite habituelle entre l'atmosphère et l'espace. L'énergie thermique peut accroître la vitesse de certaines particules de la zone supérieure de l'atmosphère qui peuvent ainsi échapper à la gravité terrestre. Cela entraîne une lente, mais constante « fuite » de l'atmosphère dans l'espace appelée échappement atmosphérique. Comme l'hydrogène non lié a une faible masse moléculaire, il peut atteindre la vitesse de libération plus facilement et disparaît dans l'espace à un rythme plus élevé que celui des autres gaz. La fuite de l'hydrogène dans l'espace déplace la Terre d'un état initialement réducteur à un état oxydant. La photosynthèse fournit une source d'oxygène non lié, mais la perte d'agents réducteurs comme l'hydrogène est considérée comme une condition nécessaire à l'accumulation massive d'oxygène dans l'atmosphère. Ainsi, la capacité de l'hydrogène à quitter l'atmosphère terrestre aurait pu influencer la nature de la vie qui s'est développée sur la planète. Actuellement, la plus grande partie de l'hydrogène est convertie en eau avant qu'il ne s'échappe du fait de l'atmosphère riche en oxygène. Ainsi, l'hydrogène qui parvient à s'échapper provient en majorité de la destruction des molécules de méthane dans la haute atmosphère. Champ magnétique. Le champ magnétique terrestre a pour l'essentiel la forme d'un dipôle magnétique avec ses pôles actuellement situés près des pôles géographiques de la planète, l'axe du dipôle magnétique faisant un angle de 11° avec l'axe de rotation de la Terre. Son intensité à la surface terrestre varie de (soit à ), les valeurs maximales se trouvant aux latitudes faibles. Son moment magnétique global est de . Selon la théorie de l'effet dynamo, le champ magnétique est généré par les mouvements de convection de matériaux conducteurs au sein du noyau externe fondu. Bien que le plus souvent plus ou moins alignés avec l'axe de rotation de la Terre, les pôles magnétiques se déplacent et changent irrégulièrement d'alignement du fait de perturbations de la stabilité du noyau. Cela entraîne des inversions du champ magnétique terrestre à intervalles très irréguliers, approximativement plusieurs fois par million d'années pour la période actuelle, le Cénozoïque. La dernière inversion s'est produite il y a environ . Le champ magnétique forme la magnétosphère qui dévie les particules du vent solaire et de six à dix fois le rayon terrestre en direction du Soleil et jusqu'à soixante fois le rayon terrestre dans le sens inverse. La collision entre le champ magnétique et le vent solaire forme les ceintures de Van Allen, une paire de régions toroïdales contenant un grand nombre de particules énergétiques ionisées. Lorsque, à l'occasion d'arrivées de plasma solaire plus intenses que le vent solaire moyen, par exemple lors d'événements d'éjections de masse coronale vers la Terre, la déformation de la géométrie de la magnétosphère sous l'impact de ce flux solaire permet le processus de reconnexion magnétique. Une partie des électrons de ce plasma solaire entre dans l'atmosphère terrestre en une ceinture autour aux pôles magnétiques : il se forme alors des aurores boréales. Orbite et rotation. Rotation. La période de rotation de la Terre relativement au Soleil est d'environ ou . La période de rotation de la Terre relativement aux étoiles fixes est de de temps solaire moyen (UT1), ou , d'après l'International Earth Rotation and Reference Systems Service. Du fait de la précession des équinoxes, la période de rotation de la Terre relativement au Soleil est de . Ainsi le jour sidéral est plus court que le jour stellaire d'environ . Par ailleurs, le jour solaire moyen n'est pas constant au cours du temps et a notamment varié d'une dizaine de millisecondes depuis le début du du fait de fluctuations dans la vitesse de rotation de la planète. Mis à part les météorites dans l'atmosphère et les satellites en orbite basse, le principal mouvement apparent des corps célestes dans le ciel terrestre est vers l'ouest à un rythme de soit . Pour les corps proches de l'équateur céleste, cela est équivalent à un diamètre apparent de la Lune ou du Soleil toutes les deux minutes. Orbite. La Terre orbite autour du Soleil à une distance moyenne d'environ de kilomètres avec une période de révolution de . De la Terre, cela donne un mouvement apparent du Soleil vers l'est par rapport aux étoiles à un rythme d'environ , ce qui correspond à un diamètre solaire ou lunaire toutes les . Du fait de ce mouvement et de ce déplacement de , il faut en moyenne à la Terre pour réaliser une rotation complète autour de son axe et que le Soleil revienne au plan méridien, soit environ 4 minutes de plus que son jour sidéral. La vitesse orbitale de la Terre est d'environ (). La Lune et la Terre tournent autour de leur barycentre commun en relativement aux étoiles fixes. En associant ce mouvement à celui du couple Terre-Lune autour du Soleil, on obtient que la période du mois synodique est de . Vus depuis le pôle céleste nord, les mouvements de la Terre, de la Lune et de leurs rotations axiales sont tous dans le sens direct . Les plans orbitaux et axiaux ne sont pas précisément alignés, l'axe de la Terre est incliné de 23,44° par rapport à la perpendiculaire au plan orbital Terre-Soleil et le plan orbital Terre-Lune est incliné de 5° par rapport au plan orbital Terre-Soleil. Sans cette inclinaison, il y aurait une éclipse toutes les deux semaines environ, avec une alternance entre éclipses lunaires et solaires. La sphère de Hill, sphère d'influence gravitationnelle de la Terre, a un rayon d'environ ou . Il s'agit de la distance maximale jusqu'à laquelle l'influence gravitationnelle de la Terre est supérieure à celle du Soleil et des autres planètes. En conséquence, les objets orbitant autour de la Terre doivent rester dans cette sphère afin de ne pas être sortis de leur orbite du fait des perturbations dues à l'attraction gravitationnelle du Soleil. Cependant, il ne s'agit que d'une approximation et des simulations numériques ont montré que les orbites de satellites doivent être inférieures à environ la moitié voire le tiers de la sphère de Hill pour rester stables. Pour la Terre, cela correspondrait donc à (à titre de comparaison, le demi-grand axe Terre-Lune est d'environ ). La Terre, au sein du Système solaire, est située dans la Voie lactée et se trouve à du centre galactique. Plus précisément, elle est actuellement dans le bras d'Orion, à environ du plan équatorial de la galaxie. Inclinaison de l'axe et saisons. L'inclinaison axiale de la Terre par rapport à l'écliptique est d'exactement 23,439281° par convention. Du fait de l'inclinaison axiale de la Terre, la quantité de rayonnement solaire atteignant tout point de la surface varie au cours de l'année. Cela a pour conséquence des changements saisonniers dans le climat avec un été dans l'hémisphère nord lorsque le pôle Nord pointe vers le Soleil et l'hiver lorsque le même pôle pointe dans l'autre direction. Durant l'été, les jours durent plus longtemps et le soleil monte plus haut dans le ciel. En hiver, le climat devient généralement plus froid et les jours raccourcissent. La périodicité des saisons est donnée par une année tropique valant . Au-delà du cercle arctique, le soleil ne se lève plus durant une partie de l'année et, à l'inverse, ne se couche plus pendant une autre période de l'année . Ce phénomène apparaît également au-delà du cercle antarctique de façon réciproque. Par convention astronomique, les quatre saisons sont déterminées par les solstices et les équinoxes . Dans l'hémisphère nord, le solstice d'hiver a lieu vers le et celui d'été vers le , l'équinoxe de printemps a lieu vers le et l'équinoxe d'automne vers le . Dans l'hémisphère sud, les dates des solstices d'hiver et d'été et celles des équinoxes de printemps et d'automne sont inversées. L'angle d'inclinaison de la Terre est relativement stable au cours du temps. Ainsi, à l'époque moderne, le périhélie de la Terre a lieu début janvier et l'aphélie début juillet. Cependant, ces dates évoluent au cours du temps du fait de la précession et d'autres facteurs orbitaux qui suivent un schéma cyclique connu sous le nom de paramètres de Milanković. Ainsi, l'inclinaison entraîne la nutation, un balancement périodique ayant une période de et l'orientation de l'axe de la Terre évolue et réalise un cycle de nutation complet en environ . Cette précession des équinoxes est la cause de la différence de durée entre une année sidérale et une année tropique. Ces deux mouvements sont causés par le couple qu'exercent les forces de marées de la Lune et du Soleil sur le bourrelet équatorial de la Terre. De plus, les pôles se déplacent périodiquement par rapport à la surface de la Terre selon un mouvement s'écoulant sur environ connu sous le nom d'oscillation de Chandler. Avant la formation de la Lune, l'axe de rotation de la Terre oscillait de façon chaotique, ce qui rendait difficile l'apparition de la vie à sa surface du fait des dérèglements climatiques causés. À la suite de la collision de l'impacteur Théia avec la proto-Terre ayant permis la formation de la Lune, l'axe de rotation de la Terre s'est retrouvé stabilisé du fait du verrouillage gravitationnel par effet de marée entre la Terre et son satellite naturel. Cortège de la Terre. Satellites. La Lune. La Terre possède un unique satellite naturel permanent connu, la Lune, située à environ de la Terre. Relativement grand, son diamètre est environ le quart de celui de la Terre. Au sein du Système solaire, c'est l'un des plus grands satellites naturels (après Ganymède, Titan, Callisto et Io) et le plus grand d'une planète non gazeuse. De plus, c'est la plus grande lune du Système solaire par rapport à la taille de sa planète (à noter que Charon est relativement plus grand par rapport à la planète naine Pluton). Elle est relativement proche de la taille de la planète Mercure (environ les trois quarts du diamètre de cette dernière). Les satellites naturels orbitant autour des autres planètes sont communément appelés en référence à la Lune de la Terre. L'attraction gravitationnelle entre la Terre et la Lune cause les marées sur Terre. Le même effet a lieu sur la Lune, de sorte que sa période de rotation est identique au temps qu'il lui faut pour orbiter autour de la Terre, ce qui implique qu'elle présente toujours la même face vers la Terre : on parle de verrouillage gravitationnel. En orbitant autour de la Terre, différentes parties du côté visible de la Lune sont illuminées par le Soleil, causant les phases lunaires. À cause du couple des marées, la Lune s'éloigne de la Terre à un rythme d'environ par an, produisant aussi l'allongement du jour terrestre de par an. Sur plusieurs millions d'années, l'effet cumulé de ces petites modifications produit d'importants changements. Ainsi, durant la période du Dévonien, il y a approximativement d'années, il y avait ainsi dans une année, chaque jour durant . La Lune pourrait avoir eu une influence dans le développement de la vie en régulant le climat de la Terre. Les observations paléontologiques et les simulations informatiques en mécanique planétaire montrent que l'inclinaison de l'axe de la Terre est stabilisée par les effets de marées avec la Lune. Sans cette stabilisation contre les couples appliqués par le Soleil et les planètes sur le renflement équatorial, il est supposé que l'axe de rotation aurait pu être très instable. Cela aurait alors provoqué des changements chaotiques de son inclinaison au cours des temps géologiques et pour des échelles de durées supérieures à typiquement quelques dizaines de millions d'années, comme cela semble avoir été le cas pour Mars. La Lune est aujourd'hui à une distance de la Terre telle que, vue depuis celle-ci, notre satellite a à peu près la même taille apparente (taille angulaire) que le Soleil. Le diamètre angulaire (ou angle solide) des deux corps est quasiment identique car même si le diamètre du Soleil est 400 fois plus important que celui de la Lune, celle-ci est 400 fois plus rapprochée de la Terre que notre étoile. C'est cela qui permet de voir sur Terre et à notre époque géologique des éclipses solaires totales ou annulaires (en fonction des petites variations de distance Terre-Lune, liées à la très légère ellipticité de l'orbite sélène). Le consensus actuel sur les origines de la Lune est en faveur de l'hypothèse de l'impact géant entre un planétoïde de la taille de Mars, appelé Théia, et la proto-Terre nouvellement formée. Cette hypothèse explique, entre autres, le fait qu'il y ait peu de fer sur la Lune et que la composition chimique de la croûte lunaire (notamment pour des éléments-trace ainsi qu'en isotopie pour l'oxygène) soit très similaire à celle de la croûte terrestre. Un second satellite naturel ? Les modèles informatiques des astrophysiciens Mikael Granvik, Jérémie Vaubaillon et Robert Jedicke suggèrent que des « satellites temporaires » devraient être tout à fait communs et que . Ces objets resteraient en orbite durant en moyenne dix mois avant de revenir dans une orbite solaire. L'une des premières mentions dans la littérature scientifique d'un satellite temporaire est celle de Clarence Chant lors de la grande procession météorique de 1913 : Des exemples de tels objets sont connus. Par exemple, entre 2006 et 2007, est effectivement temporairement en orbite autour de la Terre plutôt qu'autour du Soleil. Satellites artificiels. En , on compte satellites artificiels en orbite autour de la Terre, contre en 2014 et 931 en 2011. Certains ne sont plus en opération comme Vanguard 1, le plus vieux d'entre eux encore en orbite. Ces satellites peuvent remplir différents objectifs comme être destinés à la recherche scientifique (par exemple le télescope spatial Hubble), aux télécommunications ou à l'observation (par exemple Météosat). Par ailleurs, ces satellites artificiels engendrent des débris spatiaux : il s'en trouve en 2020 plus de de plus de de diamètre en orbite et environ un demi-million entre de diamètre. Depuis 1998, le plus grand satellite artificiel autour de la Terre est la Station spatiale internationale, faisant de longueur, de largeur et de hauteur et orbitant à environ d'altitude. Autres objets du cortège. Quasi-satellites. La Terre possède de multiples quasi-satellites et coorbiteurs. Parmi eux se trouvent notamment (3753) Cruithne, un astéroïde géocroiseur possédant une orbite en fer à cheval et parfois surnommé à tort « seconde lune de la Terre » ainsi que (469219) Kamoʻoalewa, le plus stable quasi-satellite connu vers lequel des projets d'exploration spatiale ont été annoncés. Troyens. Dans le système Soleil-Terre, la Terre possède un unique astéroïde troyen : 2010 TK. Celui-ci oscille autour du du couple Terre-Soleil, 60° en avance par rapport à la Terre sur son orbite autour du Soleil. En , l'existence des nuages de Kordylewski aux points L et L du système Terre-Lune est confirmée. Ces grandes concentrations de poussière n'ont été détectées que tardivement du fait de leur faible luminosité. Habitabilité. Une planète qui peut abriter la vie est dite habitable même si la vie n'y est pas présente, ou n'en est pas originaire. La Terre fournit de l'eau liquide, des environnements où les molécules organiques complexes peuvent s'assembler et interagir, et suffisamment d'une énergie dite « douce » pour maintenir, pendant une durée suffisamment longue, le métabolisme des êtres vivants. La distance séparant la Terre du Soleil la plaçant dans une zone habitable, de même que son excentricité orbitale, sa vitesse de rotation, l'inclinaison de son axe, son histoire géologique, son atmosphère restée non-agressive pour les molécules organiques malgré une très grande évolution de composition chimique, et son champ magnétique protecteur sont autant de paramètres favorables à l'apparition de la vie terrestre et aux conditions d'habitabilité à sa surface. Parmi les 4 500 exoplanètes découvertes jusqu’à présent, un certain nombre ont été jugées habitables, bien que ce terme soit quelque peu ambigu. Celui-ci ne désigne pas une planète où l’Homme pourrait atterrir et commencer à s’établir, mais d’un monde rocheux se trouvant dans la bonne région orbitale autour de son étoile, où la température se révèle suffisamment modérée pour que de l’eau liquide puisse exister à sa surface sans geler ou bouillir. Si la Terre remplit évidemment ces conditions, c’est également le cas de Mars, qui est pourtant loin d’être aussi hospitalière que cette dernière. Parmi ces planètes découvertes, 24 pourraient être plus propices à la vie que la Terre, donc super-habitables. La Terre pourrait donc se trouver à la 25 place au classement des planètes les plus habitables connues. Biosphère. Les formes de vie de la planète sont désignées comme formant une « biosphère ». Cette dernière correspond à l'ensemble des organismes vivants et leurs milieux de vie et peut donc être décomposée en trois zones où la vie est présente sur Terre : la lithosphère, l'hydrosphère et l'atmosphère, celles-ci interagissant également entre elles. L'apparition de la vie sur Terre est estimée à il y a au moins , point de départ de l'évolution de la biosphère. Par ailleurs, la date d'apparition du dernier ancêtre commun universel est estimée à entre . Aussi, environ 99 % des espèces qui ont un jour vécu sur Terre sont maintenant éteintes. La biosphère est divisée en une quinzaine de biomes, habités par des groupes similaires de plantes et d'animaux. Ceux-ci sont un ensemble d'écosystèmes caractéristique d'une aire biogéographique et nommé à partir de la végétation et des espèces animales qui y prédominent et y sont adaptées. Ils sont principalement séparés par des différences de latitude, d'altitude ou d'humidité. Certains biomes terrestres se trouvant au-delà des cercles Arctique et Antarctique (comme la toundra), en haute altitude ou dans les zones très arides sont relativement dépourvus de vie animale et végétale tandis que la biodiversité est maximale dans les forêts tropicales humides. Ressources naturelles. La Terre fournit des ressources naturelles qui sont exploitables et exploitées par les humains pour diverses utilisations. Il peut s'agir, par exemple, de matières premières minérales (eau douce, minerai), de produits d'origine sauvage (bois, gibier) ou encore de matière organique fossile (pétrole, charbon). Elles sont distinguées entre ressources renouvelables et non renouvelables . Parmi les secondes sont notamment inclus les combustibles fossiles, qui prennent des millions d'années pour se constituer. D'importantes quantités de ces combustibles fossiles peuvent être obtenues de la croûte terrestre, comme le charbon, le pétrole, le gaz naturel ou les hydrates de méthane. Ces dépôts sont utilisés pour la production d'énergie et en tant que matière première pour l'industrie chimique. Ces sources d'énergie s'opposent alors aux sources d'énergie renouvelables qui ne sont pas épuisables. Les minerais, eux aussi, se forment dans la croûte terrestre et sont constitués de divers éléments chimiques utiles à la production humaine comme les métaux. La biosphère terrestre produit de nombreuses ressources essentielles pour les humains comme de la nourriture, du combustible, des médicaments, du dioxygène et assure également le recyclage de nombreux déchets organiques. Les écosystèmes terrestres dépendent des terres arables et de l'eau douce, tandis que les écosystèmes marins sont basés sur les nutriments dissous dans l'eau. En 2019, l'utilisation des terres émergées est approximativement répartie ainsi : En 2019, un rapport de l'ONU avance que l’utilisation des ressources naturelles devrait augmenter de 110 % entre 2015 et 2060, avec pour conséquence une réduction de plus de 10 % des forêts et d'environ 20 % pour d'autres habitats comme les prairies. Risques environnementaux. D'importantes zones de la surface terrestre sont sujettes à des phénomènes météorologiques extrêmes comme des cyclones extratropicaux (tempêtes du Cap Hatteras, tempêtes européennes) ou tropicaux (nommé ouragans, typhons ou cyclones selon la région). Entre 1998 et 2017, près d'un demi-million de personnes sont mortes au cours d'un événement météorologique extrême. De plus, d'autres régions sont exposées aux séismes, aux glissements de terrain, aux éruptions volcaniques, aux tsunamis, aux tornades, aux dolines, aux blizzards, aux inondations, aux sécheresses ou aux incendies de forêt. Les activités humaines induisent une pollution de l'air et de l'eau et créent par ailleurs en certains endroits des événements tels que des pluies acides, une perte de végétation (surpâturage, déforestation, désertification), une perte de biodiversité, une dégradation des sols, une érosion et une introduction d'espèces invasives. De plus, la pollution de l'air est responsable d'un quart des morts prématurées et des maladies de par le monde. Selon les Nations unies, un consensus scientifique existe liant les activités humaines au réchauffement climatique du fait des émissions industrielles de dioxyde de carbone, et plus généralement des gaz à effet de serre. Cette modification du climat risque de provoquer la fonte des glaciers et des calottes glaciaires, des amplitudes de température extrêmes, d'importants changements de la météorologie et une élévation du niveau de la mer. Géographie humaine. En 2022, la Terre compte approximativement . Les projections indiquent que la population mondiale atteindra d'habitants en 2050, la croissance devant se faire notamment dans les pays en développement. Ainsi, la région de l'Afrique subsaharienne a le taux de natalité le plus élevé au monde. La densité de population humaine varie considérablement autour du monde : environ 60 % de la population mondiale vit en Asie, notamment en Chine et en Inde contre moins de 1 % en Océanie. De plus, environ 56 % de la population mondiale vit dans des zones urbaines plutôt que rurales. En 2018, d'après l'ONU, les trois plus grandes villes du monde (avec le statut de mégapole) sont Tokyo (), Delhi () et Shanghai (). Environ un cinquième de la Terre est favorable à l'exploitation humaine. En effet, les océans représentent 71 % de la surface terrestre et, parmi les 29 % restants, 10 % sont recouverts de glaciers (notamment en Antarctique) et 19 % de déserts ou de hautes montagnes. 68 % des terres émergées sont dans l'hémisphère nord et 90 % des humains y vivent. L'implantation humaine permanente la plus au nord est à Alert sur l'île d'Ellesmere au Canada (82°28′N) tandis que la plus au sud est la Base antarctique Amundsen-Scott en Antarctique (89°59'S). La totalité des terres émergées, à l'exception de la terre Marie Byrd en Antarctique et du Bir Tawil en Afrique qui sont "terra nullius", sont revendiquées par des nations indépendantes. En 2020, les Nations unies reconnaissent 197 États dont 193 États membres. Le World Factbook, quant à lui, décompte et 72 territoires à souveraineté limitée ou entités autonomes. Historiquement, la Terre n'a jamais connu une souveraineté s'étendant sur l'ensemble de la planète . L'Organisation des Nations unies (ONU) est une organisation internationale qui fut créée dans le but de régler pacifiquement les conflits entre nations. Les Nations unies servent principalement de lieu d'échange pour la diplomatie et le droit international public. Lorsque le consensus est obtenu entre les différents membres, une opération armée peut être envisagée. Le premier astronaute humain à avoir orbité autour de la Terre est Youri Gagarine le . Depuis, environ se sont rendues dans l'espace et douze d'entre elles ont marché sur la Lune (entre Apollo 11 en 1969 et Apollo 17 en 1972). En temps normal, au début du , les seuls humains dans l'espace sont ceux se trouvant dans la Station spatiale internationale, qui est habitée en permanence. Les astronautes de la mission Apollo 13 sont les humains qui se sont le plus éloignés de la Terre avec en 1970. Point de vue philosophique et culturel. Représentations passées. La croyance en une Terre plate a été réfutée par l'expérience dès l'Antiquité puis par la pratique grâce aux circumnavigations au début de la Renaissance. Le modèle d'une Terre sphérique s'est donc historiquement toujours imposé. Au , Pythagore et Parménide commencent à se représenter la Terre sous la forme d’une sphère. Cela est une déduction logique de l'observation de la courbure de l'horizon à bord d'un navire. Du fait de ces travaux, la Terre est déjà considérée comme sphérique par Platon (), par Aristote () et d'une façon générale par tous les savants grecs . L'origine d'une croyance de sa rotation sur elle-même est attribuée à Hicétas par Cicéron. Selon Strabon, Cratès de Mallos construit au une sphère pour représenter la Terre selon la théorie dite des . Ératosthène déduit la circonférence de la Terre (longueur du méridien) de façon géométrique vers 230 ; il aurait obtenu une valeur d'environ , ce qui constitue une mesure très proche de la réalité ( à l'équateur et sur un méridien passant par les pôles). L'astronome est également à l'origine des premières évaluations de l'inclinaison de l'axe. Dans sa "Géographie", Ptolémée () reprend les calculs d’Ératosthène et affirme clairement que la Terre est ronde. L’idée qu'au Moyen Âge les théologies imaginaient la Terre comme plate serait un mythe inventé au pour noircir l’image de cette période et il est communément admis qu'aucun savant médiéval n'a soutenu l'idée d'une Terre plate. Ainsi, les textes médiévaux évoquent généralement la Terre comme ou . À la différence des autres planètes du Système solaire, l'humanité n'a pas considéré la Terre comme un objet mobile en rotation autour du Soleil avant le début du , celle-ci étant communément pensée comme le centre de l'univers avant le développement des modèles héliocentriques. En raison des influences chrétiennes, et du travail de théologiens comme James Ussher uniquement fondé sur l'analyse des généalogies dans la Bible pour dater l'âge de la Terre, la plupart des scientifiques occidentaux pensaient encore au que la Terre était âgée de quelques milliers d'années tout au plus. Ce n'est qu'à partir du développement de la géologie que l'âge de la Terre a été réévalué. Dans les années 1860, Lord Kelvin, à l'aide d'études thermodynamiques, estime d'abord l'âge de la Terre comme étant de l'ordre de , lançant un grand débat. La découverte de la radioactivité par Henri Becquerel à la fin du fournit un moyen fiable de datation et permet de prouver que l'âge de la Terre se compte en réalité en milliards d'années. Mythes. La Terre a souvent été personnifiée en tant que déité, en particulier sous la forme d'une déesse comme avec Gaïa dans la mythologie grecque. À ce titre, la Terre est alors représentée par la déesse mère, déesse de la fertilité. De plus, la déesse a donné son nom aux théories Gaïa, des hypothèses environnementalistes du comparant les environnements terrestres et la vie à un unique organisme s'autorégulant vers une stabilisation des conditions d'habitabilité. Son équivalente dans la mythologie romaine est Tellus (ou "Terra mater"), déesse de la fertilité. Le nom de la planète en français dérive indirectement du nom de cette déesse, découlant du latin "terra" signifiant le globe terrestre. Aussi, les mythes de la création de nombreuses religions, par exemple le premier récit de la création de la Genèse dans la Bible, relatent la création de la Terre par une ou plusieurs divinités. Quelques groupes religieux, souvent affiliés aux branches fondamentalistes du protestantisme et de l'islam, avancent que leur interprétation des mythes de la création dans les textes sacrés est la vérité et que celle-ci devrait être considérée comme l'égale des hypothèses scientifiques conventionnelles concernant la formation de la Terre et le développement de la vie, voire devrait les remplacer. De telles affirmations sont rejetées par la communauté scientifique et par d'autres groupes religieux. Symbolisme. Différents symboles astronomiques sont et ont été utilisés pour représenter la Terre. Le plus usuel de façon contemporaine est (Unicode U+1F728), représentant un globe sectionné par l'équateur et un méridien et, en conséquence, les « quatre coins du monde » ou les points cardinaux. On trouve aussi un orbe crucigère, ♁ (U+2641). Plus anciennement, on retrouve également un globe sectionné uniquement par l'équateur, (U+1F714). Néanmoins, leur utilisation est déconseillée par l'Union astronomique internationale qui leur privilégie des abréviations. Seul le premier est commun, trouvé par exemple en M🜨 pour l'unité d'une masse terrestre. La finitude écologique. La vision humaine concernant la Terre évolue notamment grâce aux débuts de l'astronautique et la biosphère est alors vue selon une perspective globale. Cela est reflété dans le développement de l'écologie qui s'inquiète de l'impact de l'humanité sur la planète. Dès 1931, Paul Valéry, dans son ouvrage "Regards sur le monde actuel", estime que . Par , il n'entend alors pas le monde-univers des Anciens, mais "notre monde" actuel, c'est-à-dire, la Terre et l'ensemble de ses habitants. Dans la continuité, Bertrand de Jouvenel évoque la finitude de la Terre dès 1968. Le philosophe Dominique Bourg, spécialiste de l'éthique du développement durable, évoque en 1993 la découverte de la finitude écologique de la Terre dans "La nature en politique ou l'enjeu philosophique de l'écologie". Estimant que cette finitude est suffisamment connue et prouvée pour qu'il soit inutile de l'illustrer, il souligne qu'elle a entraîné dans nos représentations un changement radical de la relation entre l'universel et le singulier. Alors que le paradigme moderne classique postulait que l'universel commandait le singulier, et le général le particulier, on ne peut pas y réduire la relation entre le planétaire et le local. Dans l'univers systémique de l'écologie, la biosphère (le planétaire) et les biotopes (le local) sont interdépendants. Cette interdépendance du local et du planétaire fait voler en éclats le principe moteur de la modernité, qui tendait à abolir toute particularité locale au profit de principes généraux, ce en quoi le projet moderne est utopique selon lui. La preuve expérimentale du raccordement symbolique de l'écologie à la culture est fournie par les réactions des premiers astronautes qui, dans les années 1960, ont pu observer la planète en orbite ou depuis la Lune . Ces retours décrivant une Terre eurent une influence sur la vision du monde de la population en général. La finitude écologique de la Terre est une question devenue si prégnante que certains philosophes (Heidegger, Grondin, Schürch) ont pu parler d'une éthique de la finitude. Par ailleurs, les concepts d'empreinte écologique et de biocapacité permettent d'appréhender les problèmes liés à cette finitude de la Terre. |
Temps géologiques |
Taekwondo Le taekwondo ( ; , ) est un art martial d'origine sud-coréenne, dont le nom peut se traduire par "La voie des pieds et des poings". Le taekwondo, dont le nom a été proposé en 1955 par le général Choi Hong Hi, est le fruit de la fédération progressive, à partir des années 1950, après l'occupation japonaise de la Corée, de différentes écoles d'arts martiaux coréennes qui enseignaient le karaté. Sa création et son développement sont intimement liés à la promotion du nationalisme étatique coréen. L'unification n'est cependant pas complète car deux grandes fédérations cohabitent encore, l'International Taekwon-Do Federation (ITF), qui revendique actuellement 50 millions d'adhérents, et la Fédération mondiale de taekwondo, qui a popularisé auprès de plus de 80 millions de personnes une pratique du taekwondo moins axée sur la self-défense et plus sur le sport de combat, interdisant notamment les coups de poing au visage. Le taekwondo se distingue des autres arts martiaux, surtout dans sa forme, par le haut degré de spécialisation de ses pratiquants en techniques de coups de pied bien plus que dans d'autres techniques, par les nombreuses protections utilisées lors des compétitions de combat et par son inclusion au programme des Jeux olympiques d'été depuis 2000. Description. Le taekwondo est un art martial d'origine sud-coréenne, qui se pratique, en général, sans armes. Son nom, taekwondo, qui s'écrit à l'origine en hangeul : et en hanja, et dont la prononciation est , peut se traduire par « la voie du coup de pied et du coup de poing », de , ', « frapper du pied » et , ', « frapper du poing », et enfin , "", « méthode, art de vivre, voie spirituelle ». De cette définition découle l'idée que le taekwondo est non seulement un art martial mais aussi une manière d'entraîner son esprit et d'atteindre la maîtrise de soi par des mouvements de combat. Le pratiquant de taekwondo est appelé un taekwondoïste (et ce, même si le terme d'origine est "taekwondoin"). La salle d'entraînement est appelée un "dojang". Il est possible de pratiquer le taekwondo quel que soit son âge. En tant que sport, il fait travailler l'endurance et la souplesse et augmente la force physique. Cet art martial est basé sur des techniques d'attaque où le pratiquant concentre son énergie sur telles que le bol du pied ou la tête des phalanges avec lesquelles il vise les points faibles de son adversaire et des techniques de blocage des attaques adverses. Les taekwondoïstes utilisent des techniques de coups de pied spectaculaires, notamment retournés et sautés, dont la fréquence d'usage est caractéristique de la discipline. Il existe en 2010 de pratiquants du taekwondo dans 180 pays. par le souhait de maintenir leur forme physique permettant notamment de lutter contre le stress, par les techniques d'autodéfense enseignées par ce sport, l'attrait pour la compétition ainsi que par l'enrichissement spirituel qui peut être amené dans l'enseignement des valeurs du taekwondo telles que la modestie, le respect ou le goût de l'effort. Histoire. Les origines du taekwondo sont à la fois culturelles et politiques. D'un point de vue culturel, le taekwondo est une unification des pratiques de plusieurs écoles sud-coréennes des années 1950 inspirées par le karaté Shotokan (développé au Japon) et certains éléments caractéristiques des arts martiaux coréens (en particulier le taekkyon). D'un point de vue politique, le taekwondo a été un outil de propagande nationaliste dont le but a été d'exalter le patriotisme de la jeune nation sud-coréenne à la suite de l'occupation japonaise et du conflit avec la Corée du Nord. Le taekwondo a été nommé et codifié en Corée du Sud entre la fin des années 1950 et le début des années 1960. À la suite de la diffusion de cet art martial en Corée du Nord par les responsables de la première organisation internationale, l'ITF, en 1972, une nouvelle organisation concurrente, la WTF, a tourné le dos aux membres de l'ITF. Cette scission de nature politique, qui perdure depuis, ainsi que les motivations idéologiques à l'origine de la création du taekwondo, ont induit une forte propagande et une déformation volontaire des faits historiques dans chacune de ces organisations, notamment au sujet des origines et de la création du taekwondo. Origines (avant 1959). Le taekwondo est généralement présenté comme l'héritier des arts martiaux coréens antiques, comme le "taekkyon" et le "" ; on peut en effet retrouver certains points communs entre les techniques utilisées dans ces arts martiaux et celles du taekwondo, surtout du point de vue des techniques de jambes, prépondérantes. Toutefois, ces points communs sont considérés par certains historiens de la discipline comme insuffisants et surtout postérieurs à la volonté politique de création d'un art martial spécifiquement national, après l'occupation japonaise de la Corée, d'autant plus que la pratique du taekkyon avait quasiment disparu au début du , à tel point que ces historiens qualifient la filiation entre le taekwondo et ces arts anciens de mensonger, d'argument de propagande. Les origines établies et incontestées du taekwondo remontent à la fédération progressive, entre la fin des années 1950 et le début des années 1960, des principales écoles d'arts martiaux coréennes ("kwans"), qui enseignaient alors le , appelé "Tang Soo Do" () ou "Kong Soo Do" (), une pratique martiale issue du karaté Shotokan développé au Japon, notamment parce que la pratique des arts martiaux coréens avait été interdite par l'occupant, tout comme beaucoup d'autres éléments de la culture coréenne. À partir de 1955, sous l'impulsion du gouvernement coréen, et en particulier du président Syngman Rhee, dans le but politique d'exalter le patriotisme de la jeune nation sud-coréenne, le développement d'un art martial national et sa diffusion à l'ensemble des écoles d'arts martiaux coréennes ont été confiés principalement au général Choi Hong Hi, qui dirigeait le plus ancien des kwans, l’école Chung Do Kwan, et la principale école militaire d'arts martiaux, nommée Oh Do Kwan. Choi Hong Hi proposa, avec son instructeur , le nom de Tae Kwon Do, le , et utilisa son influence pour imposer progressivement ce terme, qui commença à être popularisé en Corée principalement à partir de 1959, lorsque plusieurs écoles et organisations se réunirent sous l’égide de la (KTA). Promotion internationale du taekwondo (1959-1965). Une des premières importantes étapes du processus d'unification est la promotion internationale du Taekwon-Do par des équipes de démonstration, composées de ses représentants les plus techniques et spectaculaires. En , une première tournée de démonstration fait découvrir à Taïwan et au Sud-Viêt Nam ce nouvel art martial. Nommé ambassadeur en Malaisie, le général Choi abandonne la présidence de la KTA pour se consacrer à la diffusion du Taekwondo dans ce pays, après avoir effectué une démonstration dans un stade à la demande du premier ministre Malais. Ce travail de promotion aboutira à la création de l’Association malaise de Taekwondo en 1963. Dès le départ en Malaisie du général Choi (1961), le président Park Chung Hee (박정희) décida d'ordonner une réunification des différentes écoles. En effet, hormis les élèves des écoles Chundokwan et Ohdokwan, seule une faible minorité pratiquaient le taekwondo tel que défini par le général Choi, et de nombreux maîtres, insatisfaits du nom « taekwondo » continuèrent à enseigner sous les noms « Gongsoodo », « Dangsoodo » et « Soobahkdo ». Hwang Kee (황기), le principal rival de la KTA, avait créé sa propre fédération : Korea Dangsoodo association, qui changera plus tard en Korea Soobahkdo Association. Le , une nouvelle réunion a lieu, et les différents représentants tombent d'accord sur le terme « taesoodo » qui combine les termes de taekkyon, gongsoodo, soobahkdo et dangsoodo. La KTA est donc renommée Korea Taesoodo Association. En 1961-62, le taekwondo est pratiqué par les militaires coréens autant que par la population civile de ce pays, mais aussi par les forces armées américaines stationnées en Corée. Ces mêmes années, le taekwondo est introduit à l’académie militaire de West Point aux États-Unis. En , une démonstration a lieu dans le bâtiment des Nations unies, à New York, et le Tae Kwon Do est choisi pour l’entraînement des militaires du Sud Viêt Nam.Toujours en 1963, les associations nationales de Singapour et de Brunei sont créées. En 1964, Lee Jong soo (un élève de Lee Jong woo) introduit le Tae Kwon Do au Canada en y établissant le premier dojang, à Montréal, Depuis le décès de Lee Jong soo, c'est son beau-fils, Evangelos Ligeros, qui dirige le dojang. En 1965, Choi Hong hi, Lee Jong soo et Kim Soon bae dirige une nouvelle tournée de démonstration internationale pour assurer la promotion du Tae Kwon Do. La délégation compte 19 personnes en tout. La tournée inclut les pays suivants: Allemagne de l’Ouest, Italie, Égypte, Turquie, Émirats arabes unis, Malaisie et Singapour. Les membres de l'équipe de démonstration étaient Han Cha Kyo ( dan à l’époque), Kim Jun Kun ( dan), Kwon Jai Hwa ( dan) et Park Jong Soo ( dan). À l'issue de cette tournée, des associations nationales sont créées dans ces pays. La même année, à son retour en Corée, le général Choi redevient président de la KTA. Le , il organise un vote pour évincer du nom de l'organisation le terme de taesoodo et restaurer celui de taekwondo. Les conditions de ce vote sont restées douteuses, car le nom taekwondo, qui ne contentait que l'Ohdokwan et le Chungdokwan, ne fut choisi qu'avec une voix d'écart. La KTA fut donc renommée Korea Taekwondo Association et l'usage du terme taekwondo s'imposa alors définitivement. Scission entre la KTA et l'ITF (1966). Peu après, en 1966, Choi quitte la KTA, sous la pression des leaders d'autres écoles d'arts martiaux comme Lee Jong-woo et Uhm Woon-kyu qui le considéraient comme un "fauteur de troubles permanent", en ayant négocié la possibilité de fonder sa propre fédération, d'envergure internationale, l'International Taekwon-Do Federation (ITF), qu'il crée effectivement le , à l'hôtel Chosun de Séoul. Les pays fondateurs de l’ITF sont donc la Corée, le Viêt Nam, la Malaisie, Singapour, l’Allemagne de l’Ouest, les États-Unis, la Turquie, l’Italie et les Émirats arabes unis. Choi commence à cette époque à clamer que le taekwondo est le « sport national » de la Corée . Afin que l’ITF bénéficie d'une influence politique suffisante pour rivaliser avec la KTA, Choi offre le titre de directeur honoraire de l’ITF à Kim Jong-pil, créateur des services de renseignement de la KCIA. En 1968, Choi visite la France à l’occasion du symposium sur le sport militaire et y organisa une démonstration devant les représentants de 32 pays. La même année, le Royaume-Uni forme une association nationale de Taekwondo, et le général se rend en Espagne, au Canada, aux Pays-Bas, en Belgique et en Inde. En 1969, Choi effectue une tournée dans 29 pays afin d'y rencontrer des instructeurs de ces différents pays et d'effectuer les prises de vues qui illustrent la première édition de (1972). De son côté, la KTA commença à fonder un programme technique commun et nomma un comité de création de formes, composé de Kwak Kun Sik (Chung Do Kwan), Lee Yong Sup (Song Moo Kwan), Park Hae Man (Chung Do Kwan), Hyun Jong Myung (Oh Do Kwan) et Kim Soon Bae (Chang Moo Kwan). Ils créèrent les poumsés (품새) Palgwae et Yudanja (Koryeo (고려) à Ilyeo (일여)), mais ces poumsés furent créés sans la participation de deux Kwan originaux, Ji Do Kwan et Moo Duk Kwan, fusionnés au sein de la Korea Soo Bahk Do association. Quelques années plus tard, sous l'impulsion de Chong Hong Soo, Im Young Taek (Moo Duk Kwan) et Lee Chong Woo (Ji Do Kwan), une partie de ces Kwan rejoignit la KTA (les Jidokwan Lee Jong woo et Bae Young Ki, et le Moo Duk Kwan Han Yong Tae), qui décida de refaire les poumsés, en créant de nouveaux : les taegeuk (태극). En 1971, le gouvernement décida de construire le Kukkiwon (국기원), siège mondial de la KTA, qui fut fondé en 1972 à Séoul. Concurrence internationale entre l’ITF et la WTF (à partir de 1973). En 1972, Choi introduit le Taekwon-Do en Bolivie, République dominicaine, Haïti et Guatemala. Mais confronté à une situation politique particulièrement difficile dans son pays, il est contraint à l’exil : en effet, le gouvernement sud-coréen désapprouve une initiative de Choi de faire une démonstration de Taekwondo en Corée du Nord, où il se rend en 1966. Le développement du Taekwon-Do en Corée du Nord est dû notamment à Yoon Byung-in. Afin de ne pas perdre la direction de l'ITF, et avec l’accord des pays membres de l’organisation, Choi déplace le siège de l’ITF à Toronto, au Canada, d’où il espère pouvoir diffuser plus aisément le Taekwondo dans les pays de l’Est. Considérant que seulement OhDoKwan demeure affilié à ITF et que tous les autres Kwans demeurent solidaires à la Korea Taekwondo Association, la WTF (World Taekwondo Federation ou Fédération Mondiale de Taekwondo) est fondée en 1973. Les premiers championnats du monde de taekwondo WTF sont organisés en 1973 et seront par la suite organisés tous les deux ans. En 1975, ITF et WTF sont en lice pour obtenir la reconnaissance officielle de fédération internationale (FI). En effet l'Association générale des fédérations sportives internationales (AGFSI) tient son assemblée générale annuelle à Montréal. (Un an avant les Jeux Olympiques de Montréal). Les deux fédérations de tae kwon do déposent leur mémoire. Finalement, c'est la WTF qui est reconnue à titre de FI officielle de régie du taekwondo. Bénéficiant de l’appui du gouvernement et d'instances internationales de sports la WTF se développe très rapidement, surtout dans les pays de l’Ouest. Elle popularise une pratique du taekwondo moins axée sur le sport de combat, interdisant notamment les coups de poing au visage. Elle revendique désormais plus de 80 millions d'adhérents dans plus de 200 pays. Dès lors, l'ITF et la WTF rivaliseront de manière plus ou moins conflictuelle, proportionnellement à l'intensité de la guerre froide et des conflits entre la Corée du Sud et du Nord. Après la création de la WTF, le général Choi continue son travail de développement du Taekwon-Do originel par le biais de l'ITF. Une nouvelle équipe de démonstration part en tournée dès . Maître Park Jong Soo, désormais dan, en fait toujours partie. Il est accompagné par Maître Rhee Ki Ha, Maître Park Sun Tae et Maître Choi Chang Keun. Ils visitent 23 pays d’Europe, d’Asie, du Moyen-Orient et d’Afrique, et établissent des organisations nationales dans 5 d’entre eux. Sans s’arrêter de voyager, le général Choi assiste à l’organisation du championnat du Monde en 1974 à Montréal (Canada) et du championnat d’Europe à Amsterdam (Pays-Bas) en 1976. En 1978, une nouvelle équipe de démonstration est constituée. Elle comprend Maître Choi Chank Keun, Park Jung Tae, Rhee Ki Ha et Leong Wei Meng. Ces deux derniers, ainsi que Park Jong Soo, ont aujourd’hui le grade de Grand Maître. En 1979, l’AETF (All Europe Taekwon-Do Federation) est fondée à Oslo (Norvège). Les équipes de démonstrations se succèdent, voyageant dans le monde entier pour introduire le Taekwon-Do. L’année 1980 est une année historique pour le Taekwon-Do et pour le général Choi, puisqu’une équipe de 15 membres (comprenant son fils maître Choi Jung Hwa) effectue une tournée en Corée du Nord, pays natal du Général Choi. C’est la première fois que le Taekwon-Do est introduit dans ce pays. En 1981, une équipe de démonstration composée de nord-coréens et de sud-coréens est présentée par le Général Choi. En 1985, le siège de l’ITF s'installe à Vienne. Le décès du président de l'ITF, le général Choi Hong Hi, survient le . Sa succession est disputée et occasionne la scission de l'ITF en 3 organisations concurrentes : une ITF dont le siège se situe à Londres et présidée par , fils unique du général Choi Hong Hi, une autre ITF dont le siège se situe à Pyongyang et dirigée par Jang Ung à partir du congrès de Pyongyang du et enfin une dernière ITF dont le siège se situe à Benidorm et dirigée par à partir du Congrès de Varsovie du puis par Pablo Trajtenberg depuis 2011. Le taekwondo ITF revendique aujourd'hui 50 millions d'adhérents dans 127 pays. Ère olympique (depuis 2000). Le taekwondo WTF est présenté comme sport de démonstration aux Jeux olympiques de Séoul en 1988 et à ceux de Barcelone en 1992 avant de devenir sport olympique à partir des jeux olympiques d'été de 2000, ce qui intensifie sa popularisation par rapport au Taekwon-Do ITF. En préparation du second sommet intercoréen de 2007, des rencontres ont été organisées entre les dirigeants de l'ITF (à laquelle sont affiliés les athlètes nord-coréens), alors présidée par Jang Ung, et de la WTF (proche des instances officielles sud-coréennes), dirigée alors par Choe Chung-won, afin d'unifier les deux fédérations mondiales de taekwondo. Pendant les Jeux olympiques de la jeunesse d'été de 2014, un accord (Memorandum of Understanding) est signé entre la WTF et l'ITF pour que les membres de chacune de ces deux organisations puissent participer aux compétitions organisées par l'autre ; en particulier, cet accord permet aux membres de l'ITF de participer aux compétitions olympiques suivantes, selon les règles définies par la WTF. En 2017, à l'occasion du championnat du monde organisé par la WTF à Muju, l'ITF a déclaré qu'elle enverrait une délégation de 36 membres, dont Jang Ung et une équipe de démonstration. Le , la World Taekwondo Federation annonce son renommage en World Taekwondo (WT) pour éviter les « connotations négatives » de l'acronyme WTF. À noter que World Taekwondo est officiellement l'unique fédération internationale de régie du taekwondo, étant reconnue à ce titre par l'AGFSI. En effet, une fédération internationale (FI) pour obtenir officiellement un statut de FI doit préalablement être reconnue par ses pairs de l'Association générale des fédérations sportives internationales (AGFSI). Entraînement. Équipement. La tenue de base du taekwondo est un dobok, généralement blanc. L'ampleur du pantalon permet de ne pas gêner les coups de pied, même avec un écartement maximal des jambes. Il est fermé par une ceinture nouée par un nœud plat. Lors des entraînements au combat en contact partiel ou plein, des protections sont rajoutées à ce dobok. Techniques. Le taekwondo est surtout célèbre pour ses techniques de pied spectaculaires. Principales techniques de pied ("tchagui" (차기)). Contrairement à de nombreuses idées reçues, en particulier à cause des règles de compétition, qui n'autorisent les coups qu'au-dessus de la ceinture, les différents coups de pied peuvent être exécutés à tous les niveaux : bas (jambes ou éventuellement organes génitaux), moyen (plexus solaire ou côtes flottantes), ou haut (visage ou gorge). L'entraînement aux techniques de coups de pied se réalise souvent à l'aide de raquettes de frappe, pour améliorer la précision des coups et la réactivité. Les paos sont utilisés pour s'entraîner à taper plus en puissance et à enchaîner des séries de coups identiques rapides. Plusieurs types de coups de pied peuvent aussi être enchaînés l'un après l'autre. Des suites de mouvements peuvent être créées afin de travailler la mémoire active. Techniques de main. Les techniques de main servent à se défendre et à riposter. Elles ne sont quasiment pas utilisées en compétition mais plutôt en entraînement, notamment pour les pomsaes et la self-défense. En plus des techniques traditionnelles, il y a aussi : Formes. Les formes de taekwondo, qui sont, comme dans d'autres arts martiaux, des enchaînements de techniques exécutées sans adversaire, s'appellent des pomsaess (terme officiel WTF), (terme officiel ITF) ou hyeong (terme originel). En taekwondo WTF, le pomsae débute et se termine par la position « "Tchaliot Seugui" » suivi du salut « "Kyongnye" ». Il s’annonce à haute voix. Il se déroule suivant un diagramme différent, selon sa complexité. Le point de départ doit être également celui du retour après la prestation. Un pomsae doit être réalisé avec intensité, de manière à faire sentir une réelle impression de combat dans l’exécution des différents mouvements avec la plus grande efficacité contrôlée. Chaque forme possède son propre rythme. Le poumsé s’exécute dignement, avec un dobok propre et une ceinture correctement nouée. La réalisation des formes a une importance capitale pour monter en grade. En taekwondo ITF comme en WTF, il existe 8 formes normales et 9 supérieures. Philosophie. Les différents styles de taekwondo reposent sur différentes approches philosophiques. Cependant, la plupart se réfèrent aux cinq principes du taekwondo définis par Choi Hong-hi en s'inspirant des "cinq préceptes de la vie séculaire" du Hwarang-do, et auxquels les élèves du taekwondo ITF doivent prêter serment : courtoisie, intégrité, persévérance, contrôle de soi et « esprit indomptable ». Grades. En taekwondo, les capacités individuelles de développement personnel, d'engagement et de technique sont évaluées par deux échelles de promotion : les grades ("keup"), d'abord, puis les degrés ("dan"). La progression du débutant commence par un grade élevé (le pour les adultes) et se termine avec le , tandis que les degrés commencent au contraire par le et finissent avec le (il est possible d'obtenir un en taekwondo, mais il n'est décerné qu'à titre posthume). Un âge minimal est requis pour l'obtention des différents degrés (en France, 14 ans pour le , 16 ans pour le , 18 ans pour le …). D'une fédération à l'autre, la correspondance entre grades et ceintures peut varier. Ainsi, tandis que la fédération française FFTDA utilise sept couleurs différentes pour les enfants et quatre pour les adultes, la fédération belge ABFT en compte cinq pour les adultes. Les degrés sont en revanche, pour toutes les fédérations, exprimés par la ceinture noire. Pour les enfants, qui ne peuvent pas passer de degré mais seulement les 3 grades de poom, elle est remplacée, à partir de l'âge de 14 ans minimum, par une ceinture bicolore rouge et noire (grade "Il Poom"). Les examens pour les et jusqu’au se déroulent au niveau régional. Les candidats s’inscrivent auprès des Ligues (Comités régionaux) de la FFTDA. Les examens sont indiqués, sur le calendrier sportif régional. Une date limite d'inscription est fixée pour chaque examen, par la Ligue. Pour les grades supérieurs au les examens se dérouleront au niveau national (au minimum un par saison sportive) par décision de la CSDGE. Les examens sont indiqués, sur le calendrier sportif national. Les dossiers d'inscription des candidats doivent parvenir au siège de la Fédération par l'intermédiaire du président de la Ligue. Les dates d'examens nationaux et les stages préparatoires sont mentionnés au calendrier national. Une date limite d'inscription est fixée pour chaque examen par la C.S.D.G.E. Chaque couleur de ceinture a une signification particulière : le blanc représente la pureté, l’innocence de l’initié et son ignorance vis-à-vis de la pratique ; le jaune, couleur du soleil levant, représente l'éveil ; le bleu, couleur de l'eau, représente la clarté ; le rouge, couleur du feu, représente la puissance, le noir, couleur de la plénitude, représente le savoir et la sagesse. Compétition. Compétitions de combat. Règlement des compétitions WT. Lors des combats, le combattant doit obligatoirement porter l'ensemble de l'équipement de protection, vérifié par les inspecteurs du bureau de contrôle. . Les compétitions de la Fédération mondiale de taekwondo imposent notamment à tous les combattants le port d'un casque, d'un protège-dents, d'un plastron, de protège-avant-bras, de gants, de protège-tibias et d'une coquille génitale ; selon les règles de la fédération française (FFTDA), pour les catégories des benjamins, minimes, cadets et vétérans, des protège-pieds sont également obligatoires. Comptage des points. Arbitrage. Ceci n'est qu'un résumé de l'arbitrage, il regroupe juste les règles de base à savoir pour comprendre et apprécier un combat lors d'une compétition combat. Compétitions WT. Les principales compétitions de taekwondo organisées par la WT sont celles des Jeux olympiques d'été (grade 20) et des championnats du monde (grade 12). Depuis 2013, une à quatre compétitions par an sont classées GP ; la finale annuelle est de grade 8 et les autres compétitions GP ("GP series") sont de grade 4. Compétiteurs célèbres. Parmi les compétiteurs qui ont le plus marqué l'histoire de la discipline par l'ampleur de leur palmarès, on peut notamment citer : Les compétiteurs classés actuellement numéro un mondial par la WT sont, au : Compétitions techniques. Les compétiteurs s'affrontent face à un jury qui juge la qualité de l'exécution des formes effectuées par chaque compétiteur. Critères d'exécution. Chaque technique doit être armée avec souplesse selon les « "Kibon" » et se terminer avec fermeté et précision selon la hauteur définie. La trajectoire doit être nette, ample et rapide. Les techniques doivent dégager une grande impression d’efficacité. Les techniques devront être enchaînées de sorte que chaque blocage soit instinctivement suivi de l’attaque. D’une manière générale les enchaînements seront rythmés et sans temps mort selon les différentes trajectoires du diagramme. La maîtrise des déplacements et du corps lors des différents enchaînements est essentielle. Chaque position devra être bien marquée et verrouillée. Les appuis au sol devront être solides et réalisés conformément au « "Kibon" ». La position et le mouvement du corps devront être contrôlés. Le poumsé doit être exécuté dans sa forme originale en respectant l’ordre des techniques, des positions et des directions, mais aussi le diagramme défini par l'exécution du poumsé. La respiration doit être synchronisée avec les techniques et les déplacements, elle doit être inaudible. D’une manière générale, l’inspiration se fait en début de mouvement et l’expiration à la fin des différentes phases du poumsé. La concentration est extrême dans l’exécution du poumsé afin de pouvoir « Vivre son poumsé ». La concentration permet de dégager une unité entre le corps et l’esprit. Le regard doit être porteur de toute la détermination à l’exécution du poumsé, il doit suivre la direction des enchaînements techniques et des déplacements. Compétitions de casse. En taekwondo ITF, il existe des compétitions de casse, une épreuve de puissance qui consiste à briser des planches de bois. Chaque compétiteur se présente pour effectuer cinq casses. L'une s'effectue avec un coup de poing, une avec le tranchant de la main, une avec un coup de pied de côté, une avec un coup de pied circulaire, et une avec un coup de pied retourné. Le compétiteur qui brise le plus de planches remporte la compétition Compétitions de techniques spéciales. Comme dans le cassage, chaque compétiteur a cinq techniques à effectuer. Il ne s'agit cependant pas de briser des planches en puissance, mais d'atteindre avec chaque technique une cible placée le plus haut possible. |
Tokugawa Ieyasu est daimyo puis shogun du Japon. Il est le dernier des trois unificateurs du Japon de l'époque Sengoku, après Oda Nobunaga et Toyotomi Hideyoshi (aussi nommé « Hashiba »). L'enfance de Matsudaira. Tokugawa Ieyasu naît le sous le nom de « Matsudaira Takechiyo ». Il est l'héritier du clan Matsudaira, petit clan de la province de Mikawa (dans l'actuelle préfecture d'Aichi), déchiré entre les puissants clans Oda et Imagawa. En 1548, les Oda envahissent le Mikawa. Le père de Ieyasu, Matsudaira Hirotada, demande l'aide d'Imagawa Yoshimoto, daimyo du clan Imagawa, qui accepte à la condition qu'Hirotada lui envoie son fils en tant qu'otage. Hirotada s'exécute, et Ieyasu part donc pour Sunpu (l'actuelle Shizuoka). Mais Oda Nobuhide, le daimyo du clan Oda, a vent de la tractation et il intercepte Ieyasu et sa suite. Il menacera ensuite Hirotada de tuer son fils s'il ne récuse pas son pacte avec Imagawa Yoshimoto pour s'allier aux Oda, Hirotada refuse, arguant que laisser son fils mourir ne ferait que sceller plus encore le pacte le liant aux Imagawa. Nobuhide ne fera finalement aucun mal à Ieyasu. L'année suivante, en 1549, Hirotada meurt et Nobuhide succombe à une épidémie, laissant le clan Oda dans une grave désorganisation. Imagawa Yoshitomo saute sur l'occasion et envoie Imagawa Sessai assiéger le château où se trouve Oda Nobuhiro, fils aîné et successeur de Nobuhide. Le siège tourne vite à l'avantage des Imagawa, mais Sessai rencontre Oda Nobunaga, fils cadet de Nobuhide, afin de lui proposer un marché : il lèvera le siège à condition que les Oda lui livrent Ieyasu. Les Oda ne peuvent qu'accepter le marché et Ieyasu arrive à Sunpu le lendemain. Il y sera bien traité. Ainsi, de ses six ans jusqu'à ses quatorze ans, Ieyasu restera l'otage des Oda puis des Imagawa. Le chemin vers le pouvoir. En 1556, Ieyasu obtient le droit de retourner sur ses terres du Mikawa. Puis il se marie pour la première fois avec Tsukiyama-dono, la nièce de Imagawa Yoshitomo, et change son nom en Matsudaira Motoyasu. Ieyasu fera ensuite ses premiers pas en tant que tacticien dans une campagne contre les Oda qu'il mène sur ordre de Yoshimoto. Il y remportera quelques victoires de relative importance, mais qui lui permettront de commencer à se faire un nom. En 1560, Imagawa Yoshimoto assemble une armée d'environ et marche vers Kyoto, la capitale, afin d'obtenir de l'empereur le titre de shogun. Ieyasu, à la tête de son armée, fait partie des troupes mais est détaché du gros de l'armée pour attaquer un fort frontalier. Il y restera ensuite pour le défendre, ce qui lui permettra d'éviter la bataille surprise d'Okehazama qui sera un vrai désastre pour les Imagawa et de regagner sa liberté. En effet, alors que Yoshimoto fait avancer son armée sur les terres d'Oda Nobunaga (qui a pris la succession de son père à la tête du clan) ce dernier lance une attaque surprise contre Yoshimoto (malgré une nette infériorité numérique et l'avis contraire de ses généraux) et remporte une victoire éclair (la bataille dura quelques minutes seulement), tuant Imagawa Yoshimoto au passage. Apprenant la défaite d'Okehazama, Ieyasu bat en retraite, puis contacte Nobunaga en vue d'organiser une alliance. Cependant, les tractations se font dans la plus grande discrétion, la femme et le second fils d'Ieyasu se trouvant à ce moment à Sunpu. En 1561, Ieyasu s'empare du château de Kaminogō, possession Imagawa, et y capture des membres de la famille d'un proche d'Imagawa Ujizane, successeur de Yoshimoto. Cette capture lui permet de récupérer sa femme et son fils (en échange de ses prisonniers), ainsi que de prouver sa bonne volonté à Nobunaga. Ieyasu devient donc vassal de Nobunaga, et il le restera jusqu'à la mort de ce dernier. Ieyasu ayant maintenant les mains libres, il se consacre à la réorganisation de son clan et de son domaine : il récompense ses vassaux en leur accordant des terres à Mikawa. Ces hommes auront une grande importance dans les nombreuses batailles qu'Ieyasu livrera tout au long de sa vie, et parmi eux on compte notamment Honda Tadakatsu, Ishikawa Kazumasa, Kōriki Kiyonaga, Hattori Hanzō, Sakai Tadatsugu et Sakakibara Yasumasa. Puis, en 1564, il combat les Mikawa Monto, une armée de moines guerriers qui avaient refusé de se soumettre à son autorité, au cours de la bataille d'Azukizaka. Il les vainc et rase leurs temples. En 1566, il demande à l'empereur l'autorisation de changer son nom en Tokugawa Ieyasu, ce qui lui est accordé. À ce moment-là, il déclare descendre des Minamoto, ce qui lui apporterait en cas de position de force une grande crédibilité pour être nommé shogun. Cependant, il semble peu probable que cette revendication se fonde sur quoi que ce soit d'avéré. Mais, pour le moment, Ieyasu demeure vassal de Nobunaga, et il participe à toutes les batailles importantes aux côtés des Oda : ainsi, il est présent lors de la prise de Kyoto en 1568. En 1570, il agrandit son territoire en prenant le reste des terres Imagawa à l'issue d'un pacte avec Shingen Takeda, pacte qui lui coûta cher puisque Shingen prit Sunpu avant lui, l'empêchant ainsi d'annexer le Suruga. En réaction, Ieyasu accueille Imagawa Ujizane en lui promettant de lui rendre ses terres. Les relations entre les Tokugawa et les Takeda deviennent alors tendues, situation qui empire lorsque Ieyasu s'allie avec Uesugi Kenshin, ennemi avéré de Takeda Shingen. Puis Tokugawa déplace son quartier général pour se rapprocher du territoire de Shingen et la guerre devient inévitable. Fin 1571, Shingen qui s'est allié au clan Go-Hōjō envahit le Totomi, qui appartient aux Tokugawa. Ieyasu rallie ses hommes et les deux armées se rencontrent au début de l'année 1572, à la bataille de Mikata-Ga-Hara, où les Tokugawa essuient une cuisante défaite : Ieyasu échappe de peu à la mort. À la suite de cela, Ieyasu passera un an à refuser le combat contre Shingen, vivant dans un état de siège permanent. Fort heureusement pour lui, Takeda Shingen meurt au printemps 1573. L'homme était un brillant général, souvent considéré comme le meilleur de la période et Takeda Katsuyori, son fils et successeur, s'avère incapable de capitaliser les écrasantes victoires de son père. En 1575, Katsuyori attaque le château de Nagashino à Mikawa et Ieyasu appelle Nobunaga à la rescousse. Celui-ci vient personnellement à la tête d'une grande armée. L'armée Tokugawa-Oda, forte de soldats affronte l'armée Takeda à la célèbre bataille de Nagashino. Katsuyori est vaincu, mais il parvient à s'enfuir et se retire sur ses terres de Kai. Il ne laissera jamais Ieyasu tranquille et des affrontements sporadiques entre les deux clans eurent encore lieu, mais Katsuyori ne parvint jamais à reprendre le contrôle de la province de Suruga. En 1579, la femme de Ieyasu et son fils aîné Nobuyasu furent accusés de conspiration avec les Takeda. Ieyasu ordonna à son fils de se faire seppuku, sa femme fut, quant à elle, exécutée. Ieyasu et Hideyoshi. Au printemps 1582, Nobunaga est assassiné par l'un de ses vassaux, Akechi Mitsuhide. Ieyasu est, à ce moment-là, dans les environs d'Osaka et, n'étant pas en mesure d'affronter Mitsuhide, il se voit contraint de rentrer chez lui en évitant les troupes de son ennemi qui le cherche pour l'exécuter. De retour sur ses terres, Ieyasu envisage d'aller venger Nobunaga mais il est devancé par Toyotomi Hideyoshi qui a écrasé Mitsuhide à la bataille de Yamazaki. Ieyasu met ensuite à profit la mort de Nobunaga pour envahir les provinces de Kai et Shinano, les deux anciennes provinces du clan Takeda, que Nobunaga avait écrasé juste avant de mourir. Mais les Hōjō réagissent et envoient une grande armée l'en empêcher. Les deux clans ne s'affronteront pas, et passeront un accord stipulant qu'Ieyasu garde le contrôle de Kai et Shinano, tandis que les Hojo prendront le contrôle de la province de Kazusa. En 1583, une guerre éclate entre Hideyoshi et Shibata Katsuie, un autre ancien vassal de Nobunaga. Ieyasu restera neutre dans cet affrontement, préférant éviter le conflit avec Hideyoshi, qui anéantira Katsuie à la bataille de Shizugatake et deviendra ainsi le daimyo le plus puissant du Japon. En 1584, Ieyasu soutient Oda Nobukatsu contre Hideyoshi. Nobukatsu, fils de Nobunaga, voulait succéder à son père et contestait ainsi le pouvoir d'Hideyoshi. Le fait qu'Ieyasu le soutienne n'était qu'une manière de provoquer les Toyotomi, de générer un affrontement avant que la puissance d'Hideyoshi ne devienne trop grande pour qu'il soit vaincu. Ieyasu envoie donc une armée au château d'Owari. Hideyoshi répond en conduisant une armée dans la province du même nom. Les deux armées se rencontrent une première fois à la bataille de Komaki (en vérité une simple escarmouche) puis à la bataille de Nagakute, seul véritable affrontement de ce qu'on appelle aujourd'hui la campagne de Komaki. Un an plus tard, les deux daimyos décrètent une trêve sous l'impulsion de Nobukatsu, puis Ieyasu se rend en 1586 à Osaka pour y rencontrer Hideyoshi et lui faire allégeance. La paix est conclue, mais il va de soi qu'Hideyoshi n'a plus confiance en Ieyasu. De fait, celui-ci ne participera plus à aucune campagne militaire (exception faite de la campagne d'Odawara). Pendant les deux invasion de la Corée (1592 et 1597), Ieyasu sera présent au quartier général, mais n'enverra aucun homme sur place. En 1590, après avoir soumis Shikoku et les Shimazu de Kyushu, Hideyoshi attaque Hōjō Ujimasa, grand daimyo de la région de Kantō. Ieyasu envoie hommes sur place, qui se joignent à l'armée Toyotomi qui atteint alors un total de hommes. Après la prise de plusieurs châteaux frontaliers, l'armée met le siège devant le château d'Odawara où les Hōjō se sont enfermés. Le siège durera six mois aux termes desquels il sera pris. Les chefs Hōjō se suicident et Hideyoshi offre à Ieyasu de prendre le contrôle de leurs provinces en échange des cinq qu'il possède (Mikawa, Totomi, Suruga, Shinano, Kai). Ieyasu accepte et emménage sur ses nouvelles terres. Après leur disparition, Date Masamune, daimyo de la province septentrionale de Sendai, devient le dernier daimyo indépendant du Japon ; ses terres sont éloignées de celles d'Hideyoshi. Il se soumettra quelque temps après. Ieyasu hérite donc des provinces Hōjō, plus riches que celles qu'il possédait auparavant. Il établit sa capitale à Edo (actuelle Tokyo) mais ce faisant il s'éloigne d'Hideyoshi et donc du centre politique du pays, ce qui était probablement l'objectif de Toyotomi. Cet éloignement lui permet également d'éviter de participer à l'invasion de la Corée entre 1592 et 1597 et ainsi d'économiser son armée ce qui contribue à lui donner un avantage à Sekigahara quelques années plus tard contre les autres généraux d'Hideyoshi dont le réservoir de troupes avait été entamé pendant cette campagne qui fut coûteuse en hommes. Après la mort de Hideyoshi Toyotomi en 1598, le combat commence presque immédiatement entre les 5 régents qu'il avait mis en place pour gérer la minorité de son fils Hideyori Toyotomi (né en 1593). Ieyasu Tokugawa, membre éminent de ce conseil et ancien lieutenant important de Nobunaga Oda, prend rapidement l'avantage. Il obtint, en 1600, le soutien de la moitié des daimyos en écrasant une coalition de rivaux dans l'ouest du Japon au cours de la bataille de Sekigahara et devint, "de facto", le dirigeant du pays. Il fait épouser à Hideyori sa petite-fille, Senhime, âgée de sept ans, puis s'en débarrassera définitivement en 1615, prétextant un différend au sujet d'une inscription dans un temple. Le premier shogun Tokugawa. En 1603, après s'être fait attribuer le titre de shogun (chef des armées), il fit du village de , où il avait établi ses quartiers généraux, la nouvelle capitale. Edo deviendra Tokyo (« capitale de l'Est ») à partir de l'Ère Meiji. Ieyasu était donc le premier shogun de la dynastie des Tokugawa, qui règnera sur le Japon jusqu'en 1868 (révolution Meiji). En 1614, le clan Toyotomi reconstruit le château d'Osaka et un sanctuaire proche, incluant une cloche, sur laquelle se trouve une inscription disant : « Puisse l'État être pacifique et prospère ; à l'Est il salue la pâle lune, et dans l'Ouest fait ses adieux au soleil couchant. » Ieyasu, installé à Edo, qui est situé à l'est, interprète ceci comme une insulte, et la tension commence à grimper entre les deux clans. Cela empire lorsque Hideyori commence à rassembler une force composée de rōnins et d'ennemis des Tokugawa à Osaka. Ieyasu décide alors d'empêcher cette force grandissante, et y envoie . Ainsi débute la campagne d'Osaka, série de batailles livrées par le shogunat Tokugawa afin de détruire le clan Toyotomi. C'est en 1615 que le siège aboutira avec la défaite de Hideyori, qui se fait seppuku dans son château, à l'issue de la bataille de Tennōji, mettant fin au clan Toyotomi et ouvrant la voie à deux cent cinquante ans de shogunat Tokugawa. À sa mort, Ieyasu a été enterré à Sunpu (maintenant Shizuoka) dans le sanctuaire appelé Kunōzan Tōshō-gū, puis son corps a été déplacé à Nikkō. Le mausolée de Tokugawa Ieyasu se situe dans le sanctuaire Tōshō-gū, sis à Nikkō (日光) (à plus ou moins au nord de Tokyo). La personnalité de Ieyasu. Le seigneur Ieyasu avait de nombreux atouts qui lui ont permis d'accéder au pouvoir. Il n'était pas très apprécié du peuple mais était craint et respecté pour son charisme et sa ruse. Il était calculateur et subtil et a souvent modifié ses alliances au moment où cela l'arrangeait. Il s'est d'abord allié à Shingen Takeda puis changea d'avis et fut responsable de la mort de Shingen et de son fils. Il s'est allié au clan Hōjō puis rejoint l'armée d'Hideyoshi qui le détruisit et c'est Ieyasu qui récupéra leur territoire. Ce genre de comportement était courant dans une période de violence, de mort soudaine et de trahison. Il était capable d'une grande loyauté. Une fois allié à Oda Nobunaga, il ne se dressa jamais contre lui et les deux chefs profitèrent de leur longue alliance. Il était connu pour son dévouement envers ses amis et ses vassaux qu'il récompensait. Toutefois, il était rancunier. On dit que, devenu puissant, il a exécuté un homme qui l'avait insulté pendant sa jeunesse. Ieyasu protège de nombreux anciens obligés des Takeda de la colère d'Oda Nobunaga, qui était connu pour nourrir une rancune amère envers les Takeda. Il réussit à transformer avec succès un grand nombre de vassaux des clans Takeda, Hōjō et Imagawa en partisans. Ieyasu est connu pour être impitoyable. Il ordonne également personnellement à ses hommes d'exécuter le jeune fils encore enfant de Hideyori, Kunimatsu. Il ordonne l'exécution de chaque soldat trouvé qui a participé à la défense du château d'Osaka. Des dizaines de milliers de samouraïs auraient été tués, leurs têtes fichées sur des planches de bois qui bordent la route de Kyoto jusqu'à Fushimi. Son manque de compassion n'est pas particulièrement rare pour son temps et peut être attribué à son éducation au milieu des guerres, des assassinats et de la violence continue. Une citation de Ieyasu tel que représenté dans le film "Rikyu" résume à peu près sa vision de la vie : « La vie signifie que je peux vivre pour voir demain. » Le passe-temps favori de Ieyasu est le colportage. Il le considère comme une excellente formation pour un guerrier. « Quand vous allez colporter dans le pays, vous apprenez à comprendre l'esprit militaire et aussi la vie difficile des classes inférieures. Vous exercez vos muscles et entraînez vos membres. Vous avez une quantité de marche et de course et devenez indifférent à la chaleur et froid et ainsi vous êtes peu susceptibles de souffrir d'une maladie. » Ieyasu a souvent nagé ; même à la fin de sa vie, il aurait nagé dans les douves du château d'Edo. Plus tard, il se tourne vers l'érudition et la religion et se fait mécène de savants célèbres comme Hayashi Razan. Deux de ses citations célèbres : Il affirme s'être battu comme guerrier ou général en quatre-vingt-dix combats. Selon certaines sources, Ieyasu était connu pour avoir l'habitude de se ronger les ongles quand il était nerveux, en particulier avant et pendant la bataille. Il s'est intéressé à divers compétences "kenjutsu" et était un défendeur de l'école Yagyū Shinkage-ryū et employait aussi certains d'entre eux comme ses instructeurs personnels d'épée. La politique de Ieyasu. Sous son emprise, la société japonaise se replie : les frontières sont fermées et seuls les vaisseaux de la Compagnie néerlandaise des Indes orientales sont autorisés à commercer dans le comptoir de l'île de Dejima, à l'entrée du port de Nagasaki. Une austère idéologie néo-confucéenne est prônée, reposant sur une stricte séparation des classes sociales, et l'interdiction de tout signe ostentatoire de richesse. La fonction shogunale devient même héréditaire afin de décourager les éventuelles prétentions des grands seigneurs féodaux (les "daimyos"). Il crée une nouvelle capitale administrative à Edo (actuelle Tôkyô), siège du shogunat. Ce n'était qu'un village de pêcheurs, mais en 1635 il impose à tous les daimyos d'y résider une année sur deux, tandis que leur famille doivent y résider en permanence. Descendance de Tokugawa Ieyasu. Dans ses relations personnelles, Ieyasu manifeste le même tempérament que celui qu'il a avec des étrangers. Il eut dix-neuf femmes et concubines, qui lui donnèrent onze fils et cinq filles. Il prit grand soin de ses enfants et petits-enfants, et fit de trois d'entre eux, Yorinobu, Yoshinao, et Yorifusa les daimyos respectifs des provinces de Kii, Owari et Mito. Il pouvait aussi être extrêmement dur : il ordonna l'exécution de sa première femme et de son fils aîné. |
Théodore Agrippa d'Aubigné Théodore Agrippa d'Aubigné, né d’Aubigny le au château de Saint-Maury près de Pons, et mort le à Genève, est un homme de guerre, écrivain controversiste et poète baroque français. Il est notamment connu pour "Les Tragiques", poème héroïque racontant les persécutions subies par les protestants. Calviniste intransigeant, il soutient sans relâche le parti protestant, se mettant souvent en froid avec le roi Henri de Navarre, dont il fut l'un des principaux compagnons d'armes. Après la conversion de celui-ci, il rédigea des textes qui avaient pour but d'accuser Henri IV de trahison envers l'Église. Chef de guerre, il s'illustra par ses exploits militaires et son caractère emporté et belliqueux. Ennemi acharné de l'Église romaine, ennemi de la cour de France et souvent indisposé à l'égard des princes, il s'illustra par sa violence, ses excès et ses provocations verbales. Biographie. Jeunesse. Théodore Agrippa est né à Saint Maury près de Pons, en Saintonge. Il est le fils du juge Jean d’Aubigné, d'origine roturière, et Catherine de L’Estang, de petite noblesse, qui meurt en lui donnant la vie. On l’appelle ainsi "Agrippa", parce qu’il a été enfanté avec peine. Agrippa est baptisé dans la religion catholique, mais est élevé dans la religion calviniste. Son père Jean, converti au calvinisme, prend part au soulèvement protestant et participe aux opérations de la conjuration d'Amboise sous les ordres de Tanneguy du Bouchet, dit Saint-Cyr, chef militaire protestant du Poitou. En , alors qu'il passe par Amboise avec son fils, il lui aurait fait jurer de venger la mort de ses compagnons. Sous la férule de précepteurs calvinistes, Agrippa apprend entre autres disciplines, le latin, le grec et l'hébreu. En , pour ses études, Jean installe Agrippa à Paris chez Mathieu Béroalde. Deux mois plus tard, la guerre est déclenchée et un arrêt ordonnant l'expulsion des protestants, Agrippa quitte la ville avec son professeur. Sur le chemin, ils sont arrêtés et emprisonnés par des pillards catholiques. Mais, ils parviennent à s’échapper grâce à un complice, et gagnent Montargis, où les accueille Renée de France. Ils séjournent ensuite à Orléans, où Agrippa est atteint de la peste, dont il guérit. Il se rompt aux armes, et assiste au siège d’Orléans au cours duquel meurt son père. Envoyé à Genève en , Agrippa y poursuit ses études sous la protection de Théodore de Bèze. Un an plus tard, il est contraint de fuir la ville du fait de son implication dans une histoire de mœurs : il accuse son condisciple Bartholomé Tecia de tentative de « bougrerie » sur sa personne. Tecia est condamné et exécuté par noyade. Lorsque éclate la deuxième guerre de religion, en 1567, il s’engage sans hésiter dans le régiment protestant d'Asnières ou en tant qu'enseigne, il mène les enfants perdus. Absent, à la suite d’un duel, de Paris durant la Saint-Barthélemy, il échappa au massacre, mais en garda néanmoins une rancune tenace contre la monarchie. "Les Tragiques" conservent la trace des visions d’horreur dont il fut le témoin. Au service du roi de Navarre. À la cour des Valois. Quelque temps après la Saint-Barthélemy, il retourne à la cour de France où il se lie avec le roi de Navarre, futur Henri IV, et devient son écuyer (). Il a vingt-et-un ans. À cette époque, Henri de Navarre est assigné à résidence à la cour et placé sous une étroite surveillance. On ignore si, comme lui, Aubigné a feint d'être catholique. Toujours est-il qu'il participe à la tentative d'évasion de son maître lors des évènements de la conjuration des Malcontents. L'affaire échoue, et Henri de Navarre doit donner des gages de sa soumission en écartant ses serviteurs les plus suspects et en envoyant ses hommes combattre les troupes protestantes. Aubigné se retrouve alors enrôlé à plusieurs reprises dans l'armée catholique. Dans son "Histoire universelle", Aubigné écrit : Guidon du seigneur de Fervaques, il combat les protestants en Normandie, puis à la bataille de Dormans, où il se lie d'amitié avec le duc de Guise. À la cour où il côtoie les plus grands, il fait figure de courtisan accompli. Apprécié pour son intelligence et son esprit mordant, il aurait fait partie de l'Académie de musique et de poésie qui siège au Palais du Louvre. Amateur des mascarades et des joutes, il invente des divertissements de cour et se fait connaître comme expert en magie. C'est aussi un querelleur courant sans cesse après les duels. Le , il assiste, « à l’exécution du comte de Montgommery sur la place de Grève, qui le salua, lui et Fervaques avant de mourir. Il fait partie des compagnons du roi de Navarre lorsque ce dernier fuit la cour le . À la cour de Nérac : entre faveur et disgrâce. Cette amitié entre le futur roi et son écuyer dure plusieurs années, Henri de Navarre lui confiant de nombreuses missions. Mais de caractère emporté et intransigeant, il se brouille à de nombreuses reprises avec son maître, auquel il reproche de ne pas être suffisamment attaché à la cause protestante, l'accusant de trop favoriser les catholiques de son entourage. Alors qu’Henri de Navarre, porté à la conciliation, ménage la cour de France, il appelle à la poursuite de la lutte. Après la signature de la paix de Poitiers qu'il condamne, il quitte une première fois son maître, en 1577. Grièvement blessé à Casteljaloux, il se retire pendant deux ans sur ses terres aux Landes-Guinemer dans le Blaisois où il se met à écrire. Selon la légende qu’il a lui-même forgée bien plus tard, c’est à Casteljaloux que, alors qu'il était entre la vie et la mort, lui seraient venues les premières « clauses » de son grand poème épique sur les guerres de religion, "Les Tragiques". Aubigné retourne à la cour de Navarre en 1579. En 1582, il est au plus mal avec la reine Marguerite de Valois qui demande à son époux de l'éloigner. Ses relations avec Diane d'Andoins, maîtresse du roi, ne sont pas meilleures. En 1588, il déconseille au roi de se séparer de son épouse légitime pour épouser sa maîtresse. Entretemps, il a épousé Suzanne de Lusignan de Lezay, au château de Bougouin à La Crèche, en 1583. Les dernières désillusions. Pendant les guerres de la Ligue, il s'illustre de nouveau au combat. Il participe à la bataille de Coutras que remporte Henri sur l'armée royale en 1587. Henri de Navarre le nomme maréchal de camp en 1586, puis gouverneur d’Oléron et de Maillezais, qu’il avait conquis par les armes en 1589, puis vice-amiral de Guyenne et de Bretagne. Après l’assassinat du duc de Guise en 1588, il reprend part aux combats politiques et militaires de son temps. Il est alors le représentant de la tendance dure du parti protestant (« les Fermes ») et voit d’un mauvais œil les concessions faites par le chef de son parti pour accéder au trône. Comme de nombreux protestants, d’Aubigné ressent l’abjuration d’Henri IV, en 1593, comme une trahison. Les divergences politiques et religieuses finissent par le séparer du roi. Il est peu à peu écarté de la cour, dont il se retira définitivement après l’assassinat d’Henri IV en 1610. À partir de 1620, sa tête est mise à prix, il s’exile définitivement et en secret grâce à son ami d'enfance Jean d'Harambure dit le Borgne à Genève. Aubigné et Henri IV ne se doutaient pas que leurs petits-enfants respectifs, Louis XIV et Françoise d’Aubigné, s'uniraient en 1683. Retraite et exil. En 1611, à l’Assemblée des églises protestantes de Saumur, D’Aubigné, élu pour le Poitou, ridiculise le parti des « Prudents » dans "Le Caducée ou l’Ange de la paix". Il semblerait que c’est à cette période qu’il se tourna vers l’écriture de ses œuvres, et en particulier des "Tragiques". Mais ce n’est pour lui qu’un autre moyen de prendre les armes, en multipliant les pamphlets anti-catholiques et les attaques polémiques contre les protestants convertis. De son premier mariage avec Suzanne de Lusignan de Lezay, d'une branche cadette de l'illustre maison de Lusignan, il a un fils, Constant, père de Françoise d’Aubigné, la future marquise de Maintenon, et deux filles, Louise Arthémise de Villette et Marie de Caumont d’Adde (1586-1624). Son fils Constant d'Aubigné lui causa les plus grandes déceptions de sa vie. À sa grande horreur, ce dernier abjura le protestantisme en 1618 pour mener une vie de débauche dans le château paternel de Maillezais et de malversation, avant de tuer sa première femme, surprise en flagrant délit d’adultère dans une auberge, et de se remarier en prison à Jeanne de Cardilhac. Cette dernière donnera naissance à Françoise d'Aubigné (qui deviendra marquise de Maintenon et maîtresse puis épouse du roi de France Louis XIV). Il le déshérita, plongeant du même coup sa belle-fille et ses petits-enfants dans la misère. Après la mort de son épouse en 1596, d'Aubigné eut un fils naturel avec Jacqueline Chayer, Nathan d'Aubigné, ancêtre de la famille suisse des Merle d'Aubigné. Refusant tout compromis, d’Aubigné est contraint de quitter la France, en 1620, après la condamnation de son "Histoire universelle depuis 1550 jusqu’en 1601" par le Parlement. Il se retire alors à Genève, où est publié l’essentiel de ses œuvres. Il y épouse, en 1623, Renée Burlamacchi, petite-fille du Lucquois Francesco Burlamacchi, et y meurt sept ans plus tard. Agrippa d’Aubigné meurt à Jussy le 9 mai 1630, à l’âge de 78 ans. L’œuvre littéraire. Méconnu de ses contemporains, il fut redécouvert à l’époque romantique, notamment par Victor Hugo, puis par le critique Sainte-Beuve. En 1976, dans une chanson polémique et anticolonialiste, "Un air de liberté", Jean Ferrat le mentionne : Son œuvre la plus connue est son recueil "Les Tragiques". Mais d'Aubigné n’est pas l’auteur d’une seule œuvre. "Le Printemps" est un recueil de sonnets, de stances et d’odes qui reprend la lyrique pétrarquiste sur les tons opposés de la rage du désespoir et d'une fantaisie plus légère. Le premier recueil de sonnets du "Printemps", "L'Hécatombe à Diane", est dédié à Diane Salviati, jeune fille qu'il aimait et qu'il n'a pas pu épouser à cause de la différence de religion. À la fin de sa vie, les "Petites œuvres meslees" associent des "Méditations sur les Psaumes" et des poésies religieuses. L’essentiel de son œuvre est polémique. D'Aubigné, engagé dans les combats de son époque, cherche ainsi à discréditer les vanités de la cour royale et la religion catholique dans la "Confession du Sieur de Sancy" et "Les Aventures du baron de Faeneste". Son "Histoire universelle" est aussi, malgré son titre, une œuvre engagée, destinée à justifier l'autonomie politique et militaire des protestants français. Il publie aussi de nombreux opuscules politiques. Il est l'inventeur de la formule qu'il met dans la bouche d'Henri IV sur le champ de bataille d'Ivry : « Ralliez-vous à mon panache blanc », qui est ensuite complétée par Hardouin de Péréfixe puis par Voltaire. À la fin de son existence, il écrit ses mémoires sous le titre "Sa vie à ses enfants" (Constant, Marie et Louise), pour leur montrer « sa gloire » et « ses fautes » et leur être par là-même un exemple profitable. |
Tantō Apparu au cours de l'ère Heian, le est un sabre court faisant partie de la famille des sabres japonais. Il a la forme d'un "katana" légèrement courbe à un seul ou double tranchant dont la taille de la lame est inférieure à (un "shaku", unité de mesure des longueurs japonaises). Description. La structure du "tantō" est identique à celle d'un "katana", à la différence près qu'il est bien plus court et souvent moins courbé. En général, la section est "hira-zukuri" (les flancs de la lame sont plats), "unokubi-zukuri" (la partie supérieure des flancs de la lame subit un rétreint, environ du premier tiers de la lame jusqu'au "yokote", arête définissant le commencement de la pointe) ou "kanmuri-otoshi-zukuri" (même conception que sur la section "unokubi-zukuri" mais avec un rétreint se prolongeant jusqu'à la pointe de la lame, formant dans certains cas un contre-tranchant affûté). Il est l'équivalent d'un poignard ou d'une dague japonaise. Selon sa monture, il peut être appelé "tantō" (s'il est glissé dans la ceinture) ou "kaiken" (s'il est caché dans les vêtements). Il se différencie du "aiguchi" par la présence d'une garde ("tsuba"). En vérité, "aiguchi" n'est pas le nom d'un couteau mais le nom d'une monture. La monture standard est "buke-zukuri" : une garde est présente, une tresse de soie ou de coton ("sageo") sert à attacher le fourreau à la ceinture. La monture "aiguchi" est une monture épurée, où le couteau n'a pas de garde (ou, du moins, son diamètre est égal à celui de la poignée, si bien qu'elle n'est pas proéminente) et où le "sageo" est inexistant dans la majorité des cas. Le "tantō" était principalement porté par les samouraïs, et il était rare que les gens ordinaires en possédassent un. Les femmes portaient souvent sur elles un "kaiken" dans leur obi, dans un but d'auto-défense. Le "tantō" était aussi utilisé lors du suicide rituel (seppuku). |
Tachi Le tachi (太刀 ou plus ancien 大刀) est un sabre possédant une lame courbe d'environ , précurseur du sabre japonais classique. C'est principalement une arme de cavalerie. Étymologie. Le terme « "tachi" » provient probablement du verbe « "tachikiru" » (断ち切る) signifiant « couper en deux ». Il apparaît pour la première fois dans le "Tōdai-ji kenmotsuchō" (registre des objets possédés par l'empereur). La combinaison de kanjis peut se traduire par : Caractéristiques. Le "tachi" diffère du "katana" par plusieurs caractéristiques : D'un point de vue purement métallurgique, les anciens "tachi" ne peuvent rivaliser de qualité avec celle des lames ultérieures. Cela est dû au fait que les sabres japonais sont faits en "tamahagane", à base de "satetsu" (sables de fer), moins pur, avec une teneur en carbone inférieure à celle de l'acier eurasiatique et de l'acier moderne. Il ne reste que peu de lames de cette période, et la plupart ayant été entreposées dans des conditions relativement mauvaises, elles sont aujourd'hui dans un état qui ne nous permet pas leur juste appréciation. Cependant, ces lames restent d'une importance historique non négligeable et sont exposées dans de nombreux musées à cet effet. Différents types de "tachi". Les "tachi" sont généralement recoupés en deux groupes par les Japonais, les "kazaritachi" (litt. « "tachi" de décoration ») et les "jintachi" (litt. « "tachi" de guerre »). Étymologiquement, le terme "tachi"/"tachikiru" est proche de "mapputatsu", il signifie « ouvrir en deux », « trancher quelque chose ». En réalité, les "kazaritachi" sont, un peu comme en Occident, des épées de cérémonie, principalement utilisées à la cour impériale par les "kuge" et plus rarement par les "buke" de haut rang lors de visite au palais impérial de Kyoto. Le terme désigne avant tout la monture, souvent d'un raffinement extrême, avec de l'or et des perles, le "samehada" recouvrant le bois de la "tsuka" est généralement non recouvert de soie, et le "tsuba" est typiquement un "kara-tsuba" (interprétation japonaise d'une garde d'épée chinoise) luxueux. La lame en elle-même n'a rien à voir avec cela. Les "jintachi", à l'inverse, avaient une monture plus sobre et plus pratique, orientée pour le champ de bataille. Ils sont plus proches des "katana", et sont favorisés par les cavaliers samouraïs, et donc, souvent portés par les samouraïs de haut rang jusqu'à l'époque Sengoku (le "daisho" est standardisé au tout début de l'époque Edo). C'est donc le type de sabre que tendent à porter les daimyos et les généraux samouraïs. En d'autres termes, les "jindachi" se basent esthétiquement sur une beauté formelle, sobre et fonctionnelle, tandis que les "kazaridachi" visent à montrer le rang nobiliaire, donc sa dignité, et la puissance de son porteur. Il existe en Occident une grave mésinterprétation du mot « "jintachi" », et l'on trouve sur le web parfois des lames avec une poignée à la courbure étrange, serpentine. Il s'agit là de pure divagation fantaisiste. Les "jintachi" sont des "tachi" on ne peut plus normaux. En général, la courbure d'un "tachi" est de type « "koshizori" » (courbure accentuée sur le premier tiers de la lame, près de la garde) tandis que les "katana" ont généralement une courbure plus égale dite "chūzori" ou parfois une courbure de type "sakizori", typique des "uchigatana". Ce sont les trois principaux types de courbures. S'il existe aussi des "tachi" dont la poignée se recourbe légèrement vers le pommeau , la courbure en S marquée associée aux "jintachi" est purement fantaisiste et sans aucune base historique quelconque. Avant la standardisation des dimensions du "katana", opérées lors de l'époque Edo, le "tachi" pouvait avoir une "nagasa" allant de à , au-delà on parlait d"odachi" ou de "nodachi". Ainsi, certaines écoles "koryu" "bujutsu" prévoient dans leurs cursus le maniement de l"odachi", tels que l'antique "Kage-ryu" ou le "Koden Enshin-ryu", célèbre pour le maître Tanaka Fumon qui manie des sabres mesurant ou de longueur supérieure. Les "nodachi" les plus longs sont des avec une "nagasa" supérieure à , souvent utilisés comme offrandes pour les dieux japonais. Ainsi, le "tarōtachi" de Makara Naotaka, avec une "nagasa" de (pour un poids de ). "Nenekirimaru", forgé pendant la période Nanboku-chō, possède une "nagasa" de (longueur de lame) et un "zenchō" de (全長, longueur totale). Un sabre signé "Ho Norimitsu" mesure de "nagasa" et a un "zenchō" de : il peut aussi bien être utilisé comme "nodachi" que monté en "naginata". Ces trois exemples sont des "odachi" (bien que l'on puisse aussi parler de "ō-ōdachi"…) mais ce ne sont pas des "jintachi". |
The Clash The Clash est un groupe britannique de punk rock, originaire de Londres, en Angleterre. Il s'agit d'un des quatuors majeurs de l'histoire du rock et du punk rock britannique. Le groupe commence sa carrière en 1976 et se dissout en 1986. En 2003, la formation entre au "Rock and Roll Hall of Fame". Ses personnalités les plus importantes sont Joe Strummer et Mick Jones, tous deux à la guitare et au chant, ainsi que le bassiste Paul Simonon et le batteur Topper Headon. Le style du groupe, rattaché au mouvement punk, se caractérise par un rock contestataire où les textes, « habités d'un élan anarchiste », jouent un rôle primordial. Ce groupe se caractérise également par sa capacité à intégrer à sa musique des sonorités variées en puisant à la source des racines musicales de ses membres, parmi lesquelles le punk rock, le rock, le rockabilly, le reggae, le ska ou encore le dub. Historique. Débuts et succès britannique (1976–1978). À l'origine composé de Joe Strummer, Mick Jones, Paul Simonon, Keith Levene et Terry Chimes (crédité sous le nom de Tory Crimes, un jeu de mots, sur leur premier LP), The Clash se forme à Ladbroke Grove, dans la banlieue ouest de Londres, en 1976, pendant la première vague du punk britannique. Après l'échec de leur groupe punk au nom provocateur London SS, avec Tony James (futur Generation X), Jones et Simonon recrutent Joe Strummer, sur les conseils de leur manager Bernie Rhodes, en lui expliquant qu'il . Strummer, de son vrai nom John Graham Mellor, légèrement plus âgé qu'eux, est alors le chanteur et guitariste des The 101'ers, un groupe de pub rock à la renommée naissante. Après deux jours de réflexion, il accepte, séduit par l'énergie et le potentiel offert par ce nouveau mouvement musical grâce à un concert des Sex Pistols. De son côté, Keith Levene (qui intégrera plus tard Public Image Limited), un ami de Mick Jones, les rejoint en tant que guitariste et compositeur au sein du groupe. . Cette phrase insérée au verso de la pochette de "The Clash" par Sebastian Conran résume le sens profond du nom du groupe trouvé par Paul Simonon, peu après l'arrivée de Terry Chimes. Le mot étant régulièrement cité dans le journal "Evening Standard", Paul Simonon décide de le proposer aux autres membres, qui approuvent l'idée. Le , le Clash se produit en première partie des Sex Pistols à Sheffield. Ils interprètent "Janie Jones", "London's Burning" et "1977", montrant un goût certain pour le pur style punk au détriment de la diversité des mélodies. Présent sur place, Charles Shaar Murray, journaliste du "New Musical Express", écrit plus tard dans sa critique : . Le groupe répond malicieusement à cette attaque en composant "Garageland". À l'automne, ils participent au festival punk du 100 Club, puis signent chez CBS Records. Keith Levene est renvoyé début septembre pour manque de motivation et ne participe pas au premier album du groupe, bien qu'il y soit crédité. Terry Chimes quitte le groupe à la fin novembre de la même année, et est brièvement remplacé par Rob Harper pour la tournée "Anarchy Tour" de . Finalement, il revient participer au premier album. Ils publient le single "White Riot" / "1977", et leur premier album, l'éponyme "The Clash", en 1977. Le succès est rapidement au rendez-vous au Royaume-Uni. À cette période, cependant, CBS ne distribue pas l'album aux États-Unis, et attend l'année 1979 pour y sortir une version modifiée (sans le titre "I'm So Bored with the USA") qui deviendra l'album importé par un groupe britannique le mieux vendu dans le pays. Après la sortie de ce premier album, Chimes quitte définitivement le groupe d'un commun accord, en raison de divergences personnelles avec les autres membres. L'album est très bien accueilli par la presse spécialisée, et se classe des meilleures ventes à sa sortie. Dans le neuvième numéro de "Sniffin' Glue", Mark Perry, qui a pourtant critiqué le groupe pour sa signature chez CBS, est enthousiaste. Il écrit dans sa chronique : Après une période de tests avec différents batteurs, le choix s'arrête finalement sur Nicholas Bowen Headon, surnommé « Topper » Headon par le groupe en raison de sa ressemblance avec un singe de dessin-animé. Doué, Topper sera même surnommé The Human Drum Machine par le producteur de "Give 'Em Enough Rope", Sandy Pearlman, grâce à sa synchronisation impeccable. Ce musicien doté d'un don pour la batterie a en réalité prévu de ne rester que brièvement dans le groupe, le temps pour lui de se faire une réputation avant de rejoindre un meilleur groupe. Mais, face au potentiel de son groupe actuel, il change ses plans et décide de rester. Le , ils jouent au festival punk de Mont-de-Marsan. Au départ, les membres de The Clash se font connaître par leur vision politique révolutionnaire et véhémente, accompagnée d'un look novateur. Leurs vêtements, caractéristiques, reconstitués et peints par eux-mêmes dans le style « éclaboussure » de Jackson Pollock, arborent des slogans révolutionnaires tels que , , . Pendant l'année 1977, Strummer et Jones connaissent des ennuis avec la police pour une série de délits mineurs allant du petit vandalisme au vol, tandis que Simonon et Headon sont brièvement arrêtés pour avoir tiré sur des pigeons voyageurs avec des pistolets à air comprimé du toit de leur studio d'enregistrement. Cette dernière histoire est d'ailleurs la source d'inspiration de la chanson "Guns on the Roof" (1978). Succès américain (1978–1982). Le deuxième album du groupe, intitulé "Give 'Em Enough Rope", est produit par Sandy Pearlman. Le batteur Topper Headon y est crédité sur tous les titres. L'album sort en 1978 et atteint la deuxième place des classements britanniques, mais il échoue à entrer dans le Top 100 américain. Au Royaume-Uni, l'accueil des critiques est mitigé. La production est jugée trop lisse en comparaison de l'excitation brute du premier album. Cependant, le public britannique lui réserve un accueil favorable. Les Clash obtiennent leur premier titre à succès, "Tommy Gun". "Give 'Em Enough Rope" est le premier album du groupe qui sort officiellement aux États-Unis. D'ailleurs, le groupe effectue sa première tournée américaine, appelée "Pearl Harbour Tour", en son soutien au début de l'année 1979. Peu après, en , leur premier album sort à son tour officiellement aux États-Unis, mais sans les titres "48 Hours", "Cheat", "Protex Blue" et "Deny", qui seront remplacés par quelques singles sortis entre l'album original de 1977 et "Give 'Em Enough Rope". "The Clash" contient donc en plus une version de "I Fought the Law" de Sonny Curtis (qui sortira plus tard sur leur EP "The Cost of Living"), "Clash City Rockers", "Complete Control" et "(White Man) In Hammersmith Palais". Le troisième album, "London Calling", un double album, vendu au prix d'un simple sur l'insistance du groupe, sort en 1979 et reste le sommet de leur succès commercial. Au départ, il est accueilli au Royaume-Uni avec suspicion par leurs premiers fans, du fait que les doubles albums étaient généralement associés aux groupes de rock progressif. Ouvrant la musique punk sur d'autres univers, il offre une plus large palette de styles et d'influences musicaux que les albums précédents, parmi lesquels le rockabilly à la sauce américaine et le reggae jamaïcain qui faisait écho aux styles dub et ska populaires au Royaume-Uni. Accompagné à l'époque d'un autocollant annonçant the Clash comme , l'album est considéré depuis comme l'un des meilleurs qu'un groupe de rock ait jamais produit, cité de la liste des 500 plus grands albums de tous les temps établie par le magazine "Rolling Stone". Il atteint également la première place du classement des 25 albums des 25 dernières années de "Entertainment Weekly". Les titres qui le composent, tels que "Train in Vain", "Clampdown" et "London Calling", sont encore régulièrement diffusés sur les ondes des chaînes de radio. Lors de sa sortie, "Train in Vain" devient le premier tube du groupe à se classer dans le Top 40 américain, bien qu'il soit au départ un titre caché sur le vinyle original car ajouté trop tard en fin de sessions d'enregistrement. La police de caractères utilisée sur la pochette est un hommage au premier RCA LP éponyme d'Elvis Presley, tandis que la photo prise par Pennie Smith montre un Paul Simonon frustré fracassant sa guitare basse contre le sol lors du show au Palladium de New York en 1979. Selon Simonon, qui au départ était contre l'utilisation de cette photo sur la pochette, il s'agit de la seule fois où il cassa une guitare sur scène. Cette basse est aujourd'hui au musée "Rock and Roll Hall of Fame", avec la légende . À la fin de l'année 1980, The Clash, après la sortie du double album "London Calling", sort le triple album intitulé "Sandinista!" (avec le numéro de catalogue FSLN1 pour les initiales espagnoles du mouvement politique nicaraguayen Sandinista : ). Une nouvelle fois, le groupe insiste pour que l'album se vende au même prix qu'un album simple, payant la différence en baissant ses propres royalties. Explorant divers styles musicaux, "Sandinista!" reçoit, de la part des critiques et des fans, des réactions très opposées. Si certains trouvent l'album confus, dispersé et très complaisant, il atteint tout de même le sommet de la liste "Pazz and Jop" des meilleurs albums de l'année selon "The Village Voice". Enregistrant chaque idée qu'ils ont, les membres du groupe deviennent moins intéressés par la conception traditionnelle du punk que par leurs expérimentations dans le reggae et le dub ("One More Time") et élargissent leur spectre musical avec le jazz ("Look Here"), le hip-hop ("The Magnificent Seven"), la musique de chambre ("Rebel Waltz"), le gospel ("Hitsville UK" et "The Sound of the Sinners"), et le chant du bébé de Mickey Gallagher, le claviériste jouant le synthétiseur. Bien que les fans soient troublés et que les ventes chutent en Angleterre, le groupe fonctionne plus aux États-Unis que précédemment, principalement en surfant sur le précédent succès de "London Calling". À la suite de la sortie de "Sandinista!", The Clash fait sa première tournée mondiale, avec des dates en Asie de l'Est et en Australie. C'est à ce moment que la combinaison du calendrier démentiel de la tournée et l'enregistrement d'un nouvel album laisse apparaître de plus en plus de frictions au sein du groupe. Tensions et séparation (1982–1983). Les tensions et conflits au sein du groupe, spécialement depuis que le batteur du groupe, Topper Headon, est devenu instable à cause de son addiction à l'héroïne, mènent à une séparation. Cependant, en pleine tournée, le groupe réussit à enregistrer un album supplémentaire, "Combat Rock", qui devient même sa meilleure vente mondiale. Avec des titres tels que "Rock the Casbah" et la double face A "Should I Stay or Should I Go"/"Straight to Hell", le disque entre en force dans les hit-parades américains et britanniques. À cette période, l'unité de The Clash commence à s'effriter. Il est demandé à Topper Headon de quitter le groupe juste avant la sortie de ce cinquième album. Le batteur du groupe est alors incapable de faire face à sa toxicomanie continue, qui a un impact négatif à la fois sur sa santé, sur sa technique de batterie, et sur un absentéisme devenant problématique. La véritable raison du départ de Headon est cachée par Bernie Rhodes qui parlera d'une divergence de point de vue politique. Le batteur des débuts, Terry Chimes, est recruté pour les mois qui suivent. La tournée "Combat Rock" est paradoxalement un énorme succès. En partie avec la première partie de la tournée d'adieu de The Who, le groupe joue dans les plus grands stades américains (JFK Stadium de Philadelphie, Pontiac Silverdome de Détroit, Shea Stadium de New York, Coliseum d'Oakland…). À cette époque, après une période de recherche d'identité vestimentaire et capillaire, Joe Strummer arbore une crête iroquoise, symbole alors quelque peu démodé des punks, et relance la mode chez la « génération MTV ». La perte de Headon, membre fédérateur et apprécié de tous, apporte beaucoup de frictions au sein du groupe. Jones et Strummer commencent à se quereller sans cesse, bien qu'il ait parfois été dit que cette animosité venait du fait que Bernie Rhodes n'aimait pas Jones, le trouvant arrogant, et qu'il aurait monté Strummer contre celui-ci. Les membres du groupe communiquent à peine, s'évitant même du regard, aussi bien lors des concerts qu'en coulisses. À la veille de la tournée au Royaume-Uni, Joe Strummer disparaît, obligeant le groupe à annuler les premières dates. The Clash continue néanmoins à tourner, mais en 1983, après des années de tournées et d'enregistrements continus, en paie le prix. Bien qu'ayant mûri en tant que musiciens et individus, les membres sont encore assez jeunes (Paul Simonon et Mick Jones ont seulement 26 et 27 ans, Strummer 30) et ne savent pas faire face à de telles situations difficiles et tendues. Simonon, un ami de longue date de Jones, se rapproche plus de Strummer parce qu'il est frustré par les expérimentations musicales de Mick Jones. Chimes claque la porte après le "Combat Rock Tour" de 1982-1983, convaincu qu'il ne peut continuer à supporter les incessantes querelles internes entre membres. En 1983, après une recherche intensive, le nouveau batteur Pete Howard est recruté et accompagne le trio sur scène pendant plusieurs dates américaines au style dépouillé et finalement au festival de San Bernardino, Californie. Tête d'affiche du festival aux côtés de David Bowie et Van Halen, The Clash donne là le plus gros concert de sa carrière devant près d'un demi-million de spectateurs. Cette date sera aussi la dernière apparition de Mick Jones avec le groupe. En , poussés par Rhodes, Strummer et Simonon virent Jones du groupe, prétextant son attitude problématique et le fait qu'il se soit éloigné de l'idée originelle du groupe. Après une série d'auditions, le groupe annonce l'arrivée des guitaristes Nick Sheppard (ex-membre des Cortinas, une formation de Bristol), et Vince White. Howard continue en tant que batteur, malgré les rumeurs selon lesquelles Headon ou Chimes pourraient revenir le remplacer. La nouvelle formation joue son premier concert en janvier 1984 avec un ensemble de nouveau matériel et se lance dans une tournée autoproduite, appelée le "Out of Control tour". Cette formation restera tout de même un échec artistique. Joe Strummer préfère d'ailleurs l'appeler par la suite The Clash Mark Two. À ce propos, répondant à la question de savoir si cette version du groupe était une erreur, il déclare : . En 1988, dans une autre interview, Joe Strummer avoue qu'il pense encore de temps en temps à ces musiciens : . The Clash tourne de l'hiver jusqu'au début de l'été. À l'occasion de "Scargill's Christmas Party", un spectacle caritatif donné en à l'attention des mineurs, le groupe annonce la sortie de son prochain album dans le courant de l'année. "Cut the Crap" et dernière tournée (1984–1986). Les sessions d'enregistrement de "Cut the Crap" sont chaotiques, surtout avec Bernie Rhodes et Strummer travaillant à Munich. La plupart des parties musicales sont jouées par des musiciens de studio, que Sheppard et plus tard White survolent en enrichissant de "bouts de guitare". Luttant contre Rhodes pour avoir le contrôle du groupe, Strummer, concernant le projet, décide de s’en laver les mains et retourne chez lui. À la même période, le groupe part en tournée. Appliquant des règles strictes qui permettent aux membres de transporter uniquement 10 livres sterling et des sous-vêtements de rechange, le groupe voyage séparément ou par deux. Ils se retrouvent uniquement pour des concerts dans des espaces publics à travers le Royaume-Uni où ils jouent des versions acoustiques de leurs tubes ainsi que des reprises telles que "Twist and Shout" et "Stepping Stone". Après un concert à Athènes, Strummer s'exile en Espagne pour faire le point. Début 1986, lui et Paul Simonon dissolvent officiellement le groupe. Tandis que Strummer est parti, le premier single "This Is England" issu de "Cut the Crap" sort avec un accueil principalement négatif. La chanson, comme la plupart du reste de l'album qui suit plus tard la même année, a été en grande partie remixée par Rhodes, ajoutant des synthétiseurs, des boites à rythme et des chants aux enregistrements inachevés de Strummer. D'autres chansons jouées lors de la tournée restent inédites aujourd'hui, parmi lesquelles figurent "Jericho", "Glue Zombie" et "In the Pouring Rain". Bien qu'Howard fût un batteur émérite, paradoxalement toutes les pistes à la percussion ont été produites à l'aide de boîtes à rythme. Style musical. Énergie des concerts. Pour Joe Strummer, le son live de The Clash est comme celui d'. Sur scène, le style du groupe est extrêmement rythmé. Au départ, Paul Simonon n'est qu'un novice et c'est Mick Jones qui s'occupe d'accorder sa basse. Le son n'est pas parfait mais le public apprécie l'énergie qu'ils dégagent. Joe Strummer, quant à lui, hurle au point que peu de personnes le comprennent. Au milieu des autres membres, la rage qu'il emploie pour chanter attire la majorité des regards vers lui. Leurs différentes prestations leur valent d'acquérir assez rapidement une solide réputation. Les critiques les comparent alors aux Who et Rolling Stones des débuts ou encore à Bruce Springsteen. La rage qu'ils dégagent sur scène devient leur marque de fabrique. Et la totale implication des membres dans leurs performances scéniques impressionne le public lors de leurs tournées. Malgré leur succès, les membres restent accessibles et proches de leurs fans. Cette attitude altruiste les détache du reste de la scène rock de l'époque. Dans une interview, Lester Bangs, chroniqueur de "Rolling Stone" et de "Creem", explique sa fascination pour cette approche marginale : . Slogans accrocheurs. Comme le déclare Mick Jones, les textes de leurs chansons sont plus des slogans que des paroles traditionnelles. Aux débuts du groupe, les membres les réutilisent d'ailleurs pour confectionner leurs propres tee-shirts. Sortie en face B du single de "White Riot" mais non présente sur le premier album, la chanson "1977" est caractéristique de cette époque avec son passage accrocheur . Il résume l'esprit qui règne en 1977 lors de l'explosion du mouvement punk. Le groupe respecte néanmoins ces artistes qui influencent leur musique. La critique vise la production musicale de cette époque, qui est devenue une simple histoire de profits. Impact socio-culturel. Incarnation du punk politique et social. Dans les années 1970, le vide laissé au Royaume-Uni par le parti travailliste pousse l'émergence du punk et de son engagement politique. Idéalistes, avec une sensibilité poussée de gauche, The Clash est l'un des groupes incarnant le plus cet aspect du punk, principalement porté par son leader Joe Strummer. dit d'ailleurs Strummer. La majeure partie des groupes punks britanniques contemporains des Clash ne font pas preuve d'un aussi grand sens politique, comme The Sex Pistols ou The Damned. Même la scène américaine des Ramones, Talking Heads et Blondie est dénuée de sens politique. Pour beaucoup, dont Billy Bragg, l'apport de The Clash et en particulier de Joe Strummer dans ce domaine est donc déterminant : . Issu de la tradition des musiciens engagés, l'un des combats politiques du groupe est de pousser la jeunesse à se rebeller contre le conservatisme oppressif du thatcherisme. . Pour Lester Bangs, ce qui crédibilise le discours du groupe, c'est son authenticité plus que les origines sociales de ses membres. Ainsi, dans son article "The Clash" long d'une trentaine de pages, il écrit à leur sujet : Idéologie. Inspiré par le précepte du do it yourself, le groupe choisit pourtant à ses débuts de signer dans une major plutôt que chez un label indépendant. Lorsque le groupe signe avec la firme CBS Records pour £ , certains fans sont donc décontenancés. Mark Perry déclare même à ce sujet : . Conscient de ces critiques, Joe Strummer répond dans une interview pour "Melody Maker" : . Mais au même moment le mouvement punk commence à se transformer en un vaste business, la communauté éprouve donc de la défiance pour cette annonce et le groupe Crass compose la chanson "Punk Is Dead" dans laquelle il hurle : . Le groupe pense pourtant avoir la main sur le côté artistique. Mais lorsque CBS sort le single sans demander l'avis des membres, ceux-ci sont irrités. En réponse, ils écrivent la chanson "Complete Control" qui attaque leur maison de disques. L'argent a toujours été le problème récurrent du groupe The Clash. Ainsi, lors de la tournée "Anarchy Tour", après l'annulation de la plupart des concerts, d'autres salles plus petites sont trouvées, diminuant ainsi les recettes. Par provocation, sur la scène de Leeds, Joe Strummer arbore un Tee-shirt où l'on peut lire : (« sécurité sociale £9,70 »), soit la modique somme qu'il touche par semaine. Le déchainement du public pendant les concerts du groupe aboutit à des dégradations lourdes lors de nombreux concerts, que le groupe s'attache à payer… D'ailleurs, Bernie Rhodes couvre les dépenses de sa poche durant cette période. De la même manière, lorsqu'en 1980 le groupe sort son quatrième album, "Sandinista !", il décide d'abandonner ses royalties sur les 200 000 premiers exemplaires. En sortant ce triple album au prix habituel d'un double (voire moins), les membres de The Clash souhaitent fournir au public le maximum de morceaux possible pour une somme abordable. Paul Simonon résume alors la pensée qui pousse le groupe à agir de la sorte : . Ainsi, malgré l'argent amassé par les tournées du groupe, dont celle aux États-Unis avec les Who, le groupe est régulièrement proche de la banqueroute. En 1981, malgré les succès de leurs quatre premiers albums, les membres se battent avec leur maison de disques pour toucher un salaire hebdomadaire d'environ par personne. Thèmes abordés. Opposition à l'impérialisme, dénonciation de l'injustice raciale, critique du capitalisme, The Clash avec à leur tête Joe Strummer abordent de nombreux thèmes qui leur sont chers pour ouvrir les yeux de la jeunesse. Dans leur répertoire de chansons, les Clash ont avec "Remote Control" un titre qui dénote une certaine paranoïa. Inspiré par "1984" de George Orwell, la chanson est illustrée dans "The Clash Song Book" (1978) par le message . Empreinte de colère envers les oppresseurs (gouvernement local, politiciens, monde des affaires, police), cette chanson remet en cause l'ordre établi, si critique envers le mouvement punk. Les membres de The Clash sont perçus comme les pionniers du punk politique et se voient affublés du nom de () dès 1977 dans un article de Tony Parsons de "NME". Leur vision politique s'exprime explicitement dans leurs paroles, dès leurs premiers enregistrements tels que "White Riot". Inspiré à Joe Strummer à la suite des émeutes du carnaval de Notting Hill de 1976, le texte de cette chanson encourage la jeunesse blanche désabusée à s'engager politiquement de façon active à l'instar de la minorité noire. Alors que l'Angleterre est en pleine récession, la jeunesse punk anglaise se reconnait dans ces paroles qui expriment la frustration de l'époque. "Career Opportunities" en est un autre exemple, dénonçant les emplois sous-payés, le style d'emplois en usine et le manque d'alternatives. La chanson "London's Burning", quant à elle, traite de la complaisance politique. L'aspect politique de leurs textes est un des traits caractéristique du groupe ("Spanish Bombs", "The Guns of Brixton", "Something About England", "Straight to Hell"...). Dès 1976, dans une interview pour "Sniffin' Glue", Strummer explique que la musique se doit d'être un moyen d'expression plus qu'un simple loisir : . "Washington Bullets" en est un exemple. Dans ce titre de "Sandinista!", l'armée américaine est décriée pour son implication dans divers renversements politiques à travers le monde et en particulier l'Amérique du Sud. Sur un rythme disco et avec Headon au chant, ils s'amusent même à comparer les deux blocs américain et soviétique en 1980 dans "Ivan Meets GI Joe", morceau évocateur de l'époque. Au fil des albums et de divers entretiens, le groupe claironne son scepticisme envers les médias, en particulier ceux de masse. Dans une interview, Joe Strummer explique sa perception des médias : . Alors que CBS refuse de sortir leur premier album aux États-Unis et leur impose le producteur Sandy Pearlman pour le suivant, The Clash attaquent frontalement l'industrie musicale avec leur deuxième disque de 1978. Intitulé , il signifie littéralement . La pochette qui l'accompagne montre un cadavre dévoré par des vautours, une métaphore des maisons de disques. Les années 1970 voient les États-Unis dominer culturellement l'Angleterre. The Clash dénonce cette Amérique toute puissante et son impérialisme. Ainsi, Joe Strummer explique : Antimilitaristes, les musiciens de The Clash chantent des thèmes en rapport avec la guerre à plusieurs reprises. "The Call-Up" appelle à la désertion du service militaire avec ses paroles . C'est à la fois les jeunes soviétiques avec la guerre d'Afghanistan et les Américains avec la crise iranienne des otages qui sont alors concernés par cette chanson. Dans la même veine, "Charlie Don't Surf", inspirée par "Apocalypse Now" de Francis Ford Coppola, a une approche ironique de la guerre. Ceci renforce l'attaque dirigée contre ceux qui veulent imposer leur vision du monde. Dans la chanson "Career Opportunities", sortie sur l'album "The Clash" en 1977, un passage exprime le rejet de l'autorité militaire et le refus d'aller se battre lors de son service national (). Engagement politique. À l'image de nombreux groupes de la première vague punk, The Clash proteste contre la monarchie et l'aristocratie au Royaume-Uni et à travers le monde. Néanmoins, ils ne partagent pas la même vision nihiliste de la politique qu'ont la plupart de ces groupes. Ceci leur attire d'ailleurs de nombreuses critiques de la part d'autres groupes influents tels que Crass et Angelic Upstarts. En 1978, à l'occasion du spectacle "Rock Against Racism" organisé par l'Anti-Nazi League, Joe Strummer porte un tee-shirt controversé portant la mention « "Brigate-Rosse" » accompagnée de l'insigne de la Fraction armée rouge (Andreas Baader-Ulrike Meinhof). Il affirmera plus tard que ce geste n'avait pas pour but d'apporter son soutien aux brigades terroristes d'extrême gauche d'Allemagne et d'Italie, mais seulement faire parler de lui. Dans le film Rude Boy, Strummer, interrogé sur la signification de son T-shirt, affirme que c'est le nom d'une pizzeria. De même, dans la chanson "Tommy Gun", son attitude est ambiguë. Caroline Coon apporte un éclairage sur ce que les Clash faisaient en réalité à cette époque : (« ces chansons, dures et militaristes, étaient ce dont nous avions besoin alors que nous entrions dans le thatcherisme »). Le groupe apportera aussi son soutien à d'autres concerts caritatifs, dont les plus célèbres sont ceux de pour la population du Cambodge, organisé par Paul McCartney. L'album sorti à la suite de ces concerts contient d'ailleurs une chanson de The Clash, "Armagideon Time". The Clash offre également son soutien aux sandinistes au Nicaragua et à d'autres mouvements marxistes d'Amérique latine (comme en témoigne le titre de leur album de 1980, "Sandinista!"). À l'époque de leur album "London Calling", sorti en décembre 1979, le groupe essaie de garder l'énergie punk tout en développant de plus en plus d'expérimentations musicales. Bien que particulièrement méfiants vis-à-vis de leur célébrité naissante, ils réservent toujours un bon accueil à leurs fans en coulisse après leurs concerts, faisant preuve d'ouverture d'esprit, d'intérêt intellectuel et de compassion dans leurs relations avec eux. Le titre de "London Calling" évoque la devise du journaliste radio américain Edward R. Murrow durant la Seconde Guerre mondiale. Ses paroles annoncent d'ailleurs : . Elle met en garde ceux qui espèrent qu'ils soient les sauveurs : , dresse un sombre portrait de l'époque : mais appelle ceux qui écoutent à sortir de leur hébétude droguée et à reprendre le combat sans constamment se tourner vers les Clash eux-mêmes pour des réponses — — demandant finalement, . Pendant l'existence de The Clash, les musiciens ne sont jamais guidés par l'argent. Même contre leurs intérêts, les tickets pour leurs concerts sont vendus à des prix raisonnables. Le groupe insiste également auprès de CBS pour que leurs double et triple albums, "London Calling" et "Sandinista!", soient vendus au prix d'un simple (environ £5). Pour cela, ils cèdent leurs royalties jusqu’à atteindre les 200 000 ventes. Cette logique du « en avoir pour son argent » a pour effet de les laisser toujours sous l'emprise de leur label. Ce n'est qu'à partir de 1982 qu'ils peuvent maitriser complètement leur propre carrière musicale. Manifestations. La sortie de "White Riot" est accompagnée d'un malentendu : certains critiques et journalistes relaient l'idée que The Clash est un groupe nationaliste. Pourtant, la chanson crie l'inverse. The Clash participe d'ailleurs à un concert pour la Ligue antinazie, puis au Rock Against Racism. Lancé par Red Saunders et Roger Huddle en 1976, le mouvement "Rock Against Racism" recueille le soutien de nombreux musiciens et intellectuels et prend rapidement de l'ampleur. En , le Rock Against Racism Carnival rassemble 100 000 personnes de Trafalgar Square jusqu'à Victoria Park. Le concert en plein air qui est donné pour l'occasion voit se succéder The Clash, The Buzzcocks, Steel Pulse, X-Ray Spex, The Ruts, Sham 69, Generation X et le Tom Robinson Band. L'importance des Clash est telle dans ce mouvement que Red Saunders expliquera : . Polémiques. Durant sa tournée promotionnelle internationale "White Riot Tour" (avec les Buzzcocks et The Jam) du premier album, le groupe commence à se créer une image conflictuelle, en partie à cause des arrestations de ses membres pour vandalisme. Le , après un concert à St Albans, la police anglaise stoppe le car transportant les membres et l'entourage du groupe. Strummer et Headon sont arrêtés pour avoir volé des taies d'oreiller et une clé d'un hôtel Holiday Inn de Seaton Burn près de Newcastle. Ils seront condamnés chacun à une amende de . Tout au long de leur carrière, les membres du groupe connaissent régulièrement des démêlés avec la justice. Le , Joe Strummer et Topper Headon sont arrêtés à Londres après avoir écrit le nom du groupe sur un mur. Le , Joe Strummer et Paul Simonon sont arrêtés cette fois-ci à Glasgow pour ivresse et désordre sur la voie publique. Pendant les trois premières années de leur carrière, les membres du groupe sont basés dans ce qui s'appelle maintenant « The Stables » Market à Camden Town, à Londres. Le , lors d'un enregistrement, Topper Headon et Paul Simonon sont arrêtés pour avoir abattu des pigeons depuis le toit de leur studio avec un fusil à air comprimé. Ces volatiles se sont révélés être en réalité des pigeons voyageurs d'une grande valeur. Mais si la police s'est déplacée ce jour-là pour arrêter les deux musiciens, c'est parce que la police britannique des transports ferroviaires () possèdent des bureaux non loin du studio. En se basant sur la réputation « anti-establishment » du groupe punk, elle pense que ceux-ci souhaitent tirer sur les trains. Un hélicoptère et des officiers du département d'enquête criminelle () sont déployés pour l'arrestation. À la suite de cet incident, le groupe compose la chanson "Guns on the Roof" sur l'album "Give Em Enough Rope". Connexions culturelles. Issus du même mouvement, les Sex Pistols et The Clash ont une histoire commune. Au départ, malgré la concurrence entre Malcolm McLaren et Bernie Rhodes pour installer leur groupe respectif comme chef de file du mouvement punk, les deux groupes tournent en même temps. Les Pistols sont les têtes d'affiche, les Clash un des groupes de support. Pourtant, les deux groupes n'ont pas la même philosophie, ni les mêmes buts. Comme l'explique Mick Jones, . D'ailleurs, Mark Perry, éditeur et créateur du fanzine "Sniffin' Glue", considère que le groupe The Clash délivrait un véritable message. Selon lui, les Pistols n'avaient pas de véritable sens et se concentraient principalement sur la haine et la dérision. En revanche, The Clash abordaient des thèmes inspirés des problèmes quotidiens, comme le chômage ou la misère, la base même du mouvement punk. Musicalement, Joe Strummer affirmait, en interview, que même dans un style basique et primaire comme le punk, le batteur devait obligatoirement être doué et expérimenté sous peine de plomber les concerts, tandis que les Pistols revendiquaient, tout comme The Ramones, la volonté, quel que soit l'instrument, de jouer même sans savoir. - Larry Mullen de U2. Les Clash ont influencé une grande partie des groupes rock depuis les années 1980, en commençant par The Wallflowers ou U2. Bono les a d'ailleurs découverts lors d'un concert à Dublin. Selon lui, . Fan du groupe et de son leader, Sharleen Spiteri, la chanteuse du groupe Texas, utilise la même guitare que ce dernier, une Fender Telecaster noire. En effet, à ses débuts, Strummer s'achète une Telecaster de 1966 pour qu'il personnalise en la peignant lui-même en noir. D'ailleurs, en 2007, en écho au fait que Strummer ait gardé la sienne toute sa carrière, le fabricant réalise la « Telecaster Joe Strummer ». En hommage au groupe, la compilation "Burning London: The Clash Tribute" est sortie en 1999 avec des reprises par No Doubt, Third Eye Blind, 311 et Silverchair entre autres. Babyshambles, The Paddingtons, Dirty Pretty Things, Guillemots, The Kooks et environ 20 autres artistes ont également sorti une reprise de "Janie Jones" pour le Strummerville Music Charity. À ses débuts avec Hot Pants, Manu Chao a The Clash pour groupe de référence. Même si au départ il n'est pas spécialement attaché au mouvement punk, il est emballé par un concert que donne le groupe britannique au Palais des Sports. Noir Désir a également été influencé par The Clash. Lors d'une interview donnée à "Vibrations Magazine", Bertrand Cantat déclare que l'album "London Calling" fait partie de sa discothèque privilégiée : Les membres du groupe Téléphone ont de nombreuses fois évoqué la parenté entre leur démarche et celles des Clash, citant Strummer et Jones comme leurs auteurs et compositeurs favoris. En 1984, les Têtes Raides, alors qu'ils se font encore appeler "Red Ted", commencent par jouer du punk, également inspiré de The Clash. En 2009, les éditions Buchet Chastel publient un recueil de nouvelles intitulé « London Calling - 19 histoires rock et noires » sous la direction de Jean-Noël Levavasseur. Dix-neuf auteurs principalement issus du roman noir français s'y approprient les 19 chansons de l'album pour y puiser 19 nouvelles. Ouverture musicale. L'une des particularités de ce groupe punk est son éclectisme musical. Dès son premier album, The Clash impose à CBS la reprise de "Police and Thieves", un titre reggae de Junior Murvin. Cette démarche d'ouvrir le répertoire punk à d'autres morceaux les démarque du reste des groupes de l'époque. Au cours de son existence, le groupe explore un maximum de courants musicaux, s'essayant par exemple au groove avec "Magnificent Seven" et "Lightning strikes" et continue quasi systématiquement de s'inspirer de la musicalité du reggae ("(White Man) In Hammersmith's Palais" entre autres). Le groupe considère néanmoins que puiser dans les rythmes reggae et les racines de la musique noire reste une démarche typiquement punk. Ainsi, à l'occasion de la sortie de "Sandinista!", Paul Simonon déclare dans "Rolling Stone" : . L'enregistrement de cet album (qui devient un triple-album en raison de la liste des morceaux enregistrés qui s'allongeait) est réalisé dans une ambiance créative qui ne se donne pas de limite. Ainsi, le « son » du groupe, travaillé au fil des albums par l'ingénieur du son Bill Price, a du mal à garder son identité sur certains morceaux, par l'apport d'instruments inhabituels chez les punks (synthétiseurs, boîtes à rythme, violons…). Strummer se souviendra que, dans l'enthousiasme débridé qui a régné pendant les enregistrements, il aurait joué de la balalaika s'il en avait trouvé une dans le studio. C'est pourtant l'envie de s'inspirer de nouvelles sonorités qui pousse le groupe à se séparer. En 1983, Mick Jones souhaite continuer à insérer des références hip-hop dans les chansons qu'ils composent, à l'instar de ce qui a été fait pour l'album "Sandinista!". Mais après avoir exploré le rap ("The Magnificient seven"), le dub avec entre autres "Robber Dub", le ska, le rockabilly ("Brand New Cadillac" de Vince Taylor) ou même la soul ("Stagger Lee"), Joe Strummer et Paul Simonon cherchent à retourner aux sources du punk pour l'album suivant. Ce point de divergence participera à l'éviction de Mick Jones. Carrières post-Clash. Joe Strummer. En 1986, Strummer collabore avec son ancien compère Mick Jones sur le second album de BAD, "No. 10 Upping St.". Il le coproduit et coécrit sept chansons. Strummer joue la comédie dans quelques films, notamment dans "Walker" d'Alex Cox et "Mystery Train" de Jim Jarmusch. Il effectue également une apparition caméo pour Aki Kaurismäki dans "I hired a Contract Killer" où il chante "Burning Lights/Afro-Cuban Be-Bop". Il se fait remarquer à cette période pour sa participation à des bandes originales, dont "Love Kills" pour le film Sid and Nancy. Il coproduit plus tard celle de "Grosse Pointe Blank" avec John Cusack qui rencontre du succès. Après quelques expérimentations avec des groupes de soutien au succès limité, il refait surface en 1989 en réalisant son premier album solo. "Earthquake Weather" n'est ni un succès critique, ni un succès commercial. Strummer part néanmoins en tournée avec une nouvelle troupe de musiciens, le Latino Rockabilly War, avant de sortir le single "Trash City". En 1991/1992, Strummer rejoint les Pogues après l'éviction de l'ancien chanteur Shane MacGowan pour une série de concerts à travers l'Europe. Finalement, à la fin des années 1990, Joe Strummer rassemble des musiciens de haut vol sous le nom de The Mescaleros. Le , Joe Strummer and The Mescaleros donne un concert caritatif pour les pompiers londoniens (FBU) à l'Acton Town Hall de Londres. À cette occasion, Mick Jones rejoint le groupe sur scène sur "Bankrobber", "White Riot" et "London's Burning". La dernière fois que Strummer monte sur scène est le à la Liverpool Academy. Il meurt subitement le mois suivant d'une crise cardiaque à l'âge de 50 ans. "Streetcore", l'album des Mescaleros sur lequel il travaillait, sort à titre posthume en 2003. Sa réception critique est élogieuse. Mick Jones avouera plus tard à la presse que cette mort est intervenue alors que les ex-membres de The Clash songeaient sérieusement à se remettre ensemble pour une tournée mondiale. Leurs retrouvailles pour le documentaire "Westway to the World" de Don Letts (2001) leur avait redonné l'envie. Mick Jones. Après son expulsion de The Clash, Mick Jones forme brièvement (fin 83 début 84), le groupe Top Risk Action Company (T.R.A.C.) en compagnie de Topper Headon (batterie) Leo E-Zee Kill Williams (Bass) et John Boy Lennard (Saxophone). Le groupe ne donnera aucun concert mais réalisera une K7 démo de plusieurs titres. Parallèlement, Mick Jones s'investit dans la création du premier album de General Public "All the rage" mais n'apparait pas dans les crédits de l'album lors de sa sortie (alors qu'on peut entendre sa guitare sur certains titres). Puis il forme Big Audio Dynamite (ou BAD) en 1984 accompagné notamment de Don Letts, réalisateur de plusieurs vidéos sur les Clash. Leur premier album, "This is Big Audio Dynamite", sort l'année suivante. Le disque suivant, "No. 10 Upping St.", réunit Jones et Strummer. En 1988 le groupe sort Tighten Up Vol 88 (dont la pochette est peinte par Paul Simonon), puis un ultime album l'année suivante nommé "Mégatop Phoenix" très orienté acid house, et se sépare. Mick Jones, met en place un nouveau groupe sous le nom de Big Audio Dynamite II, qui enregistre un premier album "Kool Aid" puis "The globe" l'année suivante dans une version remaniée dont le morceau d'ouverture nommé "Rush" connait un certain succès, ce qui permettra au groupe de partir dans une longue tournée à travers le monde en ouvrant pour le groupe U2. En 1994, sous le nom Big Audio, le groupe sort "Higher power", puis "F-Punk" sous le nom de Big Audio Dynamite. Producteur, Mick Jones travaille avec les Libertines pour leurs deux albums studio et Babyshambles pour leur premier. Depuis, il joue et a enregistré un nouvel album, "The Last Post", avec son nouveau groupe Carbon/Silicon. Paul Simonon. À la suite de l'éclatement de The Clash, Simonon forme un groupe appelé Havana 3a.m., lequel enregistre seulement un album au Japon avant de rapidement abandonner. Il retourne alors à ses racines en devenant artiste peintre, exposant dans plusieurs galeries d'art et contribuant à la couverture du troisième album de Mick Jones et BAD, "Tighten Up Vol. 88". Le refus de Simonon de rejouer de la musique est l'une des principales explications données pour laquelle The Clash est l'un des quelques groupes punks des années 1970 à ne pas s'être reformé lors de la période nostalgique punk de la fin des années 1990. Simonon collaborera avec Damon Albarn de Blur et de la formation virtuelle Gorillaz, Simon Tong de The Verve et Tony Allen, principal fondateur de l'afrobeat et batteur de Fela Kuti. Ensemble, ils créent The Good, the Bad and the Queen dont le premier concert a été donné le au Roundhouse de Camden Town. Topper Headon. La contribution de Headon à The Clash n'est pas limitée à son jeu à la batterie. Il compose et arrange la musique pour "Ivan Meets G.I. Joe" (où il chante aussi) et "Rock The Casbah" pratiquement tout seul. Ce dernier titre est d'ailleurs leur plus gros hit aux États-Unis où il atteint la 8 place du Billboard en 1982. À cette époque cependant, Headon est viré du groupe pour son addiction à l'héroïne. À l'exception d'un petit groupe de RnB avec qui il enregistre un LP intitulé "Waking Up" et le 12" E.P. "Drumming Man" en 1986, Headon disparaît du milieu musical jusqu'au documentaire rétrospectif de Don Letts "Westway to the World". Il y fait son "mea culpea" au sujet de sa toxicomanie, vivant des royalties provenant des Clash, atteint d’hypercyphose, et après plusieurs années d'échec dans sa quête d'une réhabilitation, il est maintenant sain et monte sur scène à nouveau. |
Tension Économie. En économie, la tension est une conséquence de la rareté : |
Tamoul Le tamoul ou le tamil (, ) est une langue originaire du Sud de l'Inde parlée par les Tamouls. Elle est la langue officielle de l'État du Tamil Nadu en Inde du sud, et l'une des langues officielles du territoire de Pondichéry (Inde), du Sri Lanka et de Singapour. Elle est parlée par la diaspora tamoule aux Fidji, en Malaisie, en Birmanie, en Afrique du Sud, à l'île Maurice, à l'île de La Réunion et dans les Caraïbes, notamment en Guadeloupe, Martinique, Guyana, Trinité-et-Tobago… mais aussi en Europe, en Amérique du Nord et en Océanie (notamment en Australie). Le nombre total de locuteurs est évalué à , dont en Inde. Proportionnellement, c'est la langue la plus utilisée en Inde par ses locuteurs sur Internet (42 % des tamoulophones utilisent Internet). Le tamoul appartient à la famille des langues dravidiennes. Il s'écrit au moyen d'un alphasyllabaire dérivé du grantha, provenant lui-même de la brahmi, qui a été conçu selon le modèle de l'ancien tamoul. La langue comprend cependant de nombreux dialectes assez éloignés les uns des autres. Histoire de la langue. Une analyse de datation au carbone 14 d'un mélange de riz et de terre trouvé dans une urne funéraire à Sivakalai dans le district de Thoothukudi du Tamil Nadu, menée par le Beta Analytic Testing Laboratory basé à Miami, a donné la date de 1155 avant J.-C., indiquant que la civilisation Thamirabarani remonte à . Le tamoul appartient au sous-groupe méridional de la famille des langues dravidiennes. L'histoire de la langue tamoule est habituellement subdivisée en trois stades : le vieux tamoul, le moyen tamoul et le tamoul moderne. Le passage d'un stade à l'autre correspond à un certain nombre de changements phonologiques et grammaticaux, ainsi qu'à des évolutions de la syntaxe. Le vieux tamoul couvre la période allant du au . Les premiers écrits en vieux tamoul sont d'abord de courtes inscriptions datées des et , trouvées sur les parois des grottes près de Madurai et Villupuram et sur les poteries. Ces inscriptions utilisent une variante de l'écriture brahmi appelée tamil-brahmi. Le plus ancien recueil connu de cette époque, donc aussi de la langue tamoule, est le Tolkāppiyam, dont les premières couches remonteraient à la fin du , et qui traite de la phonétique, la rhétorique et la grammaire. La littérature du Sangam s'inscrit pour la plupart dans la première moitié de cette période. Ses œuvres qui nous sont parvenues sont regroupées dans un corpus constitué de composés par , dont au moins . Les limites exactes du moyen tamoul restent floues. Il est généralement admis que le passage du vieux au moyen tamoul est achevé au . Les changements les plus importants par rapport à la phase précédente sont, en phonétique, la quasi-disparition du phonème appelé "āytam" (ஃ), la coalescence de la consonne nasale alvéolaire en nasale dentale et enfin la transformation de l'occlusive alvéolaire en rétroflexe. En grammaire, la période médiévale voit émerger un temps, le présent, en plus du passé et du futur. La marque grammaticale ou l'affixe "kiṉṟa" (கின்ற), permettant désormais de conjuguer un verbe au présent, est issue de la combinaison de l'aspect duratif du verbe ou encore de l'indication sur le déroulement de ce dernier, "kil" (கில்), et d'une marque de temps, "ṉ" (ன்). Le moyen tamoul emploie une écriture probablement issue du tamil-bhrami, le vatteluttu, qui se traduit littéralement par « écriture arrondie ». Nombre de temples médiévaux, tels que les parois du grand temple Brihadesvara de Thanjavur, en sont couverts. Aux alentours du , le moyen tamoul évolue pour donner naissance au malayalam dans la partie montagneuse occidentale. Le moyen tamoul est donc l'ancêtre du tamoul moderne et du malayalam, parlé dans l'actuel état de Kerala. Dialectes. Diglossie du tamoul. Il existe une grande divergence entre la langue tamoule écrite (s"entamizh") et la langue parlée ("koduntamizh"). D'une façon générale, il existe un tamoul littéraire, utilisé dans les journaux, les livres, etc., qui respecte des règles strictes d'orthographe, de grammaire et de syntaxe ; et un tamoul populaire, utilisé à l'oral ou dans les médias ; une telle situation peut être qualifiée de diglossie. Le tamoul populaire est extrêmement variable d'un pays à l'autre, d'une région à l'autre, voire d'un village à l'autre : même un locuteur maîtrisant le tamoul littéraire, c'est-à-dire officiel, peut ne rien comprendre à cette langue, qui utilise en abondance des noms étrangers ("lugéj" : bagage, de l'anglais "luggage", "zanti" : gentil, du français…) souvent adaptés à la prononciation de la langue. Ceci s'explique par le fait qu'une communauté tamoule importante réside dans des pays étrangers, la population vivant dans ces pays mélangeant le tamoul avec la langue parlée dans le pays. Depuis le début du , les grammairiens tamouls tentent de rapprocher la langue écrite de la langue parlée, tout en conservant les particularités de cette écriture très ancienne. Différences avec les langues dravidiennes sud-indiennes. L'histoire littéraire du tamoul, longue de plus de deux millénaires, est marquée par diverses périodes caractérisées par une alternance de rapprochement et d'éloignement par rapport au sanskrit jusqu'à une époque relativement récente, le milieu du , où l'on a entrepris en Inde tamoule de recentrer la langue écrite sur son lexique propre. Sur le plan de la syntaxe, cependant, la proximité avec les langues dravidiennes dérivées des états voisins : malayalam (Kerala), télougou (Andhra Pradesh et Telangana), kannada (Karnataka) reste très grande et sur le plan culturel, les affinités sont extrêmement fortes entre ces différents états de l'Inde du Sud. Différences avec le tamoul srilankais. Le tamoul du Sri Lanka, lui, n'a été touché par ces transformations que dans une moindre mesure et a conservé davantage de lexique sanskrit dans sa langue écrite tout en ayant aussi gardé des éléments de tamoul ancien qui ont disparu du tamoul indien. Les contacts prolongés avec la langue et la culture singhalaise et l'histoire même du Sri Lanka et des migrations tamoules lui confèrent d'autres caractéristiques qui le distinguent clairement du tamoul indien, même s'il s'agit bien de la même langue et si de nombreux traits culturels sont semblables. Lettres. La romanisation est donnée selon la norme ISO 15919. Alphasyllabaire. Le tamil est noté à l'aide d'un alphasyllabaire — tout comme les autres langues indiennes et sud-asiatiques d'origine indienne — composé de douze voyelles, உயிர் எழுத்து (Lettres de l'âme ; 5 courtes : a, i, u, e, o ; 5 longues : ā, ī, ū, ē, ō ; 2 diphtongues : ai, au), et de dix-huit consonnes, divisées en trois classes (6 consonnes rudes, 6 moyennes et 6 douces). Cinq autres consonnes, dites "grantha", sont ajoutées à ce système pour retranscrire les sons des mots étrangers, historiquement sanskrits, mais de plus en plus anglais. Le graphème d'une consonne est doté par défaut d'une voyelle, le plus souvent un /a/, pour former une syllabe. D'autres signes, ajoutés en linéaire à la consonne, viennent modifier la voyelle par défaut pour former de nouvelles syllabes finissant par /i/, /u/, etc. Le tableau ci-dessous recense les différentes combinaisons possibles. Ainsi, le mot "uyir" (« vie, âme ») s'écrit உயிர், c'est-à-dire u + yi + r. Les cinq lettres dites "grantha" sont les suivantes : ஜ (ja), ஷ (ṣa), ஸ (sa), ஹ (ha) et la , qui n'est plus utilisée, est ஶ (śa). Chiffres. Le système de numération décimal tamoul utilise les lettres dérivées du grantha : Ce système de notation n'est plus utilisé depuis plusieurs siècles, mais on retrouve de telles inscriptions sur les temples hindous. On utilise aujourd'hui les chiffres dits « arabes » ou « hindou-arabes », originaires de l'Inde du Nord et transmis au reste du monde par les Arabes. Grammaire. Le tamoul est une langue post-positionnelle principalement SOV, et possède une syntaxe très stricte : Le tamoul compte trois temps : le passé, le présent et le futur. Le contexte de la phrase permet de situer avec plus de précision. Point important : il n'existe pas de verbe en tamoul pour exprimer la possession ; on a recours à une formule employant un datif (complément indirect). Le premier dictionnaire français-tamoul, constamment réédité depuis 1850, a été publié par un missionnaire français, Louis-Savinien Dupuis M.E.P. (1806-1874), aidé de Louis-Marie Mousset (1808-1888). Déclinaison des substantifs. En grammaire tamoule, on compte une seule déclinaison, puisque tous les noms prennent à leurs divers cas les mêmes terminaisons. Les grammairiens ne sont pas unanimes sur le nombre de cas, même si probablement sous l'influence du sanskrit on retient sept cas plus le vocatif comme le huitième cas. Ces cas portent le nom de leur numéro d'ordre (ex. ", ...") ou le nom de leur terminaison : Pronoms personnels. Comme toutes les langues dravidiennes, le tamoul possède deux pronoms à la première personne du pluriel, le premier exclusif nāṅkaḷ/நாங்கள் qui n'intègre pas l'interlocuteur dans le groupe (eux, moi - mais pas toi ou vous), le second inclusif nām/நாம் qui inclut la personne qui écoute (eux, moi mais également toi). À la troisième personne du singulier et du pluriel, on distingue deux séries de pronoms personnels, la première commençant par i/இ exprimant la proximité du locuteur avec la ou les personnes désignées ("ivaN"/இவன், il la personne proche) et la seconde par a/அ exprimant l'éloignement ("avaN"/அவன், il la personne éloignée). Les pronoms personnels de la troisième personne servent également d'adjectifs démonstratifs. Le tamoul se distingue aussi par l'existence des pronoms honorifiques ou de politesse spécifiques aux deuxième et troisième personnes du singulier. Exemple : « partir » Verbes. La syntaxe est marquée par la position du verbe conjugué, toujours à la fin de la phrase. Les verbes sont divisés en 2 groupes : Généralement, seul le verbe principal est conjugué en fonction du sujet ; les autres verbes prennent une forme infinitive ou dépendant de leur rôle et ne portent pas la marque de la personne. Le tamoul possède dans son paradigme verbal deux flexions distinctes, positive et négative. Voir : Négation (linguistique). Vocabulaire. Les termes français dérivés du vocabulaire tamoul sont rares. Parmi eux, le terme marin de "catamaran". D'origine tamoule et plus largement dravidienne aussi, les termes "" et "curry" (cari en français vieilli). |
Télougou Le télougou (autonyme : , "") est une langue dravidienne du sud de l'Inde. Il est parlé dans les États d'Andhra Pradesh et du Telangana, où il a le statut de langue officielle, ainsi qu'à Yanaon (territoire de Pondichéry), dans l'arrière-pays tamoul, à l'est du Karnataka, au Maharashtra, en Orissa. Il existe une diaspora télougoue en Birmanie, en Malaisie, à Maurice, en Arabie saoudite, dans les émirats du Golfe, en Afrique du Sud, aux îles Fidji, en Amérique du Nord, au Royaume-Uni et en France. En 2011, en Inde, avaient le télougou comme langue maternelle dont en Andhra Pradesh. En 2008, le gouvernement indien donne au télougou la distinction de « langue classique ». Seules six langues indiennes ont reçu cette distinction qui consiste à mettre en avant la richesse historique et culturelle d'une langue. Histoire. Origines. Le télougou s'est différencié des autres langues dravidiennes probablement lors de la période s'étendant de 1500 à 1000 Cette période correspond également à la naissance de la langue tamoule en prenant comme référence l'activité littéraire. Le télougou appartient à la sous-famille des langues dravidiennes du centre. Sont identifiées comme telles les langues originaires du « proto-dravidien » parlées dans la partie centrale du plateau du Deccan. D'autres langues rustiques très proches du télougou telles que le "gondi", le "konda", le "koui" et le "kouvi" font également partie de cette sous-famille. La première grammaire du télougou, l’"Andhra Shabda Chintamani", composée en sanskrit, est l'œuvre du poète Nannayya (). Ce traité reprend le plan d'exposition des grammaires plus anciennes de la langue sanskrite, l’"Aṣṭādhyāyī" et le "Vālmīkivyākaranam", mais contrairement au grammairien Pāṇini, Nannayya a divisé son ouvrage en cinq chapitres, consacrés respectivement aux adjectifs ("samjnā"), à la prononciation ("sandhi"), aux déclinaisons ("ajanta"), à l'élision ("virama") et aux verbes ("kriya"). Étymologie. L'étymologie du mot "télougou" est sujette à débat. Grammaire. En télougou, on distingue le "karta" (le cas nominatif ou le sujet), le "karma" (l'objet du verbe) et le "kriya" (l'action ou le verbe), qui suivent une séquence. Il existe aussi le "vibhakthi" (la préposition). Flexion. Le télougou est souvent considéré comme une langue agglutinante, où certaines syllabes sont ajoutées à la fin d'un substantif afin d'indiquer son cas grammatical. Ces agglutinations s'appliquent généralement à tous les substantifs, au singulier et au pluriel. Conjugaison. En télougou, la conjugaison prend en compte dans la flexion non seulement le temps mais aussi la négation et l'interrogation. Par exemple : Nombres. Le télougou utilise des chiffres de et un système d'écriture décimale positionnelle. Pour les nombres supérieurs à , les décimales sont regroupées selon la numération indienne. 0-19. Les nombres de ont des noms irréguliers. En voici la liste : 20+. Au delà de 20, les nombres ont des noms réguliers. Entre les noms sont formés par le nom de la dizaine suivi de celui de l'unité. Voici un tableau présentant quelques nombres télougous. |
Tchérémisse |
Transcription des hiéroglyphes En égyptologie, la transcription des hiéroglyphes est le processus qui tente de reproduire la "prononciation" des mots à partir des hiéroglyphes de l'égyptien ancien, langue morte depuis longtemps. On a l'habitude de dire qu'il y a autant de règles de transcription des hiéroglyphes qu'il y a d'égyptologues. En d'autres termes, il ne semble pas exister de transcription universelle des hiéroglyphes. Cela s'explique simplement par l'existence d'obstacles difficiles à franchir pour transcrire fidèlement les hiéroglyphes, obstacles qui obligent à des extrapolations qui rendent illégitime toute suprématie d'un système sur un autre. Les transcriptions. Il faut cependant différencier les transcriptions courantes, celles que l'on peut rencontrer pour désigner des personnages ou des notions célèbres de l'Antiquité égyptienne , transcriptions figées, ambiguës (un même phonème de l'égyptien sera rendu par un grand nombre de signes différents) et propres à une langue ("Néfertiti" se dit "Nofretete" en allemand) des transcriptions scientifiques, utilisées en linguistique et en grammatologie (étude de l'écriture) égyptiennes. Cette seconde, plus rigoureuse, utilise un symbole unique pour un même phonème, même si la valeur de ce phonème n'est pas sûre. Le système de notation scientifique peut varier d'une langue à l'autre : il garde cependant une base constante. Son principal défaut est qu'il reste imprononçable : c'est plus une translittération abstraite qu'une transcription indiquant une lecture réelle. La transcription scientifique ne peut être utilisée par le profane, qui ne peut la lire et donc l'apprendre aisément. De plus, elle s'éloigne grandement des usages déjà implantés dans les langues modernes. On peut ainsi comparer les deux versions des mots cités : "pr ʿ3" est la transcription scientifique du mot que l'on écrit "pharaon", "oudjat" se transcrit, entre autres possibilités, "wḏ3.t", "Néfertiti" vaut "nfr.t jy(j).tj" et "ka" "k3". Le problème phonétique. Le système d'écriture des hiéroglyphes est maintenant bien connu. Cependant, même si cela peut paraître contradictoire, la manière dont était prononcée la langue transcrite par les hiéroglyphes (l'égyptien) est difficile à reconstituer, cette langue étant morte depuis des siècles. Les seuls indices dont nous disposons à son sujet sont : Pour avoir une idée de la faible fiabilité des citations grecques, il suffit de comparer la façon dont nous transcrivons le nom de la capitale de la Chine ("Pékin") avec la romanisation qu'utilisent les Chinois eux-mêmes ("Běijīng"). Rien ne prouve que les mots égyptiens employés par les Grecs étaient prononcés à la manière égyptienne. De plus, ils ne pouvaient que les adapter à leur propre système phonologique, très éloigné de celui de l'égyptien. Or, nombre de termes égyptiens courants — comme "pharaon", "oudjat" ou les noms de dieux — nous viennent du latin "via" le grec. On imagine aisément comment ils ont pu être déformés : de l'égyptien au grec, du grec au latin puis du latin au français. Malgré tout, par regroupement des différentes sources et application des connaissances que l'on a des autres langues afro-asiatiques (comme le copte, l'arabe, l'hébreu, l'akkadien ou encore le haoussa), les égyptologues arrivent à se mettre plus ou moins d'accord sur un certain nombre de sons, et à créer des conventions arbitraires qui ont pour but de permettre aux contemporains de prononcer les mots égyptiens. Car en plus de ces difficultés de transcription des caractères écrits, il faut savoir que, comme dans les systèmes d'écriture sémites, seules les consonnes sont écrites : l'écriture égyptienne est en effet un abjad. Les voyelles, elles, étaient déduites intuitivement (tâche impossible sans une connaissance précise de la langue). Les voyelles du copte peuvent, d'une certaine manière, donner une idée de la vocalisation possible. Il ne faut cependant pas perdre de vue que les sons d'une langue sont en constante évolution : le copte ne peut donner qu'un indice. Il faut savoir également qu'il n'existait pas de règles orthographiques rigides et donc que certains mots pouvaient, à l'époque, être écrits d'une multitude de façons. Enfin, l'ordre des hiéroglyphes dans un mot n'était pas forcément linéaire. En effet leur ordre pouvait être bouleversé par pur souci esthétique ou pour marquer le respect envers une divinité dont le nom, par exemple, entre dans la composition d'un mot et qui se trouve alors placé en tête. Par exemple, le nom du pharaon Toutankhamon s'écrivait en fait "Amon-toutankh". Ceci explique que pour certains pharaons peu connus, nous ne soyons pas certains de l'ordre dans lequel il convient de lire les hiéroglyphes. Exemple de transcription non scientifique. <-i-mn:*n->Le nom du dieu Amon (voir ci-contre) est composé de trois hiéroglyphes dont on s'accorde à dire qu'il s'agit des phonèmes, tous trois des consonnes, "j", "m" et "n" (à noter qu'ici "j" n'est pas un "j" de Jean" ou un "j" de Jan" en néerlandais, mais une « consonne faible », vraisemblablement un « coup de glotte » comparable à la "hamza" arabe). Il est évident que ce squelette de consonnes, comparable à celui des radicaux sémitiques, était prononcé avec des voyelles. Le placement de ces voyelles dans le radical consonantique se nomme la "vocalisation". L'écriture hiéroglyphique n'ayant pas noté cette vocalisation, ce n'est qu'indirectement qu'on peut la reconstituer, restitution d'autant plus hasardeuse que la valeur des consonnes elle-même n'est pas toujours claire. Par exemple, le "j" initial est ─ c'est établi ─ une consonne faible dont la prononciation n'a eu que peu d'incidence sur le mot et qui a pu servir à écrire la voyelle /a/ (de la même façon que le "aleph" hébreu ou le "alif" arabe, qui notent la même consonne et qui ont, du reste, donné le "alpha" grec prononcé /a/). Le seul squelette réel qui reste se limite donc à "mn". Actuellement, ce dieu est dénommé "Amon", prononcé /amɔ̃/ par les francophones, /amon/ ailleurs. Cela suppose donc que la vocalisation soit "Jamon". Cette vocalisation nous vient des Romains "via" les Grecs. Les Grecs, en effet, entendaient Ἄμμων "ámmôn", que les Romains ont transcrit "Ammōn" (voire "Hammōn"). Dans les deux cas, le /o/ est long (et ouvert en grec, c'est-à-dire, en API [ɔː]). Les Coptes, cependant, ont conservé ce mot sous la forme αμουν, qui se lit /amun/ (/u/ = "ou" de "loup"). Ces premiers témoignages nous montrent combien la vocalisation est variable d'une langue à l'autre, d'autant plus qu'il existait sans doute des accents différents selon les régions et que les phonèmes évoluent avec le temps. D'autres témoignages rendent l'interprétation du mot encore plus difficile : pour les Babyloniens du au avant l'ère chrétienne, le mot se lisait, d'après leurs textes, "Amāna" (où "ā" est un /aː/) ou "Amānu", "Aman" dans un mot composé. Quant aux Assyriens des , ils entendaient "Amūnu" De ces témoignages divergents ressortent cependant deux constantes : Ainsi, vouloir connaître la prononciation réelle d'un mot aussi fréquent que le nom du dieu Amon s'avère impossible. Cela explique pourquoi il n'est pas impossible de trouver, entre autres possibilités, des transcriptions "Imen", "Imon", "Amen", "Amon" ou "Amun" pour le même mot. Cette ambiguïté se retrouve en français puisqu'on parle couramment du dieu Amon (avec un "o") mais du pharaon Aménophis (avec un "é") alors que le radical "jmn" est commun aux deux mots. Le problème est donc double : La seule transcription qui puisse faire l'unanimité doit se passer des voyelles : c'est "jmn". Elle est scientifique et très abstraite, comme on va le constater. Système de transcription scientifique. Cette transcription est utilisée en linguistique, dans l'étude de la langue égyptienne. Elle vise à la plus grande rigueur et s'apparente presque à une translittération. C'est celle que l'on utilise dans les grammaires, les ouvrages scientifiques, des études grammatologiques consacrées au système d'écriture égyptien. À part quelques détails, ce système est international. Les symboles de la colonne « prononciation restituée » suivent les conventions de l'API ; ce ne sont que des suppositions, parmi celles que les égyptologues retiennent majoritairement. La colonne « prononciation courante » respecte les usages français (la lettre "j" note donc le phonème initial de "jeu", etc.). Remarques concernant les symboles. Le phonème noté "j" (ou "ἰ" dans certains systèmes de transcription) représente un coup de glotte quand il est écrit "j" / "ἰ", un yod (son initial de "yourte ") quand c'est "y" / "j" (selon le système adopté). En fait, ce coup de glotte ayant évolué en yod avec le temps, il n'est pas aisé de déterminer quelle valeur il adopte. Quand la consonne "j" (ou, plus rarement, "w") est muette et ne s'écrit pas (dans les radicaux "tertiæ" et "quartæ infirmæ", par exemple, ou en tant qu'augment ; consulter l'article sur la langue égyptienne), elle est écrite entre parenthèses : "ms(j)", « mettre au monde ». En sorte, il existe deux sons d'origine différente notés de manière déconcertante : Dans nombre d'ouvrages , on écrit les deux facettes du coup de glotte, "ἰ" et "j", de la même manière : "ἰr(j)" (« faire ») sera donc écrit "jr(j)". La consonne "ȝ" a longtemps été considérée comme un coup de glotte. Or des recherches plus récentes tendent à prouver que c'est plutôt une liquide, un /l/ ou un /r/ roulé. Les signes "d" et "ḏ", enfin, sont vraisemblablement des consonnes emphatiques (consulter Phonologie de l'arabe). Les symboles "s" / "z" et "s" / "ś" s'utilisent par paire. Un texte qui se servira de "z" n'utilisera pas "ś", et vice versa. Ce qu'un égyptologue écrira "zȝ" correspondra donc à ce qu'un autre écrira "sȝ". Conventions de lecture et d'écriture. Il existe quelques conventions à connaître. En premier lieu, les mots égyptiens ne sont jamais vocalisés : c'est un des problèmes majeurs de la transcription. Il est cependant courant qu'on force la vocalisation, même s'il n'est pas possible de la déterminer en détail (la comparaison avec le copte permet cependant quelques avancées) en prononçant "ȝ", "j", "ʿ" et "w", respectivement, /a/, /i/, /ā/ (long), et /u/ (de "loup") après des consonnes. Cette convention n'est probablement pas dénuée de sens car, dans nombre de langues afro-asiatiques, ces consonnes servent aussi à noter ces voyelles (ce sont alors des "mater lectionis"). Quand les phonèmes "j" et "w" sont au contact des autres « semi-voyelles », on les prononce comme des consonnes en position initiale ou médiane, comme des voyelles dans les autres cas, de façon à alterner les consonnes et les voyelles. Par exemple, Le mot "jȝw" sera donc lu /jau/ mais "jwȝ" sera rendu /iwa/. Quand la succession de consonnes n'utilise pas ces signes, ou en nombre insuffisant, on introduit un /e/ bref pour faciliter la prononciation : "nb.t", « dame, maîtresse », pourra être lu /nebet/, "nfr", « beau », /nefer/, etc. Enfin, il existe trois signes auxiliaires que l'on utilise pour représenter des notions grammaticales et morphologiques : Exemple synoptique. Finalement, la transcription scientifique de l'égyptien est plus que déroutante. Elle s'avère surtout utile aux spécialistes et ne peut en aucun cas se substituer aux usages courants pour les mots connus. On peut citer, à titre d'exemple, la phrase suivante, tirée de la "Mittelägyptische Grammatik für Anfänger" d'Erhart Graefe (, chez Harrassowitz, Wiesbaden, 2004) pour montrer la complexité du système : On pourrait lire cette phrase /reʃwi sedʒed depetenef/, ce qui reste une approximation sans doute très éloignée de la réalité : la transcription scientifique possède donc cet avantage certain que le problème de la lecture est évacué pour permettre une notation précise de phonèmes dont la réalisation, somme toute, importe peu à l'étude d'une langue si ancienne. |
Chaîne audio Une chaîne audio, composée de plusieurs appareils, utilise diverses technologies qui relèvent du domaine de la physique, telles les mouvements ondulatoires (physique vibratoire), le traitement du signal et l'acoustique. Appareils. Trois types d'appareils sont considérés dans cette page : les capteurs, les transformateurs et les restitueurs. Dans les musiques modernes, qui utilisent facilement les musiques amplifiées, on retrouve des configurations de base. Capteurs. Les capteurs sont appelés microphones (en abrégé « micros »). Il existe des microphones pour la voix et des microphones adaptés pour des instruments acoustiques. Les instruments appelés « électriques » ont des microphones intégrés, et on peut brancher un câble directement sur l'instrument. Actuellement, les technologies de transmission sans fil par ondes radio permettent de limiter l'utilisation des câbles. Transformateurs. Le transformateur principal est l'amplificateur. Celui-ci restitue le son, avec plus ou moins de puissance, selon les réglages. Souvent couplée à l'amplificateur, la table de mixage permet de gérer plusieurs entrées et sorties de son. En effet, c'est sur cette table que l'on effectue la « balance » d'un groupe : chaque niveau est réglé, et le son perfectionné (aigus, graves, effets). D'autres appareils, intégrés à la table de mixage ou externes, permettent d'ajouter un effet spécial sur un son. En effet, on ajoutera facilement de la réverbération ou de la compression dynamique sur une voie. Certains se trouvent sous forme de pédales d'effet, qui peuvent être actionnées par le pied tout en jouant. Parmi ces effets, on peut citer : Restitueurs. Les haut-parleurs transforment un signal électrique en onde sonore. Technologie. Analogique. La manipulation électrique du son est possible grâce à l'électromagnétisme. En effet, une variation du champ magnétique à proximité d'une bobine produit un "courant électrique induit". Pour vanter les qualités de reproduction de leurs appareils et fournir des indicateurs de comparaison, les fabricants de matériels électroniques de traitement de reproduction sonore, ont, dans les années 1960, introduit la notion de « Haute Fidélité » ou "Hi-Fi" pour "". Amplificateur. Un amplificateur prend en entrée un signal de faible amplitude et l'amplifie à un niveau utile pour l'équipement qui y sera relié en sortie. Lorsque le signal d'entrée est très faible (quelques millivolts, voire moins), on utilise un préamplificateur dont le rôle est d'amener cette tension à un niveau relativement immune au bruit (quelques volts). La sortie du préamplificateur sera reliée à l'entrée de l'amplificateur de puissance, qui à son tour pourra générer le courant nécessaire à l'alimentation du (ou des) haut-parleur(s). Les premiers amplificateurs électroniques utilisaient la technologie des tubes, avant d'évoluer vers le transistor bipolaire. Aujourd'hui, on trouve toujours des amplificateurs à tubes, mais la majorité des unités produites utilisent le transistor, bipolaire ou à effet de champ (FET). L'un des avantages des transistors est leur faible encombrement qui rend possible la réalisation de circuits intégrés de puissance, où tout le circuit d'amplification est regroupé dans un seul composant. Une des différences entre les technologies tube/transistor est la production possible d'harmoniques impaires par les transistors, rendant le signal reproduit moins agréable à l'oreille que celui reproduit par les tubes, qui génèrent des harmoniques paires. Néanmoins, les transistors à effet de champ partagent cet avantage avec les tubes. Numérisation. Par opposition à analogique, on parle de traitement numérique du son, lorsque les traitements sont accomplis sur le résultat de la numérisation du signal d'entrée. L'obtention d'un signal (en l'espèce, acoustique) numérisé à partir d'un signal analogique, issu par exemple de la captation d'un son par un microphone, suit le processus suivant : Le codage sur avec une fréquence d'échantillonnage de est celui utilisé pour les CD audio. Dans l'industrie de la production sonore, et désormais dans les enregistrements numériques « haute résolution » fournis par certaines plateformes musicales et web-radios, le codage peut être plus performant, souvent sur , voire plus. La norme DSD du disque optique SACD, par exemple, utilise une fréquence de ( supérieure au CD) et permet une plage dynamique de (soit l'équivalent de ). Phonographie. Parmi les activités sonores les plus étonnantes du : la phonographie. |
Troisième Sommet de la Terre |
Tri par insertion En informatique, le tri par insertion est un algorithme de tri classique. La plupart des personnes l'utilisent naturellement pour trier des cartes à jouer. En général, le tri par insertion est beaucoup plus lent que d'autres algorithmes comme le tri rapide (ou "quicksort") et le tri fusion pour traiter de grandes séquences, car sa complexité asymptotique est quadratique. Le tri par insertion est cependant considéré comme l'algorithme le plus efficace sur des entrées de petite taille. Il est aussi efficace lorsque les données sont déjà presque triées. Pour ces raisons, il est utilisé en pratique en combinaison avec d'autres méthodes comme le tri rapide. En programmation informatique, on applique le plus souvent ce tri à des tableaux. La description et l'étude de l'algorithme qui suivent se restreignent à cette version, tandis que l'adaptation à des listes est considérée plus loin. Description. Le tri par insertion considère chaque élément du tableau et l'insère à la bonne place parmi les éléments déjà triés. Ainsi, au moment où on considère un élément, les éléments qui le précèdent sont déjà triés, tandis que les éléments qui le suivent ne sont pas encore triés. Pour trouver la place où insérer un élément parmi les précédents, il faut le comparer à ces derniers, et les décaler afin de libérer une place où effectuer l'insertion. Le décalage occupe la place laissée libre par l'élément considéré. En pratique, ces deux actions s'effectuent en une passe, qui consiste à faire « remonter » l'élément au fur et à mesure jusqu'à rencontrer un élément plus petit. Le tri par insertion est un tri stable (conservant l'ordre d'apparition des éléments égaux) et un tri en place (il n'utilise pas de tableau auxiliaire). L'algorithme a la particularité d'être online, c'est-à-dire qu'il peut recevoir la liste à trier élément par élément sans perdre en efficacité. Exemple. Voici les étapes de l'exécution du tri par insertion sur le tableau codice_1. Le tableau est représenté au début et à la fin de chaque itération. Pseudo-code. Voici une description en pseudo-code de l'algorithme présenté. Les éléments du tableau "T" (de taille "n") sont numérotés de 0 à "n"-1. procédure tri_insertion(tableau T) pour i de 1 à taille(T) - 1 "# mémoriser T[i] dans x" x ← T[i] "# décaler les éléments T[0]..T[i-1] qui sont plus grands que x, en partant de T[i-1]" j ← i tant que j > 0 et T[j - 1] > x T[j] ← T[j - 1] j ← j - 1 # placer x dans le "trou" laissé par le décalage T[j] ← x Complexité. La complexité du tri par insertion est Θ("n") dans le pire cas et en moyenne, et linéaire dans le meilleur cas. Plus précisément : La complexité du tri par insertion reste linéaire si le tableau est "presque" trié (par exemple, chaque élément est à une distance bornée de la position où il devrait être, ou bien tous les éléments sauf un nombre borné sont à leur place). Dans cette situation particulière, le tri par insertion surpasse d'autres méthodes de tri : par exemple, le tri fusion et le tri rapide (avec choix aléatoire du pivot) sont tous les deux en formula_1 même sur une liste triée. Variantes et optimisations. Optimisations pour les tableaux. Plusieurs modifications de l'algorithme permettent de diminuer le temps d'exécution, bien que la complexité reste quadratique. Le tri de Shell est une variante du tri par insertion qui améliore sa complexité asymptotique, mais n'est pas stable. Tri par insertion sur des listes. Le principe du tri par insertion peut être adapté à des listes chaînées. Dans ce cas, le déplacement de chaque élément peut se faire en temps constant (une suppression et un ajout dans la liste). Par contre, le nombre de comparaisons nécessaires pour trouver l'emplacement où insérer reste de l'ordre de "n²/4", la méthode de recherche par dichotomie ne pouvant pas être appliquée à des listes. Combinaison avec d'autres tris. En pratique, sur les petites entrées, en dessous d'une taille critique "K" (qui dépend de l'implémentation et de la machine utilisée), les algorithmes de tri en formula_2 basés sur la méthode « diviser pour régner » (tri fusion, tri rapide) sont moins efficaces que le tri par insertion. Dans ce type d'algorithmes, plutôt que de diviser récursivement l'entrée jusqu'à avoir des sous-problèmes élémentaires de taille 1 ou 2, on peut s'arrêter dès que les sous-problèmes ont une taille inférieure à "K" et les traiter avec le tri par insertion. Pour le cas particulier du tri rapide, une variante plus efficace existe : |
Tri à bulles Le tri à bulles ou tri par propagation est un algorithme de tri. Il consiste à comparer répétitivement les éléments consécutifs d'un tableau, et à les permuter lorsqu'ils sont mal triés. Il doit son nom au fait qu'il déplace rapidement les plus grands éléments en fin de tableau, comme des bulles d'air qui remonteraient rapidement à la surface d'un liquide. Le tri à bulles est souvent enseigné en tant qu'exemple algorithmique, car son principe est simple. Mais c'est le plus lent des algorithmes de tri communément enseignés, et il n'est donc guère utilisé en pratique. Algorithme de base. Principe et pseudo-code. L'algorithme parcourt le tableau et compare les éléments consécutifs. Lorsque deux éléments consécutifs ne sont pas dans l'ordre, ils sont permutés. Après un premier parcours complet du tableau, le plus grand élément est forcément en fin de tableau, à sa position définitive. En effet, aussitôt que le plus grand élément est rencontré durant le parcours, il est mal trié par rapport à tous les éléments suivants, donc permuté avec le suivant jusqu'à arriver à la fin du parcours. Après le premier parcours, le plus grand élément étant à sa position définitive, il n'a plus à être traité. Le reste du tableau est en revanche encore en désordre. Il faut donc le parcourir à nouveau, en s'arrêtant à l'avant-dernier élément. Après ce deuxième parcours, les deux plus grands éléments sont à leur position définitive. Il faut donc répéter les parcours du tableau, jusqu'à ce que les deux plus petits éléments soient placés à leur position définitive. Le pseudo-code suivant est repris de Knuth. tri_à_bulles(Tableau T) pour i allant de (taille de T)-1 à 1 pour j allant de 0 à i-1 si T[j+1] < T[j] (T[j+1], T[j]) = (T[j], T[j+1]) Une optimisation courante de ce tri consiste à l'interrompre dès qu'un parcours des éléments possiblement encore en désordre (boucle interne) est effectué sans permutation. En effet, cela signifie que tout le tableau est trié. Cette optimisation nécessite une variable supplémentaire. tri_à_bulles_optimisé(Tableau T) pour i allant de (taille de T)-1 à 1 tableau_trié := vrai pour j allant de 0 à i-1 si T[j+1] < T[j] (T[j+1], T[j]) = (T[j], T[j+1]) tableau_trié := faux si tableau_trié fin tri_à_bulles_optimisé Complexité. Pour le tri non optimisé, la complexité en temps est de Θ("n"), avec "n" la taille du tableau. Pour le tri optimisé, le nombre d'itérations de la boucle externe est compris entre 1 et "n". En effet, on peut démontrer qu'après la "i"-ème étape, les "i" derniers éléments du tableau sont à leur place. À chaque itération, il y a exactement "n"-1 comparaisons et au plus "n"-1 permutations. Exemple étape par étape. Application du tri à bulles au tableau de nombres « 5 1 4 2 8 » ; pour chaque étape, les éléments comparés sont en gras. Variantes de l'algorithme. Tri cocktail. Un dérivé du tri à bulles est le "tri cocktail" ou tri shaker. Cette méthode de tri est basée sur l'observation suivante : dans le tri à bulles, les éléments peuvent avancer rapidement vers la fin du tableau, mais ne sont déplacés vers le début du tableau que d'une position à la fois. L'idée du tri cocktail consiste à alterner le sens du parcours. On obtient un tri un peu plus rapide, d'une part parce qu'il nécessite moins de comparaisons, d'autre part parce qu'il relit les données les plus récentes lors du changement de sens (elles sont donc encore dans la mémoire cache). Cependant, le nombre de permutations à effectuer est identique (voir ci-dessus). Ainsi, le temps d'exécution est toujours proportionnel à "n" donc médiocre. Tri jump-down. Le code de ce tri ressemble énormément au tri à bulles. Tout comme le tri à bulles, ce tri fait remonter en premier les plus grands éléments. Toutefois, il ne travaille pas sur des éléments adjacents ; il compare chaque élément du tableau avec celui qui est à la place du plus grand, et permute lorsqu'il trouve un nouveau plus grand. tri_jump_down(Tableau T) pour i allant de taille de T - 1 à 1 pour j allant de 0 à i - 1 si T[i] < T[j] permuter(T[i], T[j]) Tri combsort. Une variante du tri à bulles, nommée tri à peigne ('), fut développée en 1980 par Włodzimierz Dobosiewicz et réapparut en avril 1991 dans '. Elle corrige le défaut majeur du tri à bulles que sont les « tortues » et rend l'algorithme aussi efficace que le tri rapide. |
Toaster |
2 Tone Records 2 Tone Records est un label de musique britannique indépendant créé en 1979 par le fondateur des Specials Jerry Dammers, avec comme têtes de file les groupes The Specials, Madness, The Beat, The Selecter et Bad Manners. Musicalement, le label se consacre principalement à des artistes britanniques jouant du ska, du rocksteady et du reggae. Il a donné son nom à un sous-genre musical, baptisé « 2 tone », une forme de ska influencée par le punk rock et la new wave, dont les représentants sont presque tous signés par ce label. Histoire. Les deux tons ("two tone") peuvent être compris de plusieurs façons. Visuellement, le logo du label 2 Tone représente un échiquier ou juste une bande de carreaux noirs et blancs. Ce qui donne une explication de la base idéologique du mouvement 2 tone : noirs et blancs réunis. Des slogans tels que « "" » (musique contre le racisme) sont très représentatifs du mouvement. Les deux tons sont aussi une allusion au tempo du ska (temps-contre-temps, rythme syncopé), car le two-tone est, musicalement, un sous-genre du ska. « Two-Tone » peut désigner aussi bien le drapeau au damier noir et blanc que la période de 1979 à 1981, ou encore qualifier un groupe ska de cette période (ex : Madness est un groupe 2 Tone). La mascotte du label est Walt Jabsco, dont le design est inspiré d'une vieille photo de Peter Tosh, sur la pochette d'un album des Wailing Wailers de 1964, "Studio One". Ces groupes adoptent un look caractéristique reconnaissable au premier coup d'œil ; ils reviennent aux origines du mouvement skinhead en prenant l'apparence des rude boys ; costume noir et chemise blanche, un chapeau nommé "pork pie hat", souvent décoré à sa base de damiers, les vêtements Fred Perry (habits de sports de luxe récupérés par les skinheads) Le damier two-tone est d'ailleurs devenu un des symboles du ska, il vient du fameux drapeau à damier utilisé lors des courses de scooter affectionnées par les Mods (années 1960 jusqu'à 69), puis par les rude boys et skinheads des origines. |
Teddy Boys Le mouvement des , issu de la sous-culture britannique des années 1950, était constitué de jeunes anglais (les Teddy Boys) portant des vêtements d'inspiration édouardienne et souvent considérés comme violents et durs. La ville de Londres en fut l'épicentre. La mode se répandit très vite à travers le Royaume-Uni et fut dès ses débuts associée au rock 'n' roll. Bien qu'il y eût déjà, au , à Manchester et à Liverpool, des bandes de jeunes, appelés "scuttlers", ayant leurs propres codes vestimentaires, les "Teddy Boys" furent les premiers à s'imposer comme , contribuant ainsi à l'émergence d'une culture de consommation propre à la jeunesse. Le mouvement tira son nom du gros titre d'un journal de 1953 qui utilisait le diminutif "Teddy" pour "Edward", auquel fut adjoint le terme "boy" (garçon en anglais). Certains formèrent des gangs qui firent leur notoriété en s'affrontant lors de violentes échauffourées souvent amplifiées par la presse populaire. Les affrontements les plus mémorables furent notamment ceux de Notting Hill, en 1958, au cours desquels les "Teddy boys" furent impliqués en grande part dans des agressions envers des personnes de la communauté des Antilles britanniques. Dans la fiction. Ces mœurs violentes sont décrites : |
Evenks Les Evenks ou Ewenkis (russe : ; ) constituent l'un des peuples Toungouses de Sibérie (Russie et Nord-Est de la Chine). Leur langue est une langue toungouse, l'evenki. Les Evenks forment au total une population d'environ qui ne pratiquent pas tous la même religion ; certains pratiquent le lamaïsme, d'autres sont orthodoxes et d'autres encore restent dans un système animiste articulé autour du chamanisme. Ils constituent également l'une des nationalités de Chine où, selon le recensement de 2000, ils seraient autour de . Le recensement de 2010 a dénombré Evenks en Russie contre en Chine. |
Totémisme Le totémisme est un concept anthropologique qui désigne un mode d'organisation social et religieux, clanique ou tribal, fondé sur le principe du totem. On peut dire, par exemple, comme Anne Stamm, ethnologue membre du CTHS, qui écrivait : « un "totem" est un animal, un végétal, voire un objet fabriqué qui est considéré non seulement comme le parrain du groupe ou de l'individu mais comme son père, son patron ou son frère : un clan se dit parent de l'ours, de l'araignée ou de l'aigle ». Le lien entre le groupe social, ou l'individu, et son totem n'est pas seulement fondé sur une analogie de nom ou sur une ressemblance quelconque (la ruse du renard et la ruse d'un individu), mais est un rapport spirituel qu'on a pu qualifier de mystique . Bien que le nom du totémisme provienne du mot « totem », lui-même emprunté à l'ojibwa (langue algonquienne) "ototeman", le totémisme se retrouve dans d'autres cultures qu'en Amérique du Nord, par exemple en Amazonie, chez les Aborigènes d'Australie, en Papouasie-Nouvelle-Guinée, en Afrique (chez les Dinka), etc . Description. La conception traditionnelle du totémisme par les anthropologues associe plusieurs éléments : Pour autant, ces éléments ne font pas bloc. Par exemple, on peut détacher l'exogamie : il existe des clans totémiques endogames. Le point le plus important est la définition du totem comme apparentement ou amitié entre une espèce naturelle et un groupe humain, en même temps que la définition du totémisme comme organisation sociale du clan (groupe exogame dont les membres se réclament d'un ancêtre commun, en vertu d'un mode de filiation exclusif). Le totémisme se distingue de la possession d'un esprit tutélaire, phénomène répandu chez les Nord-Amérindiens. Histoire du totémisme, comme catégorie anthropologique. C'est à partir d’un terme ojibwé, langue algonquienne parlée autour des Grands Lacs de l'Amérique du Nord, que se constitue le « totémisme ». Le mot revient à un anglais, John Long, qui l'utilisa en 1791 pour désigner un esprit bienveillant qui protège les hommes. Un groupe d'hommes est ainsi sous la protection d'un totem. C'est James George Frazer qui introduit le débat sur le totémisme en 1887 et qui propose la définition suivante : « un totem est une classe d'objets matériels que le sauvage considère avec un respect superstitieux et environnemental, croyant qu'il existe entre lui et chacun des membres de la classe une relation intime et tout à fait spéciale ». Pour les anthropologues américains, qui révisent les théories britanniques (constituées à partir de l'ethnographie australienne) à la lumière des faits ethnographiques recueillis auprès des peuples autochtones amérindiens, le totem désigne le nom d'un groupe. On privilégie la relation entre le groupe ou l'individu avec l'objet naturel duquel il porte le nom. Franz Boas précise qu'il ne cherche pas à étendre cette analyse, car il n'entend pas faire du totémisme une théorie générale, au contraire de James Frazer, qui cherche une unité dans le totémisme. James G. Frazer (1887). James G. Frazer (et l'école évolutionniste britannique) fait de l'Australie le terrain privilégié du totémisme, qu'il veut constituer en théorie générale. Selon Claude Lévi-Strauss, James G. Frazer confond trois phénomènes distincts : l'organisation clanique, l'attribution aux clans de noms ou emblèmes animaux ou végétaux, la croyance en une parenté entre un clan et un totem. William H. Rivers (1914). Dans "The History of Melanesian Society" (1914), William H. Rivers distingue trois traits dans le totémisme. 1) Un élément social : il y a connexion entre un groupe exogamique du clan et une espèce animale ou végétale ou une classe d'objets. 2) Un élément psychologique : le « primitif » croit qu'il existe une parenté entre les membres du groupe et un animal, une plante ou un objet. 3) Un élément rituel : le totem mérite respect, on ne peut manger l'animal ou la plante, on ne peut utiliser l'objet. Sigmund Freud (1913). Pour Sigmund Freud, le repas totémique est absorption de la vie sacrée, mais l'animal sacrifié est, en réalité, le substitut du père, il permet aux « frères chassés » de s'identifier à leur père. Franz Boas (1916). Franz Boas – et les anthropologues américains – propose une autre définition du totémisme à partir des faits amérindiens, mais précise que ce qu'il avance ne concerne que les Indiens Kwakiutl. Il considère davantage le totémisme comme un outil analytique servant à décrire des situations ethnographiques particulières. Pour les Américains , le totémisme « en général » n'existe pas. « Le totémisme se caractérise fondamentalement par l'association entre différents types d'activités ethniques et l'exogamie ou l'endogamie », il vaut donc comme classification. A. P. Elkin (1933). A. P. Elkin définit le totémisme comme la croyance qu'il y a partage d'« une même forme de vie », communauté d'essence entre une personne ou un groupe de personnes d'un côté et, de l'autre, des espèces naturelles – animale, végétale, atmosphérique – ou un objet. Il distingue quatre formes du totémisme en Australie. 1) Totémisme individuel. Une personne et une seule, médecin, sorcier, est impliquée dans une relation avec une espèce naturelle ou un membre de cette espèce. Plusieurs cas se présentent. Chez les Wuradjeri, un jeune reçoit un totem lors de son initiation, ou un reptile sert d'auxiliaire ou de second moi, "alter ego", à un médecin indigène… 2) Totémisme sexuel. Chaque sexe peut avoir son emblème, par exemple un oiseau. Les Kurnai prennent deux oiseaux différents comme emblèmes, un pour chaque sexe. Un peu à part, le totémisme conceptuel des Aranda et des Aluridja dépend du lieu où la mère a pris conscience de sa grossesse. 3) Le totémisme collectif : de moitiés, de sections, de sous-sections. Il y a moitié lorsque la société, en régime de filiation unilinéaire, se divise en deux groupes mutuellement exclusifs. Chaque moitié a son totem. 4) Totémisme clanique. Un clan est un groupe qui déclare descendre d'un même ancêtre. Le totem sert alors de symbole d'appartenance commune. Claude Lévi-Strauss (1962). Claude Lévi-Strauss, dans "Le Totémisme aujourd'hui", tient le totémisme pour une illusion des anthropologues du : « le totémisme est une unité artificielle, qui existe seulement dans la pensée de l'ethnologue, et à quoi rien de spécifique ne correspond au dehors » (). Il ne s'agit que d'une logique de classification. Le « totémisme » ne se contente pas de mettre en correspondance, terme à terme, un individu ou un groupe avec un animal ou une plante qui est considéré comme son totem, il pose un système de différence entre une série naturelle et une série culturelle. « Le terme totémisme recouvre des relations idéalement posées, entre deux séries, l'une naturelle, l'autre culturelle. La série naturelle comprend d'une part des catégories, d'autre part des individus ; la série culturelle comprend des groupes et des personnes. Tous ces termes sont arbitrairement choisis pour distinguer, dans chaque série, deux modes d'existence, collectif et individuel, et pour éviter de confondre les séries. » (). La même année, dans "La Pensée sauvage", Lévi-Strauss examine une autre forme de totémisme : non plus le totémisme classificatoire mais le totémisme ontologique. Cette fois, il y a identification entre groupes humains et espèces animales, l'un et l'autre ont des qualités en commun. On trouve ce totémisme chez les Chicasaw, Indiens du sud-est des États-Unis, qui postulent une « analogie entre groupes humains et espèces naturelles » : ils comparent un clan ou hameau au raton laveur – qui se nourrit de poisson et de fruits sauvages –, au puma – qui vit dans les montagnes, évite l'eau, consomme beaucoup de gibier –, etc. Philippe Descola (2005). Parmi les anthropologues contemporains, Philippe Descola a redéfini le totémisme dans "Par-delà nature et culture". Il se place pour cela dans la situation de l'Homme s'identifiant au monde suivant deux perspectives complémentaires : celle de son « intériorité » et celle de sa « physicalité » vis-à-vis des autres, humains et non-humains. Le totémisme poserait une identité commune des intériorités des existants, humains et non-humains, mais aussi une identité commune entre leurs physicalités. L'anthropologue décrit les trois autres « ontologies » qui suivent la perception d'une fusion ou d'une rupture entre intériorité et physicalité, et qui se nomment animisme, analogisme et naturalisme ; les quatre modes (identité/rupture) * (intériorité/physicalité) réunis auraient une vocation universelle, tout en revêtant diverses formes de cohabitation ou de dominance suivant les cultures (qu'elles soient archaïques, traditionnelles ou modernes). Ontologie. Le totémisme repose sur cette affirmation : « ressemblance des intériorités » et « ressemblance des physicalités » entre humains et non-humains – animaux, végétaux, esprits, objets. D'une part, les animaux, les plantes ont la même âme, intériorité – émotions, conscience, désirs, mémoire, aptitude à communiquer… – que les humains. D'autre part, tous partagent « une même substance – la chair, le sang, la peau » et « une même forme de vie ». Il y a, comme dans l'animisme, classification par prototype, à partir du modèle le plus représentatif, qui est dans le totémisme l'unité d'origine, un ensemble d'attributs identifiant l'espèce emblématique, par exemple le kangourou, rapide, à sang chaud. « De même que l'animisme est anthropogénique parce qu'il emprunte aux humains le minimum indispensable pour que des non-humains puissent être traités comme des humains, le totémisme est cosmogénique car il fait procéder de groupes d'attributs cosmiques préexistants à la nature et à la culture tout ce qui est nécessaire pour que l'on ne puisse jamais démêler les parts respectives de ces deux hypostases dans la vie des collectifs. ». Géographie. Descola considère que cette définition du totémisme s'applique de façon exemplaire en Australie, mais aussi, sous forme ponctuelle ou résiduelle, dans certaines sociétés à clans du sud-est des États-Unis (Chickasaw) ou chez les Algonquins. Notions. « Hybridation entre humains et non-humains » : le totémisme admet un croisement d'animaux, plantes, humains, d'espèces ou variétés différentes ; « chez les Mangarrayi et les Yangman, les êtres du Rêve sont des hybrides d'humains et d'animaux » . Religion. Dans le temps du rêve, des êtres originaires surgirent des profondeurs de la terre en des sites identifiés, certains laissant des traces sous forme de rochers, points d'eau, bosquets, gisements d'ocre ; ils ont laissé derrière eux une partie des existants actuels, les hommes, les plantes et les animaux avec leurs affiliations totémiques respectives et les noms qui les désignent, les rites et les objets cultuels. Sociabilité. « Échanges de femmes, échanges de services, échanges de nourriture, échanges de ressources » caractérisent la vie sociale, en même temps que l'exogamie. Problème. « Problème du totémisme : comment singulariser des individus (humains et non humains) au sein d'un collectif hybride ? Solution : distinguer les attributs de l'individu de ceux de l'espèce ». |
Totem Le nom totem peut revêtir des significations très différentes selon le contexte. Étymologie. Le mot « totem » est emprunté à l’ojibwa, langue algonquine parlée sur le pourtour des Grands Lacs nord-américains. Il est introduit en occident par J. Long en 1791 et c’est à John Ferguson McLennan (1869-1870) que l’on doit le concept anthropologique correspondant. Un Ojibwa entend « totem » dans le sens de relation d’ordre purement sociologique (apparemment d’amitié) entre deux personnes. Ototeman est l’une des premières versions du terme, dans lequel otem, possessif vient du morphème grammatical ote. Le mot, pour les Ojibwas, précise à la fois une relation collective (parenté entre germains, plus généralement dans un groupe exogame), et traditionnelle. La forme aoutem relevée en Acadie en 1609 ne s’est pas répandue en France. Certains groupes ojibwa sont organisés en clans patrilinéaires exogames, lesquels ont pour éponymes le nom d’espèces animales. Le terme sert parfois à énoncer son appartenance clanique : makwa nitotem « l’ours est mon clan ». Il s’agit en fait d’une formule abréviatique qui recouvre la signification suivante « je suis apparenté avec celui qui appartient au clan dont l’éponyme est l’ours, donc j’appartiens à ce clan » (Bonte et Izard, 1995). Il a été introduit dans la littérature, à ce qu’il paraît, par J. Long, interprète indien du siècle dernier, qui l’orthographiait totam. Le R.P. Peter Jones, indien Ojibwa, écrit Toodaim ; Warren, dodaim ; Morgan adopte cette dernière orthographe en la considérant comme une variante de la précédente. Francis Assikinak, indien Ottawa écrit Ottotam. Selon l’abbé Thavent, le mot est proprement « ote » : « famille, tribu », dont la forme passive est otem, avec l’adjectif passif on a nind otem, ma famille, kit otem, ta famille (Frazer, 1898 : 3). Mythes. Le terme renvoie à une appartenance symbolique revendiquée. Anthropologie et psychanalyse. Le sociologue français Émile Durkheim, dans "les Formes élémentaires de la vie religieuse" (1912), analyse le fait religieux totémique en Australie : « c’est seulement à la fin du XVIIIe siècle que le mot totem apparaît dans la littérature ethnographique. On le rencontre pour la première fois dans le livre d’un interprète indien, J. Long, qui fut publié à Londres en 1791 (source : "Voyages and travels of an Indian interpreter"). Pendant près d’un demi-siècle, [et à partir de ce même texte], le totémisme ne fut connu que comme une institution exclusivement américaine. C’est seulement en 1841 que Grey, dans un passage resté célèbre, signala l’existence de pratiques tout à fait similaires en Australie. On commença dès lors à se rendre compte qu’on se trouvait en présence d’un système d’une certaine généralité. (…). Mac Lennan fut le premier ayant entrepris de rattacher le totémisme à l’histoire générale de l’humanité. Dans une série d’articles parus dans la "Fortnightly review", il s’efforça de montrer, non seulement que le totémisme était une religion, mais que de cette religion étaient dérivées une multitude de croyances et de pratiques que l’on retrouve dans des systèmes religieux beaucoup plus avancés ». Marcel Mauss tend vers la définition généralisante lorsqu’il écrit un peu plus tard : « [Totem] désigne brièvement tout ce que nous devons écrire longuement si nous devons donner une définition claire de ce qu’il désigne : un culte thériomorphique de clan ». Le terme chez Mauss provient de l’algonquin (Mauss, 1905). Nous considérons alors à travers ces définitions combien Sigmund Freud se réapproprie un terme de nature sociologique. Les lectures de la part du psychanalyste des textes contemporains aux deux années 1910-1912, de l’anthropologie anglo-saxonne, sont multiples. Il lit "La religion des Sémites" de W.R. Smith (1889), les quatre volumes du "Rameau d’or" de James George Frazer paraissant jusqu’en 1915, mais aussi "Les Formes élémentaires de la vie religieuse" d’E. Durkheim. Freud y puise des concepts et trouve une inspiration déterminante à l’écriture du texte qui insistera aussi sur l’association au tabou, comme interdiction rituelle. |
Taourèt |
Thouéris |
Toéris |
Théisme Le théisme (du grec "theos", dieu) est une conception qui affirme l'existence d'un Dieu à la fois personnel, unique et cause du monde. Le théisme n'est pas nécessairement religieux, il peut aussi être philosophique. Dans le premier cas, la relation de l'homme avec Dieu passe par des intermédiaires (la religion). Selon le théisme philosophique, Dieu régit l'univers directement. Le théisme est opposé à l'athéisme. Parmi les formes de théisme, on peut notamment citer le déisme (théisme irréligieux), le panenthéisme, le monothéisme et le polythéisme. Et à côté de lui (sur le point de la transcendance) le panthéisme (parfois assimilé à un athéisme). Principaux points de la doctrine théiste. Le théisme affirme que : Le théisme religieux. Le théisme religieux ajoute les affirmations suivantes : Le théisme tend ainsi vers un œcuménisme universel, qui tente de concilier les divers enseignements religieux sur un socle commun d'incitation à la vertu. Il appuie sa continuité entre les religions sur des éléments récurrents dans les récits des textes sacrés, tel que le Déluge par exemple, qui se retrouve tant dans l'Hindouisme (Mahabharata) que le Judaïsme et le Christianisme (Livre de la Genèse), le zoroastrisme (Avesta), etc. Il se traduit concrètement dans des institutions telles que le Parlement des religions et les progrès du dialogue interreligieux. Le théisme philosophique. Voltaire a ajouté les affirmations suivantes dans le "Dictionnaire philosophique" : Le théisme philosophique promeut donc le principe de religion naturelle. On remarquera que le théisme philosophique se rapproche fortement du Déisme dit de l'ingérence, affirmant la vanité des préceptes religieux face aux lois immuables de la Justice et du Bien définies et appliquées par Dieu. Cependant, cette forme est susceptible d'être établie comme une véritable religion, à caractère universel, qui comporterait une liste de règles morales ; alors que le déisme refuse toute possibilité d'établir une interprétation objective, qui soit susceptible d'être institutionnalisée en religion (inconstance de l'interprétation de la parole divine). Religions théistes. On peut citer comme exemples de religions théistes l'hindouisme, le judaïsme, le christianisme et l'islam. En revanche, certaines philosophies, qui ne sont pas fondées sur une ou plusieurs divinités, ne sont donc pas explicitement théistes, comme le bouddhisme, le taoïsme et le confucianisme. Toutefois, si la philosophie générale du théisme religieux est plutôt indifférentiste, de sorte que l'on peut trouver son salut dans toute religion, les institutions elles-mêmes sont plus ou moins inclusives ou exclusives: Le théisme religieux est différent d'un déisme institutionnalisé qui, lui, est représenté par la théophilanthropie, pendant la Révolution française, ou par la religion de l’humanité établie au par Saint-Amand Bazard, puis Auguste Comte, à partir de la doctrine de Saint-Simon. |
Tôkyô |
Tchétchène Le tchétchène (autonyme : , ) est une langue appartenant au groupe nakh (tchétchène, ingouche et bats), langues caucasiennes du nord-est. Il est parlé principalement par les Tchétchènes en Tchétchénie et par la diaspora tchétchène à travers le monde. Présentation. La langue écrite est fondée sur le dialecte de Grozny. D'abord écrit avec l'alphabet arabe, le tchétchène a été noté en caractères latins en 1925, avant de passer au cyrillique en 1938. En 1992, après la proclamation de l'indépendance de la Tchétchénie, l'alphabet latin (enrichi de diacritiques) a commencé à être de nouveau utilisé, en rejet à l'alphabet cyrillique considéré comme un symbole de domination et de colonisation russe. Caractéristique de la langue tchétchène. La langue tchétchène s’écrit au moyen d’un alphabet de quarante-neuf lettres et plusieurs diphtongues. L'accent est placé sur la première syllabe du mot. Il existe des voyelles longues et des voyelles courtes. Les voyelles nasales n'existent pas. Cette langue a quatre genres, le masculin et le féminin mais aussi deux genres neutres. Il existe huit cas : nominatif, génitif, datif, ergatif, ablatif, instrumental, locatif et comparatif. L'ordre des mots dans la phrase est libre. Les noms s'accordent en genre et en nombre. Quant au verbe, il s'accorde avec le genre de son sujet lorsqu’il s’agit d’un verbe intransitif et s’accorde avec le genre de son complément d’objet direct lorsqu’il s’agit d’un verbe transitif. Dans une phrase interrogative, l’intonation varie en fonction de la réponse attendue. |
Tribunal de Tôkyô |
Traité de San Francisco Le traité de San Francisco, ou "traité de paix avec le Japon", est un traité qui a été signé le , en conformité avec la Charte des Nations unies et la Déclaration universelle des droits de l'homme, à la fin de la « Conférence de la paix » concernant les campagnes du Pacifique. Cette conférence s'était ouverte, une semaine plus tôt, le dans la ville de San Francisco : la signature n’a été apposée que par quarante-huit des cinquante et un pays participants. Le traité est entré en vigueur l'année suivante, le . La république de Chine ne participa pas à ce traité : elle signa un traité séparé avec le Japon à Taipei, le . Termes du traité. Le Japon reconnaît l’indépendance de la Corée, renonce à Taïwan, aux îles Pescadores, aux îles Kouriles, à la partie sud de Sakhaline, à tout droit sur la zone antarctique et aux îles Spratleys et Paracels, et s'engage à offrir des compensations aux pays et aux victimes de son expansionnisme militaire. Seule la période entre le (date de l’attaque de Pearl Harbor) et le (date de la capitulation du Japon) est concernée par le traité, excluant ainsi les dix premières années de l'expansionnisme du Japon Shōwa, principalement au détriment de la Chine. Selon l'historienne Linda Goetz Holmes, cette obligation n'a jamais vraiment été exécutée puisque l'argent utilisé par le gouvernement japonais provenait de fonds d'aide aux victimes mis sur pied par trois États alliés et confisqué en 1945 par le régime shōwa (à commencer par le royaume de Ryūkyū conquis par le Japon en 1879 qui accueille des troupes d’occupation américaines dans les bases d'Okinawa). Quarante-huit pays alliés de la Seconde Guerre mondiale signèrent ce document. Toutefois, d'importants pays, soit ne furent pas invités à la conférence (comme la république populaire de Chine, que peu d'États occidentaux reconnaissent à l'époque), soit refusèrent d'y participer (Birmanie, Inde, Yougoslavie), soit refusèrent de signer le traité (URSS, Tchécoslovaquie, Pologne). Ce traité entra en application le et donna l'indépendance au Japon, mettant ainsi fin à la période d'occupation qui durait depuis 1945. |
Organisme thermophile Les organismes thermophiles (du grec "thermê", chaleur et "philein", aimer) ou hyperthermophiles sont des organismes qui ont besoin d'une température élevée pour vivre. Ils font partie des organismes extrêmophiles. Les premiers ont été découverts à la fin des années 1960 par Thomas D. Brock dans le parc national de Yellowstone. Les thermophiles. Les organismes thermophiles peuvent vivre et se multiplier entre 50 et . Ils peuvent croître entre 25 et mais faiblement. Il existe des organismes thermophiles parmi les différents groupes d'organismes eucaryotes comme des protozoaires, des champignons, des algues, et des procaryotes comme des streptomycètes, des cyanobactéries, des "Clostridium", des "Bacillus". Les eucaryotes connus ne peuvent pas vivre à des températures supérieures à . La bactérie "Thermus aquaticus" est un exemple d'organisme thermophile ; la haute résistance thermique de son ADN polymérase est utilisée pour la réaction en chaîne par polymérase. Les hyperthermophiles. Les organismes hyperthermophiles sont ceux qui peuvent optimalement vivre et se multiplier à des températures supérieures à (de 80 et pour ceux que l'on connaît). Ils sont incapables de croître à des températures inférieures à . Ils ne sont à ce jour représentés que par des procaryotes, quelques bactéries et surtout "Archaea". Habitats, niches écologiques. Les organismes thermophiles et hyperthermophiles peuvent être isolés de biotopes comme des systèmes hydrothermaux volcaniques et géothermiques, comme des sources chaudes, cheminées hydrothermales sous-marines… Mécanismes adaptatifs. Les températures élevées augmentent la fluidité des membranes (à une température critique, les deux feuillets membranaires se séparent, entraînant des fuites du cytoplasme vers l'extérieur) et détruisent de nombreuses macromolécules organiques. Pour maintenir la fluidité et la cohérence optimale des membranes et de leur milieu interne, ces cellules doivent ajuster leur composition en lipide (ratio acide gras saturé et insaturé, liaisons tétra-éther plus solides). Elles forment, au lieu de la bicouche de phospholipides classique, une monocouche partielle (ponts moléculaires entre les chaînes d'acide gras) ou totale de lipides, empêchant ainsi toute fusion à haute température). La température affecte aussi la structure et la fonction des protéines et enzymes dont la stabilité est associée à des changements structurels (augmentation des résidus hydrophobes, des ponts disulfures). Certains espèces hyperthermophiles utilisent également des protéines chaperons qui demeurent à proximité de la cellule et participent au repliage des protéines qui ont été dénaturés. Les gyrases évitent la dénaturation de la double hélice d'ADN. Le fonctionnement au niveau moléculaire des protéines et enzymes thermophiles est très étudié afin d'une part, de mieux comprendre l'adaptation aux fortes températures et d'autre part, pour des applications biotechnologiques (biologie moléculaire). Certains biologistes font l'hypothèse que les micro-organismes thermophiles et barophiles ressembleraient plus que tout autre être vivant actuel à l'ancêtre commun de toutes les cellules modernes, "le Last universal common ancestor" (Dernier ancêtre commun universel ou LUCA), et que la structure du code génétique aurait été formée chez ces organismes, en milieu hyperthermique et à haute pression hydrostatique. Cette hypothèse ne fait cependant pas l'unanimité parmi les scientifiques. |
Terry Pratchett Terry Pratchett (), né le à Beaconsfield (Buckinghamshire) et mort le à Broad Chalke (Wiltshire), est un écrivain britannique. Il est principalement connu pour ses romans de fantasy humoristique prenant place dans l'univers du Disque-monde, dans lequel il détourne les canons du genre pour se livrer à une satire de divers aspects de la société contemporaine. Pratchett publie son premier roman en , mais ce n'est qu'en qu'il rencontre vraiment le succès avec le premier volume des "Annales du Disque-monde". Il devient par la suite l'un des auteurs de fantasy les plus prolifiques (les "Annales" comptent plus de trente tomes) et les plus appréciés. Ses livres se sont vendus à plus de d'exemplaires dans 37 langues. Pratchett est ainsi l'auteur britannique le plus vendu des années 1990. Selon un sondage publié en dans le magazine littéraire britannique , Terry Pratchett est alors le second auteur vivant le plus apprécié de ses compatriotes, derrière J. K. Rowling. Il est anobli par la reine en , et reçoit de nombreuses récompenses pour son œuvre. Atteint d'une forme rare de la maladie d'Alzheimer, il milite pendant ses dernières années en faveur du droit au suicide assisté, notamment dans son documentaire ". Biographie. Jeunesse. Terence David John Pratchett est né le à Beaconsfield dans le Buckinghamshire, en Angleterre. Il est le fils unique de David et Eileen Pratchett, originaires de Hay-on-Wye. La famille déménage à Bridgwater dans le Somerset en , où Terry intègre la ". Il se décrit comme un et affirme devoir son éducation à la bibliothèque publique de Beaconsfield. Il s'intéresse à l'astronomie : il collectionne les cartes concernant l'espace offertes dans les paquets de thé Brooke Bond, possède un télescope et rêve de devenir astronome, mais il n'est pas assez doué en mathématiques. Son intérêt se porte ensuite sur les romans de science-fiction anglais et américains, ce qui l'amène à assister à des conventions de science-fiction à partir de -, jusqu'à ce qu'il commence à travailler. Ses premières lectures incluent les œuvres de H. G. Wells et d'Arthur Conan Doyle, ainsi que , ce qu'il considère comme . À , Terry Pratchett publie sa première nouvelle, "", dans le magazine de l'école. Elle est publiée commercialement alors qu'il a . Il suit des cours d'arts, d'anglais et d'histoire. Il choisit d'embrasser la carrière de journaliste avant la fin de ses études et est embauché à , en , au journal local '. Il y écrit, entre autres, plusieurs histoires pour la section ' sous le pseudonyme d'. Un des épisodes fait apparaître les personnages de son futur roman "Le Peuple du Tapis". Pendant ses jours de repos, il parvient à décrocher des diplômes avancés en anglais (A-level) tout en prenant des cours de journalisme. Carrière. En , Pratchett, alors journaliste, réalise l'interview de Peter Bander Van Duren, le codirecteur de , une petite maison d'édition de Gerrards Cross. Lors de cette rencontre, Pratchett mentionne le livre qu'il a écrit, "Le Peuple du Tapis". Bander Van Duren et Colin Smythe acceptent d'éditer le livre en , avec des illustrations de Pratchett lui-même. Il reçoit des critiques favorables, bien que peu nombreuses. Pratchett renouvelle l'expérience avec deux autres romans de science-fiction : "La Face obscure du Soleil" en et "Strate-à-gemmes" en . En , après avoir changé plusieurs fois d'employeur, il devient chargé des relations publiques pour le (bureau pour l’énergie) dans une zone qui recouvrait plusieurs centrales nucléaires. Par la suite, il affirme en plaisantant avoir choisi le moment idéal : quelques mois plus tôt s'est produit l’accident nucléaire de Three Mile Island aux États-Unis. Son premier roman de la série "Disque-monde" est publié en par . Les droits pour la version poche sont rapidement acquis par Corgi, une filiale de l'éditeur . L'auteur gagne en popularité lorsqu'il est mis en avant dans l'émission radio de la BBC « "" » ; il signe alors chez l'éditeur Victor Gollancz, dont il est le premier auteur de fantasy. Colin Smythe devient son agent. À cette époque, Pratchett prend l'habitude d'écrire tous les soirs après le travail, environ 400 mots. Terry Pratchett rencontre un tel succès qu'il peut abandonner son poste au CEGB en , après la publication du quatrième volume du "Disque-monde", "Mortimer". Il se consacre ensuite exclusivement à l'écriture, et voit ses ventes décoller : ses livres figurent fréquemment dans le haut des classements de . Selon le journal ', Pratchett est l'auteur britannique le plus lu en et également le plus vendu des années 1990. Selon le ' de , les ventes britanniques de Pratchett en représentent 3,4 % du marché de la fiction en format relié, ce qui le classe deuxième derrière J. K. Rowling (6 %). Les versions poche de ses ouvrages représentent quant à elles 1,2 % du marché. Il se vend en effet plus de de livres de Pratchett par an, rien qu'au Royaume-Uni. Vie personnelle. Terry Pratchett se marie en 1968 avec Lyn Purves. Ils déménagent à Rowberrow, près de Shipham dans le Somerset en . Ils ont une fille, Rhianna, en ; elle devient journaliste puis scénariste de jeux vidéo. La famille déménage en dans un village au nord-ouest de Salisbury, dans le Wiltshire. Terry Pratchett dit aimer . Il se décrit comme un humaniste, soutient activement la et est membre de la . Très proche de ses lecteurs, il a souvent participé aux forums de discussion qui lui sont consacrés sur Usenet : "alt.books.pratchett" et "alt.fan.pratchett". Selon un sondage publié en dans le magazine littéraire britannique , Terry Pratchett est le second auteur vivant le plus apprécié de ses compatriotes, derrière J. K. Rowling. Parmi ses autres passions, l'histoire naturelle a une place importante. Il possède notamment une serre avec des plantes carnivores.Le , il est anobli par la reine et devient , ce qui lui confère le droit d'être appelé « ». Il commente alors : Fin , il entreprend de se fabriquer une épée avec l'aide d'amis. Il explique plus tard au "" avoir récolté du minerai de fer, construit un four et fondu une lame ; son vieil ami et agent Colin Smythe lui offre même quelques morceaux de météorite de fer qu'il ajoute à l'alliage. Le , son blason, créé par , fut accordé par et du College of Arms. La chouette ("Ninoxe boubouk", ou Morepork en anglais) reposant sur de l'eau et la croix Ânkh sont des références à la cité d'Ankh-Morpork (la ville jumelle composée des vieilles villes d'Ankh et de Morpork séparées par la rivière). Elles figurent sur le blason de la cité comme décrit dans le Roman Pieds d'argile () où l'auteur critique à sa manière ironique l'héraldique et Collège Royal Héraldique d'Ankh-Morpork (l'équivalent Morporkien du College of Arms). Les livres rouges (de gueules selon le terme héraldique ) représentent l’œuvre de l'auteur qui lui valut son anoblissement. La devise signifie en latin "Ne craignez pas le Faucheur". La Mort (personnage présent dans presque tous ses livres), ainsi que son acceptation étant des sujets clé de l’œuvre de Terry Pratchett. L'utilisation de majuscules, bien qu'habituelle dans ce contexte, ne peut que rappeler l'"élocution" de la Mort tout au long de l’œuvre. En effet, lorsque la Mort (ou celui ou celle qui le remplace) parle, ses propos sont systématiquement écrits en majuscules. Le , la mort de Terry Pratchett fut communiquée (entre autres) par le biais de Twitter. Ses trois derniers tweets (postés par son assistant Rob Wilkins) ont marqué ses très nombreux admirateurs : "AT LAST, SIR TERRY, WE MUST WALK TOGETHER." "Terry took Death’s arm and followed him through the doors and on to the black desert under the endless night." "The End." (Fin). C'est ainsi que ses proches ont choisi de lui rendre hommage, en lui faisant quitter ce monde tel un de ses personnages. Malgré ses plaidoyers pour le suicide assisté, il semblerait que sa mort fût naturelle. Maladie d'Alzheimer. En , alors qu'il est âgé de 59 ans, il se voit diagnostiquer à tort un qui lui aurait endommagé la partie droite du cerveau. Il constate que ses facultés motrices sont réduites, mais pas son écriture. En , on lui annonce le diagnostic réel : une avec atrophie corticale postérieure. L'écrivain ne tarde pas à annoncer sa maladie, qu'il compare à . Il dit prendre les choses . Pratchett affirme qu'il sent qu'il pourra faire , et explique qu'aux personnes qui lui diront : , il ne répondra positivement . Interviewé lors du festival de littérature de Bath, il confie qu'il lui est devenu trop difficile d'écrire des dédicaces. En , Pratchett annonce qu'il fait une donation d'un million de dollars américains à l’. Il se dit choqué d'avoir appris que le budget de la recherche dans la maladie d'Alzheimer ne représente que 3 % de celui pour le cancer. En , il crée, en collaboration avec la BBC, un documentaire en deux parties basé sur sa maladie : « " » (« Vivre avec Alzheimer »). Les deux parties, diffusées le et le , rassemblent respectivement (10,4 % d'audience) et de téléspectateurs (6,8 %). Le documentaire remporte un BAFTA du meilleur documentaire. Dans un article de , Terry Pratchett explique qu'il souhaite un « suicide assisté », bien qu'il n'aime pas ce terme, avant que sa maladie ne parvienne à un stade critique. L'écrivain est choisi par la BBC pour donner la « conférence Richard Dimbleby » en , qu'il intitule « " ». La conférence, diffusée le , est lue par son ami Tony Robinson : Pratchett n'en assure que l'introduction à cause des problèmes de lecture que sa maladie lui occasionne. Il prend notamment position pour l'euthanasie qui fait débat au Royaume-Uni. Le , il annonce avoir entamé la procédure visant à obtenir un suicide assisté auprès de l'organisation suisse Dignitas. Deux jours plus tard, la chaîne de télévision diffuse le documentaire "" (« Choisir de mourir »), à propos du suicide assisté ; on y voit la mort d'une personne atteinte d'une maladie neurodégénérative. Terry Pratchett remporte un nouveau BAFTA pour cette réalisation en . Après avoir terminé un dernier roman du Disque-monde au cours de l'été , il cesse toute activité à cause de la maladie et décède le à son domicile. Œuvre. Selon Terry Pratchett, un écrivain doit lire énormément, que ce soit dans son genre littéraire ou en dehors, jusqu'à saturation. Pour lui, l'écriture est un travail difficile, pour lequel on doit . Cependant, il aime écrire et considère la rétribution financière comme plutôt que comme la raison de son travail. En 2010, ses ventes totales franchissent la barre des d'exemplaires. Le genre fantasy. Après quelques histoires de science-fiction ou d'horreur, Terry Pratchett se consacre rapidement à la fantasy, expliquant qu' dans ce genre littéraire. Dans un discours, il affirme que , en référence à la série "Harry Potter" de J. K. Rowling et à celle du "Seigneur des anneaux" de . Dans le même discours, il reconnaît les bénéfices amenés au genre par ces œuvres. Il dit avoir une dette envers le genre science-fiction et la fantasy qui l'a vu grandir, mais déteste l'appellation « réalisme magique », qui est selon lui . Il trouve dommage que la fantasy soit déconsidérée en tant que genre littéraire alors qu'il s'agit de la plus ancienne des formes de fiction, et se dit lorsque des romans contenant des éléments de science-fiction ou de fantasy ne sont pas inclus dans ces genres. En , J. K. Rowling donne une interview au "Time Magazine" dans laquelle elle explique que lorsqu'elle écrivait "Harry Potter", elle ne se rendait pas compte qu'elle écrivait de la fantasy, qui d'ailleurs était un genre qu'elle n'appréciait pas plus que ça. Terry Pratchett réagit en ironisant sur le fait que , ce qui est pris pour une attaque, et même une accusation de plagiat. Il explique qu'il cherchait à dénoncer l'attitude des journalistes, selon lesquels la fantasy, restée au point mort depuis Tolkien, aurait été réinventée par Rowling. Pour lui, cela revient à ignorer de nombreux auteurs de fantasy innovants. Style et thèmes récurrents. Le succès de Terry Pratchett repose entre autres sur les parodies et les allusions présentes dans ses œuvres. Il amène le lecteur dans un univers de fantasy tout en faisant référence à d'autres univers, ainsi qu'à certains aspects de la réalité. Si ces allusions ont uniquement pour but, dans ses premiers ouvrages, de faire rire, elles évoluent ensuite pour s'intégrer à un niveau plus profond de l'intrigue, faisant appel de manière plus subtile aux connaissances du lecteur. Ces allusions permettent à l'auteur de présenter deux visions parodiques. D'un côté, il parvient à montrer au lecteur les incohérences des univers de fantasy en faisant ressortir à l'extrême ses conventions irréalistes et le manque de bon sens dans certaines situations. Il reprend des clichés du genre et les présente sous un point de vue logique et presque scientifique, accédant ainsi à l'imaginaire d'un large public. À d'autres moments, ce sont certains éléments de la réalité qui sont imités dans son univers de fantasy : le cinéma dans "Les Zinzins d'Olive-Oued", le journalisme dans "La Vérité", etc. Le Disque-monde, allusion directe au monde réel, en permet une interprétation critique. Malgré leur univers de fiction, les romans de Pratchett sont empreints de détails technologiques et de méthodologie scientifique, dans la lignée de l'écrivain Lyon Sprague de Camp. Il développera certaines de ses idées en allant jusqu'à la vulgarisation scientifique dans "La Science du Disque-monde". Terry Pratchett est aussi connu pour son style d'écriture original qui inclut un certain nombre d'éléments caractéristiques, comme l'utilisation de notes de bas de page qui impliquent souvent une digression comique ou un commentaire sur la narration. Il évite d'utiliser des chapitres, ce qu'il explique dans une interview pour "" : . Il ajoute : . Certains de ses ouvrages font néanmoins exception, comme "Timbré" ou "Monnayé", ainsi que quelques-uns de ses livres pour enfants. Il explique que dans les œuvres pour jeunes adultes, son éditeur tant qu'il n'y a pas de chapitres, mais le reste du temps, il estime que cela constitue un obstacle inutile sur le chemin de la narration. La ponctuation entre deux de ces « séquences » sert parfois la narration suivant les éditions. Ainsi, dans "Procrastination", les pendules ponctuant ces « chapitres » sont positionnées afin de figurer un mouvement de balancier pour « s'immobiliser » durant une partie du roman. Les noms des personnages, des lieux et les titres des œuvres de Terry Pratchett contiennent souvent des jeux de mots et des références culturelles. Quelques-uns de ses personnages sont des parodies de personnages connus : par exemple, Cohen le Barbare, aussi appelé Gengis Cohen, est une parodie évidente de Conan le Barbare et de Gengis Khan, tandis que Léonard de Quirm se réfère à Léonard de Vinci. Une autre de ses marques de fabrique est le non-respect des conventions typographiques lors des dialogues de certains personnages. La Mort, par exemple, n'utilise pas les guillemets et ses paroles sont écrites entièrement en capitales, ce qui met en relief le fait qu'il parle par télépathie. Les contrôleurs de la réalité n'utilisent pas non plus de guillemets, et les épiciers d'Ankh-Morpork n'utilisent pas la ponctuation correctement ; de même, les golems mettent une capitale à chaque mot. Évolution. Dans les premiers romans du "Disque-monde", l'histoire s'articule autour des situations humoristiques, échafaudées à l'avance ; les personnages ne font que subir et réagir à ces évènements. Au fur et à mesure de la série, l'univers gagne en profondeur et les scénarios s'étoffent : d'une simple parodie de l'univers fantasy, Pratchett glisse vers la critique de nombreux concepts bien réels. Les personnages mènent l'histoire, et ce sont leur pérégrinations et leur caractère qui amènent les situations humoristiques. L'auteur le reconnait lui-même : L'univers gagne en profondeur, mais devient aussi plus sombre. Le personnage de Samuel Vimaire, commissaire désabusé de la ville d'Ankh-Morpork, a progressivement rendu l'univers plus noir et complexe : les comportements sont plus cruels dans ce que les uns peuvent faire aux autres, mais plus nobles dans ce que les uns peuvent faire pour les autres. L'auteur reconnait que son écriture s'assombrit, mais que c'est parce qu'elle gagne en réalisme : l'humour reste certes un élément principal, mais n'est plus l'unique moteur. Cela se ressent sur les couvertures des livres, devenues moins cartoonesques. Influences. Terry Pratchett pioche sans s'en cacher dans la littérature classique, la culture populaire et l'histoire ancienne, mais toujours en ajoutant une altération inattendue ; les personnages qui en ressortent sont une des principales sources de l'humour qu'on trouve dans son œuvre. Sa passion pour les romans policiers se ressent dans les apparitions fréquentes du guet municipal d'Ankh-Morpork dans les "Annales du Disque-monde". La plupart de ses personnages sont des enfants uniques, tout comme lui ; il explique que . Ses premières inspirations sont "Le Vent dans les saules" de Kenneth Grahame et les œuvres d'Isaac Asimov et d'Arthur C. Clarke. Il découvre par la suite P. G. Wodehouse, Tom Sharpe, Jerome K. Jerome, Roy Lewis, G. K. Chesterton et Mark Twain. Critiques. Les critiques sont très favorables quant à l'ensemble de la carrière de Terry Pratchett. Selon Peter Ingham du ', . Pour Mat Coward du ', . Le journal ' écrit que . Alex Hamilton du ', lui, compare Pratchett à Roald Dahl. Sa série du "Disque-monde", malgré sa longueur, est qualifiée de très inventive. Il est fréquemment considéré comme le meilleur écrivain humoristique actuel. Ouvrages. "Les Annales du Disque-monde". "Les Annales du Disque-monde", série la plus connue de Pratchett, présentent un univers de fantasy humoristique et parodique dans lequel l'action se déroule sur un monde en forme de disque (le Disque-monde), supporté par quatre éléphants reposant eux-mêmes sur le dos de la tortue géante A'Tuin qui voyage sans fin à travers le cosmos. Les romans suivent différents personnages, et les "Annales" peuvent être subdivisées en « sous-séries ». Entamée en , la série compte fin près d'une quarantaine de volumes. Pratchett a également écrit plusieurs nouvelles prenant place sur le Disque-monde. "Les Annales du Disque-monde" parodient de nombreux domaines : la science-fiction, la fantasy (notamment celle de Tolkien), la littérature (les pièces de Shakespeare ou les romans policiers par exemple), les films d’Ingmar Bergman, des pays existants (l’Australie, la Chine, l’Égypte antique, les Caraïbes), des inventions du (le rock 'n' roll, le cinéma), la religion, la philosophie, la monarchie, et bien d’autres choses encore. Mais plus qu’une parodie, le Disque-monde est , comme le dit Terry Pratchett lui-même. Les romans des "Annales du Disque-monde" sont traduits en français par Patrick Couton, qui a reçu en le prix de traduction du grand prix de l'Imaginaire pour son travail. Livres liés au "Disque-monde". En plus des romans, Terry Pratchett a écrit ou collaboré à un certain nombre de livres liés au "Disque-monde". ' (), coécrit avec Stephen Briggs, est un guide encyclopédique de l'univers de la série. La troisième édition, rebaptisée "Le Nouveau Vade-Mecum", paraît en . La collaboration entre Pratchett et Briggs continue en avec "La Carte du Disque-monde" qui comprend une grande carte du "Disque-monde", ainsi qu'un livret contenant les biographies des principaux explorateurs du monde. Plus tard, trois nouvelles cartes sont publiées, représentant Ankh-Morpork, Lancre et le domaine de la Mort. Avec Tina Hannan, Terry Pratchett écrit en "Les Recettes de Nounou Ogg" ('), un livre de cuisine humoristique. En , il s'entoure du mathématicien Ian Stewart et du biologiste Jack Cohen pour écrire le premier livre de la série "La Science du Disque-monde", dont les trois autres volets sortent en , et . Dans ces livres, la fiction côtoie la réalité : les personnages du "Disque-monde" y étudient le « Globe-monde », une métaphore de la Terre, et tentent d'analyser leurs découvertes. En , Pratchett est récompensé pour ces ouvrages de vulgarisation scientifique par un diplôme honorifique de l'université de Warwick, dont sont issus les deux scientifiques coauteurs. Livres pour enfants. Le premier livre pour enfants de Terry Pratchett est aussi son premier roman publié : "Le Peuple du Tapis" ('). Il crée ensuite la trilogie "Le Grand Livre des gnomes" ('). Les trois volumes, "Les Camionneurs" (), "Les Terrassiers" () et "Les Aéronautes" (), ont pour thème de petites créatures ressemblant à des gnomes. Pratchett se lance ensuite dans l'écriture d'une nouvelle trilogie, les "Aventures de Johnny Maxwell", qui suit les péripéties d'un garçon et de ses amis. Les trois opus : "Le Sauveur de l'humanité", "Johnny et les Morts" et "Johnny et la Bombe" sont respectivement sortis en , et . En , Terry Pratchett revient au livre pour enfant avec "Roublard" (""), un roman dont l'action se situe dans les bas-quartiers les plus pauvres de Londres dans les années 1850, et dans lequel le personnage principal éponyme croise la route de personnages réels tels que Charles Dickens ou Robert Peel. En , un recueil de nouvelles pour enfants de Terry Pratchett est publié sous le titre "Les Dragons de Château-Croulant" ('), illustré par Mark Beech. Un autre recueil a suivi, "L'Aspirateur de la sorcière" ('), illustré également par Mark Beech, en . Un troisième recueil, "La Fausse Barbe du père Noël" (""), est sorti en . Autres œuvres. Après "Le Peuple du Tapis", Terry Pratchett écrit deux livres de science-fiction : "La Face obscure du Soleil" et "Strate-à-gemmes", avant d'entamer la série du "Disque-monde". Il sort à plusieurs reprises de cet univers et publie en "Sacrés Chats", un livre humoristique sur les chats illustré par Gray Jolliffe. Il entre ensuite en collaboration avec l'écrivain Neil Gaiman, qu'il avait rencontré en : Gaiman, alors journaliste, effectuait une des premières interviews de Pratchett. Les deux hommes se lient d'amitié et décident d'écrire un roman, qu'ils pensent au premier abord comme une parodie de la série de romans "William" de Richmal Crompton. Le scénario évolue, et se transforme en une parodie de l'Apocalypse ; le roman est publié sous le nom "De bons présages" ("") en . Les années suivantes, il préface plusieurs ouvrages. L'auteur se focalise ensuite sur le "Disque-monde", avant de ressortir de cet univers en avec "Nation", une uchronie qui se déroule dans le milieu du . Il collabore ensuite avec l'écrivain britannique Stephen Baxter sur une série basée sur des mondes parallèles à celui de notre Terre : en sort le premier opus, titré "La Longue Terre", suivi en par "La Longue Guerre" puis en par "La Longue Mars", en par "La Longue Utopie" et enfin en 2016 par "Le Long Cosmos". En paraît le premier volume de l'intégrale des nouvelles de Terry Pratchett, intitulé "Fond d’écran" ('). En est publié un recueil similaire d'essais, titré "Lapsus clavis" ('). Récompenses et distinctions. Les romans du "Disque-monde" ont remporté plusieurs prix : le "" en pour "Pyramides", la Carnegie Medal dans la catégorie enfants en pour "Le Fabuleux Maurice et ses rongeurs savants". En , "Ronde de nuit" remporte le prix Prometheus du roman libertarien. Trois de ses romans, qui mettent en scène Tiphaine Patraque, obtiennent le prix Locus du meilleur roman pour jeunes adultes en , et . En , "Je m'habillerai de nuit" remporte un prix Andre-Norton. L'auteur s'est vu attribuer au total huit diplômes honorifiques : par l'université de Warwick en , celle de Portsmouth en , celle de Bath en , celle de Bristol en , celles du Buckinghamshire et du Trinity College en , celles de Bradford et de Winchester en . En , la BBC établit la liste des 200 romans les plus appréciés au Royaume-Uni, la liste « "" ». Terry Pratchett fait partie des deux seuls auteurs, avec Charles Dickens, à voir cinq de ses romans dans le top 100, et est l'écrivain avec le plus de romans dans le classement total des 200 ouvrages, avec quinze apparitions, dont quatorze font partie de la série "Disque-monde". Terry Pratchett décroche en le prix de l'« auteur de fantasy et science-fiction de l'année » aux "". En , il est nommé officier de l'Ordre de l'Empire britannique (OBE) pour « services à la littérature », puis pour la même raison, il est anobli en . Il commente plus tard : , suggérant que le titre était une reconnaissance de son succès plutôt qu'une réelle approbation du genre fantasy. Il ajoute : . En , la « » lui remet le prix Edward E. Smith pour sa contribution à la science-fiction. En , il reçoit un prix World Fantasy pour l'ensemble de sa carrière, puis, en , le prix , par l', pour sa contribution significative et durable à la littérature pour jeunes adultes. Enfin, la "Science Fiction and Fantasy Writers of America" lui décerne à titre posthume le prix Solstice pour son impact significatif dans le domaine des littératures de l'imaginaire. L'astéroïde porte son nom. Adaptations. Plusieurs romans du Disque-monde ont été adaptés en téléfilms, notamment par Sky1, une chaîne britannique. Terry Pratchett suit de près la réalisation de ces adaptations : très présent dans les coulisses, il joue le rôle d', en plus d'apparaître en caméo. Il affirme : Les altérations apportées par la réécriture au format télévisé, bien que peu nombreuses sur les adaptations de Sky1, ont agacé l'auteur. Il confie : Trois jeux vidéo inspirés directement de l'univers de Terry Pratchett ont été développés et distribués : "Discworld" en , "" en , et "Discworld Noir" en . L'auteur s'est énormément impliqué sur le premier opus, où il avoue que son rôle consistait à . Les deux volets suivants ont nécessité moins d'investissement de sa part, tant les développeurs se sont imprégnés de l'univers de l'auteur. Un jeu de plateau "Disque-Monde Ankh-Morpork" a été créé par Martin Wallace et édité par Iello, Treefrog Games en . D'autres jeux de plateaux ont été créés mais seulement édités en anglais, comme Watch out, Thud, Clacks et Guards ! Guards!. Son livre De bons présages (co-écrit avec Neil Gaiman) a été adapté en mini série sur Prime Vidéo en . La série s'intitule Good Omens, le titre anglais du livre. |
Unix Unix, officiellement UNIX, est une famille de systèmes d'exploitation multitâche et multi-utilisateur dérivé du Unix d'origine créé par AT&T, le développement de ce dernier ayant commencé dans les années 1970 au centre de recherche de Bell Labs mené par Kenneth Thompson. Il repose sur un interpréteur ou superviseur (le "shell") et de nombreux petits utilitaires, accomplissant chacun une action spécifique, commutables entre eux (mécanisme de « redirection ») et appelés depuis la ligne de commande. Particulièrement répandu dans les milieux universitaires au début des années 1980, il a été utilisé par beaucoup de start-ups fondées par des jeunes entrepreneurs à cette époque et a donné naissance à une famille de systèmes, dont les plus populaires à ce jour sont les variantes de BSD (notamment FreeBSD, NetBSD et OpenBSD), GNU/Linux, iOS et macOS. La quasi-totalité des systèmes d'exploitation PC ou mobile (à l'exception des Windows NT) est basée sur le noyau de Unix. On nomme « famille Unix », « systèmes de type Unix » ou simplement « systèmes Unix » l'ensemble de ces systèmes. Il existe un ensemble de standards réunis sous les normes POSIX et single UNIX specification qui visent à unifier certains aspects de leur fonctionnement. Le nom « UNIX » est une marque déposée de l'Open Group, qui autorise son utilisation pour tous les systèmes certifiés conformes à la single UNIX specification ; cependant, il est courant d'appeler ainsi les systèmes de type Unix de façon générale. Il dérive de « Unics » (acronyme de « Uniplexed Information and Computing Service »), et est un jeu de mots avec « Multics », car contrairement à ce dernier qui visait à offrir simultanément plusieurs services à un ensemble d'utilisateurs, le système initial de Kenneth Thompson se voulait moins ambitieux et utilisable par une seule personne à la fois avec des outils réalisant une seule tâche. Histoire. La genèse d'Unix. En 1969, Ken Thompson et Dennis Ritchie qui travaillaient alors pour les laboratoires Bell développèrent la première version d'un système d'exploitation mono-utilisateur sous le nom de "New Ken's System". Ils réalisèrent ce travail sur un mini-ordinateur PDP-7 ("Programmed Data Processor") de marque DEC animé par General Comprehensive Operating System et rédigèrent le nouveau logiciel en langage d'assemblage. Le nom Unics fut suggéré par Brian Kernighan à la suite d'un jeu de mots « latin » avec Multics ; « Multi- car Multics faisait la même chose de plusieurs façons alors qu'Unics faisait chaque chose d'une seule façon ». Ce nom fut par la suite contracté en Unix (pour être déposé finalement sous le nom UNIX par AT&T), à l'initiative de Brian Kernighan. Un jugement d'expédient datant de 1956 interdisait à l'entreprise AT&T, dont dépendait Bell Labs, de commercialiser autre chose que des équipements téléphoniques ou télégraphiques. C'est la raison pour laquelle la décision fut prise en 1975 de distribuer le système Unix complet avec son code source dans les universités à des fins éducatives, moyennant l'acquisition d'une licence au prix très faible. En 1971, conscient de la difficulté que représente la maintenance d'un système écrit en langage d'assemblage, Ken Thompson songea à réécrire Unix en TMG, mais il trouva que le TMG n'offrait pas ce dont il avait besoin. Pendant une courte période il songea à réécrire Unix en Fortran, mais finalement conçut le B avec l'aide de Dennis Ritchie dans les années 1969 et 1970, en s'inspirant du langage BCPL. Cependant Unix ne fut jamais réécrit en B ; le B ne supportait pas les types, toutes les variables étaient de la même taille que les mots de l'architecture, l'arithmétique sur les flottants n'était pas implémentée ; de plus, le compilateur B utilisait la technique du . C'est pourquoi Dennis Ritchie entreprit en 1971 d'écrire le "New B", qui fut renommé en C. Le langage C est toujours l'un des langages les plus utilisés aujourd'hui. Ken Thompson et Dennis Ritchie présentent le premier article sur Unix au Symposium on Operating Systems Principles à l'université de Purdue en 1973. Le professeur Bob Fabry de l'université de Californie Berkeley (UCB), alors dans l'auditoire, est immédiatement intéressé et en Keith Standiford, étudiant de , installe la "Version 4" à l'UCB, distribuée sur bande magnétique. Début 1975, Ken Thompson passe une année comme professeur invité à son "alma mater", l'UCB. Avec Jeff Schriebman et Bob Kridle, ils mettent sur pied la . C'est à ce moment qu'Unix commença à être diffusé hors des laboratoires Bell. À l'automne 1975, Bill Joy et Chuck Haley, alors en second cycle, s'intéressent au nouveau système et implémentent l'éditeur en ligne "ex" en Pascal, et finissent par explorer le fonctionnement du noyau au moment du départ de Ken Thompson. Le développement fut également rejoint par Alan Snyder, Steven C. Johnson, Michael Lesk dans cette période allant de 1973 à 1977. Au début de cette dernière année, Bill Joy réalise la première distribution dite "Berkeley Software Distribution" (BSD). Plus tard, avec l'arrivée de nouveaux terminaux, il écrit vi (l'éditeur visuel), une surcouche de "ex". L'été 1978, la "Second Berkeley Software Distribution" ou 2BSD voit le jour. Parallèlement, les concepts de datagramme et d'informatique distribuée émergent, avec Arpanet, le réseau Cyclades et la Distributed System Architecture, devenue en 1978 le modèle OSI-DSA. Plus de communications entre les machines des différents centres de recherche démontre l'utilité de systèmes d'exploitation ouverts et convergents, ce qui deviendra une nécessité avec les premières stations de travail incluant TCP/IP de Sun Microsystems, créée par Andy Bechtolsheim, Bill Joy, Vinod Khosla et Scott McNealy. Puis en , Bill Joy distribue 3BSD, la première distribution à supporter les ordinateurs VAX de DEC. C'est également cette année que sort la , qui s'accompagne de nombreuses modifications notables telles que l'extension à de la taille maximale d'un fichier, l'ajout de plusieurs utilitaires, et surtout une plus grande "portabilité" du système, c'est-à-dire qu’il devient plus facile de le modifier afin qu'il fonctionne sur d'autres plates-formes matérielles. C'est à cette époque que le premier grand portage d'Unix, la , fut réalisé, sur un . L'expansion. Dès la fin de l'année 1977, des chercheurs de l'université de Californie apportèrent de nombreuses améliorations au système Unix fourni par AT&T et le distribuèrent sous le nom de Berkeley Software Distribution (ou BSD). Ainsi BSD fut par exemple le premier système Unix à exploiter pleinement le mécanisme de mémoire virtuelle paginée du VAX 11/780. Trois branches principales de développement des sources virent le jour : Ces branches se sont mutuellement empruntées du code et/ou des concepts. Ainsi : Le rôle de la DARPA et la naissance de TCP/IP. Lors de la publication de 3BSD à la fin des années 1970, la Defense Advanced Research Projects Agency (DARPA) prend connaissance des avancées réalisées à l'UCB. Ils ont l'intention d'utiliser Unix pour leurs projets. De nombreux ingénieurs espèrent alors la création de standards innovants face au monopole IBM. En automne de cette même année, Bob Fabry propose à la DARPA une version augmentée de 3BSD pour répondre à leurs besoins. Un contrat de est signé en , et Bob Fabry rassemble une équipe. Bill Joy, qui vient juste de soutenir sa thèse de doctorat, se propose d'y participer. Les versions se succèdent jusqu'à 4.1BSD. Satisfaite, la DARPA signe pour deux ans supplémentaires et le budget est presque multiplié par cinq. Le nombre de personnes impliquées croît vite. Le "steering committee" est formé pour aider à définir l'évolution du système. Ce groupe se réunit deux fois par an entre et , et comprend en particulier Bob Fabry, Bill Joy et Sam Leffler de l'UCB, Dennis Ritchie des Bell Laboratories, Duane Adams et Bob Baker de la DARPA, ainsi que du personnel et des élèves de plusieurs autres universités, en particulier Stanford, Carnegie-Mellon et l’université de Californie à Los Angeles. À partir de , ce sont des ateliers réunissant bien plus de personnes qui prennent le relais. C'est Rob Gurwitz qui publie la première implémentation des protocoles TCP/IP, les protocoles de l'Internet d'aujourd'hui. Bill Joy l'intègre au système et ajuste les performances. Cette implémentation est considérée par beaucoup comme l'implémentation de référence. Elle est reprise plus tard par Microsoft pour le système d'exploitation Windows, ce qui est possible grâce à la licence BSD très permissive sous laquelle BSD est publié. Vers la fin de l'été 1982, Bill Joy annonce qu'il rejoint Sun Microsystems, et Sam Leffler prend la suite du projet. En , 4.2BSD est publié ; c'est la première version qui inclut la nouvelle pile TCP/IP. Sam Leffler quitte l'UCB pour Lucasfilm et Mike Karels le remplace. 4.2BSD est alors très populaire et est plus vendue que toutes les autres distributions réunies, et que le System V d'AT&T, en particulier parce que ce dernier n'avait ni la communication par réseau ni le système de fichiers FFS (Berkeley Fast Filesystem). À la conférence Usenix de 1985, 4.3BSD est annoncé. De nouvelles architectures matérielles deviennent supportées, et, avec la version 4.3-Tahoe, le noyau est scindé en parties dépendantes et indépendantes du matériel. Les procès et la libération de BSD. Début 1992, Unix System Laboratories (USL), composante d'AT&T chargée de développer et vendre Unix, commence à poursuivre Berkeley Software Design, Incorporated (BSDI), mise en place pour développer et vendre une version commerciale. Le procès n'aboutit pas comme le souhaitait USL qui lance alors un autre procès contre BSDI et l'UCB. USL est vendu par AT&T à Novell. En , un accord est trouvé : En , FreeBSD 2.0 sort avec les nouveaux fichiers de Net/2, alors appelée 4.4BSD-Lite, et des éléments de 386BSD. Jusqu'à 4.3BSD-Tahoe, la licence AT&T s'applique toujours aux sources, qui sont toujours distribuées. Les utilisateurs ne sont pas des utilisateurs passifs mais participent activement au développement et améliorent progressivement le code original d'AT&T. La licence d'AT&T sur les sources étant devenue excessivement chère, les dernières sources originales ont été nettoyées du code d'AT&T, et en , la première BSD libre, la "Networking Release 1" ou Net/1 est publiée. La licence est volontairement très libérale : le logiciel peut être redistribué ou vendu, avec ou sans modification des sources, sous forme binaire (compilée) ou non. Les notices de copyright dans les sources doivent être laissées intactes, et la documentation doit mentionner l'origine du code (l'université de Californie à Berkeley, UCB). Net/1 alors coûte à l'UCB pour la bande magnétique qui le transporte, et est mis à disposition par connexion FTP (file transfert protocol) anonyme (pas de mot de passe requis). Le système de mémoire virtuelle du système d'exploitation MACH de l'université Carnegie-Mellon est importé, et 4.3BSD-Reno sort début 1990. De la fin des années 1990 à nos jours. L'incompatibilité grandissante entre les nombreuses variantes d'Unix proposées par les différents éditeurs pour les différentes machines porte peu à peu atteinte à la popularité et à la diversité des systèmes Unix. De nos jours, les systèmes Unix propriétaires, longtemps majoritaires dans l'industrie et l'éducation, sont de moins en moins utilisés. En revanche, trois systèmes de type Unix basés sur BSD (FreeBSD, NetBSD et OpenBSD) d'une part, et le système GNU/Linux, compatible Unix, d'autre part, ainsi que macOS (anciennement OS X, basé sur Darwin), occupent une part de marché de plus en plus importante, permettant à Unix de concurrencer l'autre grande famille d'OS (propriétaire), Windows NT. Principales familles de systèmes UNIX. Les BSD. Bill Jolitz à partir de "Networking Release 2" publie 386/BSD, destiné à une architecture PC (386), mais est vite débordé quant à sa maintenance. Quelques mois après sa publication, des utilisateurs de 386BSD forment le groupe NetBSD, et rassemblent leurs ressources pour maintenir et améliorer ce système. Leurs objectifs sont alors de faire en sorte que NetBSD fonctionne sous n'importe quel matériel. Le public cible de NetBSD est des développeurs-administrateurs de haute technicité. Encore quelques mois plus tard, le groupe FreeBSD se forme et décide lui de se focaliser sur l'architecture PC. En , grâce au soutien de Walnut Creek CDROM, FreeBSD 1.0 est publié. Le projet OpenBSD est créé en 1995 à la suite d'un désaccord entre l'un des développeurs de NetBSD, Theo de Raadt, et les autres membres du projet. Il se focalise sur la sécurité informatique. GNU. GNU est un système d'exploitation lancé en 1983 par Richard Stallman dans le but de fournir un équivalent d'Unix composé uniquement de logiciel libre. Bien que compatible avec Unix, GNU s'en démarque notamment par sa grande utilisation du Lisp. En 1991, alors que le Hurd (le noyau de GNU) traînait à être opérationnel, le noyau Linux "(voir ci-dessous)" fut créé, et il sortit en 1992. Cela permit d'utiliser pour la première fois un système d'exploitation entièrement libre, une variante de GNU utilisant le noyau Linux connue sous le nom de GNU/Linux, ou plus couramment, simplement Linux. GNU et GNU/Linux sont utilisés sous la forme de distributions qui les accompagnent de logiciels supplémentaires. Parmi les distributions les plus populaires, on compte notamment Debian, Ubuntu, Linux Mint, Red Hat, Fedora et Arch. Parmi ces six distributions, seules deux proposent, à la place de Linux, l'utilisation du Hurd : Debian et Arch. De plus, Debian propose d'utiliser deux noyaux issus de la famille des BSD avec les distributions Debian GNU/kFreeBSD et Debian GNU/NetBSD. Linux. En 1991 un étudiant finlandais, Linus Torvalds, décida de concevoir, sur le modèle de Minix, un système d'exploitation capable de fonctionner sur les architectures à base de processeur Intel 80386. Le noyau, qui était alors au stade expérimental, devait être généré sur un système Minix. Le nom de Linux vient de la personne qui hébergeait le projet pour sa diffusion (version 0.0.1) et non d'un choix de Linus. Il voulut un temps rebaptiser son système "Freax", mais il était trop tard, Linux s'était déjà imposé auprès des aficionados. Linux ne contient aucun code provenant de UNIX, il en est juste inspiré, et complètement réécrit. D'autre part, Linux est un logiciel libre. Linux avec GNU. Linux lui-même n'étant qu'un noyau, il nécessite d'être accompagné d'autres logiciels pour former un système d'exploitation. Une des possibilités les plus populaires est l'utilisation de Linux en tant que noyau du système d'exploitation GNU pour constituer un système désigné sous le nom "GNU/Linux" ou simplement "Linux". Plusieurs entreprises ou associations distribuent Linux et GNU accompagnés d'un ensemble cohérent de logiciels ; on appelle distribution Linux un tel système. Android. Android est un système d'exploitation pour terminaux mobiles développé par une startup du même nom et racheté par Google. Il est basé sur le noyau Linux et la machine virtuelle Dalvik ou à partir de Android KitKat: Android Runtime (ART). macOS. Unix est à l'origine de macOS (précédemment Mac OS X), l'actuelle version du système d'exploitation d'Apple. macOS, comme Darwin est basé sur le noyau XNU, un dérivé du micro-noyau Mach. En , la version 10.5 ("Leopard") de Mac OS X sur Intel a reçu la certification UNIX 03 de l'Open Group. Autres systèmes. System V et les Unix propriétaires. Dès 1977, AT&T mit les sources d'Unix version 6 à la disposition d'autres entreprises. Ainsi, tandis que l'opérateur téléphonique poursuivait ses développements avec la version 7 puis le System V, un grand nombre de dérivés d'Unix furent développés : Les Unix destinés à l'éducation. Au milieu des années 1980, un professeur américain installé aux Pays-Bas, Andrew Tanenbaum, développa un système d'exploitation minimal, baptisé Minix, afin d'enseigner les concepts des systèmes d'exploitation à ses étudiants ; la première version fut publiée en 1987, et était accompagnée d'un livre détaillant la conception du système. Un projet similaire nommé XINU (pour "Xinu Is Not Unix") fit aussi son apparition dans les années 1980 sous la direction de Douglas Comer. Utilisations d'Unix. Le grand nombre de variantes d'Unix, chacune ayant ses spécificités, permet aux systèmes Unix d'être utilisés dans un grand nombre d'environnements différents. Appareils mobiles. Plusieurs systèmes d'exploitation pour appareils mobiles (smartphones, tablettes, PDA…) sont des systèmes Unix. On peut citer en particulier iOS et Android, qui se partagent plus de 85 % du marché des smartphones. Supercalculateurs. Depuis , Linux est le seul système d'exploitation utilisé par les 500 supercalculateurs les plus puissants du monde. Les autres systèmes Unix équipaient encore quelques-uns de ces ordinateurs en 2016. Entre 1995 et 2000, les systèmes Unix autres que Linux (notamment Berkeley Software Distribution, Solaris, AIX, UNICOS et HP-UX) équipaient plus de 90 % de ces ordinateurs. Stations de travail et serveurs. Seules quelques versions d'Unix produites par de grands constructeurs de stations de travail et de serveurs subsistent aujourd'hui : La philosophie des constructeurs de stations et serveurs Unix a été au départ de développer un système d'exploitation pour pouvoir vendre leurs machines, en y ajoutant, si possible, un petit « plus » pour se démarquer de la concurrence. C'était oublier que les parcs Unix sont le plus souvent hétérogènes et que toute différence d'une machine à l'autre, même créée avec la meilleure intention du monde, menace l'interopérabilité donc constitue un risque réel de contre-productivité car contraignent les informaticiens à de nombreuses manipulations fastidieuses afin d'interconnecter les systèmes. C'est une des raisons pour lesquelles nombre de ces constructeurs proposent désormais le système GNU/Linux avec leurs serveurs. Toutefois, les différences entre les différentes distributions Linux posent souvent les mêmes problèmes, quoiqu'à un niveau moindre. Certains logiciels de conception assistée par ordinateur ont longtemps été disponibles pour des stations de travail Unix uniquement, mais, ce marché se réduisant, sont également devenus disponibles pour d'autres systèmes. C'est par exemple le cas de CATIA, utilisé notamment par de grands constructeurs industriels comme Dassault Aviation, PSA Peugeot Citroën ou Boeing, qui fonctionne sous Microsoft Windows depuis la dont la version Unix a été abandonnée depuis la . Particularités des systèmes Unix. Les systèmes Unix ont en commun plusieurs concepts développés dès les premières versions d'Unix aux laboratoires Bell. Utilitaires. Unix a initialement été conçu pour disposer de nombreux petits programmes, chacun effectuant un nombre limité de tâches, le plus souvent une seule, agissant le plus souvent sur des flux de texte et pouvant être interconnectés par le biais de pipes. Cette idée était relativement novatrice au début des années 1970, et a contribué au succès rapide d'Unix chez les programmeurs. Les systèmes Unix disposent d'un grand nombre d'interpréteurs de commandes, appelés shells Unix. On peut notamment citer sh, bash et tcsh. Système de fichiers. Une autre particularité d'Unix est de considérer un grand nombre d'objets comme des fichiers : dès les premières versions d'Unix, les périphériques d'entrée-sortie sont gérés comme des fichiers d'un type spécial. Cela permet par exemple, au niveau applicatif, d'écrire sur une bande magnétique de la même façon que sur un fichier standard qui serait stocké sur le disque. Unix dispose d'un système de fichiers hiérarchique, qui supporte certaines fonctionnalités comme les liens symboliques, permettant de rediriger un fichier sur un autre, et un système de permissions permettant de donner des autorisations différentes au propriétaire du fichier, aux utilisateurs de son groupe, et aux autres utilisateurs. Au contraire de nombreux autres systèmes (comme Microsoft Windows ou Mac OS Classic par exemple), qui disposent d'une racine de système de fichiers indépendante par périphérique de stockage ou par partition, le système de fichiers d'Unix a une unique racine, et les autres périphériques de stockage sont accessibles par des points de montage dans le système de fichiers. Par exemple, le dossier /home, qui contient les fichiers personnels des utilisateurs, est fréquemment stocké sur un périphérique ou une partition différente de la racine ; une fois ce périphérique monté sur le dossier /home, les demandes de fichiers situés dans /home seront redirigés vers ce périphérique. L'organisation de l'arborescence du système de fichiers est définie par certaines conventions qui existent depuis la version 7 d'Unix, où est apparue la page de manuel qui la décrit. Le Filesystem Hierarchy Standard tente d'harmoniser les différences qui ont pu se développer, en particulier entre les différentes versions de Linux. Les standards Unix. Le grand nombre de systèmes Unix développés sur la base du System V de AT&T ou bien de BSD conduisit des membres du groupe d'utilisateurs "/usr/group", qui a pris depuis le nom de UniForum, à forger un standard UNIX dès 1980 afin d'assurer une portabilité maximale entre les différents systèmes : Aujourd'hui, la marque déposée UNIX est détenue par l'Open Group. Pour obtenir l'autorisation d'utiliser officiellement cette marque pour un système d'exploitation, il faut que celui-ci soit conforme à la Single UNIX Specification. |
Ukraine LUkraine ( ; en , "" ) est un État d'Europe orientale, le deuxième d'Europe par sa superficie et le premier entièrement européen. Elle est bordée par la mer Noire et la mer d'Azov au sud, frontalière avec la Russie au nord-est et à l'est, avec la Biélorussie au nord, avec la Pologne, la Slovaquie et la Hongrie à l'ouest et avec la Roumanie et la Moldavie au sud-ouest. La capitale, et la ville la plus peuplée du pays, est Kiev. Avant d'être un État indépendant, après la dissolution de l’Union soviétique en 1991, l'Ukraine est d’abord une zone limitrophe mal délimitée, couverte de steppes et de prairies, et revendiquée par les puissances polonaises et russes, puis turques au fur et à mesure du retrait des populations nomades tatares et mongoles. Les origines de la culture ukrainienne remontent à l'État slave oriental médiéval de la Rus' de Kiev. Après la chute de cette dernière à l'issue des invasions mongoles du , le territoire fait l’objet de partitions et se voit revendiqué par plusieurs puissances étrangères, dont la république des Deux Nations (monarchie élective Pologne-Lituanie) à l'ouest et l'Empire ottoman au sud. Le Hetmanat cosaque est créé en 1648 par Bohdan Khmelnytsky à la suite d'une révolte armée contre la République des Deux Nations. Durant sa brêve existence (1648-1660) le hetmanat alterne entre suzeraineté russe et polonaise. En 1654, le hetmanat est admis au sein de l'Empire russe. En 1667 le traité d'Androussovo reconnaît à la Russie la suzeraineté de la partie de l'hetmanat située sur la rive gauche, orientale, du Dniepr, y compris Kiev. Les cosaques de l'Ukraine occidentale, eux, restent sous domination polonaise. Après avoir été partiellement conquise par les Turcs, la partie occidentale finira rattachée à l'empire d'Autriche, à son successeur l'Autriche-Hongrie, puis à la république de Pologne. Pendant la révolution russe, la République populaire ukrainienne connaît brièvement l'indépendance avec reconnaissance internationale. Elle intègre une partie de l'ancienne république populaire d'Ukraine occidentale, avant de devenir la république socialiste soviétique d'Ukraine de l'Union soviétique, dans les années 1920 à la suite de la guerre civile russe. En 1921, l'Armée rouge écrase définitivement l'armée révolutionnaire insurrectionnelle ukrainienne, qui contrôlait depuis 1918 le centre, le Sud et l'Est du pays, mettant un terme à l'Ukraine libertaire. En 1939, l'Union soviétique achève sa conquête de l'Ukraine occidentale auparavant rattachée à la Pologne, conformément au pacte germano-soviétique. L'Ukraine devient une nouvelle fois indépendante en 1991, avec la dislocation de l'URSS et est alors la troisième puissance nucléaire mondiale en nombre d'ogives. Le , l'Ukraine abandonne ses armes nucléaires dans le cadre du Mémorandum de Budapest en échange de garanties sur sa sécurité et son intégrité territoriale dont la Russie, les États-Unis et le Royaume-Uni sont garants. À la suite de la révolution de 2014, la Crimée est annexée par la Russie et une guerre civile éclate dans l'est du pays avec les séparatistes pro-Russes. Face à la menace russe et au non-respect par la Russie de ses engagements de 1994, l'Ukraine cherche alors de nouvelles garanties de sécurité en se rapprochant de l'OTAN. La crise prend une nouvelle dimension le , lorsque l'Ukraine est envahie par les forces armées russes sur ordre de Vladimir Poutine. La seule langue officielle est l'ukrainien, mais le russe est aussi beaucoup utilisé, notamment dans le sud et dans l'est du pays, en raison de la domination de l'ancien empire russe et de plusieurs siècles de russification qu'a connus cette partie du pays. Étymologie. Le nom du pays est issu de l'ukrainien ou du russe , "Oukraïna" (transcriptions savantes respectives : ' et '), composés du préfixe "ou", « dans, chez, près de, à l’intérieur », et de la racine slave "kraï" (), qui désigne initialement une incision, une entaille, puis une ligne délimitant quelque chose, d'où, par extension, le sens de « pays, province » (en russe : « bout, extrémité, périphérie », « bord, rebord » ou « pays, région, province » ; en bulgare : « bord, coin, extrémité, terminaison, fin », « proximité, voisinage, environs »). En français, cette étymologie est attestée au . Histoire. L'Ukraine est le foyer du premier État slave oriental, fondé par des Scandinaves : la Rus' de Kiev (appelée aussi dans les écrits occidentaux Ruthénie), qui durant les est l'État, après l'Empire byzantin, le plus vaste et le plus puissant d'Europe. L’État de Kiev. Au , Kiev est prise aux Khazars par les Varègues (Vikings orientaux probablement venus de Suède) d’Oleg le Sage, prince de Novgorod. Située sur des routes marchandes, Kiev devient rapidement le centre d'un État slave appelé « Rus » ou Ruthénie. Selon la tradition, sous le règne de Vladimir le Beau Soleil, en 988 eut lieu le baptême des peuples aujourd'hui russe, ukrainien et biélorusse. Sous le règne de Iaroslav le Sage (1016-1054), le prestige de l'État kiévien atteint son apogée : il s'étend alors de la mer Baltique à la mer Noire et du confluent de l'Oka avec la Volga jusqu'aux Carpates septentrionales. Iaroslav est un bâtisseur et un législateur. Le droit, l'éducation, l'architecture et l'art kiévien connaissent un développement important sous son règne. En 1051, il marie sa fille Anne de Kiev au roi Henri de France. Cependant, au , des conflits éclatent entre différents seigneurs locaux. Le fractionnement en plusieurs principautés rivales mène l'État kiévien au déclin. Kiev est saccagée par la principauté de Vladimir (1169) durant la lutte pour le pouvoir entre les princes, et plus tard par les Coumans et les Tatars Mongols aux . Ces derniers finissent par imposer leur souveraineté dans toutes les principautés ruthènes. La cruauté de l'autorité mongole, notamment en matière pénale, pousse les populations autochtones à fuir vers d'autres pays comme la Pologne, la Hongrie ou la Moldavie. Période lituano-polonaise au nord-ouest, turco-tatare au sud-est. Durant le , les Polonais et les Lituaniens combattirent les Mongols et finalement toute l’Ukraine du nord-ouest passa sous l’autorité de la Pologne-Lituanie, qui annexe Kiev en 1362. Les Tatars se maintiennent dans la steppe pontique au nord de la mer Noire et en Crimée ; toutefois, de 1382 à 1484, le grand-duché de Lituanie atteignit la mer Noire du côté d’Oçaq (ou Otchakiv, vers l’actuelle Odessa). La Lituanie prit le contrôle de la Volhynie au nord-ouest de l’Ukraine (y compris les régions autour de Kiev). Quant à la Pologne, elle prit le contrôle de la Galicie ; plus au sud la principauté de Moldavie était sa vassale (plusieurs citadelles et régions alors moldaves sont aujourd’hui ukrainiennes). Dans ces régions du nord-ouest, outre les Ukrainiens que l’on nommait à l’époque "Russyns", "Ruthènes", le pays comptait des Polonais, des Moldaves, des Allemands, des Arméniens, des Juifs et des Russes. À mesure que les Tatars perdaient du terrain, nombre de villes et villages furent fondés. La noblesse d’Ukraine occidentale fut souvent « polonisée ». La législation polonaise est introduite en Ukraine occidentale en 1434. Si la Pologne mène une politique relativement tolérante vis-à-vis de l’orthodoxie, elle favorise cependant le catholicisme qui progresse dans les territoires occidentaux de l'actuelle Ukraine. L’influence polonaise pénètre plus lentement dans les territoires relevant du grand-duché de Lituanie. L’orthodoxie y garde sa prédominance. Pourtant, les rapports de force au sein de l’État polono-lituanien tournent à l’avantage des Polonais. L’Union de Lublin (janvier 1569) consacre le triomphe de la Pologne. La Lituanie perd la plus grande partie de ses possessions ukrainiennes (Podlachie, Volhynie, Podolie, région de Bratslav et de Kiev). La noblesse de ces régions se polonise et se convertit au catholicisme. Une partie du haut-clergé orthodoxe est tentée par le rapprochement avec Rome. Le métropolite de Kiev et une partie du haut-clergé, en réaction contre les interventions réformatrices du patriarche de Constantinople, se rallient à Rome lors du concile de Brešč (Brest-Litovsk) en 1596. L'Union de l'Église de la Rus' de Kiev avec Rome forma l'Église grecque-catholique ukrainienne faisant partie des "uniates". C’est durant cette domination lituano-polonaise, à partir du , que se formèrent les Cosaques, des paysans ruthènes orthodoxes qui refusaient la servitude et l’assimilation aux Polonais catholiques. Le royaume de Pologne les tolère et les utilise contre les Tatars, puis, à partir du , contre les Turcs ottomans, devenus suzerains des Tatars de Crimée. Le clivage entre le nord-ouest, orthodoxe mais d'influence polonaise et lituanienne, c'est-à-dire occidentale, et le sud-est soumis aux Tatars et aux Ottomans, puis conquis et colonisé par l'Empire russe, se retrouve jusqu'à aujourd'hui dans la structure politique du pays : le nord-ouest vote plutôt pour les pro-européens et se méfie de l'influence russe, tandis que le sud-est vote plutôt pour les pro-russes, se méfie de l'influence occidentale (souvent assimilée au fascisme depuis la Seconde Guerre mondiale) et peut même se soulever contre le pouvoir de Kiev lorsque ce dernier se rapproche de l'Ouest. L’État cosaque. À la suite de la révolution paysanne anti-féodale (1648-1654), connue dans l'histoire comme "Hmelnichina", la partie orientale de l'Ukraine s’émancipe du pouvoir lituanien et se constitue en État autonome de caste cosaque : le Hetmanat cosaque, administré par les chefs cosaques et dirigé par un Hetman élu, est établi et perdure pendant plus d'un siècle malgré la pression des envahisseurs polonais et moscovites attirés par les terres riches et fertiles. À la suite du traité d'Androussovo, il est partagé en deux : une partie est placée sous le protectorat de la république des Deux Nations, l'autre sous un protectorat moscovite (Traité de Pereïaslav) qui perdure pendant plus d'un siècle. Le territoire des Cosaques Zaporogues de la Sitch est tout d'abord cogéré par les deux souverains. Les partages entre l'Empire russe et l'Empire d'Autriche. Catherine la Grande, impératrice de Russie, supprime le Hetmanat au milieu du et détruit la Sitch dans le dernier quart du . Le partage de la Pologne lui permet de récupérer pratiquement toute la rive droite à l'exception de la Galicie, passée sous administration de l'Autriche, laquelle deviendra en 1867 l'Empire austro-hongrois. Les grandes steppes incultes du sud sont colonisées par des paysans venus de tout l'Empire, mais aussi d'Allemagne ou de Hollande, appelés par l'impératrice en échange de privilèges fiscaux. Le port d'Odessa (dont le nom a été choisi d’après celui d’Ulysse), gouverné au début par le duc de Richelieu, est fondé à cette époque teintée de retour aux sources grecques (Tauride, Chersonèse). Comme d’autres peuples en Europe, un mouvement de renaissance nationale ukrainien se fait jour à partir du milieu du dans l’Empire russe. Mais Saint-Pétersbourg estime que ce mouvement est manipulé par les Polonais. Des cercles nationaux ("hromady") sont supprimés et il est prohibé d’imprimer en ukrainien. Les élites russes considèrent les Ukrainiens comme des « Petits-Russes ». La culture ukrainienne connaît une renaissance au milieu du , en parallèle avec le mouvement régionaliste à la même époque en Europe. Ce mouvement est concentré dans les régions de la Ruthénie, de la Volynie ou de la Podolie et autour de Zaporojié. C'est alors qu'apparaît de plus en plus le terme d'Ukraine relancé par les intellectuels à la fin du . Le pouvoir impérial russe officiellement ne connaît pas ce terme d'Ukraine. Il ne forme dans les territoires de l'actuelle Ukraine, comme partout ailleurs dans l'Empire que différents gouvernements ou provinces au sein de plusieurs entités : Petite Russie, Nouvelle-Russie (correspondant en partie aux territoires enlevés à l'Empire ottoman), parties de la Bessarabie, etc. En 1876, l'Empire interdit la langue ukrainienne dans les écoles, et la limite dans les journaux et la littérature. Cette limitation provoque en retour une revendication idéologique qui permet de comprendre l'opposition linguistique actuelle. Les différentes formes d'ukrainien ne sont plus parlées que par une frange de la paysannerie et certains cercles cultivés de régionalistes : instituteurs, universitaires, ecclésiastiques. De grandes villes sont fondées sous l'Empire russe, comme Odessa mentionné plus haut et Ekaterinoslav, Sébastopol, etc. qui accueillent des migrants de tout l'Empire, et même d'Europe centrale : de la Pologne autrichienne ou d’Allemagne. En 1892, Kiev compte près d'un demi-million d'habitants. En effet, après l'abolition du servage dans l'Empire Russe en 1861, l'industrialisation provoque un exode rural de paysans russes, ukrainiens, ruthènes, etc. dans les nouveaux centres industriels. Le négoce se développe parallèlement avec l'extension du chemin de fer et cette et l'ouest. L’Ukraine indépendante (1917-1922). Au déclenchement de la Première Guerre Mondiale, l'Empire Russe s'étend jusqu'à la Pologne qu'il recouvre depuis le dernier partage de la Pologne au congrès de Vienne en 1815. Durant les années qui suivent, si l'Allemagne est bloquée dans une guerre de position avec la France sur son front ouest, à l'est elle enregistre de grands succès militaires sur une Russie exsangue et confrontée à la révolution. Après la révolution de Février, qui met fin à l’Empire Russe en 1917, l'Ukraine est brièvement indépendante jusqu'en 1920, mais la Rada ne parvient pas à contrôler efficacement le territoire, envahi d'abord par les Allemands puis, à leur retrait, devenu champ de bataille entre le Parti bolchevique, les Russes blancs et les forces de la Triple-Entente. Le , la plupart des partis politiques s’accordent pour former la Rada centrale. Le , alors qu'il est toujours à Moscou, Mykhaïlo Hrouchevsky est élu président de la Rada centrale. Sous son impulsion, l'Ukraine proclame son autonomie le . En tant que chef de l'USDRP, Volodymyr Vynnytchenko est choisi comme un des deux vice-présidents de la Rada centrale puis comme le premier président du secrétariat général de la Rada centrale du gouvernement autonome de l'Ukraine. Le , soit treize jours après que le Parti bolchevique russe a renversé le gouvernement social-démocrate de Saint-Pétersbourg , la Rada ukrainienne centrale proclame la République populaire ukrainienne et sa séparation de la Russie. L'indépendance totale de l'Ukraine est confirmée le et Mykhaïlo Hrouchevsky est élu officiellement « président de la République populaire ukrainienne » le . Fin 1917 l'armée allemande avance pour atteindre Riga et conquérir la Galicie et la Bukovine, contraignant la Russie à suspendre les hostilités et à négocier. Sous couvert de défendre la libre disposition des provinces baltes, de la Finlande, de l'Ukraine et du Caucase, le gouvernement allemand cherche à agrandir sa zone d'influence à l'est et notamment à prendre le contrôle des bassins miniers ukrainiens. Le traité de Brest-Litovsk est signé le entre les gouvernements des empires centraux menés par l'Empire allemand et la jeune République populaire ukrainienne, issue de la révolution de Février, dans la ville du même nom, aujourd’hui Brest en Biélorussie. Les Bolcheviks russes n'y sont pas partie prenante. Les 17-, la république socialiste soviétique d'Ukraine est fondée à l'Est du pays avec pour capitale Kharkov. Pour combattre l'Armée rouge qui contrôle l'est de l’Ukraine, la Rada centrale cherche le soutien des Allemands qui organisent un coup d’État et renversent le gouvernement de Vynnytchenko, mettant à sa place Pavlo Skoropadsky qui, le , est proclamé hetman de l’« État ukrainien »,Ukrayinska Derjava. À l'automne 1918, prévoyant la défaite allemande, Skoropadsky tente de se rapprocher de l'Entente et des Russes blancs en promettant de rétablir l'union fédérale entre Russie et Ukraine. Mais, resté sans soutien, Skoropadsky est renversé par le mouvement populaire, guidé par Simon Petlioura, qui reprend Kiev. Les troupes d'occupation allemandes abandonnent l'hetmanat et le nouveau pouvoir ukrainien les laisse regagner leur pays sans obstacle. Finalement, le , la République populaire ukrainienne est rétablie avec Vynnytchenko à sa tête comme président du Directoire d'Ukraine. De 1918 à 1922, une partie importante du territoire ukrainien au sud est contrôlée par une armée paysanne insurrectionnelle d'inspiration communiste libertaire surnommée Makhnovchtchina du nom de son initiateur Nestor Makhno, ayant compté à son apogée près de . Opposée aux armées blanches et rouges, l'armée noire essayera d'installer dans les territoires contrôlés un système de collectivisation des terres et de démocratie directe et décentralisée. Le 11 novembre 1918 l'armistice est signé sur le front ouest à Rethondes entre l'Allemagne et les Alliés. L'armistice de Rethondes annule l'armistice de Brest-Litovsk. L'article 12 de la convention d'armistice prévoit que les troupes allemandes évacuent tous les territoires faisant partie de la Russie au 1er août 1914, dès que les Alliés jugeront le moment venu, compte tenu de la situation intérieure de ces territoires. La période soviétique. À la fin de 1918, les Alliés interviennent dans le sud de l'Ukraine pour soutenir les Blancs de Dénikine dans la guerre civile russe. Odessa, Sébastopol et d'autres localités côtières sont occupées par les Français, mais l'intervention tourne court en raison du manque de moyens engagés et de l'hostilité de la population (mars-). L'Ukraine est envahie par l'Armée rouge et ramenée dans le giron soviétique. L'ancien « grenier » de l'Empire russe, devenu une république socialiste soviétique, ravitaille les centres urbains soviétiques. Le , l'Union des républiques socialistes soviétiques (URSS) naît du traité qui réunit la RSFSR, la Biélorussie, l'Ukraine et la Transcaucasie. Dans le conflit qui oppose les communistes du centre (Moscou) et les partis communistes nationaux, c'est le centre qui l'emporte et impose une fédération. Quand Staline déclenche sa révolution industrielle vers la fin des , l'Ukraine devient l'une des sources indispensables de son financement. Les années d'industrialisation sont marquées par la construction de ce qui est à l'époque la plus grande centrale hydraulique d'Europe sur le Dniepr (le DnieproGuES), ce qui contribue à l'électrification de la République, ainsi qu'une importante mise en valeur du grand bassin minier et métallurgique, le Donbass, déjà exploité depuis la fin du . Après une brève période d'ukrainisation dans les , se traduisant par le retour à l'ukrainien dans les publications, la réouverture des écoles et des universités avec un enseignement en ukrainien et la promotion des cadres nationaux, Staline ne ménage pas les efforts pour réprimer le moindre signe d'un réveil nationaliste ukrainien, interprété comme un rejet du pouvoir bolchevik et une menace à l'intégrité de l'URSS. Pour contrer le nationalisme ukrainien, le pouvoir soviétique favorise la Biélorussie limitrophe. De plus des oblasts russes, comme celle de Kharkiv, sont intégrées à la RSS d'Ukraine pour renforcer le poids des russophones. Moscou cherche à rattacher fermement l'Ukraine et d'en faire une forteresse de l'URSS, selon les mots de Staline. Toute forme de déloyauté de la part des intellectuels, des communistes ou des paysans ukrainiens est éradiquée. Entre 1931 et 1933, une série de famines et l'intensification de la « dékoulakisation » frappent l'Union soviétique et ravagent particulièrement l'Ukraine, alors que cette région était la plus fertile de toute l'URSS. Entre 2,6 et de personnes meurent des suites de cette famine. Les Ukrainiens l'appellent « Holodomor » ou « l'extermination par la faim ». Bien que le gouvernement soviétique de Joseph Staline ait pris soin de ne jamais écrire qu'il faut « exterminer par la faim » les paysans réticents, les documents déclassifiés montrent qu'il a pour le moins utilisé ces famines, s'il ne les a pas sciemment provoquées, pour briser la paysannerie et le nationalisme ukrainiens, même si le peuple russe a lui aussi été victime des mêmes famines. Le Parlement européen a reconnu dans une résolution de 2008 l'Holodomor comme un « crime effroyable perpétré contre le peuple ukrainien et contre l'humanité ». Des exécutions et des déportations d'Ukrainiens accusés de nationalisme sont organisées durant les purges staliniennes de 1937-1939 : plusieurs millions d'Ukrainiens sont exécutés ou envoyés vers des camps de travail soviétiques, comme le sont aussi tous les suspects de nationalisme dit , les Russes en premier. En outre, le marxisme-léninisme appliqué par le Kremlin prône l'athéisme d'État et s'attaque aux symboles religieux, détruisant les églises et les cathédrales de toute l'URSS et des millions de croyants en majorité orthodoxes, mais aussi d'autres obédiences chrétiennes, sont envoyés au Goulag. Toutes les religions, même minoritaires (juives, musulmanes), sont interdites. En septembre et , après le partage de la Pologne entre l'Allemagne nazie et l'URSS stalinienne, les régions polonaises à forte minorité ukrainienne (comme la Galicie et Lwow, aujourd'hui Lviv) sont annexées par l'URSS et incorporées au sein de l'Ukraine occidentale, conformément aux protocoles secrets du pacte germano-soviétique. Selon Sabine Dullin, En juin 1940, c'est le tour de la Bucovine du Nord et du Boudjak, pris à la Roumanie d'être pris par l'URSS. À l'été 1941, l'Ukraine est envahie par les armées allemandes. À leur arrivée, les Allemands sont reçus en libérateurs par une partie de la population ukrainienne, surtout par la population de la partie de la Pologne envahie par Staline en 1939 puis intégrée à l'Ukraine. Mais, au fur et à mesure de leur progression vers l'est du pays, et notamment en raison des mauvais traitements infligés à la population, les occupants allemands rencontrent une forte résistance de la part de la population locale, laquelle perdure jusqu'au retour des Soviétiques en 1944. En représailles, les Allemands traquent les partisans, et brûlent des centaines de villages et des milliers de maisons avec leurs habitants. La population juive d'Ukraine est anéantie par l'application de la solution finale. Le , le haut commandement de la Wehrmacht annonce la création de la division SS Galicie constituée de volontaires ukrainiens ; les historiens estiment que plus de se sont engagés aux côtés des forces allemandes durant la Seconde Guerre mondiale pour combattre le régime soviétique (Polizei, U.V.V., Hiwis ou Waffen-SS). En 1944, l’Armée rouge libère la plus grande partie de l’Ukraine. En juin 1945, la Ruthénie subcarpathique, prise à la Hongrie (qui l'avait acquise en 1939 sur la Slovaquie), rejoint à son tour l’Ukraine soviétique, formant l’oblast de Transcarpatie. À la fin du conflit, le bilan des pertes ukrainiennes est de huit millions de morts dont étaient des militaires. Quant aux indépendantistes , ils continuent une résistance locale armée contre l'URSS jusqu'en 1954. Le , l’Ukraine devient l’un des membres fondateurs de l'ONU, en y obtenant, en soulignement de son rôle dans la victoire sur le nazisme, avec la Biélorussie, une place distincte de l'URSS. Cette disposition particulière permet à l'Union soviétique de bénéficier de voix supplémentaires dans les votes de l'assemblée générale de l'ONU. En 1954, le du Parti communiste d'Union soviétique, Nikita Khrouchtchev qui a passé sa jeunesse en Ukraine, transfère la péninsule de Crimée à la république soviétique socialiste d'Ukraine pour marquer le du traité de Pereïaslav marquant l'union entre la Russie et les provinces formant l'Ukraine d'alors. L'Ukraine est considérée comme un modèle des républiques soviétiques. Notamment, Léonid Brejnev, le principal dirigeant de l'URSS pendant entre 1964 et 1982, est d'origine ukrainienne. La fin de la période soviétique est marquée en 1986 par la catastrophe nucléaire de Tchernobyl dont le coût humain et financier a été considérable. L'URSS a engagé un énorme travail de décontamination pour atténuer les conséquences de la radioactivité. La sortie de l'Union soviétique. C'est seulement vers 1989 que la libéralisation du régime soviétique et la libération des détenus politiques permettent aux Ukrainiens de s'organiser pour défendre leurs droits à la souveraineté. En 1989, le Mouvement national ukrainien, Roukh, est créé. Lors des élections de , les partis ukrainiens du bloc démocratique obtiennent alors environ 25 % des sièges au Parlement. Sous l'influence des députés démocrates, le Parlement adopte, le , la Déclaration sur la souveraineté politique de la république d'Ukraine. C'est le premier pas vers l'indépendance complète de l'Ukraine. Celle-ci est proclamée le et confirmée par le référendum du : 92 % des électeurs votent en faveur de l'indépendance. Le , la dislocation de l'URSS est actée par l'accord de Minsk, signé par les dirigeants russe, ukrainien et biélorusse. L'Ukraine devient l'un des membres fondateurs de la Communauté des États indépendants. Par le Mémorandum de Budapest sur les garanties de sécurité, signé le , l'Ukraine abandonne son arsenal nucléaire en échange de la garantie par les États-Unis, le Royaume-Uni et la Russie de son intégrité territoriale. Une situation entre Russie et Europe de plus en plus difficile depuis 2004. La situation de l'Ukraine, entre la Russie et l'Union européenne, devient difficile dès 2004 avec la révolution orange, marquant l'opposition entre deux parties de la société, celle majoritairement pro-européenne et occidentale (surtout à l'ouest du pays) et celle russophile (surtout à l'est du pays). La difficile élection du candidat pro-européen Viktor Iouchtchenko marque le début de relations tendues avec la Russie qui n'admet pas la prise de distance de l'ancienne république soviétique, jusqu'alors restée alliée de Moscou. Des tensions relatives aux conflits gaziers russo-ukrainiens éclatent dès 2006. En 2010 le pro-russe Viktor Ianoukovytch est élu président, mais le courant pro-européen et occidental persiste. À la suite du refus du gouvernement de signer des accords de rapprochement avec l'Union européenne, le renforcement du mouvement Euromaïdan provoque un renversement du pouvoir. Très rapidement, une crise éclate entre les territoires majoritairement russophones du sud-est du pays et le nouveau pouvoir central de Kiev. Le , la Crimée proclame son indépendance, puis à la suite d'un référendum est rattachée à la fédération de Russie le 18 mars. Ce référendum et le rattachement qui a suivi ont été condamnés par l'Ukraine et une large part de la communauté internationale. Ainsi, le , l'Assemblée générale de l'ONU a voté la résolution 68/262 sur « l'intégrité territoriale de l'Ukraine », la majorité des pays condamnant le rattachement de la Crimée à la Russie : dont les États-Unis et l'UE. Une guerre civile, dite guerre du Donbass, éclate ensuite dans l'est de l'Ukraine majoritairement russophone, qui entraîne plus de dix mille morts. L'Ukraine est la cible de cyberattaques dont le but est de réduire la légitimité du pouvoir ukrainien et tester de nouvelles cyberarmes, perturbant également l'économie. Les cyberattaques ont pu notamment arrêter des centrales nucléaires et empêcher les distributeurs de billets de fonctionner. Parmi les attaques, NotPetya (un logiciel malveillant) aurait affecté 70 à 80 % des ordinateurs des grandes entreprises. Bien que NotPetya ait été utilisé par la suite pour créer des attaques mondiales, d'après Microsoft, la première infection a eu lieu en Ukraine. Lors de l'annonce des résultats de l'élection présidentielle en 2014, la principale chaine de télévision, victime d'un piratage, a annoncé des résultats erronés. En 2016, l'OSCE, une organisation chargée notamment d’observer le cessez-le-feu en Ukraine a été la cible d’une attaque de grande ampleur attribuée à Moscou. L’OSCE est le seul acteur indépendant capable de documenter des exactions ou de vérifier si les promesses faites par Kiev, les prorusses ou le Kremlin sont mises en application. Alors que le conflit dans la région du Donbass semble se transformer en conflit de « basse intensité », depuis le début des combats près d'un million et demi de personnes ont été déplacées, à l'intérieur de l'Ukraine, en dehors dont vers la Russie et vers les pays de l'Union européenne. Le , Joe Biden, président des États-Unis, ordonne aux familles de diplomates américains de quitter le territoire ukrainien en raison des fortes tensions avec la Russie, évoquant « la menace persistante d'une opération militaire russe ». Le , le président russe Vladimir Poutine reconnait l'indépendance des républiques populaires autoproclamées de Donetsk et de Lougansk et ordonne à ses troupes de se rendre dans ces parties de l'est de l'Ukraine dans le cadre de ce que le Kremlin qualifie de « mission de maintien de la paix ». Le , la Russie procède à des bombardements par missiles de croisière et balistiques sur plusieurs villes ukrainiennes, dont Kiev. Les troupes russes au sol pénètrent sur le territoire ukrainien, ce qui constitue le point de départ de l'invasion de l'Ukraine par la Russie. Le 30 septembre 2022, le président de la fédération de Russie revendique l'annexion, non reconnue par l'ONU, des régions ukrainiennes de Louhansk, de Donetsk, de Kherson et de Zaporijjia au cours d'une cérémonie au Kremlin de Moscou. Géographie. Géographie physique. L'Ukraine est un pays d'Europe orientale. Elle partage ses frontières terrestres avec sept pays limitrophes : à l'ouest la Pologne, la Slovaquie et la Hongrie ; au sud-ouest la Roumanie et la Moldavie ; à l'est et au nord-est la Russie ; au nord la Biélorussie. Le pays mesure d'est en ouest et du nord au sud, pour une superficie totale de , ou sans compter la superficie de la Crimée. À l’exception du vaste plateau de Podolie (altitude ) qui occupe l'ouest du pays, c'est un pays relativement plat, avec les terres fertiles du bassin du Dniepr en son centre, ce qui lui permet d'avoir une agriculture productive. Les montagnes ukrainiennes sont principalement constituées des contreforts des reliefs d'Europe centrale et méditerranéenne : L’Ukraine bénéficie également d'un réseau fluvial étendu, composé principalement par le Dniepr (Dnipro), le Dniester (Dnister), le Boug occidental, le Boug méridional et le Donets à l'est. Le Danube (Dounay) marque la frontière à l'extrême sud-ouest entre l'Ukraine et la Roumanie. Au sud, l'Ukraine s'ouvre sur la mer Noire, bordée de nombreux « limans », et où s'avance la presqu'île de Crimée. Le climat de la majeure partie de l'Ukraine est continental avec des hivers froids et des étés chauds ; le climat n'est méditerranéen que sur la côte sud de la Crimée. Les températures moyennes à Kharkiv en Ukraine orientale sont d'environ en janvier et en juillet. Les précipitations vont d'environ par an dans le nord à environ dans le sud. Géographie historique. L'Ukraine comporte diverses régions historiques, dont certaines, comme l'oblast de Ruthénie subcarpathique ou la république autonome de Crimée, peuvent correspondre à une subdivision administrative actuelle. Certaines de ces régions historiques, comme la Volhynie et la Galicie , la Bukovine ou la Méotide se prolongent également dans les pays voisins. D'autres sont intégralement ukrainiennes : la Podolie le Boudjak et le Yedisan , la Tauride et la Crimée, auparavant tatares sous suzeraineté turque. La plus vaste des régions historiques est la Zaporoguie, pays des Cosaques du même nom, héritée des rapides du Dniepr. Géographie administrative. L'Ukraine est divisée en administratives et une municipalité ("misto") avec un statut juridique particulier, Kiev. Par ailleurs, l'Ukraine revendique l'intégralité de la Crimée, autrement dit la ville à statut particulier de Sébastopol et la république autonome de Crimée, qui ont été annexées en 2014 à la Russie et constituent actuellement le District fédéral de Crimée de la Fédération de Russie. Population. Généralités. Les données liées à l'évolution du nombre d'habitants sont connues pour la période 1950-2012. D'après le recensement de 2001, la répartition ethnoculturelle des citoyens ukrainiens (sur une base déclarative qui ne correspond pas nécessairement à la langue maternelle) est la suivante : ; ; . La classification « autres » comprend des minorités linguistiques comme les Bulgares, les Roumanophones ou les Gagaouzes du Boudjak, ou bien religieuses comme les Juifs, ou bien les deux comme les Tatars de Crimée ( en 2014, musulmans et turcophones). Les Ruthènes/Houtsoules sont en Ukraine considérés comme Ukrainiens, et ne sont par conséquent pas répertoriés comme une « nationalité » séparée, le mot « nationalité » (національність) ayant un sens proche d'ethnie et non celui de « citoyenneté » (громадянство), comme en France. Il y aurait donc 75,8 % d'Ukrainiens et environ 1 % de Ruthènes, selon les estimations. Plus d'un million d'Ukrainiens ont quitté leur pays depuis 1991 avec pour destinations privilégiées : l'Australie, les États-Unis, le Canada, Israël, l’Union européenne. Langues. L'ukrainien est la seule langue officielle depuis une loi entrée en vigueur le 17 juillet 2019. Elle seule est depuis autorisée à être employée par les autorités et institutions aussi bien nationales que régionales ou locales, ainsi que par les entreprises. La législation prévoit toutefois la possibilité de déroger à cette obligation afin de préserver les « droits des peuples autochtones et des minorités nationales d'Ukraine ». Actuellement, l'unique exception reconnue par l'état ukrainien concerne la Crimée, où la langue tatare est autorisée en tant que . Le russe est très souvent compris par les Ukrainiens. Pour la plupart, ils peuvent parler cette langue couramment en raison de la proximité d'avec l'ukrainien. Cependant, les 17 % de russophones sont surtout présents dans l'Est et le Sud du pays, qui ont fait partie pendant plus de de l'Empire russe et plus de de l'URSS, alors que l'ukrainien est largement dominant dans l'Ouest de l'Ukraine, qui a fait partie de la Pologne et de l'Autriche-Hongrie. Chez les plus jeunes, surtout dans les grandes villes, le choix de l'anglais en seconde langue devient de plus en plus important. Dans l'Ouest du pays, on trouve des minorités qui parlent le polonais, le hongrois, le biélorusse, le roumain, le grec, le yiddish, ainsi que le tchèque et le slovaque. Déportés sous Staline après 1945, les Tatars de Crimée qui sont rentrés au pays, essentiellement après 1989, parlent surtout le russe. L’allemand qui jadis était une langue minoritaire a disparu presque complètement après la Seconde Guerre mondiale et l'expulsion des allemands d'Europe de l'Est. Aujourd'hui, la langue allemande est surtout enseignée à l'université ; elle est considérée comme utile dans le monde du commerce, sans doute la troisième langue étrangère enseignée après le russe et l'anglais. Politique. La Constitution a été adoptée par le Parlement le , après qu'un accord fut conclu entre le Parlement et le président en 1995. L'Ukraine est une démocratie parlementaire où les pouvoirs présidentiels sont étendus (quoique réduits au profit du parlement). Le président d'Ukraine est élu au suffrage universel direct pour un mandat de cinq ans, renouvelable une fois. Il nomme le Premier ministre avec l'accord de la Rada qui est le parlement. Le Parlement monocaméral ("Verkhovna Rada" ou plus simplement "Rada") est composé de élus au suffrage universel direct pour un mandat de cinq ans (quatre ans avant 2006). Le mode de scrutin est mixte (car il combine à la fois scrutin proportionnel et scrutin majoritaire) jusqu'en 2006 puis uniquement proportionnel. La Cour constitutionnelle contrôle la constitutionnalité des lois et peut être saisie entre autres par la Cour suprême d'Ukraine, le président ou le Parlement. Élection présidentielle de 2004 et révolution orange. Alors que la présidence était assurée par Leonid Koutchma, un ancien apparatchik du Parti communiste, considéré comme corrompu et lié aux groupes mafieux, la dernière élection présidentielle a eu lieu le 31 octobre et . À la suite de soupçons de fraude et de la pression populaire, plus ou moins spontanée, de la révolution orange, la Cour suprême a annulé le résultat du second tour qui donnait vainqueur l'ancien Premier ministre Viktor Ianoukovytch sur Viktor Iouchtchenko. Finalement, c'est ce dernier, jouant la carte de l'Europe et du libéralisme, qui l'a emporté bien que son adversaire ait maintenu ses solides positions dans l'Est et le Sud du pays, russophones et russophiles. Viktor Iouchtchenko prête serment en janvier 2005. Il désigne alors comme Première ministre Ioulia Tymochenko, femme d'affaires entrée en politique du temps du président Koutchma. Sur fond d'accusations réciproques de corruption, le le président Viktor Iouchtchenko limogea le gouvernement de la Première ministre Ioulia Tymochenko, nommant à sa place Iouriï Iekhanourov, gouverneur de l'oblast de Dnipropetrovsk. Des commentateurs comme Jean-Baptiste Naudet, reporter au "Nouvel Observateur" ont estimé que l'on peut observer, à travers plusieurs élections, une préférence pour les candidats pro-européens en Ukraine du Nord-Ouest jadis soumise à l'influence polono-lituanienne, et pour les candidats pro-russes en Ukraine du Sud-Est jadis soumise à la domination turco-tatare et délivrée de celle-ci par les cosaques et la Russie. Élections législatives de 2006. Les élections législatives qui suivirent ont eu lieu le . Le Parti des Régions du pro-russe Viktor Ianoukovytch a obtenu 32,12 % de voix (), le Bloc de Ioulia Tymochenko (BUT) 22,27 % de voix () et le Parti présidentiel Notre Ukraine 13,94 % de voix (). Les partis qui n'ont pu obtenir un minimum de 3 % des voix ne sont pas représentés à la Rada. La coalition parlementaire « orange » (Notre Ukraine — Bloc de Ioulia Tymochenko (BIT) — Parti socialiste) difficilement constituée après plus de deux mois de débats, a éclaté le , à la suite de la défection surprise du socialiste Oleksandr Moroz élu président du Parlement avec le soutien de l'opposition pro-russe. Cette défection a entraîné le ralliement des socialistes à la formation Parti des Régions – Communistes et à la création d'une nouvelle alliance majoritaire ( sur 450), cette fois dirigée par l'ex-Premier ministre Viktor Ianoukovytch. À la suite des pourparlers entre Iouchtchenko et Ianoukovytch entamés le , les deux anciens rivaux se sont mis d'accord sur la signature du pacte de l'unité nationale ("Universal"), qui marque les concessions politiques des deux côtés (entre autres, la soumission au référendum de la question de l'entrée du pays dans l'OTAN). Le groupe du Bloc Ioulia Tymochenko, jadis un allié de « Notre Ukraine », qui a quitté le siège de la Rada le 20 juillet en exigeant la tenue des législatives anticipées, n'a pas signé l'Universal. Il devient donc l'opposition officielle. Le la Rada a nommé le chef du Parti des régions Viktor Ianoukovytch au poste de Premier ministre ukrainien. La candidature de Ianoukovytch a été appuyée par , pour 226 requises. Élections législatives de 2007. Le , le président Viktor Iouchtchenko dissout le parlement et provoque de nouvelles élections législatives. Elles eurent lieu le , les résultats étaient les suivants : Lors des élections législatives anticipées du, le bloc dirigé par Ioulia Tymochenko arrive en deuxième position avec 30,7 % des voix, gagnant presque huit points par rapport aux précédentes législatives de mars 2006 (22,9 %). Le parti des Régions de Viktor Ianoukovytch remporte les élections avec 34,4 % des voix. Après les premiers dépouillements, le « Bloc Ioulia Tymochenko » arrivait en tête et l'OSCE avait déclaré que les élections s'étaient déroulées de manière libre et équitable Nommée première ministre par le président Iouchtchenko, elle ne parvient pas, cependant, à obtenir la majorité le 11 décembre, obtenant seulement sur les . De nouveau proposée au poste de Premier Ministre, la Rada entérine sa nomination à la tête du gouvernement le 18 décembre lors d'un deuxième vote par sur les 450. La "Rada" est dissoute par le président Iouchtchenko le à la suite de la crise parlementaire de 2008 en Ukraine, une élection anticipée d'abord prévue pour le puis le , a été reportée pour début 2009, à une date indéterminée, en raison de la crise financière. Une nouvelle coalition se forme alors entre le parti de Volodymyr Lytvyn, le bloc Ioulia Tymochenko et Notre Ukraine. Volodymyr Lytvyn est élu président du Parlement, et celui-ci annonce que la "Rada" poursuivra son travail jusqu'en 2012. Élection présidentielle de 2010. Le premier tour de l'élection présidentielle s'est déroulé le . Le chef de l'opposition Viktor Ianoukovytch obtient 35 % des voix, et la Première ministre Ioulia Tymochenko 25 %. Le président sortant Viktor Iouchtchenko réunit environ 5,5 % des voix. Viktor Ianoukovytch emporte le second tour du 7 février avec 48,95 % des voix contre 45,47 % pour Ioulia Tymochenko. L'OSCE a annoncé que le scrutin avait été « transparent et honnête ». Mykola Azarov, fidèle du président Ianoukovytch, accède au poste de Premier ministre le , à la suite d'une motion de censure votée le 3 mars contre Ioulia Tymochenko. Événements de 2013-2014. En novembre 2013, l'Ukraine renonce à signer un accord d'association avec l'Union européenne et . Ce revirement entraîne d'importantes manifestations pro-européennes à Kiev rassemblant des centaines de milliers de personnes, l'occupation du Maïdan Nézalejnosti et de la mairie, avec comme mot d'ordre la démission du président Viktor Ianoukovytch. Au fil des jours, la capitale ukrainienne (Kiev) se transforme en champ de bataille. Les deux premiers décès ont lieu le mardi . La légitimité de Viktor Ianoukovytch est d'autant plus remise en cause après la mort de tués par balle le jeudi . Le , Viktor Ianoukovytch quitte Kiev pour Kharkiv et le régime politique est renversé. Alors que des rumeurs évoquent sa démission, le président dément, refuse de démissionner, parle d'un « coup d'État » qu'il compare à l'arrivée des Nazis en Allemagne. Quelques heures plus tard, le Parlement vote sa destitution et fixe au suivant la prochaine élection présidentielle par sur 450. Dans le même temps la libération de l'ancienne Première Ministre Ioulia Tymochenko est votée et Oleksandr Tourtchynov est choisi pour diriger pour quelques mois l'Ukraine par intérim. Les manifestants et la presse ont pu entrer facilement dans la Mejyhiria, la résidence de l'ancien président située dans la banlieue de Kiev. Ceux-ci ont été choqués par le train de vie que menait Viktor Ianoukovytch dans celle-ci. En fin de compte, les affrontements ont fait au moins chez les manifestants et chez les forces de l'ordre (Berkout). Après un bref passage par l'Est de l'Ukraine, le président déchu Viktor Ianoukovytch s'est réfugié en Russie. Un mandat d'arrêt est lancé contre lui pour « meurtres de masse ». Parallèlement à ces événements, des manifestations anti-Maïdan se propagent dans les régions du sud et de l'est où Viktor Ianoukovitch avec le Parti des régions était majoritaire et où la langue russe est dans certains territoires prédominante comme à l'est du Donbass. Les manifestants protestent notamment contre l'abrogation de la loi sur le bilinguisme et sont favorables au projet de fédéralisation défendu par la Russie pour donner plus d'autonomie à ces régions par rapport aux autorités de Kiev. La guerre éclate dans les oblasts de Donetsk et de Louhansk en mai de cette même année après la proclamation de l'indépendance des deux républiques populaires. Une guerre qui, en dépit des négociations de Minsk et des tentatives de cessez-le-feu, se poursuivra pendant des années et sera alimentée par un soutien militaire russe aux séparatistes. Le projet de ces derniers est plus radical que la fédéralisation car ils souhaitent la partition du pays pour créer un état sécessionniste pro-russe, la Nouvelle-Russie, dans le Donbass, voire dans toute cette moitié sud-est de l'Ukraine jusqu'à la Transnistrie en Moldavie. Le 11 mars, le Conseil suprême de Crimée proclame l'indépendance de la république autonome de Crimée, indépendance qui sera entérinée à la suite d'un référendum qui s'est tenu le 16 mars, et lors duquel la population a voté à une écrasante majorité pour un rattachement à la Russie. Les conditions de ce rattachement ont été critiquées par la communauté internationale. Élection présidentielle de 2014. Les élections sont marqués par une forte abstention, , soit 50,8 % des votants, mais ce résultat inclut la Crimée et les régions sous contrôle séparatiste, où la participation a été très faible. Lors de cette élection, les électeurs donnent la victoire à Petro Porochenko, à la majorité dès le premier tour avec environ 54,7 % des voix, soit sur valides, alors que Ioulia Tymochenko arrive deuxième avec 13 %. Accord de libre échange avec l'Union européenne. Le , le nouveau président Petro Porochenko signe un accord de libre échange avec l'Union européenne à Bruxelles. Présidence de Volodymyr Zelensky (depuis 2019). L'élection présidentielle de mars- porte au pouvoir l'humoriste et comédien Volodymyr Zelensky, qui, après avoir éliminé dès le premier tour Ioulia Tymochenko, pourtant donnée favorite durant toute l'année 2018, récolte 73 % des voix au second tour face à un Porochenko affaibli par cinq années de guerre et de corruption. Se présentant comme un candidat antisystème, Zelensky a mené une campagne atypique axée avant tout sur les réseaux sociaux, jouant de l'identification avec le personnage de professeur d'histoire élu président qu'il incarne depuis 2015 dans la série télévisée "Serviteur du peuple". Ses détracteurs soulignent ses accents populistes, son inexpérience et sa quasi-absence de programme. Lors de son investiture le , Zelensky dissout le Parlement, où son parti ne compte aucun député, et provoque des élections législatives anticipées : cette décision est jugée anticonstitutionnelle par une partie de la classe politique, dont le Premier ministre Volodymyr Hroïsman, qui donne sa démission. Le scrutin, qui a lieu le avec un taux de participation de 49,8 %, donne la victoire au parti de Zelensky avec une majorité absolue de sur 450. Volodymyr Zelensky fait de la lutte contre la corruption l'un des grands axes de sa présidence : à cet effet, il met en place de nombreuses mesures anticorruption, dont une loi engageant la responsabilité pénale des fonctionnaires reconnus coupables de déclarations de revenus mensongères. Celle-ci et plusieurs autres sont néanmoins invalidées en par la Cour constitutionnelle, qui les juge trop sévères : cette décision provoque des manifestations et une crise constitutionnelle. Zelensky réussit néanmoins à faire passer le une loi visant à limiter le pouvoir des oligarques, riches hommes d'affaires qui influencent la vie publique ukrainienne, en les recensant dans un registre. Les intéressés ont six mois pour cesser leurs activités politiques et vendre leurs médias, sans quoi ils sont fichés comme oligarques et soumis à de fortes contraintes (obligation de déclarer leurs possessions, interdiction de financer des partis politiques, de rencontrer en privé des hauts fonctionnaires ou de participer à des privatisations). Zelensky est toutefois critiqué pour avoir pris la tête de la commission chargée d'établir le registre, ce qui engendre un conflit d'intérêts en raison de ses liens avec l'oligarque Ihor Kolomoïsky. Il est par ailleurs lui-même accusé d'évasion fiscale dans l'affaire des "". Sur le plan international, Zelensky entend relancer le dialogue avec la Russie sur la question du Donbass. Le début de son mandat est marqué à cet égard par des succès, dont des échanges de prisonniers sans précédent entre l'Ukraine et le camp prorusse et la restitution par Moscou des trois navires ukrainiens arraisonnés lors de l'incident du détroit de Kertch un an plus tôt. Cette politique de détente mécontente néanmoins une partie de l'opinion publique, qui manifeste dans les grandes villes d'Ukraine pour dénoncer une . Le , Kiev et Moscou n'en signent pas moins le plus long accord de cessez-le-feu depuis le début du conflit : celui-ci est presque aussitôt fragilisé par des tirs en provenance des territoires séparatistes, le , mais Zelensky réaffirme son attachement à l'accord en imputant ces agissements à des . En , cependant, un tournant s'opère lorsque la Russie concentre des troupes à la frontière ukrainienne, dans un contexte de violations répétées du cessez-le-feu. Rompant avec sa position conciliante, Zelensky se tourne vers l'OTAN et l'Union européenne, considérant que l'adhésion de l'Ukraine à ces organisations est . Après quelques semaines de tensions, Sergueï Choïgou annonce le début du retrait des troupes russes le , mais celles-ci se réinstallent massivement à la frontière en fin d'année. Malgré la réaffirmation par Zelensky de sa volonté de négocier directement avec Moscou, et l'ouverture de discussions avec les États-Unis et les partenaires européens, Vladimir Poutine lance finalement son armée à l'assaut du pays en . Armée. L'armée ukrainienne reçoit une aide militaire conséquente de la part des pays de l'OTAN et de l'Union européenne lors de l'invasion de l'Ukraine par la Russie. Économie. L'Ukraine a une économie diversifiée, mais encore tributaire des industries établies à l'époque soviétique. C'est un libre marché émergent, où la croissance fut à deux chiffres durant ces dernières années, jusqu'à la révolution orange (2004-2005). Ses ressources naturelles tournent beaucoup autour de l'agriculture (tournesol, noix, betteraves sucrières). Autre point fort de son agriculture, le pays est aussi septième au palmarès des producteurs mondiaux de céréales au milieu des années 2010, dominé par les États-Unis, grâce à une forte progression. Le secteur agricole est cependant en repli dans d'autres domaines : sur les six premières années de la décennie 2010, le pays n'a jamais regagné sa place au palmarès des huit plus grands producteurs mondiaux de sucre. Les ressources minières (fer, charbon, uranium, potasse, etc.) jouent également un rôle important. L'économie est caractérisée par une forte inflation et des rendements économiques encore un peu faibles. Du point de vue commercial, son principal partenaire économique reste la Russie, même si l'Ukraine s'efforce de se tourner vers les pays de l'Union européenne géographiquement proches d'elle. Le pays joue un rôle important dans la distribution gazière européenne. En 2015, en dépit de la guerre du Donbass, l'Ukraine reste dépendante de la Russie pour 21 % de ses importations et 12 % de ses exportations. La monnaie nationale, la hryvnia, a été introduite en 1996 et a contribué à réduire l'hyperinflation qui régnait alors. De 1989 à 1999, le PIB s'est effondré de 60 %, passant de de dollars internationaux à , puis est remonté à jusqu'à la crise de 2008, depuis laquelle le PIB a tendance à diminuer irrégulièrement (PIB en 2012 : de dollars internationaux). En 2001, le gouvernement prit la décision d'accélérer le processus d'adhésion à l'Organisation mondiale du commerce (OMC), cependant les résultats ne furent pas aussi bons que prévu. L'objectif était d'entrer dans l'OMC en (le seul pays s'y opposant étant le Kirghizistan), entrée qui fut effective le . La crise politique de 2006 aurait pu affecter l'économie ukrainienne en raison de la longueur de la désignation du Premier ministre. Les investisseurs ne furent pas vraiment effrayés et l'économie résista bien. La croissance du PIB en était de 9 % comparé à , la production industrielle a augmenté, le secteur bancaire s'est étendu, grâce à l'arrivée de banques européennes. En 2009, à la suite de la crise financière, le PIB ukrainien a chuté de 15 %, l'une des pires performances économiques enregistrées pendant cette période. Grâce aux exportations, la croissance a repris en 2010, mais les conditions extérieures sont susceptibles d'entraver les efforts pour la reprise économique en 2011. Le conflit armé a eu un impact non négligeable sur l'activité économique du pays, le PIB baissant de 6,6 % en 2014, puis de 9,8 % en 2015 pour se redresser légèrement en 2016 (2,3 %). De 2013 à 2017, le PIB a ainsi connu une baisse de 49 % ne totalisant que de dollars en 2017 pour 183 en 2013. L'instabilité politique du pays constitue également un terrain défavorable pour les investisseurs étrangers. En 2022, l'Ukraine est classée en pour l'indice mondial de l'innovation. Transport. L'Ukraine possède un réseau de transport assez développé, avec de routes majoritairement en mauvais état héritées de l'époque soviétique, de voies ferrées, et la longueur des voies fluviales ouvertes à la navigation est de . Réseau routier. Le réseau routier comprend de routes dont de routes nationales et de routes locales. La proportion de voies rapides est faible ( par km² soit 6,6 moins dense qu'en France) et le pays ne dispose que de d'autoroutes. Ce réseau routier, qui est en très mauvais état, fait l'objet de gros investissements en 2020 et 2021 pour commencer à le remettre à niveau. Transports ferroviaires. L'Ukraine dispose d'un des plus grands réseaux ferroviaire d'Europe avec de voies ferrées dont sont électrifiés. Comme tous les pays issus de l'éclatement de l'Union soviétique l'écartement est de type voie large. Le ministère des infrastructures ukrainien estimait en 2019 que 97 % du parc roulant devait être modernisé ou remplacé. La compagnie de chemins de fer nationale Ukrzaliznytsia prévoyait en 2021 d'investir de dollars dans la réparation de de voies et la modernisation ainsi que dans l'électrification de plusieurs itinéraires . Le transport ferroviaire international joue un rôle important car il est utilisé par 60 % des exportations en 2008 (le deuxième d'Europe) et s'élevait à . Le réseau est relié à ceux de la Russie, de la Biélorussie, de la Moldavie, de la Roumanie, de la Hongrie, de la Slovaquie et de la Pologne, avec conversion voie large russe/voie normale européenne pour ces quatre derniers pays. Les principales villes d'Ukraine disposent d'un réseau de transports en commun lourd hérité en partie de l'époque soviétique. Le métro de la capitale Kiev, est le plus important avec une longueur de ( de passagers quotidiens). Les deux autres réseaux de métro se trouvent à Kharkiv () et Dnipro. Par ailleurs une quinzaine de villes disposent d'un réseau de tramways. Transport maritime et fluvial. de commerce étaient recensés en 2013 sur sa façade maritime le long de la mer Noire et de la mer d'Azov. En 2008, ils ont transporté de marchandises. Le plus important est celui d'Odessa, sur la mer Noire. Le réseau fluvial comprend de voies fluviales répartis sur neuf fleuves. Le Danube, le Dniepr et le Pripiat forment l'essentiel du réseau. Ces voies d'eau gèlent en hiver (de décembre à mars). Aéroports. Les principaux aéroports d'Ukraine sont Kiev-Boryspil ( passagers en 2019) et Kiev Jouliany ( passagers) qui desservent la capitale du pays, Lviv ( passagers), Donetsk, Odessa ( passagers) et Simferopol ( passagers, situé sur le territoire occupé par la Russie). Il existait en 2012 aéroportuaires. Oléoducs et gazoducs. Le pays dispose d'un réseau étendu oléoducs et de gazoducs qui acheminent principalement les produits pétroliers et le gaz naturel russes vers le territoire national et l'Europe occidentale. Depuis le milieu des années 2000 ces infrastructures sont au centre d'un conflit qui oppose l'Ukraine à la Russie. Tourisme. L’Ukraine occupait en 2012 la neuvième place en Europe par le nombre de visiteurs. Les principales villes visités sont Kiev, Lviv, Odessa, Kamianets-Podilskyï et Yalta sur la mer Noire. Les Sept merveilles d'Ukraine ainsi que les « sept merveilles naturelles d’Ukraine » sont des endroits principalement fréquentés par les touristes étrangers. Depuis 2005, les citoyens de l'Union européenne, de l'AELE, des États-Unis, du Canada, du Japon et de la Corée du Sud n'ont plus besoin de visa pour visiter l'Ukraine. Les Russes avaient ce droit avant 2005. L'industrie touristique du pays a besoin d'investissement pour se moderniser, mais elle continue de contribuer stratégiquement à l'économie de l'Ukraine. En 2012, la part du tourisme dans le PIB s'est montée à de UAH, soit 2,2 % du PIB, tout en procurant directement (1,7 % des emplois totaux). En 2012, plus de de visiteurs étrangers ont visité l'Ukraine. L'Ukraine possède de très nombreux sites touristiques dans tout le pays, un littoral sur la mer Noire avec des plages nombreuses et très populaires, des châteaux historiques, des parcs, des sites viticoles et un nombre important de musées répartis dans l'ensemble du pays, et notamment dans les grandes villes de Kiev, Odessa, Donetsk et Lviv. L'un des symboles les plus connus reste la cathédrale Sainte-Sophie et le monastère Saint-Michel avec ses toits dorés à Kiev, ainsi que le site antique de Chersonèse à Sebastopol (Crimée). Le massif des Carpates, dans l'Ouest, offre des stations de ski ainsi que des sentiers pédestres pour faire de la randonnée. Environnement. Le pays a été marqué par la catastrophe de Tchernobyl, même si les retombées ont essentiellement concerné la Biélorussie. En tant que centre nodal énergétique pour l'Europe de l'Est, le risque d'accident lié à une infrastructure énergétique reste élevé. Les problèmes d'environnement en Ukraine provoquent une baisse de l'espérance de vie. Le journaliste Dmytro Kouzoubov note en 2019 que le pays est confronté à d’importants défis environnementaux : fragilité de la protection des nappes phréatiques, qui pourraient être victimes d'une pollution massive en provenance des mines, importante pollution (soufre, plomb, cadmium, etc.) liée aux armes utilisées pendant les combats, destruction des forêts et des sols pour l'extraction clandestine de l'ambre, abattage clandestin des forêts, absence de gestion des ordures ou encore menaces sur le niveau et la qualité du Dniepr. L'Ukraine a connu dans le courant de l’été 2010 de nombreux feux de forêts, tout comme sa voisine russe. Enseignement. L'université d'État Tarass-Chevtchenko, l'Institut polytechnique de Kiev et Université nationale de commerce et d'économie de Kiev sont les principales universités ukrainiennes. Culture. Littérature ukrainienne. Jusqu’au début du , la langue écrite diffère significativement de la langue parlée. La littérature ukrainienne moderne nait au . Des écrivains de la nouvelle génération commencent alors à écrire en langue du peuple, cherchant la codification qui refléterait la prononciation. Cette vague commence avec Ivan Kotliarevsky qui en 1798 publie le poème "Eneyida" (), qui est considéré comme la première œuvre en ukrainien moderne. Sa pièce de théâtre "Natalka Poltavka" est devenue un classique de la littérature ukrainienne. Elle est jouée encore aujourd’hui dans de nombreux théâtres de l’Ukraine. Mais c’est l’œuvre de Taras Chevtchenko, fils de paysans serfs qui a eu la chance d’être libéré et de recevoir de l’éducation, qui marque véritablement la renaissance littéraire ukrainienne. Parmi d'autres écrivains ukrainiens : Ivan Franko et Lessia Oukraïnka. D'autres écrivains ukrainiens ont par ailleurs influencé la littérature russophone dont le plus célèbre Nicolas Gogol, est sujet de dispute entre Ukrainiens et Russes. Sujet des interdictions et de la censure tsariste, la littérature de la langue ukrainienne vécut une brève période de renaissance dans les années 1920 que l’on appelle la « renaissance fusillée » car beaucoup de ses représentants furent exécutés lors des purges staliniennes et d’autres emprisonnés dans des camps du Goulag. Ce fut le cas notamment de Vassyl Stous, poète, traducteur et membre du groupe Helsinki. Arrêté en 1972, il fut déporté au goulag où il mourut en 1985, dans une cellule d'isolement. Après la fin de l’URSS et l’indépendance de l’Ukraine, la littérature ukrainienne connaît une nouvelle renaissance, limitée par la crise économique et par la russification des grandes villes de l’Est de l’Ukraine. Parmi les écrivains modernes les plus connus, on trouve Iouri Androukhovytch, Serhiy Jadan, Andreï Kourkov, Oksana Zaboujko, Ihor Pavliouk. Cinéma. Le cinéma ukrainien est à la fois partie prenante du cinéma soviétique et un cinéma original, attaché à la terre et à l'histoire ukrainienne. Certains auteurs accordent ainsi au cinéma ukrainien un développement parallèle et indépendant du cinéma soviétique, d'autres fixent son essor véritable au lendemain de l'indépendance du pays, en 1991. L'histoire du cinéma ukrainien débute de manière précoce, en 1896. C'est aussi l'une des cinématographies qui a presque disparu durant les années 1990, avec la chute de l'URSS. Depuis 1998, elle connaît un renouveau important. Musique. La musique ukrainienne est essentiellement vocale et polyphonique depuis l'avènement de ce style dans la musique liturgique orthodoxe au . Pendant longtemps les musiciens à la Cour du tsar et dans les chœurs orthodoxes étaient Ukrainiens. Les instruments n'apparurent que pour accompagner les chanteurs. Cuisine. La cuisine ukrainienne est une part importante de la culture nationale. Des plats spéciaux sont préparés à Pâques ou à Noël. Les Ukrainiens utilisent diverses sortes de sauces, de poissons et de fromages. Le pain est un élément essentiel à tout repas. Le borchtch est une soupe traditionnelle servie en entrée. Elle est à base de betteraves et de légumes (chou, carottes, pommes de terre, oignons ou tomates) et de viande (poulet, porc ou bœuf). Le varenyky (Вареники) est un plat ukrainien traditionnel populaire et très ancré dans la cuisine ukrainienne. Ressemblant à des raviolis, ils sont cependant plus volumineux et très similaires aux "pelmeni" russes, aux "pierogi" polonais voire aux "buuz" mongols. Leur farce est constituée généralement de pommes de terre, mais il y a de nombreuses déclinaisons : fromages, fraises, cerises, champignons, choux, voire plusieurs combinaisons entre elles. Le gâteau de Kiev (en ukrainien : торт « Київський ») est à base de noisettes et de meringue. La horilka est la vodka ukrainienne. Religions. Les principales confessions du pays sont chrétiennes, essentiellement orthodoxes et dans une moindre mesure catholiques. Il existe principalement trois églises orthodoxes en Ukraine : Le catholicisme représente 9 % de la population, soit environ quatre millions de fidèles. Il est surtout pratiqué selon le rite byzantin. D'autres confessions chrétiennes issues du protestantisme ou encore l'Église apostolique arménienne sont aussi représentées mais en très petit nombre, environ 1 %. L'islam, qui est principalement la religion des Tatars de Crimée, réunit moins d'1 % des croyants et le judaïsme moins de 0,5 %. L'Ukraine dispose d'un patrimoine religieux considérable, parfois très ancien (jusqu'au ) et présentant, dans les Carpates, une architecture en bois. Un projet national de recensement et de préservation existe depuis 2005. Codes. L'Ukraine a pour codes : |
Uruguay L’Uruguay (), en forme longue la république orientale de l'Uruguay ( et ), est un pays du Cône Sud de l’Amérique du Sud, situé au sud du Brésil et au nord-est de l’Argentine, dont il est séparé par le fleuve Uruguay qui lui a donné son nom. Pays de plaines légèrement ondulées entrecoupées de rangées de collines souvent escarpées et de bas plateaux où s'écoulent des rivières dans de larges vallées, c'est un "petit" État en Amérique du Sud par sa superficie terrestre de . L’Uruguay est né de la sécession de la Cisplatine, province la plus méridionale de l’Empire du Brésil, et de l’échec de sa réincorporation aux Provinces-Unies du Río de la Plata. L’espagnol est " l’unique langue officielle de l'Uruguay. La langue nationale est l’espagnol rioplatense. Dans le nord du pays est pratiqué un dialecte du portugais, le portugais uruguayen. L'Uruguay a donné à la langue portugaise un statut égal à l'espagnol dans son système éducatif le long de la frontière nord avec le Brésil. Dans le reste du pays, le portugais est enseigné comme une matière obligatoire à compter de la collège/ année primaire. En 2020, la population du pays est estimée à . Sa capitale, Montevideo, avec près de , est la plus grande ville du pays regroupant plus de la moitié de la population de l'Uruguay avec son aire métropolitaine. Cependant, quelques villes comme Salto, Paysandú, Maldonado et Rivera, certes beaucoup moins importantes que la capitale, exercent leur influence urbaine dans leur propre région. Le mode de vie y est européen, teinté de cultures guarani et africaine, et le niveau de vie est comparable à celui du Costa Rica, si l'on prend en compte l'IDH. L'Uruguay était considéré, dans les années 1950, comme la « Suisse de l'Amérique » par les Européens. La monnaie nationale est le peso uruguayen. Avec l'Argentine, le Brésil et le Paraguay, l’Uruguay est un des quatre membres fondateurs du Marché commun du Sud dont le siège permanent du Secrétariat administratif (SAM) est à Montevideo. L’Uruguay est un État unitaire dont l’administration territoriale est décentralisée. L’Uruguay est un État laïque, dont le régime de séparation des Églises et de l'État est inspiré du cas français. Fin , " attire l’attention sur l’Uruguay en le désignant pour l’adoption de deux lois, celle du 2013 "sur le mariage égalitaire" et celle du 2013 "sur le cannabis et ses dérivés". Origine du nom. Le nom Uruguay vient du guarani. Bien que sa signification ne soit pas très claire, Félix de Azara affirma que ce nom désigne un petit oiseau nommé "el urú" qui vit sur les rives du fleuve Uruguay (qui signifie lui-même-alors « rivière du pays de l'urú » ("río del país del urú"). Néanmoins, l'un des accompagnateurs d'Azara donna une autre version en disant que le mot Uruguay se divise en deux parties : "uruguá" signifiant « escargot », et le "ï" signifiant rivière, la traduction serait donc « rivière des escargots » ("río de los caracoles"). Enfin, le poète Juan Zorrilla de San Martín a interprété le mot d'une troisième façon, comme le « fleuve des oiseaux peints » ("río de los pájaros pintados"). L'étymologie est discutée. Uruguay serait composé de "uruguá" (« escargot »), et "i" (« eau ») et signifierait « fleuve des escargots » ; ou composé de "urú" (« oiseau »), "gua" (« lieu, pays »), et "î" (« eau ») et signifierait « fleuve du pays des oiseaux » ; ou composé de "uruá", "uruguá" (« escargot »), et "î" (« eau ») et signifierait « fleuve en forme d'escargot » ; ou composé de "îrú" (« accompagnant »), "î" (« eau »), et "gua-á" (« perroquet ») et signifierait « compagnon du fleuve des perroquets » ; ou composé de "yurú" (« bouche »), et "îguaá" (« fleuve ») et signifierait « embouchure » ; ou composé de "î" (« eau ») ; "rirú" (« lit, débit »), et "aí" (« laid ») et signifierait « débit faible ou misérable du fleuve ». Histoire. Préhistoire. La préhistoire des peuples indigènes est grandement compliquée, comme un peu partout en Amérique, par les effets dramatiques du contact avec les colonisateurs européens. Une étude de paléogénétique publiée en 2021 portant sur un site archéologique de l'est de l'Uruguay datant de avant le présent montre « un lien surprenant » avec des individus anciens du Panama et de l'est du Brésil, mais pas avec les Amazoniens modernes. Ce résultat semble indiquer l'existence d'une route migratoire distincte vers l'Amérique du Sud qui peut avoir eu lieu le long de la côte atlantique. Ces anciens spécimens ont le plus d'affinité génétique avec deux populations amérindiennes actuelles, les Suruí et les Karitiana. Période coloniale et indépendance. En 1516, les Espagnols découvrent le territoire mais le délaissent au départ du fait de la faiblesse de ses ressources naturelles. La menace causée par l'expansion des Portugais conduit les "Conquistadores" à édifier la ville fortifiée de Montevideo en 1726 et à coloniser le pays. Le début du vit l'émergence de mouvements indépendantistes un peu partout en Amérique du Sud, y compris en Uruguay (désigné alors sous le nom de "Banda Oriental", c'est-à-dire « Région orientale »). Entre 1811 et 1817, le héros national de l'indépendance, José Gervasio Artigas, organisa les "Orientaux" dans le but d'obtenir l'indépendance des "Provincias Unidas del Rio de la Plata" (actuellement, une bonne partie de l'Argentine et l'Uruguay). À la suite de trahisons et de multiples disputes entre les dirigeants locaux, les victoires initiales se transformèrent en défaites, et Artigas — suivi de dizaines de milliers de personnes — dut se réfugier en dehors de la Banda Oriental, puis s'exiler au Paraguay, d'où il ne revint jamais. Le contrôle du territoire uruguayen fit l'objet d'un conflit entre les deux États naissants de l'Argentine et du Brésil : ce dernier finit par annexer la région en 1821 et la baptisa "« Provincia Cisplatina »". Mais le , le groupe nationaliste Trente-trois Orientaux (les "Treinta y Tres Orientales" en espagnol) conduit par Juan Antonio Lavalleja débarqua sur la plage de "La Agraciada" et commença la guerre d'indépendance contre le Brésil. Cette guerre se termina le par le Traité de Montevideo. La première constitution de l'Uruguay fut signée le . Le pays était, avant les européens peuplé par des Guaranis et des Charrúas; ces derniers étaient le groupement le plus nombreux et le plus organisé. Jugés inassimilables, leur annihilation fut décidée peu après la déclaration d'indépendance du pays de 1830. Prospérité économique et crise. Entre 1839 et 1851, l'Uruguay connut une guerre civile nommée « Grande Guerre » durant laquelle les "Colorados", partisans de Fructuoso Rivera, et les "Blancos", partisans de Manuel Oribe, appuyé par l'Argentine s'affrontèrent, avec l'appui de volontaires étrangers dont la Ligue italienne commandée par Garibaldi. Les Colorados finirent par l'emporter. À la fin du siècle, le pays participa à la guerre de la Triple-Alliance contre le Paraguay. De 1903 à 1920, l'Uruguay connut une période de prospérité sous la présidence de José Batlle y Ordóñez. Celui-ci nationalise les raffineries, les grandes industries et les banques, favorise le développement industriel, et proclame la séparation de l’Église et de l’État. L'ère Batlle donna son nom au « ». L'Uruguay fut ensuite touché par la crise de 1929, ce qui provoqua le coup d'État, en 1933, de Gabriel Terra, et ne sortit vraiment de cette crise qu'à partir de 1950. Le pays renoua alors partiellement avec une prospérité qui rappela l'ère Batlle, tandis qu'en 1952, un Conseil national du gouvernement (direction collégiale de l'exécutif) fut mis en place. En 1958, le Parti national remporte les élections et applique à l’économie du pays les requêtes des États-Unis et du Fonds monétaire international. La fin de la politique protectionniste est suivie d'une sévère crise économique qui ruine une grande partie des classes moyennes et réduit drastiquement le salaire réel des travailleurs. Le Conseil national du gouvernement fut renversé, et en , le vice-président Jorge Pacheco Areco accéda à la présidence, son prédécesseur étant mort quelques mois après avoir pris ses fonctions. L'inflation, qui dépasse les 100 % annuels, est ramenée par Pacheco à 20 %, qui établit un contrôle strict et pointilleux des salaires et des prix. Par ailleurs, pour faire face aux mouvements social et syndical, Pacheco interdit plusieurs partis de gauche et promulgue des mesures de sécurité, les "" à partir de , l'Uruguay étant alors influencé par les évènements de mai-juin 1968 parisiens. Sans cesse renouvelées avec l'accord du Parlement, ces mesures se transforment en état d'exception durable, avec l'application de la censure et des détentions sans inculpation, tandis qu'une guérilla urbaine, les Tupamaros, commence à apparaître avec la prise de Pando d'. La gauche met en place un Front large en vue des élections générales de 1971, afin de défier les deux partis traditionnels, "blancos" et "colorados". Présidé par le général Líber Seregni, démissionnaire du gouvernement Pacheco, celui-ci rassemble du Parti démocrate chrétien au Parti communiste, en passant par des dissidents "blancos" et "colorados", dont Zelmar Michelini. Pour réprimer la gauche, des communistes aux socialistes, le gouvernement Pacheco sponsorise des escadrons de la mort, lesquels tentent d'assassiner le général Seregni, tandis que la police commence à faire un large usage de la torture. Dictature militaire. En , les élections sont remportées de justesse, dans un contexte de fraudes importantes, par le dauphin de Pacheco, Juan María Bordaberry. Celui-ci démantèle l'appareil de contrôle de l'économie mis en place par Pacheco, au risque de faire remonter l'inflation à un taux annuel de 100 %. La montée en puissance de l'armée se poursuit, tandis que l'« état de guerre interne » est voté après l'assassinat, par les Tupamaros, du sous-secrétaire d'État à l'Intérieur, Armando Costa y Lara, qui dirigeait les escadrons de la mort. En , après l'échec d'une tentative de reprise en main de l'armée par Bordaberry, celle-ci lui impose le , qui établit un Conseil de sécurité nationale, l'armée partageant, de fait, le pouvoir avec lui. Le processus débouche finalement sur le coup d'État du 27 juin 1973, Bordaberry restant en place mais sous étroite surveillance de l'armée. La dictature militaire dissout les partis politiques et suspend la Constitution, et emprisonne environ un habitant sur 450. Participant à l'opération Condor dès avant sa création officielle en 1975, les escadrons de la mort pourchassent les opposants, y compris hors des frontières (notamment en Argentine, où sont assassinés, en , les parlementaires Michelini et Héctor Gutiérrez Ruiz, ainsi qu'un couple d'ex-Tupamaros et un communiste). L’économie est fortement libéralisée par le régime militaire. Les promesses d'améliorations économiques ne sont pas tenues en raison de la crise mondiale provoquée par le premier choc pétrolier en 1973. Le ministre de l'économie et des finances Alejandro Végh Villegas essaye d'améliorer l'économie en promouvant le secteur financier et les investissements étrangers. La dépense sociale est réduite et de nombreuses entreprises d'État sont privatisées. Cependant, l'économie ne s'améliore pas et se détériore après 1980, le PIB chute de 20% et le chômage monte à 17%. L'État intervient en essayant de renflouer les entreprises et les banques défaillantes. L'échec d'amélioration économique par le régime a fragilisé sa position. Les médias sont censurés ou interdits, le mouvement syndical est détruit et des tonnes de livres brulées après l'interdiction d'ouvrages de certains écrivains. Les personnes fichées comme opposées au régime sont exclues de la fonction publique et de l'enseignement. Retour à la démocratie. L'échec de la dictature, consacré par le refus massif de la population lors du plébiscite de 1980 sur la réforme constitutionnelle visant à entériner la dictature, conduit à une transition démocratique qui n'aboutit qu'avec les et la libération des prisonniers politiques en 1985. L'armée continua toutefois à surveiller étroitement la scène politique jusqu'aux années 2000, tandis que les gouvernements civils élus, "blanco" (Luis Alberto Lacalle, 1990-1995) et "colorado" (Julio María Sanguinetti, 1985-1990 et 1995-2000), mettaient en place une politique libérale, bientôt inspirée du « consensus de Washington ». L'une des principales réalisations de la période qui suivit fut le rapprochement de l'Uruguay avec ses voisins pour former le Mercosur. Ces échanges ont amené l'espoir pour le pays d'un retour à la prospérité dans un futur proche, déçus par la crise bancaire de 2002 provoquée par la crise argentine. Sur le plan économique, le gouvernement libéral de Batlle (2000-2005) engage des négociations avec les États-Unis concernant la création de la « Zone de libre-échange des Amériques » (ZLEA). La période a marqué le point culminant d'un processus qui visait à une réorientation néolibérale de l’économie du pays : désindustrialisation, pression sur les salaires, essor du travail informel, etc. La situation sociale se détériore considérablement sous sa présidence et près du tiers de la population plonge dans la pauvreté entre 1999 et 2005. Les élections générales de 2004 marquèrent, pour la première fois, la victoire de la gauche, le Front large remportant massivement celles-ci, conduisant son candidat présidentiel, le socialiste Tabaré Vázquez, à assumer la présidence (2005-2010). Formant un gouvernement avec une majorité de socialistes, mais incluant d'ex-Tupamaros, réunis au sein du Mouvement de participation populaire (MPP), dont José Mujica et Eduardo Bonomi, Vázquez parvient à faire baisser de façon importante la dette, tout en augmentant les salaires minimums et en faisant baisser le chômage et la pauvreté. L'Uruguay connaît alors des taux de croissance à 10 %, qui baissent subitement en 2009, sous l'influence de la crise mondiale. Les élections générales de 2009 sont à nouveau gagnées par le Front large, qui remporte une majorité absolue dans les deux chambres. Le MPP se confirme comme la force politique la plus importante, L'ex-Tupamara Lucía Topolansky étant la sénatrice élue avec le plus de voix. Son mari, José Mujica, est élu président. Le , Tabaré Vázquez remporte l'élection présidentielle avec 56,6 % des suffrages exprimés face à Luis Alberto Lacalle Pou et revient ainsi au pouvoir le . Les élections générales uruguayennes de 2019 ont lieu les et afin d'élire simultanément le président et le vice-président ainsi que les de la chambre des représentants et les du Sénat de l'Uruguay. Un référendum constitutionnel sur un ensemble de mesures sécuritaires est organisé simultanément. Le président sortant Tabaré Vázquez n'est pas candidat à sa réélection, en accord avec la constitution qui ne permet pas les mandats présidentiels consécutifs. Le candidat du gouvernement sortant Daniel Martínez arrive en tête du premier tour, mais ne parvient pas à réunir la majorité absolue dès celui ci. Un ballotage organisé un mois plus tard l'oppose par conséquent au candidat du Parti national Luis Alberto Lacalle Pou, jugé favori du scrutin du fait des probables reports de voix de l'opposition. Ce dernier l'emporte finalement par une courte majorité de 50,79 % des voix. L'élection débouche sur la formation du gouvernement Lacalle Pou. Politique. La Constitution, qui s'inspire de celle des États-Unis, a été adoptée le . La "ley de lemas", modifiée par la réforme constitutionnelle de 1997, régit le système électoral, en mélangeant vote majoritaire pour la présidentielle, représentation proportionnelle pour l'élection des parlementaires, et « double vote simultané », ces différentes élections ayant lieu le même jour. Toutefois, depuis 1997, des élections primaires sont obligatoires au sein des partis, qui ne peuvent plus présenter plusieurs candidats à la présidence. L'Uruguay est l'un des pays constituant le Mercosur, avec l'Argentine, le Brésil, le Paraguay et le Venezuela. Sur le plan intérieur, le gouvernement tente d'enrayer la montée du taux d'inflation, de réduire le chômage et le taux de pauvreté, de stabiliser la dette extérieure et de combattre la délinquance croissante liée au trafic de drogue. L'Uruguay est un des trois pays sud-américains à avoir disposé d'un parti politique pour la population "afrodescendiente" (d'ascendance africaine). Société. L'Uruguay est le premier pays à reconnaître officiellement le génocide arménien, le . En , l'Uruguay devient le premier pays au monde à légaliser la production et la vente de cannabis. La même année, le mariage et l'adoption sont ouverts aux couples de même sexe. Il s'agit également du seul pays d'Amérique du Sud permettant l'avortement sur demande. Départements. L'Uruguay est divisé en 19 départements (Espagnol : "departamentos", singulier - "departamento") dirigés par un intendant ("intendente" municipal) qui est élu pour au suffrage universel direct. Les édiles de l'Assemblée départementale "(Junta Departamental)" ont un pouvoir législatif au niveau du département. Les premiers départements sont formés dès 1816 et le plus jeune date de 1885, c'est celui de Flores. Géographie. Relief. L'Uruguay se présente avant tout comme un pays de transition géomorphologique entre l'Argentine, au sud-ouest, et le Brésil au nord-est. Il forme en effet une continuité géographique de la "Pampa" argentine par ses paysages de plaines doucement ondulées. Ce relief de quasi pénéplaine se relève légèrement au contact des alignements de collines, appelés localement les "cuchillas", annonçant les hautes collines du Plateau brésilien. Parmi ces rangées de collines souvent escarpées mais de moyenne élévation figurent notamment la Cuchilla de Haedo et la Cuchilla Grande où, dans cette dernière, se trouvent les principaux points culminants de l'Uruguay. De plus, le relief de l'Uruguay, souvent considéré comme un prolongement de la Pampa, s'apparente plutôt à un vaste écotone, oscillant entre prairies tempérées et forêts subtropicales. Hydrographie. Un dense réseau fluvial structure le pays, consistant en la présence de nombreux bassins hydrographiques dépendant tous du bassin de la Plata. Dans ce dernier est inclus le vaste bassin hydrographique du Río Uruguay. Seul, le bassin de la Lagune Merín qui est à cheval sur le Brésil et l'Uruguay n'appartient pas au réseau hydrographique de la Plata. Quant au bassin versant du Río Negro, celui-ci relève du vaste bassin du río Uruguay mais se caractérise par son unité géographique exceptionnelle du fait que tout son réseau hydrographique relève exclusivement de l'intérieur du pays uruguayen. Ses eaux sont grossies par deux affluents, l'un sur sa rive droite, le río Tacuarembó, et l'autre sur sa rive gauche, le río Yí. Cependant, d'autres grandes rivières, toutes des affluents de rive gauche du fleuve Uruguay comme la Queguay Grande, l'Arapey Grande ou encore la Daymán, disposent de bassins secondaires certes moins étendus mais également internes au pays, généralement confinés à l'intérieur d'un ou deux départements uruguayens. Par ailleurs, plusieurs lagons sont répartis le long de la côte Atlantique, notamment dans la partie méridionale du pays, le plus important étant la Lagune Merín. Climat. L'Uruguay est le seul pays sud-américain qui se trouve complètement dans la zone tempérée. L'absence d'importants systèmes orographiques contribue à ce que les variations de températures, de précipitations et d'autres paramètres climatologiques soient faibles. Avec ses étés chauds et ses hivers doux, le climat en Uruguay est subtropical (moyenne ) et les précipitations sont abondantes et plus ou moins homogènes pendant toute l'année. Celles-ci sont en général constantes au cours de l'année, ce qui n'empêche pas des périodes de sécheresse plus ou moins marquées ou, au contraire, des épisodes de pluies très fournis selon les années. Le littoral uruguayen relève du climat océanique, avec une certaine amplitude, du fait du courant chaud du Brésil, qui augmente la température des côtes de l'Atlantique à partir de janvier jusqu'au début mai ; et du courant froid des îles Malouines refroidissant leurs eaux de juin à septembre. L'effet des deux courants détermine une température moyenne de la mer au niveau superficiel (Punta del Este) entre et selon l'époque de l'année. À l'intérieur du pays, les hivers sont exceptionnellement rigoureux et la neige est rarissime. En été, le thermomètre dépasse rarement les , mais oscille plutôt autour des . Économie. L'économie de l'Uruguay demeure encore orientée vers l'agriculture et notamment vers l'élevage, le pays disposant de vastes prairies qui prolongent la Pampa humide de l'Argentine voisine. L'industrie, principalement agroalimentaire, est surtout tournée vers l'exportation de ses productions tandis que le tourisme, qui se développe rapidement, est devenu la première source de devises étrangères pour le pays. Les groupes de papier Stora Enso et Arauco ont annoncé, en , qu'ils achèteraient la firme espagnole Ensō, ce qui ferait de cette coentreprise la plus grande propriétaire terrienne d'Uruguay, avec de terres, soit près de la moitié du total des propriétés terriennes de Stora Enso. Le pays a été plongé dans une longue crise économique depuis les années 1960, et a eu beaucoup de difficultés à s'en relever. La principale tâche des gouvernements successifs a donc été logiquement d'effacer peu à peu la dette extérieure de de dollars et de rétablir l'équilibre de certains indicateurs économiques tels que la balance commerciale. La crise a été accentuée par l'effondrement de l'économie argentine dès 1999, l'Argentine étant son principal partenaire économique. Au début des années 1990, le tourisme devient une activité économique qui gagne en importance avec la modernisation des infrastructures hôtelières notamment. Cette nouvelle industrie devient dès lors une source importante de revenus pour l'État uruguayen. En 1991, le pays connait une multiplication des grèves pour obtenir des compensations de salaires destinées à compenser l'inflation et pour s'opposer aux privatisations souhaitées par le gouvernement de Luis Alberto Lacalle. Une grève générale est déclenchée en 1992, et la politique de privatisation est très largement désavouée par referendum (71,6 % contre la privatisation des télécommunications). En 1994 et 1995, l'Uruguay fait face à des difficultés économiques causées par la libéralisation du commerce extérieur, qui a accentuée le déficit commercial. La Compagnie du gaz de Montevideo et la compagnie aérienne Pluma sont confiées au secteur privé, mais le rythme des privatisations ralentit à partir de 1996. En 2002, après quatre années consécutives de récession, la baisse sensible du niveau de vie des classes populaires provoque des émeutes. En 2004, le programme de réajustement libéral défendu par le FMI et le gouvernement est contesté par plus de 64 % des votants lors d'un référendum. Entre 1999 et 2002, la crise économique menace de provoquer l’effondrement du système financier et oblige l’État à intervenir pour sauver les banques. Plus de 40 % de la population vit dans la pauvreté. L'économie a commencé à croître en 2003, et a continué sa croissance jusqu'en 2020, malgré l'apparition de la pandémie de covid-19. Ce développement économique serait notamment dû à la stabilité politique de l'Uruguay, au faible niveau de la corruption, au développement des relations commerciales avec la Chine. L'Uruguay revoit son système fiscal, diminuant les taxes sur la consommation et augmentant l’impôt sur le revenu, désormais parmi les plus élevés d'Amérique latine (mais restant modeste en comparaison des pays de l’OCDE). Un système d’État-providence se construit et la part des dépenses sociales dans le total des dépenses publiques passe de 60,9 % à 75,5 % entre 2005 et 2015. Le nombre de personnes bénéficiant d'une couverture maladie passe de à entre 2004 et 2019 et le taux de pauvreté tombe de 40 % à 8 %. Le taux de chômage passe de 17 % en 2002 à 8 % en 2016 et les inégalités tendent à décroitre. Cependant, le déficit et la dette publique sont élevés. En 2022, l'Uruguay est classé en pour l'indice mondial de l'innovation. Le nombre de syndiqués a quadruplé depuis 2003, passant de à plus de en 2015 pour une population active de de personnes. D'après la Confédération syndicale internationale, l'Uruguay est devenu le pays le plus avancé d’Amérique en matière de respect « des droits fondamentaux du travail, en particulier la liberté syndicale, le droit à la négociation collective et le droit de grève ». Cette forte syndicalisation a eu notamment pour effet de réduire les inégalités socio-économiques. L'Uruguay s'est beaucoup investi dans la nouvelle économie du tourisme, à partir des années 1980, et accueille chaque année des touristes de plus en plus nombreux dont principalement les Argentins, les Américains et les Brésiliens. Les Européens, encore très marginaux au siècle dernier, forment un groupe de plus en plus important de touristes et font dorénavant de l'Uruguay une destination touristique. Montevideo, Punta del Este et Salto sont devenus les trois premiers centres touristiques du pays et sont renommés internationalement.En 2019, l'Uruguay a accueilli de touristes, soit presque autant d'habitants que le pays. Le tourisme est devenu la principale source de devises en Uruguay. Avec US$ soit 3,8 % du PIB national en 2019, il génère plus de devises que les activités traditionelles destinées à l'exportation du pays. L'Uruguay est le premier pays de l'Amérique du Sud en nombre de touristes par rapport à sa population.. Démographie. La population de l'Uruguay est essentiellement concentrée sur le littoral. Lors du recensement de 2011, elle s'établit à . La population est essentiellement urbaine (90,7 %) et vit dans les 20 plus grandes villes du pays, principalement à Montevideo ( d'habitants). À cause d'un faible taux de natalité n'atteignant que , de l'espérance de vie élevée ("") et de l'émigration (0,32 émigrant pour ), la population du pays vieillit assez vite. Par ailleurs, la croissance de la population n'est que de 0,51 %. L'Uruguay est un pays d'immigration et d'émigration. vivent à l'étranger. En ce qui concerne les langues, l'espagnol est quasiment l'unique langue parlée. Le portugais est beaucoup parlé en seconde langue, surtout le long de la frontière avec le Brésil. L'anglais est enseigné à l'université, et est la langue utilisée pour le tourisme. L'italien est parlé par de nombreuses personnes, en majorité des descendants d'Italiens. Culture. La vie culturelle de l'Uruguay s'est épanouie dans plusieurs grands domaines, dont la peinture (avec Juan Manuel Blanes et Pedro Figari), la sculpture (avec José Belloni) et la musique avec le candombé et le tango (avec et Jorge Drexler). Les écrivains sont Jules Supervielle, José Enrique Rodó, Horacio Quiroga, Juan Carlos Onetti, Mario Benedetti, Eduardo Galeano, Jorge Majfud et Ricardo Paseyro. Sport. Le football occupe une place très importante dans la vie sportive uruguayenne : la « "Céleste" », l’équipe nationale, a remporté l’épreuve des Jeux olympiques 1924 et 1928. Le pays a organisé et remporté la première Coupe du monde en 1930. Il a également gagné la Coupe du monde 1950. Au niveau continental, entre 1916 et 1942, la Céleste participe à 16 des 17 premiers championnats sud-américains, en gagne 8 et termine en finale de 4 autres éditions. En tout, l’équipe nationale a remporté la Copa América. L’Uruguay a ainsi dominé le football international en particulier dans l’entre-deux-guerres et la Céleste figure encore parmi les meilleures équipes au monde ( au classement mondial en décembre 2022). Les sports équestres hérités des "gauchos" (« bouviers ») jouent aussi un rôle essentiel. Dans une moindre mesure, l’Uruguay fait bonne figure dans d’autres sports collectifs que le football, le rugby et le basket-ball sont également pratiqués, l'équipe nationale masculine de rugby a déjà participé à 3 phases finales de Coupe du monde et l’équipe nationale masculine de basket-ball à 7 Coupes du monde dont consécutivement à partir des années 1950 et surtout deux médailles de bronze aux Jeux olympiques en 1952 et 1956. Aux Jeux olympiques, les deux seuls titres ont été remportés en football, la dernière médaille d’or date donc de 1928 et seuls 2 médailles d’argent et 6 de bronze viennent compléter le tableau depuis la première apparition de l’Uruguay aux Jeux en 1924 : 2 médailles de bronze en basket-ball, 4 médailles (1 d’argent et 3 de bronze) en aviron, 1 médaille de bronze en boxe anglaise et seule médaille depuis 1956, 1 d’argent en cyclisme sur piste en 2000 en Sydney. Les dix médailles ont été remportées par des hommes aux Jeux d’été, l’Uruguay est toujours en attente de sa première médaille féminine ou de sa première aux Jeux d’hiver. Cinéma. La production cinématographique en Uruguay a commencé à la fin du . C'est à partir du que le cinéma prend de l'ampleur et des productions importantes commencent à apparaître : "25 Watts, Putain de vie, Whisky", sont des exemples de films primés dans des festivals internationaux et qui ont marqué l'identité du cinéma uruguayen. Le genre documentaire a également eu une place importante dans la production nationale, avec plus de quatre-vingts films. Certains des films les plus importants sont : "Aparte" (2003), "Hit (2008)", "Cuisiner avec le livre" (2019). Fêtes. La loi du dite "de sécularisation des jours fériés" a changé la dénomination de jours fériés : depuis, l'Épiphanie est célébrée comme le (') ; la Semaine sainte, comme la (') ; la Nativité, comme le (""). Codes. L'Uruguay a pour codes : |
Undernet est un des plus grands réseaux IRC (il fait partie du peloton de tête au même titre qu'EFnet, IRCnet, QuakeNet et DALnet). Depuis 2011, Undernet est le cinquième plus gros réseau IRC surveillé publiquement. Une trentaine de serveurs accueillent en permanence utilisateurs. Présentation. Il fut mis en place en octobre 1992, au départ expérimentalement pour tester une version modifiée du logiciel de serveur IRC irc2.7, alors créé dans une tentative de consommer moins de bande passante et d'être moins chaotique, car des coupures réseau et des prises de contrôle commençaient à infester EFnet. UnderNet fut créé à une période où de nombreux petits réseaux IRC se créaient et disparaissaient subitement ; cependant, il géra sa croissance pour devenir un des plus grands réseaux pionniers malgré des querelles internes et des échecs. Il est remarquable par la première utilisation du marquage horaire dans le protocole du serveur IRC comme moyen de lutte contre l'abus. UnderNet réunit approximativement 25 serveurs connectant plus de 35 pays et servant généralement plus de 20 000 personnes. Le panel des utilisateurs couvre tous les âges, nationalités et intérêts fournissant une grande variété de canaux, ainsi que des volontaires pour aider les nouveaux utilisateurs. On peut connecter son client IRC à UnderNet via un alias continent, tel que codice_1 pour les Américains ou codice_2 pour les Européens. Afin de pouvoir enregistrer un canal auprès des services d’Undernet, votre nom d’utilisateur de CService ("username") doit être enregistré depuis plus de dix jours et vous devez bénéficier l’appui de dix utilisateurs étant aussi enregistrés. Parmi les canaux francophones notoires, on peut citer #france, #quebec, #montreal, #maroc, #sexe X ou W était les superbots qui régissaient tout Undernet. @Copine @MaryBlue aidaient à maintenir certains canaux en paix. Notes et références. 4. Référence à Undernet dans Undertale |
Unités de mesure en physique |
USB L'USB (de l'anglais, « ») est une norme de bus informatique en série qui sert à connecter des périphériques informatiques à un ordinateur ou à tout type d'appareil prévu à cet effet (tablette, ). Le bus USB permet de connecter des périphériques « à chaud » (quand l'ordinateur est en marche) et en bénéficiant du "" qui reconnaît automatiquement le périphérique. Il peut alimenter les périphériques peu gourmands en énergie (clé USB, disques SSD) et, pour ses dernières versions à prise USB Type-C, des appareils réclamant plus de puissance ( en version standard, au maximum). La de l'USB est apparue en , ce connecteur s'est généralisé dans les pour connecter souris, clavier d'ordinateur, imprimantes, clés USB et autres périphériques sur les ordinateurs personnels. Les performances de l'USB, notamment concernant les débits, se sont grandement améliorées au fil des versions : de pour la à théoriques pour la version USB4 version 2.0. Évolution de la norme USB. L’USB a été conçu au milieu des années 1990 afin de remplacer les nombreux ports externes d’ordinateurs (port parallèle, port série, port SCSI), spécialisés (ports clavier PC DIN, puis PS/2 mini-DIN, port souris) et incompatibles les uns avec les autres. Des versions successives de la norme ont été développées au fur et à mesure des avancées technologiques, chacune étant vouée à remplacer les précédentes par leur performance. Une clé de cette généralisation tient au fait que de simples puces, peu couteuses, gènerent, en temps réel, toute la logique de sérialisation et de partage — de complexité, croissante au fil des versions — de l'USB. USB 1.0 et USB 1.1. En , la première version de la norme, l’", est spécifiée par sept partenaires industriels (Compaq, DEC, IBM, Intel, Microsoft, NEC et ) mais elle reste théorique et n'a pas vraiment été appliquée par manque de composants. Il faut attendre la seconde version de la norme en , intitulée ", pour que l'USB commence à être effectivement utilisé. Ce que nous appelons couramment est donc en réalité de l'. L' apporte des corrections à la et définit également deux vitesses de communication : En , avec la sortie de l'iMac G3, Apple est le premier constructeur à proposer un appareil disposant uniquement de ports USB en remplacement des ports d'ancienne génération, ce qui a fait décoller le marché des périphériques USB. USB 2.0. En est publiée la norme ', qui optimise l'utilisation de la bande passante, avec un débit théorique de , baptisé « Haute vitesse » (en anglais '). Il est utilisé par les périphériques rapides : disques durs, graveur de disque optique Au moment de sa sortie, la plupart des périphériques ont d'ailleurs une vitesse inférieure à celle permise par l'. En , le ", une version sans-fil de l'USB, est spécifiée par le . Elle promet à une distance de et à . En , l'extension " (OTG), ajoutée à la norme permet d'effectuer des échanges de données point à point entre deux périphériques sans avoir à passer par un hôte (généralement un ordinateur personnel). La norme OTG devient donc un nouveau standard. USB 3.0 (ou USB 3.1 Gen 1 ou USB 3.2 Gen 1). En , l’"USB 3.0" (renommé depuis en " ") introduit le mode , qui a un débit théorique de . Mais ce nouveau mode utilisant un codage des données de type 8b/10b, la vitesse de transfert réelle est de seulement . L' délivre une puissance électrique maximum de soit à . Les périphériques compatibles disposent de connexions à neuf contacts au lieu de quatre, mais la compatibilité ascendante des prises et câbles des versions précédentes est assurée. En revanche, la compatibilité descendante est impossible, les câbles de Type-B n'étant pas compatibles avec les prises Type-B. Début , l' est introduit dans des produits grand public. Les prises femelles correspondantes sont souvent signalées par une couleur bleue. Des prises femelles "rouges" apparaissent aussi, signalant une puissance électrique disponible supérieure () et appropriée au chargement rapide de petits appareils, y compris (à condition de le paramétrer dans le BIOS ou l'UEFI) lorsque l'ordinateur est éteint. D'autres couleurs, non normalisées et donc propres à chaque constructeur (bleu ciel, gris), signalent quels ports USB sont reliés à des adaptateurs distincts, ce qui est important pour les questions de performance (débits parallèles) ou de fiabilité. Le jaune est souvent utilisé pour indiquer quels ports sont à alimentation rémanente quand la machine est hors tension. USB 3.1 (ou USB 3.1 Gen 2 ou USB 3.2 Gen 2). En , l’"" (renommé depuis en " ") est annoncé. Les spécifications techniques de cette norme sont finalement publiées par le consortium en . L' permet des débits doubles de ceux de l' , soit . Le standard est rétro-compatible avec l' et l'. L' marque la sortie d'une nouvelle connectique, celle-ci est plus fine et n'impose pas de sens de branchement (on dit que la connectique est réversible) : le Type-C. Pour tout de même permettre la connexion vers des connecteurs , le standard permet d'avoir des adaptateurs passifs (à l'inverse des adaptateurs , le connecteur réversible qu'Apple a lancé avec l' en 2012), pour garder une taille réduite et un coût de fabrication mesuré. Le , Apple présente le MacBook, le premier ordinateur équipé d'un seul port Type-C, mais ne bénéficiant que du débit de l' () au lieu de celui de l' (). USB 3.2 Gen 2x2. L'USB 3.2 Gen 2x2 permet de doubler le débit de la version précédente, passant à . Le standard reste rétro-compatible avec les versions précédentes. L'USB-IF profite de cette nouvelle norme pour renommer, une fois de plus, les anciennes normes. L' à (ex ) devient l', l' à (ex ) devient l' et la nouvelle norme prend le nom d' à . USB4. La norme USB4, annoncée en 2017 et officialisée en septembre 2019 par l'USB-IF, promet ainsi que l'intégration des fonctionnalités de , laissant espérer un rapprochement, voire une fusion entre les deux normes. L'USB-IF ne s'inscrit pas dans la continuité logique, nommant cette norme «USB4 » et non . Les câbles USB4 sont au format USB-C. USB4 version 2.0. La version 2.0 de la norme USB4 est annoncée en par l'USB Promoter Group et promet de doubler la bande passante théorique par ligne de soit dans une configuration symétrique. Elle est annoncée comme compatible avec les normes et protocoles , , et Thunderbolt 3. Cette version supporte également des configuration de lignes asymétriques telles que : une paire est dédiée à la réception et trois sont dédiées à l'émission ou inversement permettant des débits théoriques allant jusqu’à dans un sens. Résumé des débits. Lorsque l’on parle d’un équipement USB, il est nécessaire de préciser la version de la norme (1.1, 2.0 ou ou ) mais également la vitesse (""). Une clé USB spécifiée en n’est pas forcément « haute vitesse » si cela n’est pas précisé par un logo « ». Jusqu'à la , le bus USB était plus lent que certaines interfaces internes comme le PCI, l'AGP ou le SATA. Ainsi, l' () est plus de dix fois plus lent que le (). est presque égal, théoriquement, au avec un débit de . L' surpasse théoriquement le avec un débit théorique de . Ces débits ne sont atteints en copie de fichiers qu'avec un utilitaire ou un système d'exploitation recourant au double. Dans le cas contraire, les stockages émetteur et récepteur ne seront sollicités qu'à tour de rôle au lieu de débiter en même temps, divisant donc par deux le débit théorique possible. C'était une limitation par exemple sous avec la fonction de copie de base du système. La restriction de débit s'observe aussi avec des prises USB reliées à un contrôleur unique par un hub USB, que celui-ci soit externe ou interne. La division de débit ne pose pas de problème lorsqu'il s'agit de périphériques ne fonctionnant pas simultanément (le hub est en ce cas utilisé simplement pour éviter des branchements et débranchements manuels fréquents, et donc aussi une usure prématurée des prises USB), l'allocation de bande, dans la norme USB, étant dynamique ; en d'autre termes, quand un périphérique fonctionne seul il dispose de presque toute la bande passante. Les hubs USB possédant une alimentation externe divisent uniquement le débit, alors que ceux alimentés par le câble USB répartissent l'intensité disponible sur tous les périphériques en ayant besoin (ceux qui sont alimenté par un bloc d'alimentation externe, comme les disques durs externes, consomment très peu d'énergie sur le bus). Ces débits ne sont toutefois que maximum théoriques car le codage utilisé réduit la bande passante réelle, ils peuvent également être dégradés par de multiples facteurs (performances de l'appareil sur lequel est branché le périphérique USB, efficacité du logiciel qui réalise les opérations de lecture ou d'écriture). Évolution des connecteurs USB. Premiers connecteurs : Type-A et Type-B. À sa création, le bus USB ne permettait pas de relier entre eux deux périphériques ou deux hôtes : le seul schéma de connexion autorisé est un périphérique sur un hôte. Pour éviter des branchements incorrects, la norme spécifie deux types de connecteurs : Un hub USB peut comporter à la fois un connecteur Type-B, qui permet de le relier à l'hôte, et des connecteurs Type-A, qui permettent d'y relier des périphériques. Les appareils (hôte et périphériques) sont équipés de connecteurs femelles. Les câbles de connexion ont toujours une extrémité de Type-A mâle, et une extrémité de Type-B mâle, ce qui garantit le respect de la topologie du bus. Il peut aussi exister des câbles de prolongation équipés de connecteurs de même type mais de genres différents (pour créer des rallonges). Mini-connecteurs. Les mini-connecteurs sont de types "Mini-A" et "Mini-B". Chacun d'entre eux étant décliné en prises mâle et femelle, quatre mini connecteurs sont utilisés. Mini-B. En , devant le développement des appareils compacts (téléphones mobiles, appareils photos numériques), une mise à jour de la norme introduit une version miniature du connecteur Type-B : le Mini-B. Ce nouveau connecteur est équivalent au connecteur Type-B, mais de dimensions nettement plus réduites. Mini-A. En , l' est assorti d'un connecteur Mini-A, utilisé dans le cadre de l'extension . Le connecteur "Mini-AB" (disponible uniquement en port femelle) est aussi ajouté, qui permet aux appareils compatibles de jouer indifféremment le rôle d'hôte ou celui de périphérique, car ils peuvent se connecter avec les câbles Mini-A et Mini-B. Micro-connecteurs. Les micro-connecteurs sont de types "Micro-A" et "Micro-B". La taille des appareils mobiles s'étant encore réduite, les connecteurs Mini-A et Mini-B sont devenus à leur tour trop gros. En , le nouveau connecteur Micro-B est annoncé. Il est non seulement plus fin que le mini-B, mais également prévu pour supporter un grand nombre de cycles de connexion/déconnexion (jusqu'à ), ce qui le rend particulièrement bien adapté aux appareils mobiles souvent branchés/débranchés (tablettes tactiles, smartphones). Pour les mêmes raisons, en , un nouveau connecteur Micro-A vient remplacer le connecteur Mini-A, qui est officiellement déconseillé le mois suivant. Comme dans le cas des mini-connecteurs, l'arrivée du Micro-A mène aussi à la création du port femelle "Micro-AB" permettant d'y brancher les connecteurs Micro-A et Micro-B. Avec l'arrivée de l', sont apparus les nouveaux connecteurs Micro-A et Micro-B. Comme les normes précédentes, le connecteur femelle Micro-AB permet d'accueillir les connecteurs Micro-A et Micro-B. Connecteurs internes. Les connecteurs internes sont de type USB-2.0, USB-3.2 gen 1 et USB-3.2 gen 2x2. Ils sont utilisés à l'intérieur des ordinateurs pour connecter les périphériques internes et sont conçus pour être utilisés dans des environnements où l'utilisateur n'a pas besoin de brancher ou débrancher le connecteur fréquemment. De ce fait, les connecteurs ne sont pas aussi petits et résistants. Les ports USB-2.0 et USB 3.1 gen 1 sont conçus pour accueillir jusqu’à deux périphériques. Une proposition de norme avec un connecteur rectangulaire de ou est déjà sur certaines carte mères avec appellation impropre de "" et des câbles adaptateur vers USB Type-C sont disponibles. Le connecteur à supporte trois configurations: les deux premières sont basé sur la disposition dite Key-A et permettent de connecter un port USB Type-C ou un port USB Type-A, la deuxième dite Key-B permet de connecter deux ports USB Type-A. Le connecteur à supporte trois configurations mais ne possède qu'une unique disposition: la première permet de connecter deux ports USB Type-C, la deuxième permet de connecter un port USB Type-C et un port USB Type-A et la troisième permet de connecter deux ports USB Type-A. USB Type-C. Le "Type-C" est introduit avec l' en . Il est destiné à remplacer tous les connecteurs précédents. Il a la particularité d'être réversible, c'est-à-dire qu'il n'a plus de sens haut/bas. Cette réversibilité complique considérablement le câblage pour le fabricant, puisque tout doit être connecté en double. En revanche, l'aspect pratique pour l'utilisateur se double d'une compatibilité avec l'. La technologie DisplayPort lui permet également de transmettre des signaux audio et vidéo. En , une spécification du connecteur de verrouillage USB de type C a été publiée. Elle définit les exigences mécaniques pour les connecteurs USB-C et les directives pour la configuration de montage des prises USB-C afin de fournir un mécanisme de verrouillage à vis standardisé pour les connecteurs et les câbles USB-C. Elle définit deux variantes : une avec une vis unique et l'autre avec deux vis. Les vis de verrouillage des fiches de verrouillage USB de type C sont entièrement rétractables, de sorte que la fiche peut être branchée sur une application utilisant une prise USB de type C qui ne supporte pas la fonction de vis de verrouillage. La norme USB4, qui intègre le protocole Thunderbolt 3, n'est disponible qu'à travers un connecteur USB Type-C. Résumé des connecteurs. En résumé, "quatorze" types de connecteurs existent : A, B, mini-A, mini-B, mini-AB, micro-A, micro-B, micro-AB, A SS, B SS, micro-A SS, micro-B SS, micro-AB SS et C. Applications. Pour le transfert des données. L'USB a supplanté divers bus et interfaces qui équipaient auparavant les ordinateurs : port série RS-232, port parallèle, port PS/2, port joystick (ou port MIDI), port SCSI, et même des bus internes comme PCI pour la connexion de certains dispositifs (par exemple cartes son ou cartes de réception TV). La gamme des périphériques utilisant le bus USB est extrêmement vaste : Le bus USB est également utilisé en interne dans certains ordinateurs pour connecter des périphériques tels que webcams, récepteurs infrarouges (c'est le cas par exemple sur les MacBook Pro) ou lecteurs de cartes mémoire. Pour l'alimentation électrique. Alimentation et recharge courante. Le bus USB peut alimenter en énergie les périphériques, dans une certaine limite de courant consommé ( pour une application haute puissance, pour une application normale). Cela permet au passage la recharge d'appareils portables, pour lesquels on voit apparaître des adaptateurs secteur disposant d'une connectique USB limitée à l'alimentation électrique. La connectique USB devient ainsi une norme de fait pour alimenter des appareils de faible puissance (au début sous continus soit ), au-delà des périphériques informatiques "". Plusieurs gadgets alimentés par port USB qui ne sont pas des périphériques informatiques sont apparus sur le marché : lampes d'appoint, petits ventilateurs Cependant, le courant délivré par l'USB est resté longtemps trop faible pour certains périphériques, par exemple des disques durs externes de , ou même quelques-uns de pouvant demander jusqu'à . Une solution possible consistait à compléter l'alimentation par un branchement sur un second port USB (parfois aussi une dérivation sur un port clavier PS/2), mais cette pratique était contraignante, le périphérique mobilisant alors deux ports et deux câbles. Divers constructeurs de cartes mères, d'alimentations ou de hubs proposèrent, outre des ports standard, un ou plusieurs ports dits de "charge rapide" pouvant délivrer jusqu'à , quelquefois munis par ailleurs de sécurités électroniques pour éviter toute erreur de manipulation. Ce problème pourrait être résolu avec la nouvelle norme USB. En effet, un câble standard avec prises de (norme ) autorise une puissance électrique de . Des câbles ayant des fils avec une section suffisante peuvent faire transiter jusqu'à . On tendrait alors vers l'utilisation d'un câble unique pour les périphériques qui assure à la fois l'alimentation et le transfert des données. Par exemple, on peut connecter un écran à un hub USB intégré avec un seul câble USB sans se soucier du sens du câble ou de la prise. L'épaisseur du conducteur nécessaire pour acheminer l'intensité de correspondante risque de poser des problèmes de coût et de raideur du câble, au risque d'endommager la prise comme ce fut le cas au temps du SCSI. L'USB est aussi devenu un moyen d'alimenter un ordinateur et pas seulement ses périphériques. En 2015, Google sort un Chromebook Pixel incluant une prise USB de qui permet de le recharger. En 2017, c'est le tour du "GPD Pocket", PC de poche à base Intel fonctionnant sous et Linux. Ce système est en concurrence avec le chargement sans fil. Nouvel écosystème. Depuis 2009, l'Union européenne tente d'imposer des chargeurs universels aux normes USB afin d'éviter de déchets électroniques par an dans ses , les tensions et les connectiques correspondantes devenant ainsi le standard de fait de la très basse tension. Le , le Parlement européen vote une résolution, non contraignante face au lobbying de constructeurs tels qu'Apple qui en contestent l'efficacité. Cette résolution invite la Commission à avant . Bénéficiant du volume de l'écosystème créé par ce nouveau standard interconstructeurs de basse tension et de connectique, de nouveaux produits apparaissent, comme les "batteries externes" généralement de 3 à , qui présentent l'avantage d'être utilisables avec les téléphones comme les tablettes, y compris de constructeurs différents, et de rester utilisables si on vient à changer l'une, l'autre, ou les deux. Les constructeurs d'objets connectés utilisent cette normalisation pour fournir les objets en question sans chargeurs, dès lors beaucoup moins utiles. Ils combinent ainsi baisse des coûts de plusieurs euros (ou dollars) et meilleure écologie, deux facteurs favorables à leur acceptation par le marché. Montres connectées et enceintes Bluetooth peuvent alors rester aussi éloignées de l'ordinateur principal qu'on le voudra, celui-ci pouvant même parfois disparaître du foyer sans inconvénient. Les prises USB servent aussi à recharger chez soi des objets non connectés. Depuis 2020, l'USB-C devient plus courant. Depuis la fin de l'année 2016 sont en vente des lampes de bureau à LED munies en standard d'une prise de chargement pour appareil USB externe : leur alimentation interne fournissant déjà la tension appropriée, ajouter cette prise coûte peu à la fabrication, et celle-ci ne débite que lorsqu'elle charge ou alimente un appareil. De même, des alimentations comme celles de la Microsoft Surface sont munies d'un tel port additionnel pour la même raison. Il est ainsi possible de recharger un téléphone mobile ou d'alimenter une enceinte Bluetooth. Depuis début 2019, les salles d'attente des services d'urgences de certains hôpitaux, comme l'Hôpital Saint-Antoine à Paris, comportent à titre expérimental six câbles USB (à ) de chargement pour les portables, afin que même en cas d'attente longue les patients restent joignables par leurs familles. La prise USB se banalise de ce fait à l'instar des prises . En octobre 2022, Apple annonce que la version européenne de son iPhone s'alignera sur le standard USB-C, sans admettre pour autant le bien-fondé de cette normalisation qui lui est imposée. Câbles. L'usage mixte de l'USB en données et en alimentation alors que tous les appareils n'ont pas besoin des deux usages entraîne la création sur le marché de câbles simplifiés pour diminuer les coûts et donc les prix. Pour l'alimentation seule, ils sont parfois fournis avec les alimentations d'entrée de gamme, ils ne peuvent transmettre aucune donnée, l'intérêt étant alors qu'aucun logiciel malveillant ne peut ainsi être transmis. La puissance maximum transmise dépend du type et de la qualité du câble. Pour les données seules, les câbles sont souvent fournis avec des périphériques ayant leur alimentation propre, ils ne transmettent que les données et pas l'alimentation. Le débit est parfois limité à de l'USB 2.0 et certains câbles USB-C ne sont pas compatibles avec le Thunderbolt 3 inclus dans la norme USB4. En 2021, des prises USB de type A permettent de brancher des cordons d'alimentation de dépannage dans différents transports en commun : Transilien, abribus, métro, en accompagnement de la dématérialisation des titres de transport. La vocation de ces câbles à fonctionnalité réduite (données "ou" chargement) est indiquée sur leur emballage, mais pas sur le câble lui-même, aucun code de couleur n'ayant été établi pour les distinguer des câbles « complets ». Les câbles complets « alimentation et données » (en anglais ") sont en 2017 spécifiés comme tels. Spécifications techniques. Caractéristiques générales. L' est une connexion à haute vitesse qui permet de connecter des périphériques externes à un ordinateur (hôte dans la terminologie USB). Le bus autorise les branchements et débranchements à chaud (« " », sans avoir besoin de redémarrer l’ordinateur) et fournit l’alimentation électrique des périphériques sous . D'un point de vue logiciel, le bus possède une topologie arborescente (dite également en étoile) : les feuilles de cet arbre sont les périphériques ; les nœuds internes sont des "hubs" qui permettent de greffer des sous-arborescences dans l'arborescence principale. On trouve dans le commerce ces "hubs" sous forme de petits boîtiers alimentés soit sur le bus, soit sur le secteur, et qui s'utilisent comme des multiprises. Certains périphériques intègrent également un "hub" (moniteurs, claviers…). Cependant, tout bus USB possède au moins un "hub" situé sur le contrôleur : le "hub racine", qui peut gérer les prises USB de l'ordinateur. Le nombre de "hubs" connectés en cascade est limité : "hub racine" compris, il ne doit pas exister plus de sept couches dans l'arborescence. À plus bas niveau, il s'agit d'un anneau à jeton () : chaque nœud dispose successivement de l’accès au bus afin d'éviter la collision de paquets comme sur un réseau Ethernet, mais le nombre maximal de nœuds est prédéfini et l’interrogation de chacun des nœuds génère une perte de temps inutile. Protocoles. Les protocoles utilisés pour la communication sur le bus USB sont : (BOT). Les clés USB 1.1 et 2.0 utilisent le protocole " ("BOT") qui ne permet pas d'envoyer, au contrôleur du périphérique, plusieurs commandes en même temps et ne permettant donc pas à celui-ci d'organiser au mieux leur traitement, à partir d'informations connues de lui mais pas du système d'exploitation (un peu comme le fait le "NCQ" ( dans un contrôleur de disque dur). Ce mode est par ailleurs inefficace si l'on combine des lectures et des écritures. USB (UASP). Le protocole " (UASP) transmet au contrôleur du périphérique des commandes multiples, à la manière du SCSI, et laisse celui-ci les réarranger à sa convenance pour optimiser leur traitement. L'avantage est évident pour des disques mécaniques pour jouer sur les temps de latence du disque et de déplacement du bras d'accès. C'est plus complexe pour les SSD où il ne peut concerner que l'optimisation lors des écritures. Une page du constructeur ASUS fait état d'une diminution du temps de transfert moyen de 45 % ( contre ). Des gains de 20 % permettant d'atteindre sont signalés sur les Mac. Il faut dans tous les cas, pour en bénéficier, que le contrôleur USB3/SCSI soit compatible . Utilisation de la bande passante. La bande passante est partagée temporellement entre tous les périphériques connectés. Le temps est subdivisé en trames () ou microtrames () ce qui permet de faire du multiplexage. Permettant ainsi le transfert de données différentes (souris, clavier, son) de manière simultanée. La communication entre l’hôte (l’ordinateur) et les périphériques se fait selon un protocole basé sur l'interrogation successive de chaque périphérique par l'ordinateur ("). Lorsque l’hôte désire communiquer avec un périphérique, il émet pour ce faire un jeton (paquet de données contenant l’adresse du périphérique codée sur sept bits). Si le périphérique reconnait sa propre adresse dans le jeton, il envoie un paquet de données (de 8 à ) en réponse. Les données ainsi échangées sont codées selon le codage NRZI. Puisque l’adresse est codée sur , (2) peuvent être connectés simultanément à un port de ce type. Il convient en réalité de ramener ce chiffre à 127 car l’ est une adresse réservée. USB définit quatre types de transferts : Il est possible de structurer la communication entre un hôte et un périphérique en plusieurs canaux logiques (en anglais ' et ') pour simplifier la commande du périphérique du port USB. Connexion à chaud et : processus d'énumération. Les ports USB supportent la connexion à chaud et la reconnaissance automatique des dispositifs ("). Ainsi, les périphériques peuvent être branchés sans éteindre l’ordinateur. Lors de la connexion du périphérique à l’hôte, ce dernier détecte l’ajout du nouvel élément grâce au changement de la tension entre les fils D+ et D-. À ce moment, l’ordinateur envoie un signal d’initialisation au périphérique pendant , puis lui fournit du courant grâce aux fils GND et VBUS (jusqu’à ) ; le périphérique étant alors alimenté électriquement peut utiliser temporairement l’adresse par défaut (l’) ; l’étape suivante consiste à lui fournir son adresse définitive et à obtenir sa description : c’est la procédure d’énumération ; après avoir reçu son adresse, le périphérique transmet à l'hôte une liste de caractéristiques qui permettent à ce dernier de l'identifier (type, constructeur, nom, version). L’hôte, disposant de toutes les caractéristiques nécessaires est alors en mesure de charger le pilote approprié. Les périphériques sont regroupés en types ou « classes » dans la terminologie USB. Tous les dispositifs d'une classe donnée reconnaissent le même protocole normalisé. Il existe par exemple une classe pour les périphériques de stockage de masse (", MSC), implémentée par la quasi-totalité des clés USB, disques durs externes, appareils photo et par certains baladeurs. La plupart des systèmes d’exploitation possèdent des pilotes génériques, pour chaque type de périphérique. Ces pilotes génériques donnent accès aux fonctions de base, mais des fonctions avancées peuvent manquer. Alimentation électrique. L’architecture USB a pour caractéristique de fournir aussi l’alimentation électrique aux périphériques. Il utilise pour cela un câble composé de quatre fils pour les et 2 (la masse GND, l’alimentation VBUS et deux fils de données appelés D- et D+). Les fils D+ et D- forment une paire torsadée et utilisent le principe de la transmission différentielle afin de garantir une certaine immunité aux bruits parasites de l’environnement physique du périphérique ou de son câble. Par ailleurs, il est à remarquer que dans toutes les fiches mâles, les broches de données sont plus courtes que celles de l'alimentation, afin de permettre au périphérique et à son hôte, lorsque leurs broches d'alimentation se touchent en premier à l'insertion, d'égaliser leurs potentiels électriques à travers leur broche de masse, et non par l'une des broches de données. Cette précaution permet d'éviter qu'une possible différence de potentiel, entre les deux appareils, endommage les composants électroniques leur étant rattachés. C'est la façon dont l'appareil se protège de l'électricité statique. On observe, au branchement de connecteurs électroniques, que l'alimentation entre d'abord en contact, puis c'est au tour du bus de données, et au débranchement que le bus de données perd en premier le contact, puis immédiatement après le circuit d'alimentation s'ouvre (c’est-à-dire l'alimentation du périphérique est coupée). 1.0 à 1.2. En , le courant disponible est de pendant les transferts mais peut atteindre sans transfert simultané. Certains chargeurs externes peuvent fournir jusqu'à "ce qui n'implique pas que le périphérique branché dessus pourra utiliser cette possibilité", par exemple si la batterie à charger n'est pas complètement vide. « » permet de délivrer jusqu'à de puissance sur une tension maximale de au travers du câble USB, tout en maintenant la communication. L'alimentation électrique est désormais bidirectionnelle, elle peut se faire dans les deux sens. Un ordinateur portable peut recharger une batterie USB même quand il n'est pas sur le secteur mais cela réduit son autonomie. On peut charger un ordinateur portable et celui-ci peut ensuite charger un téléphone, par exemple, avec la même prise et le même câble. Lors de la connexion, les deux périphériques négocient la puissance à fournir. Chaque port USB indique les tensions et intensités avec lesquelles il est compatible. La norme prévoit cinq profils : En mai 2021, l'USB (USB-IF) annonce la version 3.1 de la norme , dans le but de , comme les notebooks plus légers et ultrabooks ont pu le faire depuis l'introduction des normes précédentes. Cette norme augmente le plafond de l'USB Type-C à une puissance maximale de ( à ). De nouvelles exigences concernant le câblage sont requises pour supporter cette puissance bien supérieure. A été introduit à cet effet la norme de câbles USB EPR (pour ), selon laquelle les câbles pouvant supporter devront être certifiés pour une tension de pour un courant de . Les câbles fabriqués sous les anciennes exigences de maximum sont maintenant des câbles SPR (pour ). Les caractéristiques clés de la norme USB PD 3.1 comprennent ainsi : Brochage. Types A et B. Le brochage des connecteurs de type A et B est le suivant : Type-C. Le brochage de la prise de type C, vue de face, est le suivant : La broche CC indique l'orientation du connecteur, la broche VConn pour l'alimentation. Le brochage du connecteur de réception de type C, vue de face, est le suivant : L'alimentation passe par les broches VBus et GND. Les signaux de configurations par CC1 et CC2 et il y a deux broches SBU (). Internes. Le brochage du connecteur USB 2.0 interne est le suivant : La broche 10 et l'emplacement de broche 9 (broche pleine) permettent aux connecteur d'avoir un sens de branchement et agissent comme détrompeur. Le brochage du connecteur USB 3.2 gen 1 interne est le suivant : Le brochage du connecteur à 20 broches USB Type-C est le suivant: |
Utah LUtah ( ; ou ; , ) est un État de l'Ouest des États-Unis. La capitale est Salt Lake City, centre d'une zone urbaine où vivent 88 % des de l'État. L'Utah est connu pour sa grande diversité géologique, avec des montagnes enneigées, des vallées aux fortes rivières et des déserts arides aux formes géologiques spectaculaires. Un des emblèmes de cet État est ainsi une arche naturelle (Delicate Arch, située dans le parc national des Arches). L'État est aussi connu pour sa forte communauté mormone, qui en fait un des États américains les plus homogènes religieusement, avec environ 62 % des habitants se déclarant mormons. L'Église de Jésus-Christ des saints des derniers jours influence grandement la culture de l'État et la vie quotidienne. Les pionniers mormons furent parmi les premiers colons à s'installer dans la région en 1847. L'économie de l'Utah repose sur les technologies de l'information, le transport et les mines. C'est également une destination touristique de premier ordre. Origine du nom. Plusieurs interprétations existent quant au nom de cet État. Il serait dérivé de la langue amérindienne ute et signifie « peuple des montagnes », ou proviendrait du mot apache "yuttahih", qui signifie « celui qui est plus haut ». Histoire. Les Amérindiens sont présents dans la région depuis la préhistoire. Ils ont laissé des pétroglyphes et des pictogrammes, témoins de leur culture passée. Francisco Vásquez de Coronado a sans doute traversé le Sud de l’Utah actuel en 1540, alors qu’il cherchait les légendaires Cités d'or. Un groupe d’Espagnols, conduit par deux prêtres, quitte Santa Fe en 1776 à la recherche d'une route menant à la côte californienne. L’expédition parvient au nord du lac Utah et rencontre les Amérindiens. Puis des trappeurs explorent la région au début du . La ville de Provo est nommée ainsi en l’honneur d’Étienne Provost qui voyagea dans la région en 1825. Les premiers colons mormons arrivèrent à Salt Lake City le , alors que l’Utah était encore un territoire mexicain. Après le Traité de Guadalupe Hidalgo, l’Utah est cédé aux États-Unis en 1848 (voir : "Cession mexicaine"). Mais il est l'un des derniers États continentaux à entrer dans l’Union en tant qu’État fédéré (1896). Un des obstacles principaux à cette accession a été l’attachement des mormons du à la polygamie. Géographie. L'Utah est l'un des "Four Corners states". Il est bordé par l'Idaho au Nord, le Wyoming au nord et à l'est, le Colorado à l'est, le Nouveau-Mexique en un seul point au sud-est (au ""), par l'Arizona au sud et le Nevada à l'ouest. Il couvre une superficie de . L'Utah est l'un des trois seuls États américains (avec le Colorado et le Wyoming) à n'avoir que des lignes de latitude et de longitudes comme frontières. L'Utah est globalement rocheux avec trois régions géologiques distinctes : les montagnes Rocheuses, le Grand Bassin et le plateau du Colorado. L'Utah est connu pour sa diversité naturelle et abrite des formations géologiques très diverses, des déserts arides avec des dunes de sable aux prospères forêts de pin dans des vallées de montagne. L’Utah est caractérisé par une grande diversité géologique : au centre se trouve la chaîne Wasatch, qui s'élève à environ d'altitude. Certaines parties de ces montagnes reçoivent plus de de neige par an en faisant un lieu renommé pour la pratique du ski avec sa poudreuse et sa lumière. Au nord-est les monts Uinta (d’orientation est-ouest) comprennent le plus haut sommet de l’État (pic Kings, ). À l’ouest des montagnes Wasatch, se trouve le Grand Lac Salé qui appartient au Grand Bassin ("Great Basin"). Les paysages du sud de l’Utah se caractérisent par des formes érodées par le Colorado et ses affluents. L’ouest est principalement aride ; le nord-est est plutôt montagneux avec de grandes forêts. Les principales curiosités naturelles sont des lacs : Une morphogéologie exceptionnelle. À plus de d'altitude, des milliers d'aiguilles et de flèches de calcaire orange, roses, blanches se dressent vers le ciel au parc national de Bryce Canyon, l'un des plus célèbres sites de l'Utah. La nature a mis soixante millions d'années à les façonner. Et son œuvre continue encore aujourd'hui. Près de Kanab, des siècles d'érosion ont modelé ces blocs de grès mettant à nu le cœur et les veines de la roche. Dans ces paysages qui ont maintes fois servi de cadre à des westerns, on prélève certaines de ces pierres polies pour les transformer en objets d'art. Le président Donald Trump ouvre à partir de le Grand Staircase-Escalante et Bears Ears à l'exploitation minière et au forage. Le premier voit la taille de sa zone protégée être réduite de près de la moitié, quand le second en perd 85 %. Subdivisions. L'Utah est subdivisé en . L'Utah a pour codes : Subdivisions administratives. Comtés. L'État de l'Utah est divisé en 29 comtés. Agglomérations. Aires métropolitaines et micropolitaines. Le Bureau de la gestion et du budget a défini cinq aires métropolitaines et cinq aires micropolitaines dans l'État de l'Utah. En 2010, 94,9 % des Utahains résidaient dans une zone à caractère urbain, dont 89,1 % dans une aire métropolitaine et 5,8 % dans une aire micropolitaine. L'aire métropolitaine de Salt Lake City regroupait à elle seule 39,4 % de la population de l'État. Aire métropolitaine combinée. Le Bureau de la gestion et du budget a également défini une aire métropolitaine combinée dans l'État de l'Utah. En 2010, l'aire métropolitaine combinée de Salt Lake City-Provo-Orem regroupait 82,2 % de la population de l'État. Municipalités. L'État de l'Utah compte , dont 25 de plus de . Démographie. Population. Le Bureau du recensement des États-Unis estime la population de l'Utah à au , soit une hausse de 15,99 % depuis le recensement des États-Unis de 2010 qui tablait la population à . Depuis 2010, l'État connaît la la plus soutenue des États-Unis après le Dakota du Nord (7,6 %) et le Texas (5,2 %). Selon des projections démographiques publiées par l’AARP, l'Utah devrait atteindre une population de en 2060 si les tendances démographiques actuelles se poursuivent, soit une hausse de 41,3 % par rapport à 2010. Avec en 2010, l'Utah était le État le plus peuplé des États-Unis. Sa population comptait pour 0,90 % de la population du pays. Le centre démographique de l'État était localisé dans le nord du comté d'Utah dans la ville de Saratoga Springs. Avec en 2010, l'Utah était le le moins dense des États-Unis. Le taux d'urbains était de 90,6 % et celui de ruraux de 9,4 %. L'État comptait le fort taux d'urbains du pays. En 2010, le taux de natalité s'élevait à ( en 2012) et le taux de mortalité à ( en 2012). L'indice de fécondité était de par femme (2,37 en 2012). Le taux de mortalité infantile s'élevait à ( en 2012). La population était composée de 31,51 % de personnes de moins de , 11,51 % de personnes entre 18 et , 28,15 % de personnes entre 25 et , 19,80 % de personnes entre 45 et et 9,03 % de personnes de et plus. L'âge médian était de . Entre 2010 et 2013, l'accroissement de la population (+ ) était le résultat d'une part d'un solde naturel positif (+ ) avec un excédent des naissances () sur les décès (), et d'autre part d'un solde migratoire positif (+ ) avec un excédent des flux migratoires internationaux (+ ) et un excédent des flux migratoires intérieurs (+ ). Selon des estimations de 2013, 90,8 % des Utahains étaient nés dans un État fédéré, dont 62,7 % dans l'État de l'Utah et 28,1 % dans un autre État (17,1 % dans l'Ouest, 4,3 % dans le Sud, 4,2 % dans le Midwest, 2,4 % dans le Nord-Est), 1,0 % étaient nés dans un territoire non incorporé ou à l'étranger avec au moins un parent américain et 8,2 % étaient nés à l'étranger de parents étrangers (57,9 % en Amérique latine, 19,5 % en Asie, 12,1 % en Europe, 4,1 % en Amérique du Nord, 3,3 % en Océanie, 3,0 % en Afrique). Parmi ces derniers, 37,2 % étaient naturalisés américain et 62,8 % étaient étrangers. Selon des estimations de 2012 effectuées par le Pew Hispanic Center, l'État comptait illégaux, soit 3,6 % de la population. Composition ethno-raciale et origines ancestrales. Selon le recensement des États-Unis de 2010, la population était composée de 86,09 % de Blancs, 2,73 % de Métis, 2,00 % d'Asiatiques, 1,19 % d'Amérindiens, 1,06 % de Noirs, 0,89 % d'Océaniens et 6,03 % de personnes n'entrant dans aucune de ces catégories. Les Métis se décomposaient entre ceux revendiquant deux races (2,54 %), principalement blanche et autre (0,65 %), blanche et asiatique (0,58 %) et blanche et amérindienne (0,46 %), et ceux revendiquant trois races ou plus (0,20 %). Les non-hispaniques représentaient 87,03 % de la population avec 80,38 % de Blancs, 1,96 % d'Asiatiques, 1,77 % de Métis, 0,98 % d'Amérindiens, 0,94 % de Noirs, 0,87 % d'Océaniens et 0,13 % de personnes n'entrant dans aucune de ces catégories, tandis que les Hispaniques comptaient pour 12,97 % de la population, principalement des personnes originaires du Mexique (9,37 %). En 2010, l'État de l'Utah avait la forte proportion d'Océaniens après Hawaï (9,96 %) et l'Alaska (1,04 %). "A contrario", l'État avait la faible proportion de Noirs après le Montana (0,41 %), l'Idaho (0,63 %), le Wyoming (0,84 %) et le Vermont (1,00 %). L'État comptait également le grand nombre d'Océaniens après la Californie (), Hawaï () et l'État de Washington (). En 2013, le Bureau du recensement des États-Unis estime la part des non hispaniques à 86,6 %, dont 79,5 % de Blancs, 2,1 % d'Asiatiques, 1,7 % de Métis, 1,1 % d'Amérindiens et 1,0 % de Noirs, et celle des Hispaniques à 13,4 %. L'Utah connaît depuis la fin de la Seconde Guerre mondiale une baisse continue de la part de la population blanche non hispanique au sein de la population totale, marquée fortement depuis le début des années 1990 en raison notamment d'une immigration importante en provenance du Mexique, d’un âge médian plus élevé () que les Hispaniques (), d'une natalité plus faible ( en 2010) que les Hispaniques () et d'une augmentation substantielle des unions mixtes. En 2010, les Blancs non hispaniques ne représentaient plus que 74,9 % des enfants de moins de (17,2 % pour les Hispaniques, 3,5 % pour les Métis, 1,2 % pour les Asiatiques, 1,1 % pour les Noirs et 1,0 % pour les Océaniens) et 74,6 % des enfants de moins de 1 an (17,6 % pour les Hispaniques, 3,7 % pour les Métis, 1,2 % pour les Asiatiques, 1,0 % pour les Océaniens et 1,0 % pour les Noirs). Selon des projections démographiques publiées par l’AARP, les Blancs non hispaniques constitueront 66,2 % de la population de l’État en 2060 si les tendances démographiques actuelles se poursuivent. En 2000, les Utahains s'identifiaient principalement comme étant d'origine anglaise (29,0 %), allemande (11,6 %), américaine (6,8 %), danoise (6,5 %), mexicaine (6,1 %), irlandaise (5,9 %), écossaise (4,4 %) et suédoise (4,3 %). L'État avait les plus fortes proportions de personnes d'origine anglaise et danoise, la forte proportion de personnes d'origine écossaise, la forte proportion de personnes d'origine suédoise, la forte proportion de personnes d'origine basque ainsi que la forte proportion de personnes d'origine néerlandaise. L'État abrite la juive des États-Unis. Selon le North American Jewish Data Bank, l'État comptait en 2013 ( en 1971), soit 0,2 % de la population. Ils se concentraient principalement dans les agglomérations de Salt Lake City () et Summit Park (600). L'État abrite également la arabe des États-Unis. Selon des estimations du Bureau du recensement des États-Unis, l’État comptait en 2013, soit 0,2 % de la population, principalement des Libanais (). L’État abritait en 2013 une population noire assez bigarrée, composée principalement de descendants d’esclaves déportés sur le sol américain entre le début du et le début du (49,5 %) mais aussi d’Africains subsahariens (37,5 %), d’Hispaniques (7,3 %) et de Caribéens non hispaniques (5,7 %). Le Bureau du recensement des États-Unis estimait le nombre d’Africains subsahariens à , soit 0,4 % de la population, principalement des Sud-Africains () et des Somaliens (). Le nombre de Caribéens non hispaniques était quant à lui estimé à , soit 0,1 % de la population. Les Hispaniques étaient essentiellement originaires du Mexique (72,3 %). Composée à 44,0 % de Blancs, 7,4 % de Métis, 1,6 % d'Amérindiens, 0,9 % de Noirs, 0,3 % d'Asiatiques, 0,2 % d'Océaniens et 45,5 % de personnes n'entrant dans aucune de ces catégories, la population hispanique représentait 35,1 % des Métis, 17,8 % des Amérindiens, 11,4 % des Noirs, 6,6 % des Blancs, 2,6 % des Océaniens, 2,0 % des Asiatiques et 97,8 % des personnes n'entrant dans aucune de ces catégories. L'État avait les fortes proportions de personnes originaires d'Argentine (0,17 %), du Chili (0,12 %) et du Venezuela (0,10 %), la forte proportion de personnes originaires du Pérou (0,27 %), la forte proportion de personnes originaires d'Espagne (0,30 %) ainsi que la forte proportion de personnes originaires du Mexique (9,37 %). L'État comptait également le grand nombre de personnes originaires d'Argentine (). Les Asiatiques s'identifiaient principalement comme étant Chinois (20,2 %), Viêts (14,5 %), Indiens (11,2 %), Japonais (11,0 %), Philippins (10,1 %), Coréens (9,7 %), Laotiens (4,5 %) et Cambodgiens (3,4 %). L'État avait la forte proportion de Japonais (0,22 %). Les Amérindiens s'identifiaient principalement comme étant Navajos (44,2 %), Utes (9,1 %) et Amérindiens du Mexique (3,2 %). Les Océaniens s'identifiaient principalement comme étant Tongiens (38,3 %), Samoans (33,6 %), Hawaïens (7,8 %) et Marshallais (3,0 %). Les Métis se décomposaient entre ceux revendiquant deux races (92,9 %), principalement blanche et autre (23,6 %), blanche et asiatique (21,1 %), blanche et amérindienne (16,7 %), blanche et noire (12,7 %) et blanche et océanienne (9,1 %), et ceux revendiquant trois races ou plus (7,1 %). Religions. Selon l'institut de sondage "The Gallup Organization", en 2015, 55 % des habitants de l'Utah se considèrent comme « très religieux » (40 % au niveau national), 15 % comme « modérément religieux » (29 % au niveau national) et 31 % comme « non religieux » (31 % au niveau national). Mormons. Les mormons, pour vivre en accord avec leur foi, décidèrent de s'exiler dans le désert de l'Utah, faute de pouvoir s'installer plus à l'est. Les pionniers mormons s'installèrent en masse à partir de 1847, menés par Brigham Young, dirigeant mormon et futur premier gouverneur du territoire de l'Utah. Les mormons, habiles hommes d'affaires, épousèrent l'ère industrielle. Ils vont largement contribuer au développement économique de l'État. Seule une petite partie des de mormons vivent en Utah. Salt Lake City, capitale de l'État, est aussi le siège mondial du mormonisme, mais dans la ville même, les mormons sont légèrement minoritaires. L'Église de Jésus-Christ des saints des derniers jours, dont les mormons sont membres, a été organisée aux États-Unis en 1830 par Joseph Smith. Ayant été créé par les pionniers mormons au , l'État d'Utah a une vie politique, sociale et culturelle encore largement dominée par cette Église, qui impose une morale stricte à ses membres. En 2013, les mormons représentent environ 62 % de la population de l'Utah. Dans certains comtés, comme le comté d'Utah, la part des mormons dépasse 80 %. Langues. L'anglais est la langue officielle de l'État depuis 2000. Réserves indiennes. Le Gouvernement fédéral a défini sept réserves indiennes dans ou en partie dans l'État de l'Utah. En 2010, résidaient dans une réserve indienne, soit 1,1 % de la population de l'État. La réserve indienne de Uintah and Ouray est la deuxième réserve la plus vaste () des États-Unis après celle de la Nation navajo (). Elle était également la neuvième réserve la plus peuplée () des États-Unis en 2010. Économie. L'Utah est un État plutôt riche. Dans les zones irriguées, les récoltes sont abondantes. Il dispose en outre d'une industrie relativement importante et de ressources minières de valeur : or, cuivre, plomb et aussi dans la région de Moab, de l'uranium. Politique. Sociologie électorale. L'Utah est l'un des États les plus conservateurs des États-Unis et un bastion du Parti républicain depuis les années 1950. Cela s'explique principalement par l'importance de l'Église de Jésus-Christ des saints des derniers jours, à laquelle appartiennent environ 75 % des électeurs (en 2008). Bien qu'ultraconservateurs sur les questions de société (avortement et mariage homosexuel), les électeurs de l'État sont plus modérés sur les questions d'immigration. En 2004, par référendum, les électeurs de l'Utah ont approuvé par 66 % des voix () un amendement constitutionnel définissant le mariage comme une union civile entre un homme et une femme, bannissant ainsi toute forme d'union homosexuelle. Les rares bastions démocrates sont la capitale Salt Lake City et la station de sports d'hiver de Park City. La constitution de l'Utah date de 1895. Malgré la présence d'une communauté polygame importante, la constitution de l'Utah n'a jamais légalisé la polygamie, interdite par le Congrès fédéral. L'Église de Jésus-Christ des saints des derniers jours adopte officiellement une position neutre vis-à-vis des partis politiques et des candidats mais ses dirigeants ne cachent pas leur hostilité aux candidats dits libéraux ou progressistes, notamment sur les questions sociales. Les dirigeants et les militants du Parti républicain local sont néanmoins tous très proches de l'église de Jésus-Christ des saints des derniers jours au point d'être parfois perçu comme une de ses émanations. Politique nationale. Élections présidentielles. Jusqu'à l'élection présidentielle de 1952, l'Utah était un état qui penchait alternativement vers les Républicains ou les Démocrates. Ainsi, lors des premières élections organisées en 1896, les électeurs votèrent pour le démocrate William Jennings Bryan (82 % des suffrages) contre le républicain William McKinley, élu au niveau national. Quatre ans plus tard, ils votaient McKinley (50,58 %) contre le même Bryan (45 %). Après avoir été l'un des rares états à voter pour le républicain William Howard Taft en 1912, ils votèrent quatre ans plus tard pour son adversaire démocrate, le président Woodrow Wilson. L'Utah vota encore à quatre reprises pour le démocrate Franklin Delano Roosevelt puis pour Harry S. Truman. Depuis l'élection présidentielle américaine de 1952, l'Utah est incontestablement devenu l'un des bastions républicains les plus marqués du pays. Depuis cette date, un seul candidat démocrate, Lyndon B. Johnson en 1964, a remporté l'Utah (s'imposant alors face à Barry Goldwater). Les candidats républicains y ont également réalisés leurs meilleurs scores nationaux en 1976, 1980, 1984, 1988, 1996, 2000, 2004 et 2012. En 1992, l'Utah fut le seul état où le démocrate Bill Clinton, pourtant élu au niveau national, était arrivé en troisième position avec 24,65 % des voix derrière le républicain George Bush (43,36 %) et l'indépendant Ross Perot (27,34 %). À l'élection présidentielle de 2004, le président républicain George W. Bush y a remporté la totalité des comtés, avec 71,54 % des voix contre 26 % au candidat démocrate John Kerry, parvenant à un pic record de 88,91 % des suffrages dans le comté de Rich. Lors de l'élection présidentielle de 2008, le candidat républicain John McCain y a obtenu 62,25 % des voix contre 34,22 % des voix au candidat démocrate Barack Obama. En 2016, le républicain Donald Trump obtient en Utah 45,1 % des voix face à 27,2 % pour son adversaire démocrate Hillary Clinton. En 2020, Donald Trump remporte à nouveau l'État avec 58,15% des voix. Joe Biden, qui remporte l'élection au niveau national, obtient le meilleur résultat en Utah depuis que Lyndon B. Johnson l'a remporté en 1964. Représentation fédérale. Lors de la 117 législature du Congrès (2021-2023), l'Utah est représenté à la Chambre des représentants par quatre républicains, ainsi que par Mitt Romney et Mike Lee, tous les deux républicains, au Sénat. Politique locale. La politique locale de l'Utah est largement dominée par les républicains. Près de 80 % des parlementaires sont membres de l'Église de Jésus-Christ des saints des derniers jours. Depuis 1896, l'Utah n'a ainsi eu que deux gouverneurs qui ne soient pas membres de cette Église. Depuis le , le gouverneur de l'Utah est le républicain Gary Herbert qui avait repris en cours de mandat le poste du républicain Jon Huntsman, nommé ambassadeur des États-Unis en Chine. Le lieutenant-gouverneur de l'Utah est le républicain Spencer Cox. Les autres principaux postes élus de l'exécutif sont également détenus par des républicains. La Législature de l'Utah est largement dominée par les républicains. Lors de la législature 2017-2019, les républicains détiennent ainsi de la Chambre des représentants de l'État contre 13 aux démocrates tandis qu'au Sénat, font face à cinq démocrates. Pouvoir judiciaire en Utah. Le pouvoir judiciaire de l'Utah est composé des tribunaux suivants : Tourisme. La SkyWest Airlines et Delta Air Lines relient les grands aéroports des États-Unis à ceux de Salt Lake City (aéroport international) et Cedar City. La voiture de location constitue ensuite le moyen idéal pour découvrir les parcs nationaux. Un circuit automobile est balisé dans chacun d'eux. La visite se poursuit à pied dans les à Arches et le long de l'East Rim Trail dans Zion, en jeep sur la piste d'Elephant Hill dans le parc national des Canyonlands, à cheval dans Bryce, en avion au-dessus de Glen Canyon ou en bateau sur le lac Powell. Le soir, on s'arrête dans un « », un motel ou un hôtel ou encore dans un terrain de camping. Parcs et monuments nationaux. Les déserts du sud de l’Utah occupent cinq parcs nationaux : De nombreux autres parcs existent au niveau de l'État. Les monuments nationaux de l’Utah sont : Les Bears Ears sont également proposées au classement de monuments nationaux. Parcs et monuments fédéraux. Enfin, l’Utah dispose de plusieurs parcs fédéraux et monuments : Éducation. Universités. Les universités en Utah sont : Sport. L'Utah a accueilli les Jeux olympiques d'hiver de 2002. |
UDF UDF est un sigle de trois lettres, qui signifie :<br> Partis politiques Autres |
Union pour la démocratie française LUnion pour la démocratie française (UDF) est un parti politique français regroupant plusieurs partis de centre droit ou de droite non-gaullistes et d'inspiration démocrate-chrétienne, libérale, europhile, ainsi que radicale dans une moindre mesure. Fondée en vue des élections législatives de 1978 pour soutenir le président de la République en fonction Valéry Giscard d'Estaing, cette confédération est à nouveau au pouvoir de 1986 à 1988 puis de 1993 à 1997, en alliance avec le RPR. Dans les années 2000, sous l'impulsion de François Bayrou, l'UDF s'éloigne clairement de la droite. À partir de 2007, avec la création du Mouvement démocrate (MoDem), dont elle est le principal membre fondateur, elle ne conserve qu'une existence légale. Histoire. Origines : mouvements centristes et libéraux français (1901-1978). "Sur cette chronologie, les barres orange représentent l'adhésion à l'UDF." Sous Jean Lecanuet et Valéry Giscard d'Estaing (1978-1996). Création en vue des législatives de 1978. Soucieux de rajeunir son parti, dont la notoriété et la popularité sont faibles, Valéry Giscard d'Estaing soutient la transformation, en mai 1977, de la FNRI en Parti républicain (PR), dont Jean-Pierre Soisson devient le secrétaire général. Le , alors que les sondages prédisent une victoire de la gauche aux élections législatives à venir, Valéry Giscard d'Estaing prononce un discours, à Verdun-sur-le-Doubs (Saône-et-Loire), dans lequel il appelle les Français à faire et les met en garde contre les blocages politiques et les conséquences économiques (hausse du chômage, aggravation du déficit budgétaire, baisse de la valeur de la monnaie) que provoquerait une victoire de la gauche aux élections législatives du mois de mars. L'UDF est fondée le par Michel Poniatowski sur l'idée de Jean Lecanuet et de Jean-Jacques Servan-Schreiber pour aider le président Valéry Giscard d'Estaing à disposer d'un parti le soutenant en vue des élections législatives de 1978, qui s'annoncent difficiles pour la droite. Pour le journaliste Laurent de Boissieu, l'objectif de l'UDF à sa création est de . Une liste de candidats pouvant se réclamer de l'appartenance à l'Union pour la démocratie française est publiée le . Le nom de l'UDF provient du titre du livre de VGE, "Démocratie française", vendu à plusieurs centaines de milliers d'exemplaires. L'UDF regroupe les différentes composantes centristes et giscardiennes de la majorité (Parti républicain, Centre des démocrates sociaux, Parti radical, Centre national des indépendants et paysans, Mouvement démocrate socialiste de France) et permet ainsi de limiter les candidatures à droite lors du scrutin législatif. Le nouveau parti présente pour . Elle réunit six composantes, du centre et de la droite non-gaulliste, qui demeurent chacune des partis politiques indépendants : Le , l'UDF se dote d'une structure provisoire : Michel Pinton (Parti républicain) en devient délégué général et un comité exécutif et un conseil national, composés de personnalités issues des différentes mouvances, sont créés. Selon les termes de Laurent de Boissieu, l'UDF regroupe . L'UDF connaît un succès aux législatives de mars 1978, avec 21,4 % des voix au premier tour et à l'issue du second tour. Elle permet au troisième gouvernement Barre d'avoir une majorité à l'Assemblée nationale, le RPR étant le partenaire de cette coalition. Les élections européennes de 1979 sont un nouveau succès pour l'UDF, qui arrive en tête avec 27,6 % des voix, devant le PS, le PC et le RPR. Dans l'opposition face à François Mitterrand. L'UDF passe dans l'opposition en , à la suite de la défaite de Valéry Giscard d'Estaing, battu par François Mitterrand lors de l'élection présidentielle, et de la défaite aux législatives de 1981, où elle obtient 19,2 % des voix. Dirigée par Jean Lecanuet (jusqu'en 1988), l'UDF apparaît surtout comme un « syndicat » d'élus locaux et de notables. Le parti ne compte en 1981 plus que (presque deux fois moins qu’en 1978-1981), n’a pas de dirigeant naturel (son président, Jean Lecanuet, peine à s'imposer, tandis que Raymond Barre reste impopulaire) et ses différentes composantes (Parti républicain, Centre des démocrates sociaux, Parti radical) sont tentées de reprendre leur indépendance. En , Olivier Stirn, cadre de l'UDF, estime que celle-ci . Dès les cantonales de mars 1982 où la coalition UDF-RPR-divers droite dépasse de nouveau la coalition PS-PC-MRG. Après les législatives de 1981, Jacques Chirac à la tête du RPR s’est affirmé comme le véritable dirigeant de l’opposition en s’appuyant sur un parti puissant et en ne cachant pas sa volonté de rompre avec le septennat précédant. Au sein de l'UDF, la volonté de reconquête de Giscard d'Estaing se heurte également à la prise de contrôle du Parti républicain par de jeunes élus. Jean-Claude Gaudin s’est ainsi imposé à la tête du groupe de l’Assemblée nationale au détriment de Christian Bonnet, tandis que François Léotard, devenu secrétaire général du parti en 1982, exprime sa volonté d'indépendance par rapport à Giscard d'Estaing. Ce phénomène de « dégiscardisation » semble alors toucher l’ensemble de l’UDF. Simone Veil dirige aux européennes de juin 1984 une liste UDF-RPR qui obtient 43,01 % des voix et sur 81. Retour au pouvoir après les législatives de 1986. Sur le plan national, et faute sans doute d'un dirigeant d'envergure malgré le retour progressif à la vie politique de Valéry Giscard d'Estaing qui en prend la présidence en 1988 (il la conserve jusqu'en 1996), l'UDF laisse au RPR et à Jacques Chirac la direction de la coalition de droite et de centre droit aux législatives de mars 1986, où le scrutin proportionnel départemental impose un certain nombre de listes d'union. Avec à l'Assemblée nationale et 17 apparentés, l'UDF est alors le partenaire minoritaire du Chirac auquel participent notamment André Giraud, François Léotard, Alain Madelin, Pierre Méhaignerie ou René Monory. L'UDF/RPR défend le principe d'une libéralisation de l'économie, la privatisation des entreprises nationalisées par François Mitterrand en 1981 et la réduction des déficits et de la dette publique. Candidat à la présidence de l’UDF en 1988, Giscard d'Estaing est élu et succède à Jean Lecanuet, qui était à la tête du parti depuis sa création. Il tente alors de restructurer la formation et de concilier ses différentes tendances. Au sein de l'UDF est marquée par la montée en puissance des , de jeunes personnalités (François Léotard, Charles Millon, Dominique Baudis, François Bayrou, Philippe de Villiers) qui contestent son autorité et prônent le renouvellement de la droite. Aux élections européennes de 1989, la liste conduite par Valéry Giscard d'Estaing arrive largement en tête. Candidature présidentielle de Raymond Barre en 1988. Pressenti pour être candidat à l'élection présidentielle de 1988, Giscard d'Estaing y renonce le , déclarant : Après le refus de Valéry Giscard d'Estaing de se présenter à l'élection présidentielle de 1988, les différentes composantes de l'UDF se prononcent en faveur de la candidature de Raymond Barre. Celui-ci n'est pourtant pas membre de l'UDF, souhaitant rester un « homme au-dessus des partis » et s'estimant « inclassable ». Il se déclare candidat le , au palais des congrès de Lyon. Les sondages donnent longtemps présent Raymond Barre au second tour, devant Jacques Chirac et le RPR, et certains le donnent même vainqueur face à François Mitterrand. Mais lors de l'élection présidentielle de 1988, Raymond Barre, candidat officiel de l'UDF, obtient 16,55 % des suffrages exprimés, derrière François Mitterrand et Jacques Chirac. En vue du second tour, Barre apporte sans enthousiasme son soutien à Chirac face à François Mitterrand. À la suite de la réélection de François Mitterrand, c'est Valéry Giscard d'Estaing qui mène la campagne nationale de la droite aux élections législatives anticipées de 1988, qui voient le Parti socialiste l'emporter sans majorité absolue. Pour la première fois, les centristes (groupe de l’Union du centre) obtiennent plus d'élus que le RPR. Privé d'une majorité absolue, Mitterrand mène une politique d'« ouverture » qui permet au gouvernement Rocard, puis aux gouvernements Édith Cresson et Pierre Bérégovoy d'obtenir le soutien ponctuel d'un groupe centriste spécifique à l'Assemblée nationale (Union du centre) et la participation de plusieurs membres historiques de l'UDF, notamment Jean-Pierre Soisson. PS et centristes de la « majorité présidentielle » sont également alliés lors des élections cantonales et régionales de , le plus souvent face à des listes d'union RPR-UDF qui globalement remportent le scrutin. Au tournant de la décennie 1980-1990, après le deuxième échec de Jacques Chirac dans la course à l’Élysée et malgré les divisions centristes, Giscard d'Estaing est largement pressenti pour représenter la droite à l'élection présidentielle de 1995. L'UDF est l'alliée du RPR aux élections législatives de 1993, au sein de l'Union pour la France, et participe aux gouvernements d'Édouard Balladur (1993-1995) puis d'Alain Juppé (1995-1997). En 1995, l'ancien Premier ministre Raymond Barre devient maire et président de la communauté urbaine de la deuxième agglomération de France, Lyon. Après les scrutins de 1988 et l’élection présidentielle de 1995. L'UDF commence à se désagréger avec la perte d'influence de son fondateur qui ne réussit plus à surmonter les divergences des courants de pensée au sein du mouvement. Il n'y eut d'ailleurs pas de candidat UDF aux présidentielles de 1988 et 1995 : Raymond Barre, candidat en 1988, n'est qu'apparenté, et l'UDF -comme d'ailleurs le RPR- se déchire en 1995 entre partisans d'Édouard Balladur (CDS et une partie du PR) et de Jacques Chirac (comme Alain Madelin, Charles Millon, et l'ensemble du PPDF derrière Hervé de Charette). Afin d’éviter toute division de l’opposition, le gaulliste Charles Pasqua propose alors la tenue d'une primaire, un type de scrutin inédit en France. Mais l’hypothèse d’une candidature de Valéry Giscard d’Estaing souffre à partir de 1993 de l’importante popularité d’Édouard Balladur, devenu Premier ministre dans le cadre de la deuxième cohabitation, notamment au sein de l’électorat centriste. Au cours de l’année 1994, l’institut Sofres teste sa candidature au premier tour en l’absence d’union à droite : il est crédité au maximum de 10 % d'intentions de vote, contre en moyenne 28 % pour Édouard Balladur et 15 % pour Jacques Chirac. Mais Giscard d'Estaing renonce à se présenter le . Sous François Léotard (1996-1998). Élections régionales de 1998 et scission. Les élections régionales de 1998 entraînent une scission. Alors que plusieurs présidents de région avaient été élus avec les voix de l'extrême droite, François Bayrou, alors président de Force Démocrate et Alain Madelin, président de Démocratie libérale, se divisent sur la condamnation de ces accords. La position de François Bayrou, qui s'oppose aux alliances avec le Front national (FN), l'emporte finalement, et Démocratie libérale choisit de quitter l'UDF quelques semaines plus tard. Quelques dissidents de DL comme Gilles de Robien et François Léotard décident de rester à l'UDF, au sein d'un Pôle républicain indépendant et libéral (PRIL). Sous François Bayrou (1998-2007). Lancement de la « Nouvelle UDF ». Élu président de l'UDF en 1998, François Bayrou décide d'unifier les différentes composantes de l'UDF pour créer symboliquement un nouveau parti, marqué au centre. En , à Lille, les adhérents approuvèrent le principe de la fusion entre FD, le PRIL et l'UDF-AD, tandis que le Parti radical (PR) et le PPDF conservaient leur autonomie. La « Nouvelle UDF » est née. Rapidement, François Bayrou affirme sa volonté de prendre ses distances vis-à-vis du RPR, menant lui-même une liste UDF aux élections européennes de 1999, face notamment à la liste RPR-DL de Sarkozy-Madelin. Cette stratégie d’autonomie suscite des oppositions au sein des élus UDF, qui sont nombreux à choisir, lors de l'élection présidentielle de 2002, de soutenir Jacques Chirac plutôt que François Bayrou. Arrivé en quatrième position avec 6,8 % des voix, Bayrou ne peut s'opposer à la création de l'UMP, lancée par Jacques Chirac et Alain Juppé dès le lendemain du pour unifier les partis de la droite et du centre. Une grande partie des élus UDF rejoignent alors l'UMP (ils se regrouperont au sein du club « Démocrate populaire »). Aux élections législatives qui suivent, l'UDF parvient cependant, avec , à conserver un groupe politique à l'Assemblée nationale. L'UDF obtient quelque 12 % des suffrages exprimés au premier tour des élections régionales et européennes de 2004. Lors des élections régionales, François Bayrou, tête de liste UDF dans la région Aquitaine, décidé, au second tour, de se désister en faveur du candidat UMP Xavier Darcos. Au cours de ce scrutin, aucun candidat de l'UDF ne s'est désisté au second tour au profit d'un candidat du Parti socialiste. Le , pour la première fois depuis 2002, l'UDF refuse de voter la confiance au gouvernement Dominique de Villepin. La moitié du groupe des députés UDF vote ensuite contre le projet de budget 2006 présenté par ce gouvernement ; les sénateurs Union centriste s’abstiennent. Élection présidentielle de 2007 et rupture avec la droite. Lors du congrès extraordinaire de Lyon de , les adhérents de l'UDF (91 % des votants) apportent leur soutien à la motion unique de François Bayrou définissant l'UDF comme un « parti libre et indépendant », au centre. Les partisans d'une alliance avec l'UMP, menés par le ministre Gilles de Robien, apparaissent ainsi marginalisés au sein du parti. Gilles de Robien avait été suspendu de ses fonctions exécutives au sein du parti à la suite de son entrée au gouvernement Villepin, contraire à la décision de non-participation de l'UDF. Le , dans le cadre de l'affaire Clearstream 2, François Bayrou et dix autres députés UDF votent la motion de censure déposée par l'opposition (Parti socialiste) contre le gouvernement Villepin. C'est la première fois depuis la création du parti en 1978 qu'un dirigeant centriste se rallie à un texte de cette nature. Le , François Bayrou arrive en troisième position à l'élection présidentielle avec un score de 18,6 % , derrière Nicolas Sarkozy (UMP, 31,2 %) et Ségolène Royal (PS, 25,9 %). Le président de l’UDF ne donne pas de consigne et indique à titre personnel « ne pas vouloir voter pour Nicolas Sarkozy ». Opposés à cette position, UDF ayant pour la plupart appelé à voter pour Nicolas Sarkozy au second tour publient le dans "Le Figaro" une tribune intitulée « Pour un centre libre dans la majorité présidentielle » : ils y déclarent entrer en dissidence avec les positions de François Bayrou et appellent à la constitution d'un nouveau parti politique de centre droit, partenaire de l'UMP, ce qui sera fait avec la fondation du Nouveau Centre. En réponse, quelque nationaux UDF appellent à la constitution d'un nouveau parti politique dénommé Mouvement démocrate. Disparition de l’UDF au sein du Mouvement démocrate. Le , Le président de l'UDF François Bayrou annonce la création d'un nouveau parti, le Mouvement démocrate (MoDem) regroupant les formations politiques et les militants souhaitant la constitution d'une force politique centriste indépendante de la droite et de la gauche. Ce parti est créé le . Les membres fondateurs du Mouvement démocrate sont : François Bayrou, Marielle de Sarnez, Michel Mercier et Jacqueline Gourault. Le Mouvement démocrate est dans ses statuts un mouvement politique unitaire. François Bayrou propose au vote, lors du conseil national le , le principe de la création du Mouvement démocrate. L'UDF est devenue, lors de son dernier congrès, le à Villepinte, membre fondateur du Mouvement démocrate, dont les statuts, déposés en préfecture le , sont très proches de ceux de l'UDF et ne permettent pas l'appartenance à deux partis politiques. Le siège de l'UDF (133 "bis", rue de l'Université, à Paris) est devenu le siège du MoDem. Formellement et selon le droit des associations, l'existence juridique de l'UDF subsiste pour une période transitoire de trois ans. L'UDF délègue aux instances du Mouvement démocrate la « responsabilité de l'action et de l'expression communes », les autres instances nationales et locales de l'UDF devant « s'intégrer aux instances correspondantes du Mouvement démocrate ». Pendant cette période transitoire, « les intérêts juridiques, matériels et moraux » de l'UDF doivent être « garantis et administrés par un bureau de vingt à trente membres désignés par le Congrès, sur proposition du président dont le mandat est prorogé ». Afin de marquer immédiatement son existence politique, le Mouvement démocrate présente des candidats aux élections législatives de juin 2007 sous l'étiquette « UDF-Mouvement démocrate », le financement de ces candidats étant assuré par l'UDF. Cependant, l'UDF n'a jamais été formellement dissoute et reste dirigée par un bureau politique, dont Bayrou est le président. Elle garde également un siège social de , loué par le Modem. Marque UDF. Selon le journaliste Laurent de Boissieu, la marque UDF aurait été déposée plusieurs fois auprès de Institut national de la propriété industrielle (INPI). En effet, lors du dépôt d'une marque, l'INPI rappelle les exigences de droit antérieur mais ne les contrôle pas lui-même. Hervé de Charette, ancien membre de l'UDF ayant rejoint l'UMP en 2002, aurait déposé le la marque « Union pour la démocratie française UDF » au nom de la Fédération nationale des Clubs Perspectives et Réalités, elle-même ayant été renommée le Parti populaire pour la démocratie française, puis en 2002 « Convention démocrate » lors de son adhésion à l'UMP. La personne morale UDF aurait ensuite déposé, entre 2006 et 2008, les marques suivantes : « Nouvelle UDF », « UDF », « Union pour la Démocratie française », « Parti démocrate - UDF », « UDF LE PARTI LIBRE ». En , Hervé de Charette revendique la propriété de la marque UDF au titre de l'antériorité. La direction de l'UDF - intégrée au MoDem - annonce de son côté vouloir « engager des poursuites judiciaires contre ceux qui avaient frauduleusement déposé le nom de l'UDF et sans en avoir ni droit ni qualité pour procéder à un tel dépôt », invoquant l'intention de nuire du déposant. En , Hervé Morin annonce pour le Nouveau Centre son intention de vouloir utiliser le sigle UDF. L'association UDF menace alors le Nouveau Centre de poursuites judiciaires. En , Hervé Morin indique sa décision de « ne pas se lancer dans un combat inutile », « compte tenu de la complexité juridique du droit des marques ». Positionnement idéologique. L'UDF s'inscrit dans l'histoire longue des partis centristes et de centre droit et non-gaullistes qui ont marqué l'histoire de la République. Il est l'héritier à la fois du centre non-gaulliste (Républicains Indépendants), de la démocratie-chrétienne encore puissante sous la République, mais qui a décliné face au gaullisme après 1958 et de la tradition radicale héritière de la République. En tant que fédération de partis, l'UDF relève ainsi de plusieurs traditions : le centrisme, le libéralisme, la démocratie-chrétienne voire la sociale-démocratie. Déjà dans "Démocratie française", Valéry Giscard d'Estaing, alors président de la République française proposait en quelque sorte un manifeste pour la création d'un nouveau parti politique qui sera l'UDF. Giscard d'Estaing plaide pour une démocratie moderne qui s'appuie sur la croissance économique et le libéralisme, et dont la politique étrangère doit privilégier la construction européenne. Centrisme. Valéry Giscard d'Estaing a été députés de différents partis centristes dès les années 1950 avant de fonder l'UDF : Centre National des Indépendants et paysans, des Républicains indépendants (RI), Parti républicain. Il a donc été membre de la majorité gaulliste et ministre de De Gaulle jusqu'à ce qu'il prenne son indépendance par rapport aux gaullistes, mais sans être membre d'un parti gaulliste néanmoins. Il entend réunir les courants de la droite non-gaulliste, conservatrice et libérale, hostile au dirigisme des partis de gauche (PCF et SFIO) ou du centre (MRP). Europhilie. L'engagement européen reste une valeur fédératrice forte. Valéry Giscard d'Estaing défend dès les années 1970 une ligne pro-européenne tout comme à sa suite Simone Veil. François Bayrou s'inscrit lui aussi dans la tradition europhile du centre français. L'Union européenne a donc une place centrale dans son projet politique : . « Sans Europe, sans union politique et sans démocratie, la marche du monde devient une fatalité sur laquelle les peuples de notre continent auront perdu le pouvoir de peser. Chaque fois qu’il s’agit de peser sur l’avenir du monde, on retrouve « le besoin d’Europe ». En 2005, l'UDF fait campagne en faveur du Traité établissant une constitution pour l'Europe, que les électeurs français consultés par référendum rejettent le . Libéralisme. L'arrivée de Raymond Barre à la tête du gouvernement sous le mandat de Valéry Giscard d'Estaing marque l'affirmation d'une politique en partie plus libérale qui continue à caractériser ensuite l'UDF pendant toute son existence. Les politiques économiques menées depuis la fin de la Seconde Guerre mondiale étaient marquées jusqu'à la fin des années 1970 par un certain dirigisme, auquel Valéry Giscard d'Estaing avait participé en tant que ministre des Finances, l'État contrôlant le crédit, la masse monétaire, les prix, les salaires. La situation change en 1978, année de la formation du troisième gouvernement Barre et de création de l'UDF. Le , Raymond Barre, inspiré par les résultats de l'économie ouest-allemande, se prononce en faveur d' et des . La concurrence et la liberté des prix sont alors privilégiées : les prix industriels sont libérés dès cette année 1978, suivis de ceux des services l'année suivante. Cette politique libérale, critiquée par les syndicats, se différencie du Programme commun de la gauche et de l'interventionnisme gaulliste. Comme l'indique Alexis Massart, "Les années 1980 sont marquées, dans leur première moitié, par le développement international d’une nouvelle forme de libéralisme, qualifié tantôt de « néo » tantôt d’« ultra ». États-Unis et Royaume-Uni incarneront, par leurs dirigeants respectifs, cette nouvelle vague. En France, l’opposition au pouvoir socialiste va elle aussi être touchée par ce phénomène. Les partisans extrêmes de cette nouvelle voie, tel Alain Madelin, seront certes minoritaires mais ce libéralisme nouveau va néanmoins influer sur l’évolution globale du positionnement idéologique de la droite française." Dans les années 1980, Alain Madelin, l'un des promoteurs du libéralisme économique, gagne en influence au sein des partis français de droite. Il est très lié au collectif des nouveaux économistes, qui ambitionne de promouvoir en France l'école autrichienne d'économie et de faire redécouvrir les penseurs libéraux français. Il intervient en faveur du maintien du système de perception de la taxe sur la valeur ajoutée (TVA) dans la Communauté européenne après 1992. Démocratie-chrétienne. La tradition démocrate-chrétienne est représentée essentiellement par le Centre des démocrates sociaux (CDS) fondé au congrès de Rennes, tenu du au . Il a été, de 1978 à sa disparition en 1995, un des membres fondateurs de l'Union pour la démocratie française, dont il constituait l'aile démocrate-chrétienne. Le courant démocrate chrétienne remonte au catholicisme social d'Albert de Mun et au Mouvement républicain populaire (MRP, existant entre 1944 et 1966), influent sous la Quatrième République. Pour cette famille politique, l'État doit être décentralisé et mener une politique qui combine libéralisme économique et des mesures de redistribution au travers de l'État-providence. La démocratie chrétienne se prononce aussi en faveur de la construction européenne en soutenant la création d'organes supra-nationaux. Ils se prononcent pour une coopération poussée des États européens dans ces domaines par l'intermédiaire d'un mode supranational plus puissant que les États eux-mêmes, c'est-à-dire pour une Europe fédérale. Les représentants de cette famille dans les années 1990 ont été François Bayrou, Dominique Baudis, Pierre Méhaignerie, Philippe Douste-Blazy, Bernard Stasi. Radicalisme. La tradition radicale et en particulier le radicalisme de droite a été représenté au sein de l'UDF dès sa fondation. Issu des républicains (extrême gauche sous la monarchie de Juillet), le Parti radical est particulièrement influent pendant la Troisième République. Très attaché à la propriété privée et à la laïcité, partisan d'un régime douanier libre-échangiste, il devient un parti intermédiaire entre la gauche et la droite susceptible de s'allier aux socialistes ou aux conservateurs suivant les circonstances. Le radicalisme évolue progressivement vers le centre gauche, avant de se positionner au centre droit après le en 1972 et il rejoint l'UDF au travers En 1973, le parti radical s'allie au Centre démocrate, issu du MRP de Jean Lecanuet au sein du Mouvement réformateur. Opposés à une alliance électorale avec les communistes mais toujours anti-gaullistes, les radicaux accompagnent les principales réformes sociétales de la présidence de Valéry Giscard d'Estaing (autorisation de la pilule contraceptive, reconnaissance des droits des femmes) et réclament une nouvelle organisation territoriale de la France au profit des pouvoirs locaux. Le Centre républicain et le Parti libéral européen, issues d'anciennes scissions de la droite du parti, le réintègrent en 1978. Sociologie électorale. L’Union pour la démocratie française obtient ses meilleurs résultats électoraux là où la pratique religieuse est la plus élevée. Le vote pour Bayrou lors de l'élection présidentielle de 2002 ressemble à celui de Jean Lecanuet en 1965. L'UDF a ses territoires les plus forts dans l'ouest de la France du Cotentin à la Vendée en passant par la Mayenne. Le deuxième bastion est l'Alsace-Lorraine. L'Aveyron, Lozère et Haute-Loire, l'Ain, le Jura, les Hautes-Alpes et la Haute-Savoie sont les zones où les électeurs votent davantage pour l'UDF. Dans le sud-ouest, les Pyrénées-Atlantiques sont les zones les plus favorables à l'UDF. Si elle bénéficie de la présence de paroisses où catholicisme est important, l'UDF semble s'adresser davantage aux pratiquants actifs, convaincus par le discours de Rome et des évêques français, qu'aux simples fidèles, qui votent majoritairement pour les candidats gaullistes. Il serait inexact de dire que l'UDF est un « parti catholique » ou un « parti démocrate-chrétien ». Organisation. Jeunes UDF. Fondés en 1998, lors de l'unification de l'UDF, les Jeunes UDF regroupent les adhérents de l'UDF de inclus. Présents dans toutes les instances de l'UDF, ils prennent activement part au débat interne au parti et font valoir leurs positions. Chaque année, ils organisent l'Université d'été de l'UDF, moment fort de la vie du mouvement. Contrairement à de nombreux mouvements politiques jeunes, les Jeunes UDF disposent de leurs propres structures et choisissent eux-mêmes leurs responsables : Au niveau de chaque département existe une fédération des Jeunes UDF organisée de manière similaire : Si la fédération départementale compte moins de , un délégué fédéral nommé par le président national tient le rôle du président et du bureau. Les Jeunes UDF se retrouvent divisés avec la scission de l'UDF en 2007, une partie, participant à la transition de l'UDF vers le MoDem, est remplacé par les Jeunes Démocrates lors de sa création, le , l'autre partie entrant en dissidence, crée les Jeunes Centristes le . Affiliation au niveau européen. Après les élections européennes, l'UDF a quitté le Parti populaire européen (historiquement le parti des Démocrates-chrétiens, mais désormais élargi à toutes les formations de droite), prenant pour prétexte l'euroscepticisme croissant du parti, pour fonder avec le centre gauche italien de La Marguerite un nouveau parti pro-européen, le Parti démocrate européen qui forme avec les libéraux le groupe de l'Alliance des démocrates et des libéraux pour l'Europe (ADLE-ALDE) au Parlement européen. Le Parti démocrate européen, de tendance réformiste et centriste, est un parti politique européen créé le par le Français François Bayrou et l'Italien Francesco Rutelli qui sont ses deux premiers coprésidents, Romano Prodi en étant le président d'honneur. Le chef de l'UDF a créé dans la foulée, fin avec la "New Democrat Coalition" américaine, composante parlementaire du Parti démocrate, une « internationale », ou plutôt une Alliance mondiale des démocrates. En Italie, un important Parti démocrate, réunissant la gauche ex-communiste et le centre gauche chrétien, a vu le jour dans un congrès convoqué en . Représentation électorale. À l’Assemblée nationale. dont le groupe Union du centre : et 7 apparentés (sur 577). ont fondé le groupe Démocratie libérale et indépendants en 1998. Au Parlement européen. Députés européens. La délégation UDF au Parlement européen, présidée par Marielle de Sarnez, comprenait européens au sein de l'Alliance des démocrates et des libéraux pour l'Europe. Trois députés l'ont quittée en pour former la délégation de l'Alliance citoyenne pour la démocratie en Europe de Jean-Marie Cavada (ELDR) d' à 2009. Au niveau local. Conseils généraux. Avant la création du MoDem, huit conseils généraux avaient des présidents UDF (entre parenthèses leur éventuelle nouvelle étiquette à la suite de la création du MoDem) : Calvados, Loir-et-Cher (Nouveau Centre), Mayenne (Union centriste-UDF), Morbihan (MoDem), Pyrénées-Atlantiques (MoDem), Haut-Rhin (UMP), Rhône (MoDem), Somme (Nouveau Centre). Conseils municipaux. Avant la création du MoDem, plusieurs maires étaient UDF (entre parenthèses leur éventuelle nouvelle étiquette à la suite de la création du MoDem) : Annecy (Nouveau Centre), Amiens (Nouveau Centre), Arras (MoDem), Biarritz (MoDem), Blois (Nouveau Centre), Deauville (centriste indépendant), Drancy (Nouveau Centre), Issy-les-Moulineaux (Nouveau Centre), Le Plessis-Trévise (MoDem), Meudon (Nouveau Centre), Montrouge (Nouveau Centre), Noisy-le-Sec (MoDem), Redon (divers droite), Reims (divers droite), Rouen (centriste indépendant), Saint-Brieuc (MoDem), Talence (MoDem), Ville-d'Avray (MoDem). Identité visuelle. Alors que depuis sa fondation, sa couleur était le bleu, le parti passa à l'orange à partir de 2004. |
Aéronef ultraléger motorisé Un ultra-léger motorisé, couramment appelé ULM, est un aéronef ultraléger muni d'un moteur et dont les conditions de navigabilité spécifiques sont simplifiées par rapport à la certification d'un avion léger et soumis à une licence de pilotage plus simple que la licence de pilote privé. Les ULM sont autorisés à décoller et atterrir hors des aérodromes, et nécessitent des distances plus réduites que les avions légers, bien que les plus performants se rapprochent de ceux-ci. Histoire de l'aviation ultra-légère. Les débuts de l'ultraléger motorisé remontent aux débuts de l'aviation, avec le travail précurseur d'Étienne Dormoy à Dayton, dans l'Ohio, entre 1919 et 1924 et à son de 1924. Son histoire est donc relativement récente. Le mouvement ULM est issu du vol libre dont le deltaplane était le premier représentant. L'aile Rogallo a été inventée par l'Américain Francis Rogallo en 1936, mais ce n'est qu'en 1972 que le premier deltaplane a été construit sous sa forme actuelle. Très rapidement, l'idée de s'affranchir du relief pour décoller par leurs propres moyens, poussa une poignée de pilotes de vol libre à adjoindre un moteur de tronçonneuse sur de simples ailes delta. Des pionniers comme Roland Magallon et son ou encore comme Jean-Marc Geiser avec son Motodelta, mariage entre une aile Danis et un tricycle motorisé dont le premier vol eut lieu en 1974 et présenté au Salon du Bourget en 1975, ont ouvert la voie à d'autres machines construites sur le même principe. Les premiers ULM étaient des pendulaires. Le monde de l'ULM s'est énormément développé au cours des années 1980, conquérant chaque année de nouveaux adeptes. La Fédération française de planeur ultra-léger motorisé a été créée en 1981, soit quelques années après l'apparition des ULM dans l'espace aérien français. Association française loi de 1901, la FFPLUM gère le mouvement ULM en France et regroupe la majorité des adeptes de cette discipline. Elle est agréée par le ministère de la Ville, de la Jeunesse et des Sports et bénéficie d'une délégation de l'État pour la gestion des activités ULM dans la pratique sportive. Elle est également inscrite au Code de l'aviation civile. La Fédération représente le mouvement ULM auprès des pouvoirs publics. Elle est représentée au sein de la Fédération aéronautique internationale (FAI) et participe aux travaux de la Commission internationale de micro-aviation (CIMA), organisme qui regroupe les différentes fédérations internationales d'ULM et gère les compétitions au niveau international (championnats d'Europe et du Monde). Elle est membre du Conseil national des fédérations aéronautiques et sportives (CNFAS). Elle est reconnue d'utilité publique. En France. L'ULM est régi en France par l'arrêté du 8 modifié relatif aux aéronefs ultra-légers motorisés. Classe 1 (dite paramoteur). Un paramoteur est un aéronef monomoteur sustenté par une voilure souple ou de type parapente. Il répond aux conditions techniques suivantes : Il existe une sous-classe 1A dite « à motorisation auxiliaire » qui répond aux conditions techniques suivantes : Classe 2 (dite pendulaire). Un pendulaire est un aéronef monomoteur sustenté par une voilure semi-rigide sous laquelle est généralement accroché un chariot motorisé. Il répond aux conditions techniques suivantes : Il existe une sous-classe 2A dite « à motorisation auxiliaire » qui répond aux conditions techniques suivantes : Classe 3 (dite multiaxes). Un ULM multiaxes est un avion au sens commun du terme et selon la définition du code de l'aviation civile , c'est-à-dire un aéronef sustenté par une voilure fixe. Il est appelé "multiaxes" en référence à ses différentes surfaces de gouverne (profondeur, direction et ailerons) qui définissent plusieurs axes de commande de vol, ce qui le différencie des autres classes d'ULM et l'assimile à un avion. Il est aussi appelé "avion ultraléger" ou "avion ULM". Il répond aux conditions technique suivantes : Il existe une sous-classe 3A dite « à motorisation auxiliaire » qui répond aux conditions techniques suivantes : Classe 4 (dite autogire ultraléger). Un autogire ultraléger répond aux conditions techniques suivantes : Classe 5 (dite aérostat dirigeable ultraléger). Un aérostat dirigeable ultraléger répond aux conditions techniques suivantes : Classe 6 (dite hélicoptère ultraléger). Un hélicoptère ultraléger répond aux conditions techniques suivantes : Qualification. En France, la pratique de l'ULM nécessite l'obtention du brevet de pilote ULM. Le pilotage est autorisé dès l'âge de . Le brevet est obtenu après la réussite à une épreuve théorique consistant en un questionnaire à choix multiples composé de , dont sont dispensés les titulaires d'une licence de pilote d'aéronef d'une autre catégorie (planeur, avion léger, etc.), et d'une épreuve pratique composée d'une épreuve en vol et d'une épreuve au sol, menées par un instructeur, en général l'instructeur qui a conduit la formation du pilote. Le contenu de la formation pratique n'est pas réglementé, bien qu'en général elle comporte quelques vols seuls à bord sous la supervision de l'instructeur qui reste en bord de piste, comme c'est la règle pour la formation des pilotes des autres catégories d'aéronefs. Le brevet est délivré par la direction générale de l'Aviation civile (DGAC) dès lors que l'élève-pilote est en possession de l’attestation de réussite aux épreuves théoriques (QCM) et que l'instructeur a constaté la réussite des épreuves au sol et en vol. Le brevet délivré n'est valable que pour la classe d'ULM utilisée lors de la formation initiale. Aucune visite médicale spécifique aéronautique n'est demandée pour pratiquer l'ULM. En application de l'article 5 de la loi du : , un simple certificat médical délivré par tout médecin n'est nécessaire que pour les élèves pilotes qui souhaitent être formés au sein d'une association sportive membre de la fédération, appelée en général aéroclub. La réglementation n'impose aucune pratique régulière aux pilotes pour le maintien de la licence d'ULM quand bien même le bon sens et la sécurité générale des vols le préconisent. Le carnet de vol n'est pas obligatoire. Il existe des qualifications particulières pour deux activités spécifiques : Une déclaration de niveau de compétence (DNC) est exigée pour : Il existe aussi un certificat l'aptitude pour au remorquage de planeurs par ULM, qui est de plus en plus utilisé en raison d'un coût d'exploitation bien moindre qu'en utilisant un avion léger. Notons qu'il est exigé pour cette qualification que le pilote ULM remorqueur soit lui-même pilote de planeur, ce qui n'est pas le cas pour le pilote avions remorqueur léger . Identification. Les ULM nécessitent en France une identification mais leur suivi technique est de la responsabilité du propriétaire (Identification = système déclaratif, Immatriculation = certification). Comme tous les engins volants, un ULM est soumis aux règles de circulation aérienne. Ces règles sont appelées règles de l'air. Ils sont de plus limités au mode dit de vol à vue : vol durant le jour aéronautique, en dehors des nuages, avec une visibilité minimale et la vue du sol. Renseignements en France : ULM ou avion léger ? Le terme "avion léger" désigne ici un avion doté d'un Certificat de Navigabilité (CDN) délivré par l'autorité Française de régulation de l'aviation civile (la DGAC), par opposition aux ULM, qui sont certifiés par leur constructeur (auto-certification). Ni mieux ni moins bien, la philosophie des deux catégories est différente et correspond à un usage différent : Nombre de pratiquants en France. Le nombre de pratiquants du vol sur ULM en France était de en 2002, à comparer aux d'aviation légère. Le nombre d'adhérents à la Fédération française d'ULM était de en 2006 puis d'environ depuis 2013. Mais il est difficile de chiffrer exactement le nombre d'amateurs d'ULM, car l'adhésion à la FFPLUM n'est pas obligatoire pour les vols hors compétition. Dans le monde. Belgique. L'arrêté royal du modifié fixe les conditions particulières imposées pour l'admission à la circulation aérienne des aéronefs ultra-légers motorisés. La réglementation distingue les ULM proprement dits (à commandes aérodynamiques) et les DPM (pendulaires). On désigne aéronef ultra-léger motorisé, un avion ou amphibie de type monoplace ou biplace dont la vitesse de décrochage Vso (configuration d'atterrissage, moteur au ralenti) n'excède pas CAS, et dont la masse maximale autorisée au décollage (MTOW) ne dépasse pas : Ne sont pas compris dans cette définition les aéronefs à voilure rotative et les aéronefs à décollage à pieds. Les aéronefs ultralégers sont répartis par groupe (ULM ou DPM) : Canada. Selon Transports Canada, un avion ultraléger de base est défini comme étant : Un avion ultraléger de type évolué s'entend d'un avion dont la définition de type est conforme aux normes précisées dans le manuel intitulé « Normes de conception pour avions ultralégers de type évolué ». Un avion ultraléger de type évolué ne comprend ni les aéronefs pour parachute entraînés par moteur, ni les ultralégers pendulaires à train tricycle, ni les planeurs propulsés. Au Canada, les ultralégers sont répartis en plusieurs catégories. Les parachutes motorisés, les paramoteurs, les pendulaires et les 3 axes. Dans la catégorie , les aéronefs peuvent être classés en deux autres catégories soit les ultralégers de base et les ultralégers évolués. Un ultraléger de base se définit comme un appareil monomoteur pour lequel aucun certificat de navigabilité n'est émis. De plus, on ne peut emmener de passager à son bord. L'ultraléger évolué se définit comme étant un appareil monomoteur de 1 ou dont le poids brut maximum n'excède pas (soit ). La firme canadienne Fisher commercialise de nombreux kits, comme le Fisher FP-404. États-Unis. Les États-Unis ont deux catégories d'aéronefs légers : et Light Sport Aircraft. Ultra-Light. La catégorie "" comprend les appareils répondant aux conditions suivantes et autorisés à voler au-dessus des zones non peuplées durant le jour aéronautique : La loi n'impose aucune licence ou formation. Une formation est cependant fortement recommandée pour la sécurité. Light sport aircraft. La catégorie "Light sport aircraft" (LSA) comprend les appareils répondant aux conditions suivantes : Suisse. L'Office fédéral de l'aviation civile (OFAC) réglemente les vols. Toutes les catégories d'ULM sauf les "" sont interdites de vol depuis le pour des raisons « écologiques » et de pollution sonore, . Toutefois, des autorisations peuvent être accordées pour des essais d'aéronefs dans un rayon de autour de la zone de décollage. Depuis le , une catégorie d'ULM, les , peuvent être immatriculés et voler. Ceci ne concerne pour l'instant que les multi-axes, pour autant qu'ils correspondent à la certification anglaise, allemande, ou JAR, depuis le . Avantages et inconvénients des ULM. Liberté de pratique. Contrairement à l'aviation classique pour laquelle la sécurité s'appuie en grande partie sur la certification des matériels et la surveillance des pilotes, la sécurité de l'aviation ULM repose d'une part sur la responsabilité des pilotes (comme pour toutes les actes de circulation aérienne) et sur la responsabilité du fabricant qui est seul garant du dossier technique déclaratif déposé auprès de l'administration. L'avantage de cette absence de contrôle a priori par l'administration, permet d'effectuer des modifications rapidement et à moindre coût. Mais le pilote ULM garantit seul le respect des consignes d'utilisation et d'entretien de l'appareil et, s'il effectue des modifications ou changements de pièces considérées comme essentielles par le fabricant, il est responsable de celles-ci. Dans la plupart des pays européens y compris en France la compétence du pilote est attestée par un brevet de pilote. Pour pouvoir emporter un passager le pilote devra passer une qualification « Emport d'un passager ». Dans certains pays, comme les États-Unis, aucun brevet n'est nécessaire, mais la pratique de l'ultra-léger y est extrêmement restrictive (monoplace de à vide et très faibles performances uniquement). Cette liberté particulière est un des principaux avantages de l'aviation ULM qui a dépassé à elle seule le nombre de pilotes brevetés de toutes les autres catégories de pilotes de l’aviation légère. Pour autant, d'un point de vue statistique, la pratique de l'ULM ne s'avère pas plus dangereuse que l'aviation légère certifiée . Enfin, le principal intérêt de l’ULM en France réside dans le fait qu’il n’est pas obligé d’utiliser uniquement les aérodromes, mais peut aussi se « poser en campagne » et utiliser des plates-formes permanentes (arrêté préfectoral) ou occasionnelles (accord du propriétaire et information préalable du maire). Un inconvénient : Certains aérodromes sont interdits d'accès aux ULM pour des raisons de bruit et sécurité, ce qui complique considérablement la pratique de l'ULM dans les régions où les pistes ULM spécifiques ou avion avec autorisation d'accès sont rares. Sécurité. Le niveau de sécurité des ULM est aujourd'hui comparable à celui des autres catégories d'aviation de loisir, avec pour de vol. |
Unité de mesure en informatique Les unités de mesure suivantes sont utilisées en informatique pour quantifier la taille de la mémoire d'un dispositif numérique (ordinateur, Baladeur numérique), l'espace utilisable sur un disque dur, une clé USB, la taille d'un fichier, d'un répertoire ou autre. On peut utiliser avec la plupart de ces unités : Unités de taille de mémoire. Taille variable. Les unités suivantes ont des tailles variables suivant l'architecture, voire suivant le programme sur une même architecture : Unités des moniteurs d'affichage. "Ces unités sont très souvent utilisées dans les jeux-vidéo, afin de connaître précisément la fluidité de l'animation." Conventions de mesure de l'affichage. Le pixel est la plus petite unité adressable sur l'écran (enfin, presque, compte tenu de l'astuce de la technique ClearType). La définition d'écran est le produit du nombre de points selon l’horizontale par le nombre de points selon la verticale de l’affichage. Par exemple, signifie de large sur de haut, et donc à un nombre de 786432 pixels. La résolution est un rapport entre la définition d’écran et sa taille physique, est exprimé en général en pixels par pouce. Le Larousse inverse la définition des termes définitions et résolution, la du dictionnaire de l’Académie française indique que définition est le nombre de lignes d’un format de télévision. Définitions courantes des écrans d'ordinateur. Note : certains constructeurs font varier les caractéristiques de leurs écrans, notamment la dimension verticale des écrans 16/9 est souvent légèrement agrandie au format 16/10 afin de permettre l'affichage d'une barre d'outil ou de navigation sous l'image. Ils omettent souvent de préciser les extensions après les lettres "GA", et confondent certaines nomenclatures (en ne précisant que le sigle sur leurs spécifications, mais pas la définition d'affichage effective...). Unités de débit. Ces unités de mesure servent à mesurer un débit (maximal) d'information entre deux points d'un réseau informatique. Ces unités sont utilisées pour les modems, l'ADSL, les ports série, les , et les cartes réseaux. Lors de l'accès à un disque (CD-ROM, DVD, CD-RW, disque dur, disquette, clé USB), des unités différentes sont peut-être utilisés. Unités de vitesse de traitement en virgule flottante. La vitesse de traitement de la partie virgule flottante, dite FPU (Floating Point Unit), d'un processeur est exprimée en opérations par seconde, les FLOPS (Floating Point Operations Per Second). Unités de mesure. En raison de la taille du marché anglo-saxon et du dynamisme de la recherche et développement en informatique aux États-Unis, les dimensions sont fréquemment exprimées en unités de mesure anglo-saxonnes, et notamment en pouces, bien que cela soit contraire à la norme internationale. La loi française (article R.643-2 du Code pénal) oblige les vendeurs à indiquer l'équivalent en mètre (ou par exemple en centimètre), afin de garantir une information juste du consommateur, client, en lui permettant la comparaison des données. Le tableau ci-contre donne quelques exemples d'équivalences. Curieusement les disquettes de « trois pouces et demi » sont en fait spécifiées comme faisant (la norme est d'origine japonaise) et mesurent en réalité de plus que 3 ½. En revanche, le millimètre est universellement adopté pour les épaisseurs de disques durs (, ) |
USA (homonymie) Cette page recense les différentes significations (mots, codes, sigles, acronymes, abréviations, etc.) formées avec la combinaison de lettres USA. Sigle. USA est le sigle de : Code. codice_1 est un code signifiant : |
Utopie L’utopie (mot forgé par l'écrivain anglais Thomas More, titre de son livre "L'Utopie", du grec , « en aucun lieu ») est une représentation d'une société idéale, opposée aux sociétés réelles imparfaites. C'est un genre d'apologue qui se traduit, dans les écrits, par un régime politique idéal (qui gouvernerait parfaitement les hommes), une société parfaite (sans injustice par exemple, comme la Callipolis de Platon ou la découverte de l'Eldorado dans "Candide") ou encore une communauté d'individus vivant heureux et en harmonie (l'abbaye de Thélème dans "Gargantua" de Rabelais en 1534), souvent écrites pour dénoncer les injustices et dérives de leurs temps. Les utopistes situent généralement leurs écrits dans des lieux imaginaires pour éviter la censure politique ou religieuse : un pays lointain et mythique ("Les Aventures de Télémaque, Livre 7", Fénelon, 1699), île inconnue par exemple ("L'Île des esclaves", Marivaux, 1725). Une utopie peut désigner également une réalité difficilement admissible : en ce sens, qualifier quelque chose d'utopique consiste à le disqualifier et à le considérer comme irrationnel. Cette polysémie, qui fait varier la définition du terme entre texte littéraire à vocation politique et rêve irréalisable, atteste de la lutte entre deux croyances, l'une en la possibilité de réfléchir sur le réel par la représentation fictionnelle, l'autre sur la dissociation radicale du rêve et de l'acte, de l'idéal et du réel. Genre opposé, la dystopie — ou contre-utopie — présente non pas « le meilleur des mondes » mais « une utopie en sens contraire », selon F. Rouvillois. Origine du terme « utopie ». Le terme "utopia" est un néologisme grec forgé par Thomas More en 1516 pour désigner la société idéale qu'il décrit dans son œuvre (en latin) "Utopia". Il est traduit en français par « utopie ». Ce terme est composé de la préposition négative grecque "ou" et du mot "topos" qui signifie « lieu ». Le sens d'« utopie » est donc, approximativement, « sans lieu », « qui ne se trouve nulle part ». Dans l'en-tête de l'édition de Bâle de 1518 d’"Utopia", Thomas More utilise, exceptionnellement, le terme d’"Eutopia" pour désigner le lieu imaginaire qu'il a conçu. Ce second néologisme ne repose plus sur la négation "ou" mais sur le préfixe "eu", que l'on retrouve dans "euphorie" et qui signifie « bon ». "Eutopie" signifie donc « le lieu du Bon ». Seul le premier de ces deux termes est passé à la postérité, mais ils n'en sont pas moins complémentaires pour décrire l'originalité de l’"Utopia" de More. En effet, cette œuvre est d'une part un récit de voyage et la description d'un lieu fictif ("utopia") et d'autre part un projet d'établissement rationnel d'une société idéale ("eutopia"). Ces deux aspects du texte de Thomas More ont amené à qualifier d'utopie des œuvres très différentes. Définitions. L'utopie ("utopia") est la description d'une société idéale. Elle procède d'une tradition que l'on fait remonter à "La République" de Platon. Plus spécifiquement l'utopie ("utopia") est un genre littéraire s'apparentant au récit de voyage mais ayant pour cadre des sociétés imaginaires. Ces deux définitions ne s'excluent pas : l’"Utopie" de Thomas More, "La Cité du Soleil" de Tommaso Campanella ou "La Nouvelle Atlantide" de Francis Bacon remplissent ces deux conditions et sont à la fois des récits et des descriptions de sociétés originales. Cependant, dès le , de nombreux auteurs s'emparent de ce nouveau genre littéraire et en développeront l'aspect romanesque et satirique au détriment du projet politique. C'est ainsi que des œuvres telles que "Les voyages de Gulliver" (1721) de Jonathan Swift furent qualifiées en leur temps d'utopies. Thomas More inventa le genre littéraire de l'utopie, il avait l'ambition d'élargir le champ du possible et non de l'impossible comme ce mot est synonyme aujourd'hui. Dans son essai consacré aux premières utopies, celles d’avant les récits de More, de Tommaso Campanella ou de Cabet ("Les Premières Utopies", rééditions ex nihilo, 2009, paru d'abord en 1938), Régis Messac donne une définition restrictive du terme Utopie : . Régis Messac considère l’utopie comme une œuvre purement romanesque, nécessairement progressiste, constituée de deux éléments : . Cependant, l’un ne va pas sans l’autre, mais . Pour Messac, il va sans dire que ne peuvent être considérées comme de véritables utopies les œuvres où domine le second élément, le contenu, c'est-à-dire la représentation d’une société parfaite ou du moins perfectionnée. C'est pourquoi Messac ne reconnaît ni "la République" de Platon ni la "Cyropédie" de Xénophon comme appartenant exactement au genre utopique ; il considère ces œuvres comme relevant de la catégorie des traités de politique pareils à ceux de Félix Bodin, Nicolas Machiavel et Montesquieu. Il dit : . Selon Régis Messac, les récits utopiques répondent à un besoin social. Il écrit : . Le philosophe français Michel Foucault définit l'utopie comme un qui entretient un rapport analogique avec la réalité et qui tend soit vers l'envers de la société, soit vers le perfectionnement de cette dernière. Elle s'oppose, dans sa théorie, à l'hétérotopie. Théodore Monod, de son côté, écrit Histoire de l'utopie. Précurseurs de l'utopie. Platon est le premier grand idéaliste de la pensée occidentale. On peut en effet rapprocher l'utopie (au sens moderne que prit ce mot) du concept d'idée de Platon. La pensée de Platon est exposée dans l’ouvrage classique "La République", dont le titre même est un programme. Par République, Platon entend Politeia, c’est-à-dire État, Constitution. Platon voulut donc tracer les grandes lignes de ce que devait être une cité organisée de manière idéale par castes. C’est cette volonté de constituer une cité idéale, faisant de Platon le grand fondateur du concept d'idée, qui fut reprise ultérieurement par les utopistes du (notamment Fourier, Saint-Simon et Étienne Cabet). Même si Platon a réfléchi aux questions économiques, sa pensée ne fut pas aussi aboutie sur ce thème que celle de l'école de son successeur, Aristote, auquel on attribue un ouvrage consacré à l'économie : "Économiques". L’"Histoire vraie" de Lucien de Samosate est, comme la "Batrachomyomachie", avant tout rattachée au genre de la fantaisie imaginaire. Cependant, elle présente aussi, dans son voyage aux confins de l'univers fantasmé de l'époque (), bien des caractéristiques littéraires et thématiques de l'utopie: ainsi, l'utopie, en littérature, n'offre pas seulement la lecture d'un archétype parfait d'organisation, elle propose aussi, parfois au travers du prisme de la fantaisie, une grille interprétative critique des structures institutionnelles, politiques et sociales du modèle culturel de régime dans lequel évolue l'auteur de l'utopie ; celle-ci, loin de se présenter systématiquement comme une œuvre indépendante, peut advenir selon une mise en abyme discursive (cas d'une narration, enchâssée dans une autre trame fictionnelle dont les ressorts seraient historiques, politiques ou philosophiques) introduisant à un dialogue complexe entre les textes ainsi imbriqués l'un dans l'autre. Ainsi en est-il du voyage de Lucien dans le royaume d'Endymion sur la lune ou encore dans l'Île des Bienheureux où Rhadamante l'accueille durant des mois. Genèse du genre : "L'Utopie" de Thomas More. L'avocat et homme de lettres Thomas More s'inscrit, à l'instar de son ami Érasme, dans le cadre du mouvement humaniste qui redécouvre la littérature antique grecque et latine et s'en inspire. More connaissait les œuvres d'Aristote et de Platon et le projet de cité idéale qui occupe une partie de La République peut être considéré comme l'une des sources d'inspiration de l’"Utopie". Le texte de More, paru en 1516, emprunte en partie sa forme aux récits de voyage de Vasco de Gama ou de Magellan. La découverte du Nouveau monde en 1492 a mis les Européens en contact avec d'autres peuples, et permet à More d'imaginer une civilisation originale située aux confins du monde connu. De manière plus générale, son projet de société s'inscrit dans le courant philosophique de la Renaissance. Le premier livre de "L'Utopie" rapporte une conversation entre le narrateur et plusieurs autres personnages, dont Raphaël Hythlodée un navigateur qui a découvert l'île d'Utopie. La discussion porte principalement sur les injustices et les défauts de la société, injustices auxquelles Raphaël Hythlodée oppose les sages coutumes du pays dont il a fait la découverte. Le second livre rapporte la description par Hythlodée de l'Utopie. Cette description, assez détaillée, porte sur les lois, les coutumes, l'histoire, l'architecture et le fonctionnement économique de l'île. La société utopienne est foncièrement égalitaire et ignore toute propriété privée. Elle décrit une société qu'on a souvent qualifiée de communiste, ou plus précisément d'« isonome », cherchant l'égalité parfaite de tous devant la loi. Elle repose en outre sur un ensemble de lois et sur une organisation très rationnelle et précise. Elle est présentée comme la plus aboutie des civilisations. Cette œuvre s'entend avant tout comme une critique de la société anglaise (et européenne) du . Les vertus de l'Utopie sont en quelque sorte des réponses aux injustices du monde réel : elles les soulignent par contraste (l'égalité de tous les citoyens utopiens met en lumière l'extrême misère, à cette époque, de nombre de paysans anglais sans terres) et montrent que les maux de l'Angleterre ne sont peut-être pas des fatalités puisque les Utopiens les ont résolus. L'Utopie, qui se présente comme une œuvre de fiction, affirme néanmoins que l'homme a la possibilité d'influer sur son destin et est donc porteuse du concept d'histoire. More s'abstient pourtant de présenter son utopie comme un programme politique. Il considère la réalisation d'une telle société comme souhaitable mais affirme ne pas même l'espérer. Ainsi, le genre littéraire créé par Thomas More repose sur un paradoxe. Il se présente en effet comme une œuvre de fiction sans lien avec la réalité : le nom de l'île (« nulle part ») mais aussi du fleuve qui la traverse ("Anhydre", c'est-à-dire sans eau) ou du navigateur Hythlodee (qui signifie : habile à raconter des histoires) sont là pour le rappeler. Cependant, l'utopiste se refuse à tout recours au merveilleux ou à la fantaisie et le bonheur qui est censé régner en Utopie repose seulement sur la cohérence du projet. Nul climat paradisiaque, nulle bénédiction divine, nul pouvoir magique n'a contribué à la réalisation de la société parfaite. Il s'agit donc d'une fiction dont la valeur repose sur la cohérence du discours. Utopie dans les arts. Au cinéma. L'utopie se caractérise par un recours à la fiction, par un artifice cinématographique qui consiste à décrire une société idéale dans une géographie imaginaire, souvent dans le cadre d'un récit de voyage. L'utopie a pour condition première la mise à distance du monde réel à partir de laquelle la réflexion critique peut se déployer et le sujet se constituer. Le recours à la fiction est un procédé qui permet de prendre ses distances par rapport au présent pour mieux le relativiser et de décrire ce qui pourrait être. Le genre utopique permet de percevoir, au lieu d'attendre un monde meilleur dans un au-delà providentiel, que les hommes devraient construire autrement leurs formes d'organisation politique et sociale pour venir à bout des vices, des guerres et des misères. En ce sens, les descriptions qu'ils proposent, dans lesquelles ils font voir des cités heureuses bien gouvernées, visent à convaincre leurs spectateurs que d'autres modes de vie sont possibles. Portée politique du concept d’utopie. L'interprétation de la portée politique de l'utopie pour la pensée et l'action politique n'est pas consensuelle, notamment parce que l'utopie intervient directement ou bien comme contestation ou bien comme justification idéologique dans la sphère politique. On peut cependant dégager certaines thèses à son sujet qui font autorité pour certaines traditions philosophique. Selon Miguel Abensour, l'utopie, particulièrement dans sa forme classique, est une simple stratégie d'écriture politique permettant au philosophe de critiquer la société de son époque. En parlant uniquement d'une société fictive, déclarée comme telle, l'auteur de l'utopie évite de critiquer les pouvoirs en place sans le faire directement. Dans "L'Utopie de Thomas More à Walter Benjamin", Abensour montre comment More utilise cette stratégie pour critiquer le pouvoir absolu d'Henri. Les marxistes orthodoxes, et Karl Marx le premier, ont utilisé le terme « utopie » de manière péjorative. Cela venait en partie d'une volonté de Marx de distinguer sa propre théorie de celles des autres socialistes de son époque (notamment Pierre-Joseph Proudhon), avec qui il avait entretenu des controverses. Il nommait d'ailleurs Proudhon, Charles Fourier, Saint Simon et d'autres « socialistes utopiques ». En ce sens, « utopie » signifie la représentation imaginaire d'un régime politique idéal et idéaliste, c'est-à-dire détaché de toute considération et compréhension des circonstances matérielles qui pourrait présider à son avènement. Bref, pour Marx, le terme « utopique » est une accusation de frivolité. Ici, le sens du terme « utopie » est très proche « d'idéologie ». Karl Mannheim, un marxiste non-orthodoxe et Paul Ricœur proposent quant à eux de comprendre l'utopie en opposition à l'idéologie. Selon eux, l'utopie est une force de changement : « elle propose une rupture radicale avec un système existant » et ainsi tente de briser la suprématie de l'actuel sur le possible. À cela s'oppose l'idéologie, une force conservatrice ramenant plutôt la société vers l'existant. L'utopie est souvent entendue, dans un sens large, comme une réponse à la question du meilleur régime, une question de philosophie politique particulièrement favorisée par les anciens. C'est dans ce sens que nous pouvons dire que la République de Platon est une utopie avant la lettre (le terme ne datant que de 1516 apr. J.-C.). Ces interprétations ne sont ni entièrement contraires, ni parfaitement réconciliables. Par ailleurs, elles n'épuisent pas entièrement le sujet. D'autre théoriciens du politique, plus contemporains, ont donné une extension beaucoup plus large au concept d'utopie, lui donnant un rôle dans la dialectique historique. Notamment, Walter Benjamin et Ernst Bloch. Notons également que l'utopie a été largement critiquée en philosophie politique dans la seconde moitié du : pour son attachement à l'idée de progrès héritée des Lumières (par les Catastrophistes et Hans Jonas par exemple) et pour les dangers d'exploitation totalitaire qu'elle représente (par l'École de Francfort notamment). Utopie concrète. L'expression d'utopie concrète n'est qu'en apparence un oxymore. Dans "L’Âge du faire" (Seuil, 2015) le sociologue Michel Lallement l'utilise pour qualifier les espaces où les hackeurs imaginent des formes de travail qui bousculent les règles de l’économie de marché. Elle a été inventée par le philosophe allemand Ernst Bloch (1885-1977) : dans son livre "Le Principe espérance" (Gallimard, 1976) publié en République démocratique allemande dans les années 1950, il affirme que les utopies concrètes permettent de déceler dans le réel, « l'anticipation réaliste de ce qui est bien ». |
Humbert Ier (roi d'Italie) (en italien ""), né le à Turin et mort le à Monza, de la maison de Savoie, est roi d'Italie du jusqu'à son assassinat. Il est le fils de et d'Adélaïde de Habsbourg-Lorraine. Son règne a vu l'Italie tenter une expansion coloniale dans la Corne de l'Afrique, gagnant avec succès l'Érythrée et la Somalie malgré la perte de l'Abyssinie à la bataille d'Adoua en 1896. En 1882, il approuve la Triplice avec l'Empire allemand et l'Autriche-Hongrie. Profondément détesté par les anarchistes et la Gauche, il fut durement combattu pour son conservatisme rigide (qui devint amer dans les dernières années du règne). Son implication indirecte dans le scandale de la Banca Romana, l'approbation des répressions des soulèvements populaires de 1898 et l'honneur accordé au général Fiorenzo Bava Beccaris pour l'étouffement sanglant des manifestations de mai de la même année à Milan, constituent des actions et conduites politiques qui lui ont coûté au moins trois attentats en 22 ans jusqu'à celui de Monza, le 29 juillet 1900, de l'anarchiste Gaetano Bresci, qui lui sera fatal. Certains se souviennent positivement du monarque pour son attitude face à des catastrophes telles que l'épidémie de choléra à Naples en 1884, faisant personnellement de son mieux pour aider (c'est pourquoi il était surnommé « Re Buono » (« Bon Roi »), et pour la promulgation du dit Code Zanardelli, qui a apporté quelques innovations au code pénal, comme l'abolition de la peine de mort. Il reçut le surnom de « Re Mitraglia » des anarchistes. Il fut également destinataire d'une des "Wahnbriefe" (lettres pour la folie) de Friedrich Nietzsche. Le style humbertien, style artistique et architectural, tire son nom d'. Biographie. Enfance et jeunesse. Fils de Victor-Emmanuel II et de l'archiduchesse Adélaïde d'Autriche, Humbert nait à Turin, alors capitale du Royaume de Sardaigne (1720-1861), le 14 mars 1844, jour du 24e anniversaire de son père. Il est baptisé avec les noms d'Umberto Rainerio Carlo Emanuele Giovanni Maria Ferdinando Eugenio : le premier en l'honneur du fondateur de la dynastie savoyarde, Humbert (comte de Savoie), le dernier en mémoire du plus illustre représentant de la branche cadette de la maison de Savoie-Carignan, à laquelle il appartient aussi. Ses parrains et marraines sont ses grands-parents paternels, Charles-Albert (roi de Sardaigne) et son épouse Marie-Thérèse de Habsbourg-Toscane (1801-1855), prenant la place de leur gendre, à savoir Rainier d'Autriche (1783-1853), vice-roi du Royaume de Lombardie-Vénétie et Élisabeth de Savoie-Carignan, sœur de Charles-Albert. Humbert reçoit immédiatement le titre de prince de Piémont, qui est toujours attribué au premier-né de la maison régnante. Sa naissance est grandement célébrée par le peuple piémontais, ainsi que par la famille royale, qui peut ainsi voir la descendance masculine assurée. Il passe toute son enfance, avec son frère cadet Amédée, au château de Moncalieri où il reçoit une formation essentiellement militaire, ayant le général Giuseppe Rossi comme tuteur et quelques autres militaires parmi ses professeurs ; cette discipline sévère forme son caractère, le transformant cependant à l'âge adulte en une personne sèche aux idées limitées, même si d'autres le considèrent comme « loyal, ouvert, gentil » et cordial . Très attaché à sa mère, Humbert subit un profond traumatisme lorsqu'elle meurt prématurément, le 20 janvier 1855. Son éducation est confiée, entre autres, à Massimo d'Azeglio et Pascal-Stanislas Mancini. En tant que prince héritier, Humbert se méfie de son père, qui ne lui donne aucune formation en politique ou en gouvernement constitutionnel ; il est élevé sans affection ni amour. Au lieu de cela, il apprend à être obéissant et loyal, doit se tenir au garde-à-vous chaque fois que son père entre dans la pièce, et lorsqu'il lui parle, il doit d'abord se mettre à genoux pour lui baiser la main. Le fait qu'Humbert doive baiser la main de son père avant de lui parler en public et en privé jusqu'à la mort de celui-ci, a beaucoup contribué à la tension entre les deux. Embarqué dans une carrière militaire en mars 1858, il débute avec le grade de capitaine dans l'armée de terre sarde. Plus tard, il participe à la Campagne d'Italie (1859), se distinguant lors de la bataille de Solférino et de la bataille de San Martino en 1859. En 1859, soutenu militairement par la France contre l'Autriche et après avoir annexé les différents états Italiens (Duché de Parme et Plaisance, Duché de Modène et Reggio, Grand-duché de Toscane, Royaume des Deux-Siciles et une partie des États pontificaux), son père est proclamé roi d'Italie et établit sa capitale à Florence (guerre du Risorgimento). Les princes souverains condamnés à l'exil se réfugient en Autriche. La même année, consacrant l'alliance du Royaume de Sardaigne avec le Second empire Français, sa sœur, la princesse Marie-Clotilde de Savoie épouse le prince Napoléon-Jérôme Bonaparte. Des cinq frères cadets du prince de Piémont, les trois plus jeunes mourront en bas âge ; le prince Othon, atteint d'une maladie génétique, mourra à l'âge de 20 ans. Devenu héritier du trône d'Italie après la naissance du Royaume d'Italie (1861-1946) le 17 mars 1861, Humbert devient major général en 1863 et lieutenant général en 1864 ; il ne manque pas de compléter sa formation par de nombreux voyages à l'étranger, comme lorsqu'en 1863 il accompagne à Lisbonne sa sœur Maria Pia de Savoie, filleule du pape Pie IX, qui épouse Louis , roi de Portugal, tandis que l'année suivante, il visite quelques cours européennes amies de l'Italie ; en 1865, il est en visite à Londres alors que des émeutes éclatent à Turin pour protester contre le transfert de la capitale à Florence. En 1866, il est également à Paris, envoyé par son père pour une conversation privée avec l' empereur Napoléon III au sujet du conflit imminent qui va éclater avec l'Autriche. Toujours en 1866, il participe avec son frère Amédée à la Troisième guerre d'indépendance italienne. Arrivé au front des opérations en Vénétie, Humbert prend le commandement de la XVIe Division d'infanterie et participe avec vaillance à l' affrontement de Villafranca di Verona le 24 juin 1866, qui suit la défaite italienne lors de la bataille de Custoza (1866). Il est l'un des commandants militaires italiens, parmi ceux qui sont entrés en action, dont l'unité n'est pas été forcée de battre en retraite par les Autrichiens, réussissant plutôt à repousser les attaques nombreuses et violentes des Uhlans Impériaux et Royaux autrichiens et remportant, pour cela, la médaille d'or de la valeur militaire. En 1866, les tractations diplomatiques faisant suite à la Guerre austro-prussienne accordent la Vénétie à la France de Napoléon III, protecteur des États pontificaux, qui la rétrocède immédiatement à son allié Italien. En 1870, la défaite de la France face au Royaume de Prusse provoque la chute du Second Empire. Délié de ses engagements envers Napoléon III, le roi d'Italie annexe le reste des États pontificaux. Le pape Pie IX, s'estimant prisonnier du souverain Italien, se cloître dans le palais du Vatican. Vainqueur, le roi d'Italie n'en est pas moins considéré par ses pairs comme un usurpateur et un sacrilège et son antique Maison comme une dynastie parvenue. Le prince de Piémont atteint l'âge d'homme mais les cours d'Europe répugnent à donner une de leurs filles en mariage à l'héritier d'un trône honni. Mariage. En raison du bouleversement que les Savoie ont causé à un certain nombre d'autres maisons royales (toutes les maisons italiennes et celles qui leur sont étroitement liées, comme la Maison de Bourbon (Espagne) et la Maison capétienne de Bourbon) de France, seule une minorité de familles royales dans les années 1860 sont disposés à établir des relations avec la famille royale italienne nouvellement fondée. Il s'avère difficile de trouver une épouse royale pour l'un ou l'autre des fils du roi Victor Emmanuel II (son fils cadet Amédée épouse finalement un sujet piémontais, la princesse Maria Vittoria dal Pozzo). Leur conflit avec la papauté n'aide pas ces questions. Peu d'épouses royales catholiques éligibles sont facilement disponibles pour le jeune Humbert. Dans ces années, Humbert a eu une relation sentimentale avec la duchesse Eugenie Attandolo Bolognini Litta, dont le lien est ensuite été renforcé par la naissance de son fils Alfonso (décédé en bas âge) et qui durera toute sa vie. Cependant, Humbert sait qu'il doit se soumettre à un mariage de convenance, voulu par son père pour des raisons d'État. En effet, immédiatement après la fin de la troisième guerre d'indépendance, qui a conduit à l'unification de la Vénétie au royaume d'Italie, Victor-Emmanuel II songe à faire la paix avec la Maison de Habsbourg par un mariage politique, après l'alliance temporaire avec la Prusse de Otto von Bismarck. Au départ, Humbert doit épouser l'archiduchesse Mathilde de Teschen, descendante d'une lointaine marge de la maison impériale autrichienne, mais elle décède tragiquement, brûlée par le feu de sa robe (elle tentait de cacher une cigarette à son père), à l'âge de 18 ans. Cette possibilité écartée, le Premier ministre de l'époque, Louis-Frédéric Ménabréa, propose pour épouse la cousine germaine d'Humbert âgée de 17 ans, Marguerite, princesse de Savoie, fille de Ferdinand de Savoie, duc de Gênes, frère du roi, et d'Élisabeth de Saxe. À contrecœur au début, le roi d'Italie finalement accepte. Humbert et Marguerite se marient à Turin le 22 avril 1868 ; c'est le « mariage du siècle » de l'époque, et pour cette occasion le roi crée le corps des cuirassiers royaux, qui doivent servir d'escorte à la procession royale, et l'Ordre de la Couronne d'Italie, pour tous ceux qui se sont distingués au service de la nation. La destination de la lune de miel est quelques villes italiennes, pour mieux faire connaître les futurs monarques italiens à la population puis, après un séjour à la Villa Royale de Monza, les jeunes mariés partent en voyage officiel à Munich et Bruxelles, où ils sont chaleureusement accueillis. De retour en Italie, le couple royal s'installe à Naples où, la princesse étant enceinte, il est décidé de donner naissance à l'héritier du trône. Le choix de la ville napolitaine n'est pas fortuit, mais bien conçu à des fins de propagande, pour mieux faire remarquer la Maison de Savoie aux populations méridionales, encore en partie nostalgiques de la Maison de Bourbon-Siciles. L'heureux événement a lieu le 11 novembre 1869 : le nouveau-né, nommé Victor-Emmanuel, comme son grand-père, est nommé prince de Naples. Le mariage entre Humbert et Marguerite, même avec l'arrivée de leur fils, ne s'est pas renforcé : la princesse aurait retrouvé son mari dans son appartement conversant avec sa maîtresse, la duchesse Litta. Il semble que Marguerite ait menacé de retourner auprès de sa mère, mais, convaincue par son beau-père et faisant appel à sa volonté, elle décide de rester à côté d'Humbert, bien qu'elle déclare ne plus le considérer comme son mari, mais que comme son souverain. Marguerite devait être au courant depuis un certain temps de la relation qui remonte à avant le mariage.Alors qu'Humbert devait être décrit par un historien moderne comme « un homme incolore et physiquement peu impressionnant, d'une intelligence limitée », l'apparence de Marguerite, ses intérêts culturels et sa forte personnalité devaient renforcer la popularité de la monarchie . Humbert conserve de nombreuses maîtresses à ses côtés, et sa maîtresse préférée, Eugenie, l'épouse du duc Litta Visconti-Arese, vit avec lui à sa cour en tant qu'épouse de fait, alors qu'il force la reine Marguerite à l'accepter comme dame de compagnie. Lorsque les deux se sont rencontrés pour la première fois, la duchesse avait 25 ans et Humbert en avait 18. L'échec du mariage, connu uniquement dans les cercles restreints de la cour, est masqué par un semblant de bonheur utilisé également à des fins politiques. Après la prise de Porta Pia le 20 septembre 1870, et la visite précipitée de Victor-Emmanuel à Rome en décembre après la crue du Tibre, ce sont Humbert et Marguerite qui ainsi représentent la famille royale dans la future capitale de l'Italie. Marguerite a principalement le mérite d'avoir jeté les bases d'une réconciliation entre les deux factions de l'aristocratie romaine : la « noire » qui, par dévotion est fidèle au pape Pie IX et refuse tout contact avec les « usurpateurs » de Savoie, et la « blanche », d'idées plus libérales, qui prône plutôt l'union de la ville avec l'Italie. Le «paravent» des noces heureuses durera longtemps et atteindra son paroxysme le 22 avril 1893, lorsque les noces d'argent sont célébrées avec faste. Le matin des célébrations à Rome, 101 coups de canon sont tirés. A cette occasion, un timbre spécial est prévu qui n'est cependant pas émis. En 1870, le frère d'Humbert, Amédée, duc d'Aoste, est proclamé roi d'Espagne par les Cortes. Confronté à une situation anarchique, le jeune souverain abdique et retourne en Italie dès 1873 permettant le rétablissement de la dynastie légitime. En 1876, lorsque le ministre britannique des Affaires étrangères, Lord Salisbury, se rend à Rome, il rapporte à Londres que le roi Victor Emmanuel II et le prince héritier Humbert sont « en guerre l'un contre l'autre ». En prenant la couronne, Humbert renverra tous les amis de son père de la cour, vendra la collection de chevaux de course de son père (qui comptait 1 000 chevaux) et réduira les extravagances pour rembourser les dettes que Victor Emmanuel II avait contractées. L'historien britannique Denis Mack Smith a commenté que c'était signe de la grande richesse de la Maison de Savoie qu'Humbert ait pu payer les dettes de son père sans avoir à demander l'aide du Parlement. Comme son père, Humbert est un homme peu instruit, sans intérêts intellectuels ou artistiques, ne lisant jamais de livres et préférant dicter plutôt que d'écrire des lettres car il trouve l'écriture trop éprouvante mentalement. Après l'avoir rencontré, la reine Victoria décrit Humbert comme ayant « la manière brutale et bourrue de parler » de son père, mais sans son « discours et ses manières rudes ». En revanche, la reine Marguerite a largement lu tous les classiques de la littérature européenne, tient un salon d'intellectuels et, malgré le fait que le français soit sa langue maternelle, elle est souvent louée pour son bel italien dans ses lettres et dans ses discours. Accession au trône. À la mort de son père, le 9 janvier 1878, Humbert lui succède sous le nom d' d'Italie sur le trône d'Italie, marquant par là l'unification de toute l'Italie sous son nom, et d'Humbert IV de Savoie sur le trône savoyard, son père ayant établi, malgré l'unité nationale, la continuation de la tradition nominale sur le trône de Savoie. Le même jour, il publie une proclamation à la nation déclarant : « Votre premier roi est mort ; le successeur vous prouvera que les institutions ne meurent pas ! ». Le 17 janvier 1878, jour des funérailles de son père, il accepte la pétition de la municipalité de Rome et organise l'inhumation du corps au Panthéon (Rome), plutôt que dans le mausolée royal de la basilique de Superga, ce qui en fait symboliquement le mausolée de la famille royale. Il abrite encore aujourd'hui les restes des deux premiers souverains d'Italie. Rome est un lieu symbolique, car sa capture a représenté l'achèvement de l'unité nationale tant désirée. Le 19 janvier, le serment solennel sur le Statut albertin a lieu au palais Montecitorio en présence de sénateurs et de députés. Le deuxième souverain d'Italie doit affronter de nombreux problèmes : l'hostilité du Vatican, qui, après la mort du pape Pie IX le 7 février de la même année et l'élection au trône de Léon XIII, continue de désavouer le Royaume d'Italie ; la tentative de bloquer à la fois les ferments irrédentistes et républicains qui traversent le pays et les intentions anti-unitaires de certains cercles politiques occultes, nationaux et étrangers ; la nécessité absolue de créer un large front de réformes sociales dont pourraient profiter les classes les moins aisées ; la relance de l'économie nationale, déjà trop longtemps stagnante, et surtout le problème très urgent de mettre fin à l'isolement international de l'Italie et d'accroître son prestige en politique étrangère. Le roi jure d'agir, dès son premier discours de la Couronne, « dans le respect de la loi ». L'une des premières mesures auxquelles Humbert doit faire face en tant que roi est la démission, le 9 mars, du cabinet d'Agostino Depretis, chef de la gauche historique ; le roi, ne jugeant pas opportun de lui confier à nouveau le poste, choisit Benedetto Cairoli, chef de la gauche modérée et homme politique très estimé de lui, comme nouveau premier ministre. Le problème le plus épineux auquel son gouvernement doit faire face est la crise des Balkans, née de la récente guerre entre l'empire russe et l'empire ottoman, pour laquelle le chancelier allemand Bismarck a convoqué le Congrès de Berlin. L'Italie, dans la crainte de prendre des engagements trop lourds, n'obtient rien. Première tentative d'assassinat. Dès qu'il monte sur le trône, Humbert organise immédiatement une tournée dans les grandes villes du Royaume afin de se montrer au peuple et gagner au moins une partie de la renommée dont son père avait joui pendant le Risorgimento. Il est accompagné de son épouse Marguerite, de son fils Victor-Emmanuel et du Premier ministre Benedetto Cairoli. Il quitte Rome le 6 juillet 1878, le 10 juillet il est à La Spezia, du 11 au 30 juillet il séjourne à Turin, le 30 il est à Milan, puis à Brescia et le 16 septembre il se rend à Monza, où il inaugure le premier monument dédié à son père. Le 4 novembre, les membres de la famille royale arrivent à Bologne : le 7, ils rencontrent le poète Giosuè Carducci, aux idées républicaines, qui, enchanté par la grâce et la beauté de la reine, écrit pour elle des pages de grande admiration et lui dédie la célèbre "ode à la reine d'Italie". Trois jours plus tard, Humbert et Marguerite sont à Florence, le 9 novembre à Pise et Livourne, le 12 novembre ils se rendent à Ancône, le lendemain à Chieti, puis à Bari. Le 16 novembre, à la gare de Foggia, un certain Alberigo Altieri tente de se précipiter vers le souverain. Il est arrêté à temps, à tel point que presque personne ne l'a remarqué et que la presse n'en parle pas. Cependant, une enquête policière permet de découvrir que le jeune homme n'a pas agi seul, mais dans le cadre d'un « complot pour l'assassinat du souverain Auguste » qui avait « pour but de faire exécuter la tentative dans les différentes villes qu'il a visitées. » Arrivé à Naples le 17 novembre 1878, le roi subit une tentative d'assassinat qui fait beaucoup plus sensation : il se trouve, avec sa femme, son fils et Cairoli, dans une voiture découverte qui se fraye un chemin dans la foule, quand il est soudainement attaqué au couteau par l'anarchiste Giovanni Passannante. Dans sa tentative de meurtre du monarque, Passannante crie : « Vive Orsini, vive la république universelle ». Le roi parvient à se défendre et un officier des Corazzieri de la suite se jette contre l'assaillant, le blessant à la tête d'un coup de sabre (le roi subit une légère coupure au bras), tandis que Cairoli, tentant de bloquer l'agresseur, est blessé à une cuisse. La tentative d'assassinat génère de nombreuses marches de protestation, à la fois contre et en faveur de l'agresseur, et des affrontements surviennent entre la police et les anarchistes. À la suite de la tentative de régicide, le chef de la police de l'époque, Luigi Berti, est contraint de démissionner un mois plus tard. Le poète Giovanni Pascoli, lors d'une réunion de socialistes à Bologne, commence la lecture publique d'un poème, donné par une personne présente à la réunion, louant Passannante. Remarquant le contenu, il jette le papier et prononce des mots d'indignation. Pascoli est ensuite arrêté pour avoir protesté contre la condamnation de certains anarchistes qui avaient manifesté en faveur de l'agresseur. Le prétendu assassin est condamné à mort même si la loi n'autorise la peine de mort que si le roi est tué. Le roi commue la peine à des travaux forcés à perpétuité. Les mauvaises conditions de détention de Passannante suscitent la polémique de certains hommes politiques. Passanante meurt trois décennies plus tard dans un établissement psychiatrique. Après l'attentat, le roi, reconnaissant, décerne au Premier ministre la médaille d'or de la vaillance militaire, mais le Parlement, tout en admirant son courage et son dévouement, reproche au gouvernement la mauvaise gestion de la politique intérieure, notamment en ce qui concerne la sécurité du roi et l'État ; une question parlementaire est alors présentée qui se termine le 11 décembre de la même année par la démission du gouvernement, qui est à nouveau confié à Depretis. Depretis est cependant battu à la Chambre des députés le 3 juillet 1879 et doit à nouveau démissionner : le gouvernement passe à nouveau à Cairoli, qui, n'ayant pas la majorité parlementaire nécessaire, doit impliquer une partie de la gauche modérée dirigée par Depretis qui a été nommé ministre de l'Intérieur. L'un des problèmes les plus urgents auquel le gouvernement doit faire face est l'abolition de la taxe foncière, qui a permis l'atteinte d'un budget équilibré en 1876, mais a provoqué l'hostilité de la population à la suite de l'augmentation du prix des produits de première nécessité ou des céréales. Humbert lui-même, le 26 mai 1880, à l'ouverture de la XIVe législature du royaume d'Italie, prononce un discours dans lequel il espère que le Parlement donnera suite à l'abolition de l'impôt sur le sol, au cours forcé et à la réforme électorale. Ainsi, après une discussion parlementaire serrée, la Chambre vote le 30 juin 1880 la réduction progressive de la taxe foncière (qui sera définitivement abolie quatre ans plus tard), tandis que le 23 février 1881 le cours forcé, en vigueur depuis 1866, est aboli. A la même époque, la famille royale visite officiellement la Sicile et la Calabre ; lorsqu'il atteint Reggio de Calabre, le souverain se laisse aller dans un bain de foule, disant aux forces de sécurité, soucieuses de sa sécurité : « Faites place, je suis au milieu de mon peuple ! ». Triple alliance et politique coloniale. En termes de visibilité et de poids international, Humbert est un ardent partisan de la Triplice ou Triple Alliance, surtout après l'occupation française de la Tunisie en 1881 et l'Alliance des trois empereurs qui a suivi entre l'Autriche, l'Allemagne et la Russie. À cette époque, par d'ailleurs, le gouvernement d' Agostino Depretis apprend que le pape Léon XIII interroge les ministres des Affaires étrangères sur leur éventuelle intervention pour restaurer les États pontificaux. Le soutien de l'Autriche, la nation catholique la plus prestigieuse, serait d'une grande utilité à l'Italie afin de renverser une action européenne en faveur de la papauté. Pour l'Italie, la conclusion d'une alliance avec deux puissances conservatrices vaudrait à la fois d'assurer la monarchie savoyarde face aux mouvements républicains d'inspiration française, et de l'assurer de l'intervention de puissances étrangères qui veulent rétablir le pouvoir temporel du pape. À l'appui d'initiatives diplomatiques, entre le 21 et le 31 octobre 1881, Humbert et son épouse rendent visite à l'empereur François-Joseph et à l'impératrice Elisabeth à Vienne. Les monarques italiens font une excellente impression sur la cour viennoise, en particulier Marguerite, qui, à juste titre, pour sa grâce et son élégance, est comparée à l'impératrice Sissi. Humbert lui-même, rigide, sévère et austère, fait si bonne impression que son cousin et ancien adversaire, François-Joseph, lui accorde la nomination comme colonel honoraire du 28ème Régiment d'Infanterie. Le geste ne manque pas de susciter la polémique en Italie au sein de l'opinion publique étant donné que le régiment autrichien, dont le roi a été fait colonel, est le même qui a participé à la bataille de Novare (1849) et à l'occupation de Brescia, contribuant activement à la répression impitoyable qui a causé la mort de milliers d'hommes, de femmes et d'enfants de Brescia. Beaucoup en Italie, considèrent avec hostilité une alliance avec leurs anciens ennemis autrichiens, qui occupent toujours des zones revendiquées par l'Italie. Humbert admire le militarisme prusso-allemand et lors de ses visites en Allemagne, son activité préférée est de passer en revue l'armée prussienne. Guillaume II (empereur allemand) lui dit lors d'une visite qu'il devrait renforcer la "Regio Esercito" au point qu'il pourrait abolir le parlement et gouverner l'Italie comme un dictateur. Devant l'insistance de l'Allemagne, le ministre autrichien des Affaires étrangères Gusztáv Kálnoky cède à l'idée d'un accord avec l'Italie et le 20 mai 1882, le premier traité de la Triple Alliance est signé. Humbert est également favorable à la politique d'expansion coloniale en Érythrée. L'Italie s'étend également en Somalie dans les années 1880. Le gouvernement italien a déjà acheté, le 10 mars 1882 la baie d'Assab à l'armateur Raffaele Rubattino, qui l'avait lui-même achetée au sultan local comme escale pour ses navires. L'occupation ultérieure de la ville portuaire de Massaoua est convenue avec le gouvernement anglais, qui a lieu le 5 février 1885, en vue d'une profonde pénétration au Soudan, convenue avec les Britanniques, engagés dans la guerre des mahdistes. Londres rejette l'offre d'aide italienne qui n'est plus nécessaire, et l'Italie se retrouve ainsi « enchaînée à un rocher dans la mer Rouge », sans perspectives expansionnistes concrètes. Les Italiens tentent alors de compenser leur maigre butin colonial en occupant l'arrière-pays de Massaoua, en direction d'Asmara, mais cette fois l'obstacle est représenté par les guerriers éthiopiens du Négus Yohannes IV qui, le 27 janvier 1887, tendent une embuscade une colonne italienne de 500 hommes commandée par le colonel De Cristoforis près de Dogali, l'anéantisssant complètement (bataille de Dogali). Seuls quelques-uns s'échappent et sont reçus avec tous les honneurs au palais du Quirinal par Humbert et son épouse Marguerite, un honneur qui n'eurent pas les vétérans du Risorgimento. Malgré cela, la nouvelle du massacre de Dogali a l'effet d'une averse glaciale sur Rome, où elle éteint l'ardeur colonialiste et attise l'opinion publique pour exiger la fin de l'aventure africaine. De Robilant démissionne ; Depretis, qui a été mis en minorité et qui n'approuve pas l'entreprise en Abyssinie, a la tâche de former le gouvernement du roi, grâce aussi au soutien de Francesco Crispi et Giuseppe Zanardelli, à la tête de la soi-disant Pentarchie, la formation politique de gauche la plus forte. En août de la même année, le Premier ministre décède et Crispi prend sa place, qui, contrairement à son prédécesseur, est un fervent partisan de la politique africaine. Il le démontre en envoyant un contingent de 20 000 hommes en Érythrée sous le commandement du général Antonio Baldissera et en demandant à l'ambassadeur d'Italie à Addis-Abeba, le comte Pietro Antonelli, de tout mettre en œuvre pour que l'Italie puisse profiter des luttes internes qui déchirent l'Ethiopie. En témoignent également deux lettres envoyées à Humbert, respectivement par le négus Yohannes IV et par son ennemi juré, le roi de Choa Menelik : dans la première, l'empereur éthiopien recherche un accord avec le roi italien contre Menelik qui, à son tour, accuse Giovanni de l'avoir soulevé contre les Italiens. Les choses empirent lorsque, le 10 mars 1889, Yohannes IV meurt au combat contre les derviches du Soudan ; Menelik prend aussitôt sa place d'empereur, sous le nom de Menelik II, ignorant les droits de ras Mangascià, fils naturel du défunt négus. Pour mieux asseoir son pouvoir, Menelik décide de négocier avec l'Italie, acceptant de signer, le 2 mai 1889, le Traité de Wouchalé : dans celui-ci, les territoires occupés en Érythrée sont reconnus à l'Italie et - en raison d'un malentendu sur la traduction de l'article 17 du même traité (qui prévoyait, dans le texte italien, pour le négus l'obligation d'être représenté par Rome afin de traiter avec les autres puissances européennes, alors que dans l'éthiopien ce n'était qu'optionnel) - le protectorat sur l'Éthiopie en échange de quatre millions de lires.L'accord est alors signé avec l'envoi dans la capitale italienne d'une délégation éthiopienne conduite par Ras Mekonnen Welde Mikaél, le cousin de l'empereur, qui a pour mission de porter le traité et de convenir de l'emprunt. Les membres de la délégation sont d'abord reçus au Quirinal par les souverains, puis ils sont envoyés dans les principales villes italiennes pour visiter des arsenaux, des casernes, des industries militaires, afin de les impressionner et de montrer la puissance militaire du pays. La mission reprend le 2 décembre de la même année, rapportant le prêt et divers cadeaux, dont un tableau représentant l'Ascension de Jésus-Christ au ciel, avec le roi, la reine et Crispi en prière, tandis que, de leur côté, les Éthiopiens ont ramené un éléphant en cadeau. En 1890, certains sultanats de Somalie acceptent également le protectorat italien, tandis que la même année la colonie érythréenne est officiellement fondée. Mais le malentendu diplomatique (connu sous le nom de « canular d'Uccialli ») ne tardera pas à préparer le terrain pour la première guerre italo-éthiopienne. Tout commence en décembre 1893, lorsque Menelik n'utilise pas le gouvernement de Rome pour négocier certaines affaires commerciales avec la France, dénonçant le traité signé quelques années plus tôt, et se termine le 1er mars 1896 avec la Bataille d'Adoua, catastrophique pour les armées italiennes. En Italie, les répercussions sont très graves : Crispi est contraint de démissionner et disparaît de la scène politique ; à sa place, Antonio di Rudinì doit signer le Traité d'Addis-Abeba le 26 octobre 1896, qui prévoit l'annulation du traité de Wouchalé et la pleine souveraineté de l'Éthiopie, tout en permettant aux Italiens de conserver tous les territoires précédemment conquis. Cette défaite provoque la fin temporaire de l'aventure coloniale italienne, qui s'arrêta jusqu'en 1911, avec la conquête de la Libye. Humbert est soupçonné d'aspirer à un vaste empire dans le nord-est de l'Afrique, soupçon qui tend quelque peu à diminuer sa popularité après la désastreuse bataille d'Adoua en Éthiopie le 1er mars 1896. Après cette bataille, la frustration du public face à la guerre profondément impopulaire avec l'Éthiopie apparait au premier plan et des manifestations éclatent à Rome avec des gens criant « Mort au roi ! » et « Vive la république! ». Malgré la défaite d'Adoua, Humbert nourrit toujours des ambitions impérialistes envers l'Éthiopie, déclarant : « Je suis ce qu'ils appellent un belliciste et mon souhait personnel serait de riposter contre Menelik II et de venger notre défaite ». En 1897, le premier ministre Antonio di Rudinì tente de vendre l'Érythrée à la Belgique au motif que l'Érythrée est trop chère pour s'y accrocher, mais sa proposition est rejetée par le roi qui insiste pour que l'Érythrée reste italienne. Rudinì tente de réduire les dépenses militaires, citant une étude montrant que depuis 1861, elles constituent plus de la moitié du budget chaque année, mais il est de nouveau bloqué par le roi. Au début de 1899, le ministre des Affaires étrangères, l'amiral Felice Napoleone Canevaro, envoie une escadre navale en Chine avec un ultimatum exigeant que le gouvernement chinois remette une ville côtière à gouverner comme concession italienne de la même manière que les Britanniques avaient pris Hong Kong, les Allemands Qingdao, les Russes Port-Arthur et les Français Kouang-Tchéou-Wan. Le Premier ministre Luigi Pelloux et le reste du cabinet déclarent que l'amiral Canevaro a agi sans les en informer, et il est largement admis que le roi est celui qui a donné à Canevaro l'ordre de s'emparer d'une ville en Chine. Après le refus du gouvernement chinois, Canevaro menace de faire la guerre, mais est contraint de reculer et se contente de rompre les relations diplomatiques avec la Chine. À l'été 1900, les forces italiennes font partie de l'Alliance des huit nations qui participe à la révolte des Boxers en Chine impériale. Grâce au protocole de paix Boxer, signé après la mort d'Humbert, le royaume d'Italie obtint la Concession italienne de Tientsin. L'attitude d'Humbert envers le Saint-Siège est intransigeante. Dans un télégramme de 1886, il déclare Rome « intouchable » et affirme la permanence de la possession italienne de la « Ville éternelle ». Conséquemment aux relations difficiles de l'Italie avec la papauté et préférant éviter un camouflet de la part des dynasties catholiques, le roi marie son fils à la princesse Hélène de Monténégro, fille d'un roi populaire, ambitieux et orthodoxe. Les relations compliquées avec la France qui veut s'imposer en Tunisie, incite l'Italie à faire partie de la Triplice en 1882. Politique intérieure. Durant son règne, le souverain apporte sa solidarité aux populations frappées par les catastrophes naturelles, intervenant par des aides matérielles. Déjà en 1872, alors qu'il est encore prince, il se rendit en Campanie rencontrer les victimes de l'éruption du Vésuve. Dès son accession au trône, en 1879, il assiste les Siciliens touchés par l'Etna et en 1882, il se rend en Vénétie, touchée par des pluies torrentielles. En 1884, il arrive à Naples, victime du choléra, et à cette occasion il prononce la célèbre phrase, gravée sur la stèle en souvenir du triste événement : "« A si fa festa, a Napoli si muore. Vado a Napoli » («" A Pordenone on fête, à Naples on meurt. Je vais à Naples ») . 1888 voit un geste politiquement important et personnellement courageux : Humbert visite la Romagne (Italie), une terre considérée comme hostile à la monarchie et très dangereuse, en raison de la prédominance des républicains, des socialistes et des anarchistes. En préparation, des manœuvres militaires spéciales sont effectuées à des fins de dissuasion. La visite se déroule sans incident même à Forlì, la patrie d'Aurelio Saffi, un homme de référence pour les Républicains. L'ancien Premier ministre Alessandro Fortis vient également pour souhaiter la bienvenue au roi. En politique intérieure , Humbert soutient le travail du gouvernement de Francesco Crispi dans son projet de renforcement interne de l'État. C'est sous son règne que se définit le rôle du Président du Conseil des ministres d'Italie (1890) : en effet le roi ne préside pas le conseil des ministres, mais se limite à recevoir le président après les réunions du cabinet et, après avoir entendu son rapport, à signer les dispositions du gouvernement, assumant au fil du temps également des responsabilités qui, même partagées par lui personnellement, sont collectives et parlementaires. Une critique majeure des politiques menées par les premiers ministres nommés par le roi est la puissance continue du crime organisé dans le "Mezzogiorno" (sud de l'Italie) avec la mafia dominant la Sicile et la Camorra dominant la Campanie La mafia et la Camorra fonctionnent toutes deux comme des « États parallèles » dont l'existence et le pouvoir sont tolérés par les gouvernements successifs à Rome car elles se sont livrées à des fraudes électorales et à une intimidation des électeurs si efficaces que ce sont les patrons de la mafia et de la Camorra qui décident qui a gagné les élections. Comme il est impossible de gagner les élections dans le "Mezzogiorno" sans le soutien du crime organisé, les politiciens concluent des accords avec les patrons de la Camorra et de la Mafia pour échanger la tolérance de leurs activités criminelles contre des votes. Le "Mezzogiorno" est alors la région la plus arriérée d'Italie avec des niveaux élevés de pauvreté, d'émigration et un taux d'analphabétisme estimé à 70 %. Les députés du "Mezzogiorno" ont toujours voté contre plus d'écoles pour le "Mezzogiorno", perpétuant ainsi le retard et la pauvreté du sud ; tant la mafia que la Camorra s'opposent à toute sorte de réforme sociale qui pourrait menacer leur pouvoir. Le roi préfère de lourdes dépenses militaires plutôt que de s'engager dans des réformes sociales et chaque année, l'État italien dépense 10 fois plus d'argent pour l'armée que pour l'éducation. , partisan agressif du militarisme, dit un jour qu'accepter des coupes dans le budget militaire serait « un scandale abject et nous pourrions aussi bien abandonner la politique complètement ». Au moins une partie de la raison pour laquelle le roi est si opposé à la réduction du budget militaire est dû au fait qu'il a personnellement promis à l'empereur Guillaume II que l'Italie enverrait 5 corps d'armée en Allemagne en cas de guerre avec la France, une promesse que le roi n'a pas vue digne de partager avec ses premiers ministres. La solution préférée du souverain aux problèmes de l'Italie est de conquérir l'Éthiopie, indépendamment de l'opposition publique écrasante. Il soutient le Premier ministre ultra-impérialiste Francesco Crispi qui parle en mai 1895 de « l'impossibilité absolue de continuer à gouverner par le Parlement ». En décembre 1893, Humbert nomme Crispi premier ministre malgré sa « réputation brisée » en raison de son implication dans le scandale de la Banca Romana ainsi que dans de nombreux autres scandales que le roi lui-même qualifie de « sordides ». En 1893, il est impliqué dans le scandale, accusé d'avoir contracté des dettes élevées dont le premier ministre de l'époque Giovanni Giolitti lui aurait garanti la couverture par fidélité à la monarchie et pour le soutien qu'il avait reçu de la Maison de Savoie les années précédentes. Son activité politique est également marquée par une attitude autoritaire, peut-être en raison de la grave Grande Dépression (1873-1896), où soulèvements et émeutes, comme celles des "Fasci dei Lavoratori" en Sicile et l'insurrection de la Lunigiana (1894) le conduisent à signer des dispositions comme l'état de siège. À la suite de ces événements graves et d'autres, le gouvernement Crispi, le Parti socialiste italien, les "Camere del Lavoro" et les Ligues ouvrières sont dissous. Le roi assume ses devoirs de souverain constitutionnel alors que la gauche italienne occupe le pouvoir, avec Agostino Depretis et Francesco Crispi. Humbert qualifie ouvertement le Parlement de « mauvaise blague » et lui refuse de se réunir à nouveau, de peur que Crispi ne soit confronté à des questions difficiles sur le scandale de la Banca Romana. Crispi n'évite l'inculpation qu'en raison de son immunité parlementaire. Lorsque le roi est averti qu'il est dangereux pour la couronne de soutenir quelqu'un comme Crispi, Humbert répond que « Crispi est un porc, mais un porc nécessaire », qui malgré sa corruption, doit rester au pouvoir pour « l'intérêt national, qui est la seule chose qui compte ». Avec le soutien du roi, Crispi gouverne de manière autoritaire, préférant adopter des lois en faisant émettre des décrets royaux par le roi plutôt que de faire adopter des projets de loi par le Parlement. Le 25 juin 1895, Crispi refuse d'autoriser une enquête parlementaire sur le scandale bancaire, affirmant qu'en tant que Premier ministre, il est au-dessus des lois parce qu'il a « servi l'Italie pendant 53 ans ». Deuxième attentat. Le règne d'Humbert est une période de bouleversements sociaux. Les tensions sociales augmentent à la suite de l'occupation relativement récente du Royaume des Deux-Siciles, à la propagation du Socialisme, à l'hostilité publique aux plans colonialistes des différents gouvernements, en particulier de Crispi, et aux nombreuses mesures de répression contre les Libertés publiques. Parmi les manifestants figure le jeune Benito Mussolini, alors membre du Parti socialiste italien. Le 22 avril 1897, le souverain subit une seconde attaque de Pietro Acciarito. L'anarchiste s'est mêlé à la foule qui accueille l'arrivée Humbert I à l'hippodrome de Capannelle à Rome et se précipite vers sa voiture armé d'un couteau. Le roi remarque rapidement l'attaquant et réussit à l'esquiver, demeurant indemne. Acciarito est arrêté et condamné à la réclusion à perpétuité. Comme pour Passannante, sa peine est très sévère et a eu de graves conséquences sur sa santé mentale. Comme la précédente tentative de régicide, une conspiration anti-monarchiste est admise, bien qu'Acciarito ait tout nié, déclarant qu'il a agi seul et plusieurs socialistes, anarchistes et républicains sont arrêtés, soupçonnés d'avoir été de connivence avec l'extrémiste. Parmi ceux-ci, un autre anarchiste nommé Romeo Frezzi, un ami d'Acciarito, est emprisonné parce qu'il est en possession d'une photo de l'agresseur. Frezzi meurt le troisième jour de son interrogatoire. Certaines allégations sont faites à propos de sa mort (suicide ou anévrisme), mais l'autopsie confirme que le décès est dû aux tortures commises par les policiers, dans une tentative d'extorquer des aveux de connivence avec Acciarito. Ce fait déclenche des soulèvements populaires contre la monarchie. Massacre de Milan. Pendant les guerres coloniales en Afrique, de grandes manifestations contre la forte hausse du prix du blé à la suite de la taxe foncière (1868-1884) ont lieu en Italie et le 7 mai 1898, la ville de Milan est placée sous contrôle militaire par le général Fiorenzo Bava Beccaris qui ordonne des tirs de fusil et d'artillerie pour disperser les participants lors des protestations populaires (dites "protestations de l'estomac" ) aboutissant à un massacre. 82 personnes sont tuées selon les autorités, plus de cinq cents blessés selon les estimations de la police de l'époque, bien que certains historiens pensent que ces estimations sont approximatives ; des sources de l'opposition affirment que le bilan est de 400 morts et 2 000 blessés. Le roi envoie un télégramme pour féliciter Bava Beccaris pour le rétablissement de l'ordre et le décore plus tard de la médaille de Grand Officiel de l'Ordre militaire de Savoie « pour services rendus aux institutions et à la civilisation » scandalisant grandement une grande partie de l'opinion publique, l'opposition anarchiste-socialiste et républicaine italienne. Humbert voudrait profiter de l'inquiétude de la classe dirigeante pour limiter l'influence du Parlement en désignant un gouvernement de « commis » qui légifèrerait par décrets. Devant la vigueur de l'opposition , il doit se contenter de confier le pouvoir à un homme énergique certes, mais de réputation libérale, le général Luigi Pelloux, dont le gouvernement prend un virage autoritaire, s'apprêtant à dissoudre les organisations socialistes, catholiques et radicales et à limiter la liberté de presse et de réunion. Des hommes politiques tels que Filippo Turati et Andrea Costa, accusés d'avoir encouragé la révolte, sont arrêtés et, en peu de temps, libérés de prison. L'historien Ettore Ciccotti sympathise ouvertement avec les insurgés milanais et, accusé de propagande subversive, est démis de ses fonctions de professeur à l'académie scientifique et littéraire de Milan et contraint de fuir en Suisse pour éviter d'être arrêté. Recourant à l'obstructionnisme, les socialistes contraignent Pelloux à dissoudre les Chambres et à recourir à de nouvelles élections, qui voient une avancée décisive de la gauche. Pelloux démissionne et Humbert , dans le respect des libertés garanties par le Statut, accepte d'attribuer la fonction de président du Conseil à Giuseppe Saracco qui met en place une politique de réconciliation nationale. La décoration du général Bava Beccaris est la cause de la dernière et mortelle attaque contre le monarque par Gaetano Bresci. Assassinat. Le 29 juillet 1900, le roi est invité à Monza lors de la cérémonie de clôture du concours de gymnastique organisé par le club sportif "Forti e Liberi" ; il n'est pas obligé d'y assister, mais est convaincu par le fait que les équipes de Trente et de Trieste seront présentes, dont les athlètes, se serrant la main, déclarent : « Je suis heureux d'être parmi les Italiens » (une phrase qui n'est pas passé inaperçue et qui a déclenché un tonnerre d'applaudissements). Bien qu'il porte habituellement une cotte de mailles de protection sous sa chemise, en raison de la chaleur extrême et contrairement aux conseils des agents de sécurité, ce jour fatidique, Humbert ne la porte pas. Parmi la foule se trouve également Gaetano Bresci, un anarchiste de Prato qui a émigré aux États-Unis, équipé d'un revolver à cinq coups dans sa poche. Gaetano Bresci veut ainsi venger la sanglante répression menée contre les ouvriers à Milan en 1898. Le souverain parle pendant environ une heure et est d'excellente humeur : « Parmi ces jeunes gens intelligents, je me sens rajeuni ». Il décide de partir vers 22 h 30 et se dirige vers la calèche, tandis que la foule applaudit et que la fanfare entonne la Marcia Reale. Profitant de la confusion, Bresci bondit en avant avec le revolver à la main et tire quelques coups en succession rapide. Le nombre n'a jamais été déterminé avec précision, mais la plupart des témoins ont déclaré avoir entendu l'écho d'au moins trois coups. Humbert est atteint à l'épaule, au poumon et au cœur. Il a à peine le temps de murmurer : « Allez, je crois que je suis blessé », avant de tomber sur les genoux du général Ponzio Vaglia, qui est assis en face de lui dans la voiture. Immédiatement après, les carabiniers, commandés par le maréchal Locatelli, réussissent à sauver Bresci du lynchage de la foule, le mettant en état d'arrestation. La voiture avec le souverain mort arrive à la villa royale de Monza ; la reine, prévenue, se précipite vers l'entrée en criant : « Faites quelque chose, sauvez le roi ! », mais il n'y a plus rien à faire ; Humbert est déjà décédé. Le régicide suscite en Italie une vague de déploration et de peur, au point d'amener les milieux anarchistes et socialistes eux-mêmes à s'en éloigner ; Filippo Turati, par exemple, refuse de défendre le régicide devant les tribunaux. Beaucoup de ceux qui l'ont critiqué dans la vie, dont le libéral Papafava, ont des mots de condoléances pour le défunt (« Nous l'aimions plus que nous ne le pensions ») et le républicain Bovio déclare que l'indignation suscitée par l'attentat a rallongé la vie de la monarchie de plusieurs décennies. Le poète Giovanni Pascoli écrit "l'Hymne au roi Umberto", dédié au roi défunt. Commentant le livre de 1969 "Killing No Murder" d'Edward Hyams, le critique canadien George Fetherling dans "The Book of Assassins" écrit que la description par Hyams d'Humbert « est si dure qu'on s'étonne que seulement trois personnes ont essayé de le tuer ». Le 9 août, les funérailles religieuses sont célébrées à Rome : malgré la chaleur, la foule suit le cercueil. Cependant, il règne un tel climat de psychose qu'une mule en fuite d'un représentant du corps Alpini suffit à déclencher un mouvement général au cri « Les anarchistes ! ». La terreur est telle que le groupe de princes est aussi concerné : Nicolas , roi de Monténégro, saute devant son gendre Vittorio pour servir de bouclier contre une éventuelle attaque. Une fois le calme revenu, le corps du roi défunt est inhumé au Panthéon à côté de celui de son père. Il est le dernier Savoie à y être enterré car son fils et successeur Victor-Emmanuel III décède en exil et est enterré en Égypte jusqu'à ce que sa dépouille soit transférée à Vicoforte près de Mondovi en 2017. Le 13 août devient un jour de deuil national. Nombreuses sont les voix qui s'élèvent - contre ou en faveur - du geste de Bresci, aussitôt réduites au silence par l'introduction du nouveau délit d'« apologie du régicide », pour lequel deux religieux sont arrêtés : Don Arturo Capone, curé de Salerne, et Fra 'Giuseppe Volponi, un franciscain de Rome. Ce dernier est condamné à 8 mois de prison et à mille lires d'amende (28 août). Bresci est jugé le 29 août et condamné le même jour à la réclusion à perpétuité, la peine de mort n'étant en vigueur que pour certains crimes militaires, punis par le code pénal militaire de la guerre. Il se suicide le 22 mai 1901 dans des circonstances très douteuses (pendu dans sa cellule) ; il a dit avoir été victime d'un passage à tabac par les gardiens. Le 29 juillet 1901, un an après son assassinat, la mémoire d'Humbert est solennellement célébrée à Monza par un pèlerinage impressionnant, le dépôt de nombreuses couronnes, des discours, des messes, des concerts et la déclamation de l'ode "XXIX juillet" d'Adolfo Resplendino par Paola Pezzaglia alors âgée de quatorze ans. Le site de l'attaque, à Monza, est marqué par une chapelle à la mémoire du roi tué, construite en 1910, d'après un projet de l'architecte Giuseppe Sacconi, par la volonté du fils du roi, Victor-Emmanuel III. L'anarchiste américain Leon Czolgosz a affirmé que l'assassinat d'Humbert lui a servi d'inspiration pour tuer le président américain William McKinley en septembre 1901. Descendance. Humbert et Marguerite de Savoie n'ont eu qu'un seul enfant : Victor-Emmanuel III (1869-1947), prince de Naples, futur roi d'Italie, qui épouse Hélène de Monténégro, avec qui il a cinq enfants. Personnalité. Humbert a moins de simplicité que son père. Il introduit à la Cour un style nouveau, beaucoup plus respectueux de l'étiquette et de la majesté royale, tout en restant très attaché aux traditions des Savoie : le goût de la vie militaire, des grandes chasses aristocratiques, un intérêt passionné pour la politique étrangère. Moins souple que son père, il ne manifeste pas le même respect des règles du jeu parlementaire, intervenant dans la désignation des ministres sans tenir toujours compte de l'avis de la majorité et cherchant à imposer ses vues personnelles, notamment dans le domaine diplomatique. Inquiet de la poussée démocratique, il voit dans le rapprochement avec les Empires centraux un moyen de consolider sa Couronne, face aux menées subversives qu'encourage, estime-t-il, la France républicaine. |
Uranus (planète) Uranus est la septième planète du Système solaire par ordre d'éloignement du Soleil. Elle orbite autour de celui-ci à une distance d'environ ( de kilomètres), avec une période de révolution de . Il s'agit de la quatrième planète la plus massive du Système solaire et de la troisième plus grande par la taille. Elle est la première planète découverte à l’époque moderne avec un télescope et non connue depuis l'Antiquité. Bien qu'elle soit visible à l’œil nu, son caractère planétaire n'est alors pas identifié en raison de son très faible éclat et de son déplacement apparent dans le ciel très lent. William Herschel l'observe pour la première fois le et la confirmation qu'il s'agit d'une planète et non d'une comète est faite pendant les mois qui suivent. Comme Jupiter et Saturne, l'atmosphère d'Uranus est composée principalement d'hydrogène et d'hélium avec des traces d'hydrocarbures. Cependant, comme Neptune, elle contient une proportion plus élevée de au sens physique, c'est-à-dire de substances volatiles telles que l'eau, l'ammoniac et le méthane, tandis que l'intérieur de la planète est principalement composé de glaces et de roches, d'où leur nom de . Par ailleurs, le méthane est le principal responsable de la teinte aigue-marine de la planète. Son atmosphère planétaire est la plus froide du Système solaire, avec une température minimale de à la tropopause, et présente une structure nuageuse en couches. À l’instar des autres planètes géantes, Uranus possède un système d’anneaux et de nombreux satellites naturels : on lui connaît 13 anneaux étroits et 27 lunes. Cas unique dans le Système solaire, son axe de rotation est pratiquement dans son plan de révolution autour du Soleil et ses pôles Nord et Sud se trouvent donc là où la plupart des autres planètes ont leur équateur. La planète est pourvue d'une magnétosphère en forme de tire-bouchon du fait de cette inclinaison de l'axe. La distance de la planète à la Terre lui donnant une très faible taille apparente, son étude est difficile avec des télescopes situés sur la Terre. Uranus est visitée une unique fois lors de la mission "Voyager 2", qui en réalise un survol le . Les images de la sonde spatiale montrent alors une planète presque sans relief à la lumière visible, sans les bandes de nuages ou les tempêtes associées aux autres planètes géantes. L'avènement du télescope spatial "Hubble" et des grands télescopes au sol à optique adaptative permet ensuite des observations détaillées supplémentaires révélant un changement saisonnier, une activité météorologique accrue et des vents de l'ordre de alors qu'Uranus s'approchait de son équinoxe en 2007. Son nom vient d'Ouranos, divinité grecque du ciel (Uranus dans la mythologie romaine), père de Cronos (Saturne) et grand-père de Zeus (Jupiter). Histoire. Premières observations. Contrairement aux autres planètes ayant des orbites plus proches du Soleil Uranus n'est pas découverte dès l'Antiquité. Du fait de son éloignement du Soleil, elle est observée à de nombreuses occasions mais est considérée comme une simple étoile jusqu'au en raison de son très faible éclat et de son déplacement apparent très lent dans le ciel terrestre. La première observation connue pourrait être celle d'Hipparque qui, en , aurait pu l'enregistrer comme une étoile fixe dans son catalogue d'étoiles. En effet, un astérisme cité dans l’"Almageste" de Claude Ptolémée, reprenant les travaux d'Hipparque, ne peut être résolu que par la présence d'Uranus à cette époque. Par ailleurs, Uranus en était dans des conditions d'observation très favorables : proche de son périhélie avec une magnitude de 5,4 et à 33° du zénith. La plus ancienne mention prouvée date de 1690 lorsque John Flamsteed l’observe au moins six fois et la catalogue en tant qu'étoile sous le nom de . L’astronome français Pierre Charles Le Monnier observe Uranus au moins douze fois entre 1750 et 1769, dont quatre nuits consécutives John Bevis a peut-être également observé Uranus en 1738, des indices concordant avec une observation mais sans preuve définitive. Découverte de la planète. William Herschel est un musicien anglais pratiquant l'astronomie en amateur. N'ayant pas les moyens financiers d'acheter un télescope, il polit lui-même un miroir pour construire le sien. Il découvre la planète le lors d’une recherche systématique d’étoiles à l’aide de son télescope depuis le jardin de sa maison du 19 à Bath dans le Somerset en Angleterre (désormais le musée d'astronomie Herschel). Plus précisément, Herschel avait entrepris un catalogage d'étoiles selon leur magnitude. À la frontière des constellations des Gémeaux et du Taureau, Herschel remarque au milieu des étoiles fixes une petite tache : il change alors successivement d’oculaire, augmentant progressivement le grossissement. Cela fait augmenter la taille de l’objet à chaque fois tandis que les étoiles autour, très éloignées, ne varient pas en taille et restent de simples points brillants. Ainsi, il ne peut pas s'agir d'une étoile et il écrit donc dans son journal le : . Il note la position de l’astre puis, quelques jours après, reprend son observation : . Il décide alors de prévenir la communauté scientifique de sa découverte et envoie un courrier avec les détails de l'observation de la comète au directeur de l’observatoire d’Oxford, Thomas Hornsby. Il informe également l’"Astronomer Royal" Nevil Maskelyne de l’observatoire de Greenwich. Il reçoit une réponse déconcertée de sa part le : . Celui-ci ne pouvant trancher, il diffuse la nouvelle à d'autres scientifiques et conseille à Herschel d’écrire à la "". Le , lorsque William Herschel présente sa découverte à la "Royal Society", il continue d'affirmer qu'il a trouvé une comète, mais la compare aussi implicitement à une planète. Confirmation de son existence. Bien que Herschel continue par précaution à appeler ce nouvel objet une comète, d'autres astronomes commencent déjà à soupçonner sa véritable nature. L'astronome finno-suédois Anders Lexell, travaillant en Russie, est le premier à calculer l'orbite du nouvel objet en appliquant le modèle d’une planète. Son orbite presque circulaire correspondant au modèle appliqué l'amène à conclure qu'il s'agit d'une planète plutôt que d'une comète car il estime sa distance à dix-huit fois la distance Terre-Soleil et qu'aucune comète ayant un périhélie supérieur à quatre fois la distance Terre-Soleil n’a alors jamais été observée. L'astronome berlinois Johann Elert Bode décrit la découverte d'Herschel comme . Bode conclut également que son orbite quasi circulaire ressemble plus à celle d'une planète que d'une comète. L'astronome français Charles Messier remarque aussi qu’avec son aspect de disque, elle ressemble plus à Jupiter qu’aux dix-huit autres comètes qu’il avait observées auparavant. L’objet est ainsi rapidement unanimement accepté en tant que planète. En 1783, Herschel lui-même le reconnaît auprès du président de la "", Joseph Banks : . Le roi d'Angleterre George III récompense Herschel de sa découverte en lui attribuant une rente annuelle de (), à condition qu’il s’installe à Windsor afin que la famille royale puisse regarder à travers ses télescopes. Cette pension permet à Herschel d'arrêter son travail de musicien et de se consacrer pleinement à sa passion pour l'astronomie. Il a ensuite un fils, John Herschel (lui aussi astronome), devient directeur de la "Royal Astronomical Society" en 1820 puis meurt en 1822 à près de 84 ans . En conséquence, cette découverte permet d'élargir les limites connues du Système solaire pour la première fois de l'Histoire et fait d'Uranus la première planète classée comme telle à l'aide d'un télescope. Appellation. Le nom d'Uranus fait référence à la divinité grecque du ciel Ouranos (, Uranus en mythologie romaine), le père de Cronos (Saturne) et grand-père de Zeus (Jupiter). La forme adjectivale d'Uranus est mais l'adjectif est aussi parfois utilisé comme dans astéroïde ouranocroiseur. Le consensus sur son nom n'est atteint que près de 70 ans après la découverte de la planète. Au cours des discussions originales qui suivent la découverte, Nevil Maskelyne propose à Herschel de nommer la planète, ce droit lui revenant en tant que découvreur. En réponse à la demande de Maskelyne, Herschel décide de nommer l'objet "" ( ou la ), en l'honneur de son nouveau mécène, le roi George III. Il explique cette décision dans une lettre à Joseph Banks en déclarant que dans l'Antiquité, les planètes étaient nommées d'après les noms des divinités principales et que dans l'ère actuelle, il ne serait guère admissible selon lui d'avoir recours à la même méthode pour nommer ce nouveau corps céleste. Aussi, l'important pour le désigner est de savoir quand il a été découvert : . Cependant, le nom proposé par Herschel n'est pas populaire en dehors de la Grande-Bretagne et des alternatives sont rapidement proposées. L'astronome français Jérôme Lalande suggère par exemple que la planète soit nommée "Herschel" en l'honneur de son découvreur. L'astronome suédois Erik Prosperin propose le nom de "Neptune", ce qui est alors soutenu par d'autres astronomes car cela permettrait également de commémorer les victoires de la flotte de la Royal Navy au cours de la guerre d'indépendance États-Unis ; des propositions similaires telles que "Neptune George III" ou "Neptune Great-Britain" sont également avancées. Dès 1781, Johann Bode propose "Uranus", la version latinisée du dieu grec du ciel, Ouranos. Bode fait valoir que le nom devrait suivre la mythologie afin de ne pas se démarquer de ceux des autres planètes, et qu'Uranus est un nom approprié en tant que père de la première génération des Titans. Il note aussi l'élégance du nom en ce que, tout comme Saturne était le père de Jupiter, la nouvelle planète devrait être nommée d'après le père de Saturne. En 1789, Martin Klaproth, compatriote et plus tard collègue de Bode à l'Académie royale des sciences de Suède, nomme l'élément chimique qu'il vient de découvrir uranium pour appuyer ce choix de nom. Finalement, la suggestion de Bode devient la plus largement utilisée et est reconnue universelle en 1850 lorsque le "HM Nautical Almanac Office", dernier à toujours utiliser "Georgium Sidus", délaisse le nom proposé par Herschel pour "Uranus". Uranus possède une variété de traductions dans d'autres langues. Par exemple, en chinois, japonais, coréen et vietnamien, son nom est littéralement traduit par ( ). En hawaïen, son nom est , un emprunt pour le découvreur Herschel. Après la découverte. Astronomie. Au et , il est très difficile d'observer correctement la surface d'Uranus à cause de sa distance avec la Terre. En 1937, les scientifiques fixent par spectroscopie et photométrie à la rotation de la planète, qui était alors déjà vue comme rétrograde. En 1948, Gerard Kuiper découvre Miranda, le plus petit et le dernier des cinq grands satellites sphériques d'Uranus, à l'observatoire McDonald. Le , les anneaux d’Uranus sont découverts, par hasard, par les astronomes James L. Elliot, Edward W. Dunham et Douglas J. Mink, embarqués à bord de l'observatoire aéroporté Kuiper. Les astronomes souhaitent utiliser l’occultation de l’étoile par Uranus pour étudier l’atmosphère de la planète. Or l’analyse de leurs observations met en évidence que l'étoile a été brièvement masquée à cinq reprises, avant et après l’occultation par Uranus ; les trois astronomes concluent à la présence d’un système d’anneaux planétaires étroits. Dans leurs articles, ils désignent les cinq occultations observées par les cinq premières lettres de l'alphabet grec : α, β, γ, δ et ε ; ces désignations sont ensuite réutilisées pour nommer les anneaux. Peu de temps après, Elliot, Dunham et Mink découvrent quatre autres anneaux : l'un d'eux est situé entre les anneaux β et γ et les trois autres à l’intérieur de l’anneau α. Le premier est nommé η et les autres 4, 5 et 6, selon le système de numérotation des occultations adopté lors de la rédaction d'un autre article. Le système d’anneaux d’Uranus est le second découvert dans le Système solaire, après celui de Saturne connu depuis le . Astrologie. Le monde astrologique a eu besoin d'un certain temps pour intégrer Uranus dans son symbolisme (et encore, selon l'astrologie traditionnelle, seuls les sept premiers astres visibles à l'œil nu sont importants). Ainsi la formulation prototypique des significations astrologiques de l'astre date de 33 ans après sa découverte : dans "The Urania" en 1814, par J. Corfield. Effectivement, comme le rappelle le spécialiste de l'histoire de l'astrologie Jacques Halbronn, cette découverte inattendue a fait voler en éclats les dignités planétaires héritées de Claude Ptolémée. Le système des maîtrises des planètes sur les signes est central en astrologie. En effet, à la suite de Jean-Baptiste Morin de Villefranche, les astrologues basent leur système d'interprétation sur . Ptolémée avait attribué deux maîtrises pour Mercure, Vénus, Mars, Jupiter, Saturne, et une seule maîtrise pour la Lune et le Soleil, soit douze maîtrises de signes astrologiques au total, autant que les signes. Cela correspondait à un nombre traditionnel de sept (d'où le nom de Septénaire astrologique) astres visibles à l'œil nu, en incluant les deux luminaires Soleil et Lune. Avec la découverte d'Uranus, tout ce savant dispositif s'écroulait : qu'Uranus se voie attribuer deux maîtrises ou une seule, il y aurait doublon(s). Certains ont affirmé qu'étant invisible, Uranus n'avait pas de trône, soit une exception de taille à la théorie. Caractéristiques physiques. Masse et diamètre. Avec une masse de , Uranus est un corps intermédiaire entre la Terre et les géantes gazeuses de grande taille comme Jupiter ou Saturne. En effet, la masse uranienne vaut la masse terrestre mais de la masse jovienne. Par convention, la forme de la planète est définie par un modèle d'ellipsoïde de révolution où la est définie comme l'endroit où la pression atmosphérique est égale à et est utilisée comme point de référence pour les altitudes. Son rayon équatorial est de et son rayon polaire de , ce dernier étant plus faible du fait de l'aplatissement causé par la rotation de la planète. Sa gravité à est de , soit 90 % de la gravité de surface sur Terre. Comme Uranus est légèrement moins massive que Neptune (cette dernière possédant une masse de ), elle est légèrement plus grande en raison de la compression gravitationnelle ( de diamètre pour Neptune contre pour Uranus), avec un rayon d'à peu près quatre fois le rayon terrestre. Par ailleurs, Neptune et Uranus sont souvent considérées comme une sous-classe des planètes géantes, appelées , en raison de leur taille plus petite et de leur plus forte concentration de substances volatiles par rapport à Jupiter et Saturne. Dans le cadre de la recherche d'exoplanètes, Uranus est parfois utilisée comme métonymie pour décrire les corps découverts ayant une masse similaire ; l'appellation reste cependant plus courante, par exemple les Neptunes chaudes ou froides. Structure interne. La densité d'Uranus est de , faisant d'Uranus la deuxième planète la moins dense, après Saturne. Cette valeur indique qu'elle est composée principalement de diverses glaces, telles que l'eau, l'ammoniac et le méthane, de façon similaire à Neptune. La masse totale de glace à l'intérieur d'Uranus n'est pas connue avec précision, car les valeurs diffèrent selon le modèle choisi. Cependant, cette valeur doit être comprise entre 9,3 et . L'hydrogène et l'hélium ne constituent quant à eux qu'une petite partie du total, avec entre 0,5 et , en proportions identiques à celles trouvées au sein du Soleil. Le reste de la masse non glacée (0,5 à ) est représenté par des matériaux rocheux. Le modèle standard de la structure d'Uranus se décompose en trois couches : un noyau rocheux (silicate, fer et nickel) au centre, un manteau glacé au milieu puis une enveloppe externe d'hydrogène et d'hélium gazeux. Le noyau est relativement petit, avec une masse de seulement et un rayon inférieur à 20 % de la planète, soit environ la taille de la Terre. Le manteau comprend l'essentiel de sa masse pour 60 % du rayon, et la haute atmosphère les 20 % restants pour . Avec une masse volumique du noyau d'Uranus d'environ , la pression au centre serait d'environ () et la température de l'ordre de grandeur de . Comme il est d'usage en planétologie, le manteau est qualifié de glacé même s'il s'agit d'un fluide chaud et dense composé d'eau, d'ammoniac et d'autres substances volatiles. Ce fluide, à haute conductivité électrique, est parfois appelé . En 1981, des études théoriques et des expériences réalisées par compression laser conduisent Marvin Ross, du laboratoire national Lawrence Livermore, à proposer que cette couche soit totalement ionisée, et que le méthane y soit pyrolysé en carbone sous forme de métal ou de diamant. Le méthane se décompose en carbone et en hydrocarbures du fait des très fortes pressions et températures y régnant. Ensuite, la précipitation du carbone libère de l'énergie entraînant des courants de convection qui libèrent les hydrocarbures dans l'atmosphère. Ce modèle expliquerait la présence d'hydrocarbures divers dans l'atmosphère d'Uranus. En 2017, de nouvelles expériences simulant les conditions présumées régner vers sous la surface d'Uranus et de Neptune viennent conforter ce modèle en produisant des diamants de taille nanométrique. Ces conditions de hautes température et pression ne peuvent pas être maintenues plus d'une nanoseconde sur Terre mais, dans les atmosphère de Neptune ou d'Uranus, les nano-diamants auraient le temps de croître pour donner des pluies de diamants. Il est également supposé que ce type de pluies de diamants se produise sur Jupiter et Saturne. Aussi, le sommet du manteau pourrait être un océan de carbone liquide où les solides flotteraient. Certaines études appuient l'hypothèse selon laquelle le manteau serait constitué d'une couche d'eau ionique dans laquelle les molécules d'eau se décomposeraient en ions hydrogène et oxygène, et plus profondément en eau superionique, dans laquelle l'oxygène cristallise mais les ions hydrogène flottent librement dans le réseau d'oxygène. Cependant d'autres études tendent à établir que la présence de carbone (sous forme de méthane), ne permettrait pas la formation d'eau superionique (et plus précisément de cristaux d’oxygène). Bien que le modèle considéré ci-dessus soit raisonnablement standard, il n'est pas unique et d'autres modèles sont également envisagés. Par exemple, il se pourrait qu'il y ait des quantités substantielles d'hydrogène et de roches mélangées dans le manteau de glace, faisant que la masse totale de glaces supposée soit supérieure à la réalité. Les données actuellement disponibles, provenant quasiment uniquement du survol de "Voyager 2", ne permettent pas d'avoir de certitude en la matière. Chaleur interne. La chaleur interne d'Uranus semble nettement inférieure à celle des autres planètes géantes, y compris Neptune qui a pourtant une masse et une composition similaire. En effet, si Neptune irradie plus d'énergie dans l'espace qu'elle n'en reçoit du Soleil, Uranus ne rayonne pratiquement pas de chaleur en excès : la puissance totale rayonnée par Uranus dans la partie infrarouge lointain du spectre est de fois l'énergie solaire absorbée dans son atmosphère. Cette différence de chaleur interne entre les deux planètes glacées explique la plus forte activité climatique et les vents plus rapides présents sur Neptune. En fait, le flux de chaleur d'Uranus est seulement de , ce qui est plus bas que le flux de chaleur interne de la Terre qui est d'environ . La température la plus basse enregistrée dans la tropopause d'Uranus est de (−), faisant d'Uranus la planète la plus froide du Système solaire. L'une des hypothèses pour expliquer cet écart avec Neptune est qu'Uranus aurait été frappée par un impacteur ; en conséquence, elle aurait expulsé la majeure partie de sa chaleur primordiale et se serait finalement retrouvée avec une température centrale plus faible. Cette hypothèse d'impact est également celle utilisée dans certaines tentatives d'explication de l'inclinaison axiale particulière de la planète. Une autre hypothèse est qu'il existe une forme de barrière dans les couches supérieures d'Uranus qui empêcherait la chaleur du noyau d'atteindre la surface. Par exemple, la convection peut avoir lieu dans un ensemble de couches de composition différente, ce qui pourrait inhiber la conduction thermique verticale ou faire apparaître une convection diffusive double qui pourrait être un facteur limitant. Il est cependant difficile d'expliquer simultanément le manque de chaleur interne d'Uranus tout en observant sa similitude apparente avec Neptune. Il est aussi possible que les activités atmosphériques sur les deux géantes glacées soient plus dépendantes de l'irradiation solaire que de la quantité de chaleur s'échappant de leur intérieur. Atmosphère. Bien qu'il n'y ait pas de surface solide définie à l'intérieur d'Uranus, la partie la plus externe de l'enveloppe gazeuse d'Uranus est appelée son atmosphère. L'atmosphère uranienne peut être divisée en trois couches : la troposphère, entre -300 et avec des pressions allant de 100 à , puis la stratosphère, de 50 à et des pressions allant de 0.1 à , puis la thermosphère, s'étendant de jusqu'à de la surface . Composition. L’atmosphère d'Uranus, comme celle de Neptune, est différente de celles trouvées sur les deux géantes gazeuses, Jupiter et Saturne. Bien que principalement composée comme elles d'hydrogène et d'hélium, elle possède en effet une plus grande proportion de substances volatiles telles que l'eau, l'ammoniac et le méthane. Par ailleurs, ce dernier ayant des bandes d'absorption proéminentes dans le visible et le proche infrarouge (IR), il est la cause de la couleur aigue-marine ou cyan de la planète. Des traces de divers hydrocarbures se trouvent dans la stratosphère d'Uranus, qui pourraient être produits à partir du méthane par photolyse induite par le rayonnement solaire ultraviolet. Parmi eux, et hormis le méthane, on trouve notamment l'éthane, l'acétylène, le méthylacétylène et le diacétylène. La spectroscopie révèle aussi des traces de vapeur d'eau, de monoxyde de carbone et de dioxyde de carbone dans la haute atmosphère, qui ne peuvent provenir que de sources externes telles que des comètes. Troposphère. La troposphère est la partie la plus basse et la plus dense de l'atmosphère, se caractérisant par une diminution de la température avec l'altitude. La température tombe d'environ à (base de la troposphère) à à . Les températures dans la région supérieure la plus froide de la troposphère (la tropopause) varient de 49 à en fonction de la latitude planétaire. La région de la tropopause est responsable de la grande majorité des émissions infrarouges lointaines thermiques d'Uranus, permettant ainsi de déterminer sa température effective de . La troposphère est une partie dynamique de l'atmosphère, présentant des vents forts, des nuages brillants et des changements saisonniers. Stratosphère. La couche intermédiaire de l'atmosphère uranienne est la stratosphère, où la température augmente généralement avec l'altitude à partir de à la tropopause jusqu'à entre 800 et (527 et ) à la base de la thermosphère. Le réchauffement de la stratosphère est causé par l'absorption des rayons UV et IR solaires par le méthane et d'autres hydrocarbures. La chaleur est également conduite à partir de la thermosphère chaude. Les hydrocarbures occupent une couche relativement étroite à des altitudes comprises entre 100 et correspondant à une plage de pression de 1000 à et à des températures comprises entre 75 et (-198 et ). L'éthane et l'acétylène ont tendance à se condenser dans la partie inférieure la plus froide de la stratosphère et à la tropopause (en dessous de ) en formant des couches de brume, qui peuvent être en partie responsables de l'apparence terne d'Uranus. La concentration d'hydrocarbures dans la stratosphère uranienne au-dessus de la brume est nettement inférieure à celle des stratosphères des autres planètes géantes. Thermosphère. La couche la plus externe de l'atmosphère uranienne est la thermosphère, qui a une température uniforme d'environ 800 et (527 et ). Les sources de chaleur nécessaires pour maintenir un niveau aussi élevé ne sont pas totalement expliquées, car ni le rayonnement ultraviolet solaire et ni l'activité aurorale ne peuvent fournir l'énergie nécessaire pour atteindre ces températures . La faible efficacité de refroidissement due au manque d'hydrocarbures dans la stratosphère au-dessus de pourrait cependant contribuer. En plus de l'hydrogène moléculaire, la thermosphère contient de nombreux atomes d'hydrogène libres. Leurs faibles masses et leurs températures élevées créent une couronne s'étendant jusqu'à , soit deux rayons uraniens à partir de sa surface. Cette couronne étendue est une caractéristique unique d'Uranus. Ses effets induisent une traînée sur les petites particules en orbite autour d'Uranus, provoquant un épuisement général de poussière des anneaux d'Uranus. La thermosphère d'Uranus avec la partie supérieure de la stratosphère correspondent à sa ionosphère, s'étendant de . La ionosphère d'Uranus est plus dense que celle de Saturne ou de Neptune, ce qui peut être une conséquence de la faible concentration d'hydrocarbures dans la stratosphère. La ionosphère est principalement entretenue par le rayonnement solaire UV et sa densité dépend de l'activité solaire. Climat. Aux longueurs d'onde ultraviolettes et visibles, l'atmosphère d'Uranus apparaît terne par rapport aux autres planètes géantes. Lorsque "Voyager 2" survole Uranus en 1986, la sonde observe un faible total de dix caractéristiques nuages sur toute la planète. Une explication proposée pour cette pénurie de caractéristiques est que la chaleur interne d'Uranus est nettement inférieure à celle des autres planètes géantes, dont Neptune qui lui ressemble pourtant par ailleurs. La température la plus basse enregistrée à la tropopause d'Uranus est de , faisant d'Uranus la planète la plus froide du Système solaire. Structure en bandes. En 1986, "Voyager 2" découvre que l'hémisphère sud visible d'Uranus peut être subdivisé en deux régions : une calotte polaire brillante et des bandes équatoriales sombres. Leur frontière est située à environ une latitude d'environ -45°. Une bande étroite chevauchant la plage latitudinale de -45 à -50° est la caractéristique la plus brillante sur sa surface visible : elle est appelée le ("collar") du sud. Il est supposé que la calotte et le collier sont des régions denses de nuages de méthane situés dans la plage de pression de 1,3 à . Outre la structure en bandes à grande échelle, "Voyager 2" observe dix petits nuages brillants, la plupart se trouvant à plusieurs degrés au nord du collier. À tous autres égards, Uranus ressemble à une planète dynamiquement morte lors de ce survol. Aussi, "Voyager 2" arrive au plus fort de l'été sud d'Uranus et ne peut donc pas observer l'hémisphère nord. Au début du , lorsque la région polaire nord apparaît, le télescope spatial "Hubble" et le télescope "Keck" n'observent initialement ni collier ni calotte polaire dans l'hémisphère nord : Uranus semblait donc asymétrique, lumineuse près du pôle sud et uniformément sombre dans la région au nord du collier sud. Cependant, en 2007, quand Uranus atteint son équinoxe, le collier sud avait presque disparu et un léger collier nord avait quant à lui émergé vers 45° de latitude. Nuages. Dans les années 1990, le nombre de caractéristiques de nuages brillants observés augmente considérablement, en partie grâce à de nouvelles techniques d'imagerie haute résolution. La plupart sont trouvés dans l'hémisphère nord alors qu'il commençait à devenir visible. Il existe des différences entre les nuages de chaque hémisphère : les nuages du nord sont plus petits, plus nets et plus brillants. Aussi, ils semblent se trouver à une altitude plus élevée. La durée de vie des nuages s'étend sur plusieurs ordres de grandeur ; si certains petits nuages vivent pendant quelques heures, au moins un nuage au sud semblait avoir persisté depuis le survol du "Voyager 2" vingt ans après. Des observations plus récentes laissent également à penser que les nuages sur Uranus seraient semblables en certains points à ceux de Neptune. Par exemple, les taches sombres communes sur Neptune n'avaient jamais été observées sur Uranus avant 2006, lorsque la première de ce type est prise en image. Il est spéculé qu'Uranus deviendrait plus semblable à Neptune lorsque proche de ses équinoxes. Le suivi des caractéristiques nuageuses permet de déterminer des vents zonaux soufflant dans la haute troposphère d'Uranus. À l'équateur, les vents sont rétrogrades, ce qui signifie qu'ils soufflent dans le sens inverse de la rotation planétaire. Leurs vitesses vont de -360 à . La vitesse du vent augmente avec la distance de l'équateur, atteignant des valeurs nulles près de ± 20° de latitude, là où se situe la température minimale de la troposphère. Plus près des pôles, les vents se déplacent dans une direction prograde. La vitesse du vent continue d'augmenter pour atteindre des maxima à () vers ± 60° de latitude avant de tomber à zéro aux pôles. Variations saisonnières. Pendant une courte période de mars à , de gros nuages apparaissent dans l'atmosphère uranienne, lui donnant une apparence similaire à celle de Neptune. Les observations comprenaient des vitesses de vent de () et un orage persistant surnommé . En 2006, la première tache sombre est observée. La raison pour laquelle cette soudaine recrudescence d'activité s'est produite n'est pas entièrement connue, mais il semble que l'inclinaison axiale d'Uranus entraîne des variations saisonnières extrêmes de son climat. Il est difficile de déterminer la nature de cette variation saisonnière car des données précises sur l'atmosphère d'Uranus existent depuis moins de 84 ans, soit une année uranienne complète. La photométrie au cours d'une demi-année uranienne (à partir des années 1950) montre une variation régulière de la luminosité dans deux bandes spectrales, les maxima se produisant aux solstices et les minima aux équinoxes. Une variation périodique similaire, avec des maxima aux solstices, est notée dans les mesures par micro-ondes de la troposphère profonde commencées dans les années 1960. Les mesures de la température stratosphérique à partir des années 1970 montrent aussi des valeurs maximales proches du solstice de 1986. Il est supposé que la majorité de cette variabilité se produit en raison de changements dans la géométrie de visualisation. Il existe quelques indications des changements saisonniers physiques se produisant sur Uranus. En effet, si elle connue pour avoir une région polaire sud brillante et un pôle nord mat, ce qui serait incompatible avec le modèle du changement saisonnier décrit ci-dessus, la planète avait pourtant affiché des niveaux de luminosité élevés lors de son précédent solstice de l'hémisphère nord vers 1946. Le pôle nord n'aurait ainsi pas toujours été aussi sombre et le pôle visible pourrait ainsi s'éclaircir quelque temps avant le solstice et s'assombrir après l'équinoxe. Une analyse détaillée des données visibles et micro-ondes révèle que les changements périodiques de luminosité ne sont pas complètement symétriques autour des solstices, ce qui indique également un changement dans les modèles d'albédo méridien. Dans les années 1990, alors qu'Uranus s'éloigne de son solstice, Hubble et les télescopes au sol révèlent que la calotte polaire sud s'assombrit sensiblement (sauf le collier sud, qui reste brillant), puis l'hémisphère nord commence au début des années 2000 à connaître une activité croissante, comme des formations nuageuses et des vents plus forts allant jusqu'à , renforçant les attentes selon lesquelles cet hémisphère devrait bientôt s'éclaircir. Cela s'est effectivement produit en 2007 lorsque la planète passe son équinoxe : un léger collier polaire nord s'est levé et le collier sud est devenu presque invisible, bien que le profil de vent zonal soit resté légèrement asymétrique, les vents du nord étant un peu plus lents que ceux du sud. Magnétosphère. Avant le survol de "Voyager 2", aucune mesure de la magnétosphère uranienne n'avait été réalisée et sa nature était donc inconnue. Avant 1986, les astronomes supposent que le champ magnétique d'Uranus est aligné avec le vent solaire, puisqu'il serait alors aligné avec les pôles, qui sont sur le plan de l'écliptique. Cependant, les observations de "Voyager 2" révèlent que le champ magnétique d'Uranus est particulier, d'une part parce qu'il n'a pas pour origine le centre géométrique de la planète mais est décalé de près de de celui-ci (un tiers du rayon planétaire), et d'autre part parce qu'il penche de 59° par rapport à l'axe de rotation. Cette géométrie inhabituelle a pour conséquence d'induire une magnétosphère fortement asymétrique, la force du champ magnétique à la surface du pôle sud pouvant être aussi basse que (), alors qu'au pôle nord elle peut atteindre (). Le champ magnétique moyen en surface est de (). En 2017, des études sur les données de "Voyager 2" suggèrent que cette asymétrie amène la magnétosphère d'Uranus à réaliser une reconnexion magnétique avec le vent solaire une fois par jour uranien, ouvrant la planète aux particules du Soleil. En comparaison, le champ magnétique terrestre est à peu près aussi fort à l'un ou l'autre des pôles, et son est à peu près parallèle à son équateur géographique. Le moment magnétique bipolaire d'Uranus vaut environ celui de la Terre. Neptune possède également un champ magnétique penché et déséquilibré de la même manière, ce qui suggère que cela pourrait être une caractéristique commune des géantes de glaces. Une hypothèse est que, contrairement aux champs magnétiques des planètes telluriques et géantes gazeuses, qui sont générés dans leurs noyaux, les champs magnétiques des géantes de glace seraient générés par des mouvements de conducteurs à des profondeurs relativement faibles, par exemple, dans l'océan eau-ammoniac. Une autre explication possible de l'alignement particulier de la magnétosphère est que des océans de diamant liquide à l'intérieur d'Uranus auraient une incidence sur le champ magnétique. Malgré son étrange alignement, la magnétosphère uranienne est, par bien des aspects, semblable à celle des autres planètes : elle possède un arc de choc à environ devant elle, une magnétopause à , une magnétoqueue bien développée et des ceintures de radiation. Dans l'ensemble, la structure de la magnétosphère d'Uranus est similaire à celle de Saturne. La queue de la magnétosphère d'Uranus est par ailleurs tordue à cause de sa rotation latérale en une forme de long tire-bouchon s’étendant sur des millions de kilomètres derrière elle. La magnétosphère d'Uranus contient des particules chargées, avec principalement des protons et des électrons et une petite quantité d'ions H2+ mais aucun ion plus lourd n'a été détecté. Beaucoup de ces particules proviendraient de la thermosphère. La population de particules est fortement affectée par les lunes uraniennes qui balaient la magnétosphère, laissant des lacunes importantes. Le flux de ces particules est suffisamment élevé pour provoquer une érosion spatiale de leurs surfaces sur une échelle de temps astronomiquement rapide de . Cela pourrait être la cause de la coloration uniformément sombre des satellites et des anneaux d'Uranus. Uranus présente des aurores polaires relativement développées, qui apparaissent comme des arcs lumineux autour des deux pôles magnétiques. Contrairement à Jupiter, les aurores d’Uranus semblent être insignifiantes pour le bilan énergétique de la thermosphère planétaire. En , les astronomes de la NASA signalent la détection d'une grande bulle magnétique atmosphérique, également connue sous le nom de plasmoïde. Elle aurait été libérée dans l'espace par la planète Uranus lors du survol de la planète en 1986, cette découverte ayant été faite après avoir réévalué d'anciennes données enregistrées par la sonde spatiale "Voyager 2". Caractéristiques orbitales. Orbite. La période de révolution d'Uranus autour du Soleil est d'environ terrestres ( terrestres), la seconde plus grande des planètes du Système solaire après Neptune. L’intensité du flux solaire sur Uranus est d’environ de celui reçu par la Terre. Le demi-grand axe d'Uranus est de , soit environ de kilomètres. Son excentricité orbitale de implique que la différence entre sa distance au Soleil à l'aphélie et au périhélie est de . Calcul de son orbite. En 1821, Alexis Bouvard publie des tables astronomiques de l'orbite d'Uranus. Cependant, avec le temps, des divergences commencent à apparaître entre les orbites prévues et observées et l'astronome français, notant ces perturbations gravitationnelles inexpliquées, conjecture qu'une huitième planète, plus lointaine, pourrait en être la cause. Les astronomes britannique John Couch Adams en 1843 et français Urbain Le Verrier en 1846 calculent indépendamment la position prévue de cette hypothétique planète. Grâce aux calculs de ce dernier, elle est finalement observée pour la première fois le par l'astronome prussien Johann Gottfried Galle, à un degré de la position prédite. Rotation. La période de rotation des couches intérieures d’Uranus est de et . Cependant, comme toutes les planètes géantes, la haute atmosphère d’Uranus connaît des vents très violents dans la direction de rotation. Le vent à la surface d’Uranus peut atteindre des vitesses de l'ordre de 700 ou vers +60° de latitude et, par conséquent, des parties visibles de son atmosphère se déplacent beaucoup plus vite et effectuent une rotation complète en environ . Son rayon équatorial est de et son rayon polaire de , ce dernier étant plus faible du fait de l'aplatissement causé par la rotation de la planète. Inclinaison de l’axe. À la différence de toutes les autres planètes du Système solaire, Uranus présente une très forte inclinaison de son axe par rapport à la normale de l'écliptique. Ainsi, avec une inclinaison axiale de 97,77° cet axe est quasiment parallèle au plan orbital. La planète pour ainsi dire sur son orbite et présente alternativement au Soleil son pôle nord, puis son pôle sud. Cela crée des changements saisonniers complètement différents de ceux des autres planètes. Près du solstice, un pôle fait face au Soleil en continu et l'autre est tourné vers l'extérieur. Chaque pôle obtient donc environ d'ensoleillement continu suivies d'autant d'années d'obscurité. Seule une bande étroite autour de l'équateur connaît un cycle jour-nuit rapide, mais avec le soleil très bas à l'horizon. De l'autre côté de l'orbite d'Uranus, l'orientation des pôles vers le Soleil est inversée. Un résultat de cette orientation d'axe est que, en moyenne sur une année uranienne, les régions polaires d'Uranus reçoivent plus d'énergie solaire que ses régions équatoriales. Néanmoins, Uranus est plus chaude à son équateur qu'à ses pôles ; le mécanisme en cause de ce résultat contre-intuitif est inconnu mais pourrait être dû à un processus de distribution de la chaleur par le climat. Près de l'équinoxe, le Soleil fait face à l'équateur d'Uranus, lui donnant pendant un temps une période de cycles jour-nuit proche de ceux observés sur la plupart des autres planètes. Uranus atteint son équinoxe le plus récent le . Plusieurs hypothèses peuvent expliquer cette configuration particulière de l'axe de rotation de la planète. L'une d'elles décrit la présence d'un satellite ayant provoqué graduellement le basculement d'Uranus par un phénomène de résonance avant d'être éjecté de son orbite. Une autre thèse avance le fait que le basculement serait dû à au moins deux impacts avec des impacteurs qui se seraient produits avant que les satellites d'Uranus ne se soient formés. À l'appui de cette thèse, en , plus de cinquante simulations d'impact effectuées avec des super calculateurs concluent à une collision majeure entre une jeune protoplanète et Uranus, au niveau du pôle Nord et à une vitesse de . La protoplanète de roche et de glace aurait fait basculer Uranus avant de se désintégrer et de former une couche de glace sur le manteau. Cette collision aurait relâché une partie de la chaleur interne de la planète, expliquant qu'elle soit la plus froide du Système solaire. Lors du survol de la planète par "Voyager 2" en 1986, le pôle sud d'Uranus est orienté presque directement vers le Soleil. On peut dire qu’Uranus a une inclinaison légèrement supérieure à 90° ou encore que son axe a une inclinaison légèrement inférieure à 90° et qu’elle tourne alors sur elle-même dans le sens rétrograde. L'étiquetage de ce pôle comme utilise la définition actuellement approuvée par l'Union astronomique internationale, à savoir que le pôle nord d'une planète ou d'un satellite est le pôle qui pointe au-dessus du plan invariable du Système solaire, quelle que soit la direction dans laquelle la planète tourne. Ainsi, par convention, Uranus a une inclinaison supérieure à 90° et possède donc une rotation rétrograde, comme Vénus. Formation et migration. La formation des géantes de glaces, Uranus et Neptune, s'avère difficile à modéliser avec précision. Les modèles actuels suggèrent que la densité de matière dans les régions externes du Système solaire est trop faible pour tenir compte de la formation de si grands corps à partir de la méthode traditionnellement acceptée d'accrétion du noyau, aussi appelée modèle d'accrétion de cœur. Ainsi, diverses hypothèses sont avancées pour expliquer leur apparition. La première hypothèse est que les géantes de glaces n'ont pas été formées par l'accrétion du noyau, mais à partir d'instabilités dans le disque protoplanétaire d'origine qui ont ensuite vu leur atmosphère soufflée par le rayonnement d'une association OB massive à proximité. Une autre hypothèse est qu'elles se sont formées plus près du Soleil, où la densité de matière était plus élevée, puis qu'elles ont ensuite réalisé une migration planétaire vers leurs orbites actuelles après le retrait du disque protoplanétaire gazeux. Cette hypothèse de migration après formation est maintenant privilégiée en raison de sa capacité à mieux expliquer l'occupation des populations de petits objets observées dans la région trans-neptunienne. Le courant le plus largement accepté des explications sur les détails de cette hypothèse est connu sous le nom de modèle de Nice, qui explore l'effet d'une migration d'Uranus et des autres planètes géantes sur la structure de la ceinture de Kuiper. Cortège d'Uranus. Lunes. Uranus possède connus. Leur masse combinée représente moins de 0,02 % de la masse de la planète. Les noms de ces satellites sont choisis parmi les personnages des œuvres de Shakespeare et d'Alexandre Pope. William Herschel découvre les deux premières lunes, Titania et Obéron, en 1787 . Elles sont nommées ainsi après par son fils John Herschel. Par ailleurs, William Herschel pense en avoir découvert quatre autres les années suivantes mais leur correspondance avec des lunes existantes n'est pas vérifiée. Ces observations ont alors une grande importance car elles permettent notamment d'estimer la masse et le volume de la planète. William Lassell annonce officiellement la découverte d'Ariel et Umbriel en 1851, résultat d'un travail commun avec William Dawes. Près d'un siècle plus tard (en 1948), Gerard Kuiper découvre Miranda. La vingtaine de lunes restantes est découverte après 1985, pour certaines pendant le survol de et les autres avec des télescopes au sol. Les satellites d'Uranus sont divisés en trois groupes : treize satellites intérieurs, cinq satellites majeurs et neuf satellites irréguliers. Les satellites intérieurs sont de petits corps sombres ayant des caractéristiques et une origine communes avec les anneaux de la planète. Leur orbite est située à l'intérieur de celle de Miranda et ils sont fortement liés aux anneaux d'Uranus, certaines lunes ayant probablement causé certains anneaux par fragmentation. Puck est le plus grand satellite intérieur d'Uranus, avec un diamètre de , et le seul pour lequel les photos prises par "Voyager 2" montrent des détails. Parmi les autres satellites intérieurs, on compte par ordre d'éloignement à la planète Cordélia, Ophélie, Bianca, Cressida, Desdémone, Juliette, Portia, Rosalinde, Cupid, Belinda, Perdita et Mab. Les cinq satellites majeurs ont une masse suffisante pour être en équilibre hydrostatique. Tous sauf Umbriel présentent à la surface des signes d'activité interne, tels que la formation de canyons ou du volcanisme. Le plus grand satellite d'Uranus, Titania, est le huitième plus grand du Système solaire, avec un diamètre de , soit un peu moins de la moitié de la Lune pour une masse vingt fois inférieure. La masse combinée des cinq principaux satellites est inférieure à la moitié de celle de Triton (le plus grand satellite naturel de Neptune) seul. Ils ont des albédos géométriques relativement bas, allant de 0,21 pour Umbriel à 0,39 pour Ariel . Ce sont des conglomérats de glace et de roche composés d'environ 50 % de glace (ammoniac et dioxyde de carbone) et de 50 % de roche, de façon similaire aux satellites glacés de Saturne. Seule Miranda semble principalement composée de glace et possède des canyons d'une profondeur de , des plateaux et des variations chaotiques de ses caractéristiques de surface uniques dans le Système solaire. L'activité géologique passée de Miranda aurait été entraînée par un réchauffement par effet de marée à un moment où son orbite était plus excentrique qu'actuellement, probablement en raison d'une ancienne résonance orbitale 3:1 avec Umbriel. Les satellites irréguliers d'Uranus ont des orbites elliptiques et fortement inclinées (en majorité rétrogrades), et orbitent à de grandes distances de la planète. Leur orbite se situe au-delà de celle d'Obéron, la grande lune la plus éloignée d'Uranus. Ils ont probablement tous été capturés par Uranus peu après sa formation. Leur diamètre est compris entre pour Trinculo et pour Sycorax. Margaret est le seul satellite irrégulier d'Uranus connu ayant une orbite prograde. C'est également un des satellites du Système solaire ayant l'orbite la plus excentrique avec 0,661, bien que Néréide, une lune de Neptune, ait une excentricité moyenne plus élevée avec 0,751. Les autres satellites irréguliers sont Francisco, Caliban, Stephano, Prospero, Setebos et Ferdinand. Anneaux planétaires. Uranus possède un système de treize anneaux planétaires connus, le système d'anneaux d'Uranus étant moins complexe que celui de Saturne, mais plus élaborés que ceux de Jupiter ou de Neptune. William Herschel décrit la présence possible d'anneaux autour d'Uranus en 1787 et 1789. Cette observation est généralement considérée comme douteuse, car les anneaux sont sombres et ténus et, dans les deux siècles suivants, aucun n'a été noté par d'autres observateurs. Pourtant, Herschel fait une description précise de la taille de l'anneau epsilon, de son angle par rapport à la Terre, de sa couleur rouge et de ses changements apparents alors qu'Uranus orbitait autour du Soleil. Le système d'anneau est découvert de façon explicite le par James L. Elliot, Edward W. Dunham et Jessica Mink à l'aide du Kuiper Airborne Observatory. La découverte est fortuite car ils prévoyaient d'utiliser l'occultation de l'étoile SAO 158687 par Uranus pour étudier son atmosphère. Lorsque de l'analyse de leurs observations, ils découvrent que l'étoile avait brièvement disparu cinq fois avant et après sa disparition derrière Uranus, les faisant conclure à l'existence d'un système d'anneau autour d'Uranus. Il s'agit alors du deuxième système d'anneaux planétaires découvert après celui de Saturne. Deux autres anneaux sont découverts par "" entre 1985 et 1986 par observation directe. En décembre 2005, le télescope spatial Hubble détecte une paire d'anneaux auparavant inconnus. Le plus grand est situé deux fois plus loin d'Uranus que les anneaux précédemment connus. Ces nouveaux anneaux sont si éloignés d'Uranus qu'ils sont appelés le système d'anneaux . Hubble repère également deux petits satellites, dont l'un, Mab, partage son orbite avec l'anneau nouvellement découvert le plus externe. En avril 2006, des images des nouveaux anneaux par l'observatoire de Keck révèlent leurs couleurs : le plus extérieur est bleu et l'autre rouge. Une hypothèse concernant la couleur bleue de l'anneau externe est qu'il est composé de minuscules particules de glace d'eau issues de la surface de Mab qui sont suffisamment petites pour diffuser la lumière bleue. Leurs distances au centre d'Uranus vont de pour l’anneau ζ à environ pour l’anneau µ. Si les dix premiers anneaux d’Uranus sont fins et circulaires, le onzième, l’anneau ε, est plus brillant, excentrique et plus large, s'étendant de au point le plus proche de la planète à au point le plus éloigné. Il est encadré par deux lunes, assurant sa stabilité, Cordélia et Desdémone. Les deux derniers anneaux sont très nettement plus éloignés, l’anneau μ se situant deux fois plus loin que l’anneau ε. Il existe probablement de faibles bandes de poussière et des arcs incomplets entre les anneaux principaux. Ces anneaux sont très sombres : l’albédo de Bond des particules les composant ne dépasse pas 2 %, ce qui les rend très peu visibles. Ils sont probablement composés de glace et d'éléments organiques noircis par le rayonnement de la magnétosphère. Au regard de l'âge du Système solaire, les anneaux d’Uranus seraient assez jeunes : leur durée d'existence ne dépasserait pas d’années et ils ne se sont donc pas formés avec Uranus. La matière formant les anneaux a probablement déjà fait partie d'une lune qui aurait été brisée par des impacts à grande vitesse. Parmi les nombreux débris formés à la suite de ces chocs, seules quelques particules ont survécu, dans des zones stables correspondant aux emplacements des anneaux actuels. Autre entourage d'Uranus. Un astéroïde troyen d'Uranus est un astéroïde situé aux alentours d'un des deux points stables de Lagrange (L ou L) du système Soleil-Uranus, c'est-à-dire situé à 60° en avance ou en retard sur l'orbite d'Uranus. Le Centre des planètes mineures (CPM) ne recense qu'un troyen d'Uranus : , situé autour du point L4. est proposé comme second troyen d'Uranus mais n'est cependant toujours pas approuvé par le CPM. Aussi, d'autres objets sont coorbiteurs d'Uranus sans pour autant être classifiés comme troyens. Ainsi, (83982) Crantor est une planète mineure possédant une orbite en fer à cheval vis-à-vis d'Uranus. D'autres exemples de coorbiteurs potentiels comme ou ont également été découverts. Des études montrent qu'il serait possible à un quasi-satellite théorique d'Uranus ou de Neptune de le rester pour la durée de vie du Système solaire, moyennant certaines conditions d'excentricité et d'inclinaison. De tels objets n'ont cependant pas encore été découverts. Observation. La magnitude apparente moyenne d'Uranus est de +5,68 avec un écart-type de 0,17 tandis que les extrêmes sont de +5,38 et +6,03. Cette plage de luminosité étant proche de la limite de l'œil nu située à +6, il est ainsi possible avec un ciel parfaitement sombre et dégagé de la voir comme une étoile très peu lumineuse, notamment lorsqu'elle se trouve en opposition. Cette variabilité est en grande partie expliquée par quelle latitude planétaire d'Uranus est simultanément éclairée par le Soleil et vue depuis la Terre. Sa taille apparente est comprise entre 3,3 et , selon que sa distance à la Terre varie de 3,16 à de kilomètres, et elle est ainsi facilement distinguable avec des jumelles. Avec un télescope possédant un objectif d'un diamètre entre 15 et , Uranus apparaît comme un disque cyan pâle avec assombrissement centre-bord. Avec un télescope possédant un plus large objectif, il devient possible de distinguer ses nuages ainsi que certains de ses plus grands satellites, tels que Titania et Obéron. Depuis 1997, neuf satellites irréguliers extérieurs ont été identifiés à l'aide de télescopes au sol. Deux lunes intérieures supplémentaires, et Mab, sont découvertes grâce au télescope spatial "Hubble" en 2003. Le satellite Margaret est le dernier découvert avec sa découverte publiée en . Le télescope spatial "Hubble" permet également de prendre des photos correctes d'Uranus depuis la Terre, même si elles sont en résolution relative plus faibles que les images de "Voyager 2". Entre 2003 et 2005, grâce aux observations ainsi effectuées, une nouvelle paire d’anneaux est découverte, baptisée par la suite système d’anneaux externe, ce qui porte le nombre d’anneaux d’Uranus à 13. Jusqu'en 2007, Uranus s'est approchée de son équinoxe et une activité nuageuse s’y est développée. La majeure partie de cette activité ne peut pas être perçue autrement qu’avec le télescope spatial "Hubble" ou de grands télescopes munis d’optique adaptative. Exploration. Survol de. La planète n'a été visitée et étudiée à courte distance que par une seule sonde spatiale : "Voyager 2" (NASA) en 1986, qui est donc la source de la majorité des informations connues sur la planète. L'objectif principal de la mission "Voyager" étant l'étude des systèmes de Jupiter et Saturne, le survol d'Uranus n'est rendu possible que parce que ceux-ci se sont parfaitement déroulés auparavant. Lancée en 1977, "Voyager 2" fait son approche au plus près d'Uranus le , à du sommet des nuages de la planète avant de poursuivre son trajet vers Neptune. La sonde étudie la structure et la composition chimique de l'atmosphère d'Uranus, y compris son climat unique, causé par son inclinaison axiale de 97,77°. Elle effectue les premières enquêtes détaillées sur ses cinq plus grandes lunes et en découvre . Elle examine les neuf anneaux connus du système, en découvre deux autres et permet d'établir que leur apparition est relativement récente. Finalement, elle étudie son champ magnétique, sa structure irrégulière, son inclinaison et sa magnétoqueue unique en tire-bouchon causée par son orientation. "Voyager 1" n'a pas pu visiter Uranus car l'enquête sur une lune de Saturne, Titan, était considérée comme une priorité. Cette trajectoire a ensuite fait sortir la sonde du plan de l'écliptique, mettant fin à sa mission de planétologie. Après. La possibilité d'envoyer l'orbiteur "Cassini-Huygens" de Saturne jusqu'à Uranus a été évaluée lors d'une phase de planification d'extension de mission en 2009, mais a finalement été rejetée en faveur de sa destruction dans l'atmosphère saturnienne car il aurait fallu environ vingt ans pour arriver au système uranien après avoir quitté Saturne. Par ailleurs, "New Horizons 2" aurait également pu effectuer un survol rapproché du système uranien. Un orbiteur du nom d"'Uranus orbiter and probe" est recommandé par le Planetary Science Decadal Survey 2013-2022 dans le cadre du programme New Frontiers publié en 2011. Cette proposition envisageait un lancement en 2020-2023 et une croisière de vers Uranus. La sonde pourrait s'inspirer du Pioneer Venus Multiprobe et descendre dans l'atmosphère uranienne. L'Agence Spatiale Européenne évalue une mission de appelée Uranus Pathfinder. D'autres missions telles qu"'OCEANUS", "ODINUS" ou "MUSE" sont étudiées. Dans la culture. Références historiques. L'élément chimique uranium est découvert en 1789 par le chimiste allemand Martin Heinrich Klaproth, nommé d'après Uranus qui venait d'être découverte huit ans auparavant. Il est ensuite isolé par le chimiste français Eugène-Melchior Péligot en 1841 et reste l'élément le plus lourd connu jusqu'en 1940, où le premier élément transuranien est découvert : le neptunium, nommé quant à lui d'après la planète Neptune. L"'opération Uranus" est le nom donné à l'opération militaire réussie de la Seconde Guerre mondiale par l'Armée rouge pour reprendre Stalingrad. Elle débouche sur l"opération Saturne". La même guerre connaîtra ensuite l'opération "Neptune", nom de code donné au débarquement en Normandie des troupes alliées en . Musique et poésie. est le mouvement de l'œuvre pour grand orchestre "Les Planètes", composée et écrite par Gustav Holst entre 1914 et 1916. Par ailleurs, les lunes d'Uranus Obéron, Miranda et Titania sont mentionnées dans la chanson "Astronomy Domine" de Pink Floyd. Dans le poème de John Keats ', les deux vers ' , sont une référence à la découverte d'Uranus par William Herschel. Littérature et cinéma. Depuis sa découverte, Uranus est apparue dans de nombreuses œuvres de science-fiction. Par exemple, elle a été le décor de l'épisode "The Daleks' Master Plan" de Doctor Who ou de certains niveaux dans la série de jeux vidéo Mass Effect, et le sujet du roman de fiction "Uranus" de Ben Bova. Cependant, elle n'a pas inspiré que des œuvres de science-fiction. Ainsi, "Uranus" est un roman de Marcel Aymé paru en 1948 et adapté à l'écran par Claude Berri en 1990. Le titre du roman vient d'une anecdote racontée par un personnage, le professeur Watrin : un bombardement a tué sa femme un soir d' alors qu'il lisait dans un ouvrage d'astronomie le chapitre consacré à Uranus et le nom de la planète lui rappelle ainsi ce souvenir. Jeu de mots. Dans la culture populaire en langue anglaise, de nombreux jeux de mots sont dérivés de la prononciation commune du nom d'Uranus avec l'expression et sont notamment utilisés en tant que gros titre dans les articles de presse relatant de la planète, et ce depuis la fin du . Ce jeu de mots a en conséquence influé la prononciation recommandée de la planète pour éviter l'homonymie. Cela a également été utilisé dans des œuvres de fiction, par exemple dans la série d'animation "Futurama" où la planète a été renommée pour en . Symbolisme. Uranus possède deux symboles astronomiques. Le premier à être proposé, ♅, est suggéré par Jérôme Lalande en 1784. Dans une lettre à William Herschel, le découvreur de la planète, Lalande le décrit comme . Une proposition ultérieure, ⛢, est un hybride des symboles de Mars et du Soleil parce qu'Uranus représente le ciel en mythologie grecque, que l'on croyait dominé par les puissances combinées du Soleil et de Mars. À l'époque moderne, il est toujours employé comme symbole astronomique de la planète, bien que son utilisation soit découragée au profit de l'initiale par l'Union astronomique internationale. |
Une part du ciel Une part du ciel est un film franco-belge réalisé par Bénédicte Liénard, sorti en 2002. Synopsis. Le quotidien de Claudine se résume par la répétition dû à son travail dans une usine et l'ennui. Tandis que Joanna, de son côté, purge une peine de prison. Pour elle aussi, le quotidien est une succession de gestes qui se ressemblent. À la suite d'une faute, Joanna s'est retrouvée incarcérée parce que Claudine n'a pas su, ou voulu, la soutenir. Elle mène un combat contre la justice durant son séjour. Pour cela, Claudine devra témoigner en sa faveur. |
Uniform Resource Locator Une URL (sigle de l’, littéralement « localisateur uniforme de ressource »), couramment appelée adresse web, est une chaîne de caractères uniforme qui permet d'identifier une ressource du World Wide Web par son emplacement et de préciser le protocole internet pour la récupérer (par exemple http ou https). Elle peut localiser divers formats de données : document HTML, image, son... Description. Les URL constituent un sous-ensemble des identifiants uniformes de ressource ("Uniform Resource Identifier", URI), identifiants uniques d'accès à une ressource. La syntaxe d'une URL est décrite dans la . Une URL, outre les adresses web, concerne d'autres ressources, selon d'autres schémas, par exemple : Adresse web. Les URL sont une création du et sont utilisées pour identifier les pages et les sites web. Elles sont aussi appelées par métonymie adresses web. L'article sur les adresses web porte sur l'identité des sites web et les aspects techniques, économiques et juridiques qui s'y rattachent, ainsi que des différentes traductions en français de l'acronyme URL. Cet article décrit les URL en tant que standard technique : toutes les formes qu'elles peuvent prendre, notamment pour pointer des ressources hors du Web, ainsi que les principaux usages techniques. En France, d'après le Journal officiel de la République française du , « URL » peut être traduit par "adresse réticulaire" ou "adresse universelle" mais il n'est pas passé dans l'usage. Le domaine de premier niveau est l'équivalent de la racine de l'arbre d'arborescence et le second niveau équivalent à une sous partie "une branche" de l'arbre. Usages. Les URL ont été créées pour indiquer avec une notation (d'où l'adjectif « uniforme ») aux navigateurs web comment accéder à toutes les ressources d'Internet. Hyperliens. Chaque hyperlien du web est construit avec l'URL de la ressource pointée, insérée avec une certaine syntaxe dans un document source (ou dans un programme ou dans une interface utilisateur) qui le contient pour indiquer la localisation d'une autre ressource (un document) ou fragment de ressource (une ancre cible dans cet autre document, qui peut aussi être lui-même). Lorsqu'on active un hyperlien, le navigateur web peut présenter son URL dans une barre d'état (voir ci-dessous pour la « barre d'adresse »). Un hyperlien peut aussi être construit de façon externe au document lui-même, dans une base de données référençant toutes les paires (URL source, URL cible) entre une zone activable d'un document source et une ancre cible dans un document (qui peut être le même que le document source contenant la zone activable). L'hyperlien peut aussi être construit de façon inversée, en insérant dans le document cible l'URL de la zone source. Barre d'adresse. Chaque navigateur web dispose d'une barre d'adresse affichant l'URL de la ressource consultée. Inversement, l'utilisateur peut saisir une URL dans cette barre pour consulter la ressource correspondante. Si le support le permet, on peut aussi trouver l'URL correspondant à un lien en positionnant la souris sur l'image ou le texte approprié. L'URL peut alors être présentée dans une barre d'état ou une bulle d'information. Dans les versions récentes de certains navigateurs, comme Google Chrome, la barre d'adresse n'affiche plus l'URL complète réelle. Le protocole (ex. : http ou https) ou le préfixe « www » peuvent être masqués car implicites. Historique de navigation. Les navigateurs web conservent un historique des URL consultées. Cela leur permet de reconnaître et présenter de manière distinctive les hyperliens vers des ressources déjà consultées. Pages favorites. Il suffit à un navigateur web de conserver l'URL d'une ressource pour constituer une liste de favoris (ou marque-pages). Lorsqu'un titre de ressource existe, les navigateurs le conservent aussi, ce qui permet d'afficher le titre d'une page plutôt que son URL. Syntaxe. Une URL est une chaîne de caractères combinant les informations nécessaires pour indiquer à un logiciel comment accéder à une ressource Internet. Ces informations peuvent notamment comprendre le protocole de communication, un nom d'utilisateur, un mot de passe, une adresse IP ou un nom de domaine, un numéro de port TCP/IP, un chemin d'accès, une requête. Les informations nécessaires varient selon la ressource et le contexte d'utilisation de l'URL. En outre un identificateur de fragment peut être ajouté à la fin d'une URL pour identifier un élément à l'intérieur de la ressource. Bien que l'identificateur de fragment ne fasse pas formellement partie de l'URL, il est également décrit dans cet article et dans les standards techniques. URL absolue. Une URL absolue permet d'indiquer comment accéder à une ressource indépendamment de tout contexte où elle peut être précisée ou transmise. Elle commence par l'indication d'un schéma de représentation (spécifique au protocole de communication utilisé pour accéder à cette ressource), suivi de l'ensemble des paramètres permettant de localiser sur le réseau le service hébergeant la ressource, puis permet de préciser à ce service le nom d'une ressource à traiter, transmettre des données de traitement, acheminer et récupérer les résultats, puis de préciser éventuellement quelle partie de ce résultat sera utilisée. Exemple : codice_5 Quelques exemples pratiques : URL relative. Les protocoles utilisant un chemin hiérarchique permettent l'utilisation d'URL relatives. Une URL relative ne contient ni protocole ni nom de domaine. Ceux-ci sont déduits à partir de l'URL de la ressource contenant l'URL relative. Les URL relatives sont souvent utilisées pour les hyperliens à l'intérieur d'un même site web. Si le document d'URL codice_39 contient l'URL relative codice_40, cela correspond à codice_41. Les URL relatives sont directement inspirées de la syntaxe des systèmes de fichiers Unix. L'usage d'URL relatives permet de ne pas avoir à reprendre l'ensemble des liens lors du changement d'adresse d'un site. L'URL : Histoire. 1630. Le est publié en par Tim Berners-Lee. C'est un mémo, publié en attendant que l'Internet Engineering Task Force (IETF) termine son travail sur les URI. Ce RFC documente la pratique contemporaine sur le Web, et n'est explicitement pas destiné à devenir une norme. Media Resource Locator. Media Resource Locator (MRL) est une chaîne de caractères utilisée pour identifier des ressources multimédia sur le World Wide Web ou en local (c’est-à-dire sur l'ordinateur de l'utilisateur). Le terme MRL est une analogie avec le terme URL. Une MRL est utilisée pour la lecture de contenu multimédia en streaming sur Internet, de même que par certains lecteur multimédias comme VLC media player et Xine. Voir aussi. Standardisation (en anglais). Documents définissants les recommandations et normalisations liées aux URL : |
Uniform Resource Identifier Un URI, de l'anglais , soit littéralement "identifiant uniforme de ressource", est une courte chaîne de caractères identifiant une ressource sur un réseau (par exemple une ressource Web) physique ou abstraite, et dont la syntaxe respecte une norme d'Internet mise en place pour le (voir ). La norme était précédemment connue sous le terme "UDI". L'IETF l'a d'abord défini dans la en se basant sur des propositions de Tim Berners-Lee (). Mise à jour par la puis révisée de nombreuses fois sous le titre "rfc2396bis", la définit les URI en . Le sigle URI est généralement utilisé pour désigner une telle chaîne de caractères. Par exemple codice_1 est un URI identifiant la . Les URI sont la technologie de base du car tous les hyperliens du Web sont exprimés sous forme d'URI. Une traduction de rfc3986. Principe. Un URI doit permettre d'identifier une ressource de manière permanente, même si la ressource est déplacée ou supprimée. Applications. Bien que les URI soient très largement utilisés dans le monde informatique, avec surtout les URL sur Internet, on en retrouve d'autres applications dans le monde réel. Ainsi, le code ISBN, qui est l'identifiant unique d'un livre, permet de retrouver celui-ci depuis n'importe quelle librairie ou bibliothèque, dans le monde entier. On peut considérer également les codes-barres comme une métaphore d'URI dans le monde physique : un code-barres ne localise pas un produit, mais l'identifie (bien qu'il identifie "l'ensemble des exemplaires" d'un produit, pas chaque exemplaire individuellement, ce qui est le travail du numéro de série, lequel n'est pas systématique, mais réservé aux produits onéreux). Relation avec les URL et URN. Un URI peut être de type « » ou « » ou les deux. Un (URL) est un URI qui, outre le fait qu'il identifie une ressource sur un réseau, fournit les moyens d'agir sur une ressource ou d'obtenir une représentation de la ressource en décrivant son mode d'accès primaire ou « emplacement » réseau. Par exemple, l'URL "http://www.wikipedia.org/" est un URI qui identifie une ressource (page d'accueil Wikipédia) et implique qu'une représentation de cette ressource (une page HTML en caractères encodés) peut être obtenue via le protocole HTTP depuis un réseau hôte appelé www.wikipedia.org. Un Uniform Resource Name (URN) est un URI qui identifie une ressource par son nom dans un espace de noms. Un URN peut être employé pour parler d'une ressource sans que cela préjuge de son emplacement ou de la manière de la référencer. Par exemple, l'URN "urn:isbn:0-395-36341-1" est un URI qui, étant un numéro de l' (ISBN), permet de faire référence à un livre, mais ne suggère ni où, ni comment en obtenir une copie réelle. Le point de vue actuel du groupe de travail qui supervise les URI est que les termes "URL" et "URN" sont des aspects dépendant du contexte des URI, et que l'on a rarement besoin de faire la distinction entre les deux. Dans les publications techniques, spécialement les normes érigées par l'IETF et le W3C, le terme "URL" n'a pas été reconnu pendant longtemps, parce qu'il était rarement nécessaire de faire une distinction entre les URL et les URI. Cependant, dans des contextes non techniques et dans les logiciels du , le terme "URL" reste omniprésent. De plus, le terme "adresse web", qui n'a pas de définition formelle, est souvent employé dans des publications non techniques comme synonyme d'URL ou URI, bien qu'il ne se réfère généralement qu'aux protocoles 'HTTP' et 'HTTPS'. Exemples. Les exemples suivants illustrent les URI d'usage courant : |
Uniform Resource Name Uniform Resource Name (URN), traduit littéralement de l'anglais par « nom uniforme de ressource », est le nom d'un standard informatique dans le domaine de l'Internet qui concerne principalement le World Wide Web. Le document de base est la " URN Syntax" publiée en 1997 par l'Internet Engineering Task Force. Elle donne une syntaxe de chaîne de caractères utilisable pour identifier une ressource (un document, une image, un enregistrement sonore, etc.) globalement, durant toute son existence, indépendamment de sa localisation ou de son accessibilité par Internet. Les "Uniform Resource Names" sont des "Uniform Resource Identifiers" ("URI") dont la méthode est codice_1. Le sigle URN est généralement utilisé, en français comme en anglais, pour désigner une telle chaîne de caractères. Par exemple codice_2 est un URN identifiant le . Forme. Les URN sont des "Uniform Resource Identifiers" (URI) et en respectent donc les règles syntaxiques. Les URN ont la syntaxe suivante : codice_3 L'usage de minuscules ou de majuscules ne fait pas de différence pour l'écriture de la méthode codice_1 ni pour le NID. Il peut en revanche faire une différence pour le NSS. Espace de noms. Le NID définit un espace de noms. L'Internet Assigned Numbers Authority (IANA) tient un registre des NID officiellement enregistrés. Le donne la marche à suivre pour procéder à un tel enregistrement. URN et URL. Lors de la conception du World Wide Web, les "Uniform Resource Locators" (URL) ont été inventées et utilisées pour l'identification des ressources. Mais une URL identifie en fait l'emplacement d'une ressource, plutôt que la ressource elle-même. Ainsi, lorsqu'une ressource est déplacée, par exemple mise sur un autre serveur Web, toutes les URL l'identifiant sont rendues obsolètes. Ce problème est à la base de la plupart des hyperliens « cassés » du Web. Pour remédier à ce problème, le concept d'URN a été avancé. Par opposition aux URL, les URN identifient les ressources elles-mêmes, indépendamment de leur emplacement. Ce concept nécessite toutefois un mécanisme capable de trouver l'emplacement d'une ressource – par exemple son URL, du moins si elle est accessible sur le réseau – à partir de son URN. Un tel mécanisme repose typiquement sur un répertoire de correspondances. Dans la pratique, les URN ne sont guère utilisés. Les problèmes de localisation de ressource sont généralement résolus avec un moteur de recherche. On peut noter la fonctionnalité de « document en cache » qui conserve un certain temps une version du document référencé, indépendamment de son accessibilité à son URL originale. |
UDP UDP peut faire référence, par ordre alphabétique à : |
Un piège nommé Krytos |
Urbanisme L'urbanisme est l'ensemble des sciences, des techniques et des arts relatifs à l'organisation et à l'aménagement des espaces urbains. Ce projet peut être sous-tendu par une volonté d'assurer le bien-être de l'homme et d'améliorer les rapports sociaux en préservant l'environnement. Les professionnels qui exercent ce métier sont des urbanistes. Selon les traditions académiques, cette discipline est associée tantôt à l'architecture, tantôt à la géographie, selon l'aspect mis en avant, l'intervention urbaine ou l'étude théorique. En France, l'enseignement et la recherche universitaire dans ce champ relèvent d'une section spécifique du Conseil national des universités (24, "Aménagement de l'espace, Urbanisme"). L'urbaniste Pierre Merlin écrit : L'urbanisme intègre le domaine de la planification spatiale et met en pratique les méthodes de la planification au service de l'aménagement du territoire et de l'urbanisme. On distingue différentes échelles de la planification spatiale : Histoire et conceptualisation. Apparition du concept. L'urbanisme est la traduction volontaire dans l'espace d'un mode d'organisation et de gestion des hommes et de leurs activités. Il apparaît très tôt dans l'Antiquité et avant même les premières formalisations grecques puis romaines. Le hiéroglyphe égyptien qui signifie « ville » est déjà l'expression d'une association dans un même espace délimité (par un cercle) des hommes et des femmes aux métiers et aux activités différentes, reliés ensemble par des voies que les Romains appellent ' et un ', greffant ainsi la cité sur le cosmos. Les Mésopotamiens ont une iconographie similaire. La ville est donc directement le produit du politique, le terme étant pris au sens étymologique, et le terme "politique" a pour origine le mot grec "polis", qui désigne la ville comme institution. L'homme pour les philosophes grecs, notamment Platon et Aristote, est un animal politique et l'organisation de la ville doit lui permettre de devenir un acteur du destin collectif en devenant citoyen ; ce dernier terme renvoie encore à la cité, "" chez les Romains. Par là il devient civilisé, il devient poli et policé, deux termes qui se souchent là encore sur la ville, c'est-à-dire capable de vivre avec d'autres qui sont égaux et différents, pour reprendre le terme du sociologue Alain Touraine. Cette ville là, qui fait l'objet d'une réflexion philosophie et politique préalable, se fonde sur la démocratie, même si elle est à l'époque de Platon toute relative. Elle s'organise autour d'un espace vide, l'agora (le forum pour les Romains), qui est par excellence le lieu des échanges. Cet espace est entouré des institutions qui structurent la vie de la Cité, notamment la salle de l'assemblée politique et les temples. Ce n'est pas d'abord le marché qui fonde la cité, mais bien la vie sociale et politique de ses habitants, même si elle prend en compte les autres fonctions : sanitaires (thermes), culturelles (théâtre), économiques(marché, port…), sportives (gymnase), récréative (stade), formation (académies)... Saint Augustin met en parallèle la cité de Dieu et celle des hommes. Cette réflexion sur la traduction dans l'espace d'une société pensée comme idéale réapparaît à la Renaissance, à travers François Rabelais et son abbaye de Thélème, Thomas More et son "Utopia", ou Johann Valentin Andreae et sa "Christianopolis". De nombreux dessins de villes idéales apparaissent à la Renaissance dans toute l'Europe, tels ceux de Francesco Giorgio di Martini, Pietro Cataneo et Francesco de Marchi. Les besoins politiques comme défensifs et le développement des colonisations génèrent de nombreuses villes nouvelles de par le monde, certaines relevant d'un plan régulé à l'instar des villes romaines et gallo-romaines. Les rois font réaliser des places royales et des plans d'embellissement de la ville. Bouleversement de la révolution industrielle. Le développement de l'industrialisation entraîne un afflux de population vers les villes pour faire face aux besoins de main d'œuvre. Face au développement anarchique et insalubre des faubourgs, se développent une analyse critique et de nombreuses théories sur la ville pour améliorer le « vivre ensemble », selon Charles Fourier et Ebenezer Howard. À partir de là se développe aussi le premier mouvement « urbanistique », qui voit la création en 1899 par Howard de la , l'« Association pour la planification des villes et des campagnes ». C'est aussi à la fin du que l'Allemagne met en place les premières obligations de planifier le développement des villes et l'aménagement du territoires. Le terme "urbanisme" apparaît dans l'ouvrage "Théorie générale de l'urbanisation" de l’ingénieur catalan Ildefons Cerdà, paru en 1867. Il fait son apparition en France en 1910 à la suite d'une parution dans le "Bulletin de la Société neuchâteloise de géographie" sous la plume de Pierre Clerget. En 1911, la Société française des urbanistes (SFU) est fondée à partir des membres du Musée social. Ce « musée », qui est avant tout un conservatoire des expériences en matière sociale, est issu des courants humanistes et hygiénistes de la fin du . L'urbanisme de France. L'urbanisme en France se développe en même temps que le métier d'urbaniste à partir des réflexions menées à la fin du , les travaux des membres du Musée social avant la première guerre mondiale et des CIAM après la Seconde Guerre mondiale. En dehors des approches fonctionnelles du , à titre d'exemple contraire, nous pouvons évoquer la Cité-jardin développée en théorie comme en pratique par Ebenezer Howard à la fin du avec la construction de deux villes en Angleterre : Letchworth et Welwyn. C'est là un modèle qui fut largement utilisé dans le contexte de la reconstruction de l'après-guerre par Henri Sellier dans le département de la Seine, à Reims, à Ternier, à Laon… Les plans d'urbanisme à une échelle régionale apparaissent d'abord avec la loi sur l’aménagement de la région parisienne du , destinée à « organiser et vertébrer l’agglomération parisienne », puis avec la loi du et le décret-loi du de la même année qui étendent les dispositions parisiennes à toute la France. C'est à partir de 1953 que l'école des beaux-arts de Paris enseigne l'urbanisme à ses étudiants. Un ouvrage de référence de Françoise Choay permet de mieux saisir les principaux enjeux de l'urbanisme, sous une forme pédagogique : "L'Urbanisme, utopies et réalité" (1965), qui est une anthologie des différents concepts urbanistiques développés depuis plusieurs siècles. La reconstruction après la seconde guerre mondiale et le boom démographique (baby boom) qui s'ensuivit a nécessité de construire des logements en grand nombre. Ce fut l'époque des ZUP (zones à urbaniser en priorité) de plusieurs centaines de logements voire milliers. Cette production en logements en série à la périphérie dans grandes agglomérations dans des quartiers souvent mal équipés et mal desservis par les transports en commun posa rapidement de nombreux problèmes notamment avec la crise économique après le début des années 1970. De nombreux plans se succèdent pour faire face à la dégradation rapide de ces quartiers et de leurs habitats : HVS (habitat et vie social) 1977-1981, DSQ (développement social des quartiers) 1981-1984, Banlieues 89 avec Roland Castro et Michel Cantal-Dupard... Un Comité Interministériel pour la Ville est créé en 1984 avec la volonté de créer une véritable politique de la ville avec en 1990 un ministère dédié dont Michel Delebarre est le Ministre. En , la loi d’orientation pour la ville (LOV). Cette loi a pour objectif de mettre en œuvre le droit à la ville et de créer les conditions de vie et d’habitat favorisant la cohésion sociale et de nature à éviter ou faire disparaître les phénomènes de ségrégation. Sont alors mis en place les GPU (grands projets urbains). La loi SRU (Solidarité et renouvelle urbain) vient en 2000 compléter le dispositif. La politique des villes nouvelles menées par la DATAR permet une réflexion plus globale sur la nature même de la ville. Ces villes sont : L'échec ressenti des grandes opérations d'aménagement de l'après-guerre - grandes opérations inspirées de la vision moderniste des CIAM - remet en cause une vision par trop fonctionnaliste voire strictement économique ou technique (urbanisme de tuyaux). Par ailleurs, dans le cadre d'une approche plus compétitive au niveau européen voire mondial se développe une politique d'aménagement et d'urbanisme au niveau à une échelle qui dépasse le stade ancien de l'agglomération : Grand Paris, Grand Lyon, Grand Reims... Cette politique est confortée par la loi ALUR qui contraint au regroupement communal retirant aux maires proches de leur population la compétence en matière d'urbanisme hormis la délivrance des permis de construire. Histoire de sa mise en pratique. Le plan hippodamien a été largement utilisé par les Romains dans leur expansion coloniale en Europe et a été repris à partir du pour la construction des villes sur le continent américain notamment comme La Nouvelle-Orléans puis en Afrique du Nord au avec Lyautey. Il faut aussi noter l'expérience spécifique et originale des bastides dans le Sud-Ouest de la France avec 300 à 500 établissements nouveaux créés en 200 ans sur un même et unique modèle, fait unique dans l'histoire de l'urbanisation. Il existe enfin des villes qui relève d'un projet utopique à la recherche de la cité idéale comme Chandigarh en Inde avec Le Corbusier ou Auroville non loin de Pondichéry. Une activité pluridisciplinaire. L'urbanisme est marqué par la pluridisciplinarité des savoirs qui le composent mais il ne peut se limiter à eux seuls ni à leur somme. On doit envisager l'urbanisme non pas sous l'angle des outils qu'ils soient théoriques ou techniques, mais de l'objet même qu'est la ville, sa conception, son développement et sa gestion. On retrouve les sciences et politiques suivantes : L'urbanisme n'est pas une branche de la géographie même si cette dernière concerne une part de certaines activités des professionnels de l'urbanisme. Au , des chercheurs comme Pierre Merlin mettent en évidence le manque d'indépendance des formations en urbanisme qui sont encore trop orientées vers la géographie, l'économie, l'architecture, etc. On demande aussi à l'urbaniste à contribuer à l'aménagement des villes où il fait bon vivre en bonne santé (hygiénisme), où la violence et la « criminalité urbaine » trouveraient aussi peu que possible à s'exprimer ou à se développer ; sans tomber dans des modèles relevant de ce que certains auteurs ont appelé un « "urbanisme de la peur" ». Urbanisme : théorie et pratique. Dans le champ professionnel, on peut classer en plusieurs catégories l'urbanisme : "l'urbanisme théorique, l'urbanisme pratique", l’"urbanisme réglementaire" administratif restrictif-incitatif et l’"urbanisme opérationnel" d’action sur le terrain par des opérations concrètes. Urbanisme théorique. L'urbanisme n'est pas, comme le montre Françoise Choay qu'une discipline qui aurait pour champ d'application la ville. C'est d'abord un champ de réflexion sur l'organisation des hommes et de leurs activités dans le temps et dans l'espace et ce depuis Platon et Aristote qui considèrent l'homme comme un "animal politique". C'est le fondement même de la Cité. On peut considérer que l'urbanisme apparaît de facto avec Hippodamos et le plan de la ville de Millet en Turquie et aussi ceux que les Cités adoptent pour leurs colonies dans le pourtour du Bassin Méditerranéen. Ce modèle sera repris par les Romains lors de la constitution de leur Empire et dont on retrouve la trace dans la plupart des villes d'Europe. Ces derniers s'appuient sur la technique de leurs arpenteurs ("agrimensor"). La réflexion philosophique sur la ville réapparaît dès le Moyen Âge avec la notion de régularité. Les bastides du Sud-ouest en sont sans doute la traduction la plus intéressante. Nous trouvons chez François Rabelais (1483-1553) et Thomas More (1478-1535) les premiers écrits qui évoquent la ville idéale, utopique. C'est à la Renaissance que vont apparaître les premiers plans de villes idéales avec notamment Francesco di Giorgio Martini (1439-1502), Pietro Cataneo (1510-1569), [ (1504-1576)… L'urbanisme du est avant marqué par les plans d'embellissement des villes la plupart du temps afin de célèbre la grandeur du roi avec des places royales comme à Reims par exemple. Mais c'est à partir du développement industriel qui va engendrer une émigration importante vers les villes que va se développer la réflexion sur la ville avec un certain nombre d'utopies dont certaines verront le jour comme Letchworth Garden City et dues à Ebenezer Howard, , les Salines d'Arc et Senans avec Claude Nicolas Ledoux… On peut aussi évoquer le Phalanstère de Charles Fourrier et le Familistère de Guise dans l'Aisne avec Jean Baptiste Godin… On peut encore évoquer la baron Haussmann qui refaçonne Paris en partie à des fins politiques. Les conquêtes coloniales sont aussi l'occasion de créer de nouvelles villes qui s'appuient sur une réflexion urbanistique comme Washington avec l'urbaniste Charles André Lenfant ou les villes d'Afrique du Nord avec Lyautey. C'est à la fin du qu'apparaissent les premières lois visant à mettre à une organisation de l'espace anarchique et spéculative et notamment pour lutter contre les lotissements insalubres. Se développe en parallèle une réflexion sur l'habitat ouvrier notamment dans le cadre des Expositions Universelles et sa section d'économie sociale dirigée par Frédéric Le Play. Cela va induire la naissance du mouvement HBM et aussi une réflexion sur une approche qui dépasse la seule problématique du logement notamment avec les Cités-Jardins. C'est à partir du mouvement international des cités-jardins que va, en France, se développer l'urbanisme autour du Musée social. Les premières lois d'urbanisme de 1919 et 1924 dites lois Cornudet son directement inspirées par les membres du Musée sociale de cette époque comme le montrent Jean-Pierre Gaudin et François-Xavier Tassel. Une histoire de la ville commence à s'écrire au avec Léonardo Benevolo, Pierre Lavedan, Michel Ragon... Les sociologues contribuent à une approche plus sociologique avec des centres universitaire de recherche comme le Centre de Sociologie Urbaine de Grenoble ou autour d'Henri Lefbvre à l'Université de Vincennes et qui écrit un ouvrage qui fera date : "Le droit à la ville". La réflexion théorique se poursuit avec notamment Françoise Choay à partir de son ouvrage : "L'urbanisme, réalités et utopies". La réflexion philosophique se poursuit avec notamment les travaux d'Olivier Mongin, Thierry Paquot, Agustin Berque... Urbanisme pratique. À partir des années 1970, se développer en France et en Belgique un "urbanisme pratique", pour reprendre le terme de "praxis" employé par Henri Lefebvre. Ce champ est celui, dans une approche autogestionnaires portée par les syndicats et les associations locales, de la volonté des habitants non seulement à participer aux décisions urbanistiques les concertant mais aussi contribuer à l'élaboration des projets. Il s'agit pour eux de faire contrepoids à la technostructure, les professionnels comme les élus et aménageurs, notamment aux travers d'Ateliers Publics d'urbanisme. Cela deviendra ce que l'on appelle l'urbanisme participatifs. Parmi les opérations exemplaires on peut citer l'Alma Gare à Roubaix, La ZAC du Mont Hermé à Saint Brice Courcelles près de Reims ou encore le quartier des Marolles à Bruxelles avec Lucien Kroll. Ces expériences ont été à l'origine de l'introduction des lois obligeant à une plus grande information voire concertation La gouvernance des projets en matière d'urbanisme et d'aménagement revient à l'ordre du jour au-delà des luttes symboliques comme Notre Dames des Landes. Le philosophe Thierry Paquot invite à nouveau les habitants à se saisir de la ville avec son ouvrage "L'urbanisme, c'est notre affaire". Projet urbain. Les urbanistes participent aussi à l'approche globale du développement des villes ou de leurs quartiers notamment en élaborant avec les responsables locaux et parfois les populations concernées à des projets urbains qui prennent en compte en amont de la mise en forme spatiale des objectifs plus globaux qui sont ensuite déclinés par secteurs et activités. Les notions traditionnelles de plan et de planification sont progressivement remplacées par celles de développement urbain durable et de projet urbain au service duquel se trouve la pratique de la programmation urbaine. Le projet urbain présente plusieurs dimensions, et peut être défini comme suit : « Le projet urbain est à la fois un processus concerté et un projet territorial : il consiste à définir et mettre en œuvre des mesures d’aménagement sur un territoire urbain donné, en partenariat avec tous les partenaires civils et institutionnels concernés, intégrant les différentes échelles territoriales et le long terme, en vue d’un développement urbain durable. Urbanisme réglementaire. Le domaine dit de l'« urbanisme règlementaire » consiste à élaborer un document de planification, dans le respect de la législation imposé par le droit de l'urbanisme, afin de délimiter pour les acteurs publics et privés les possibilités de construction/rénovation, d'aménagement et de développement sur un territoire donné. Ce travail peut dans certains cas concerner des conurbations (plusieurs communes) afin d'obtenir une cohérence sur l'ensemble d'un territoire (tel qu'en France pour le Schéma de cohérence territoriale SCOT ou le Plan local d'urbanisme communal (PLU) ou intercommunal (PLUi)). Par exemple : Urbanisme opérationnel. L’urbanisme opérationnel consiste à mettre en place les actions et procédures nécessaires à la réalisation d’un projet urbain. Il regroupe ainsi « l’ensemble des actions conduites ayant pour objet la fourniture de terrains à bâtir, la construction de bâtiments ou le traitement de quartiers et d'immeubles existants (recomposition urbaine, réhabilitation, résorption de l’habitat insalubre) » (Réf. ?). Par cela, il se différencie de l’urbanisme réglementaire qui regroupe l’ensemble des documents thématiques et réglementaires de planification stratégique et de programmation. Modèles d'organisation et de fonctions des villes. Les parties ci-dessous présentent quelques modèles d'organisation et de fonctionnement des villes. Selon Jean Reynaud. Une organisation théorique du territoire fondée sur trois facteurs, appelés « rayon facile de communication » par Jean Reynaud. Ceux-ci donnent une hiérarchie aux centres urbains rayonnant sur des hexagones vers des unités urbaines plus petites. Les trois facteurs sont : la sociabilité, l’économie et l’administration. Selon Walter Christaller. Une hiérarchie de la répartition optimale des unités urbaines en 6 niveaux pour maximiser son utilité et profit selon trois caractéristiques : Son modèle dits que les services de même niveau ont tendance à se regrouper (système de centralité) selon la taille de l’unité urbaine et le degré de trois caractéristiques. Le métier de l'urbaniste. En France, malgré la présence de formations universitaires, le terme d'urbaniste est parfois utilisé de façon abusive y compris par des personnes non issues de l'enseignement supérieur. En , le ministère du Travail inscrit le diplôme national de master Urbanisme et aménagement au Répertoire national des certifications professionnelles (RNCP). Cette certification nationale reconnaît le caractère qualifiant de ce diplôme. Le métier d'urbaniste s'exerce à différentes échelles territoriales et généralement en équipe ou plus rarement seul, avec de nombreux intervenants du fait de la pluridisciplinarité des projets, dans des institutions publiques, des sociétés privées ou des associations. Voir aussi. Articles connexes. Aspects. Exemples. Elle présente un plan pentagonal organisé autour d'une vaste esplanade d'où part un tracé rectiligne qui sillonne la ville et le département de la Vendée. |
Unicode Unicode est un standard informatique qui permet des échanges de textes dans différentes langues, à un niveau mondial. Il est développé par le Consortium Unicode, qui vise au codage de texte écrit en donnant à tout caractère de n'importe quel système d'écriture un nom et un identifiant numérique, et ce de manière unifiée, quels que soient la plateforme informatique ou le logiciel utilisé. Ce standard est lié à la norme qui décrit une table de caractères équivalente. La dernière version, , a été publiée en . Totalement compatible avec le jeu universel de caractères (JUC) de l', le standard Unicode l'étend en lui ajoutant un modèle complet de représentation et de traitement de textes, en conférant à chaque caractère un jeu de propriétés (qui peuvent être soit pour certaines standardisées et stabilisées dans toutes les versions d'Unicode où le caractère a été encodé, soit informatives avec seulement une recommandation sur leur usage qui peut évoluer en fonction des nouveaux besoins trouvés). Ces propriétés décrivent avec précision les relations sémantiques qui peuvent exister entre plusieurs caractères successifs d'un texte, et permettent de standardiser ou recommander des algorithmes de traitement qui préservent au maximum la sémantique des textes transformés. Unicode a pour objet de rendre un même texte utilisable à l'identique sur des systèmes informatiques totalement différents. Le standard Unicode est constitué d'un répertoire de , couvrant plus de 150 écritures, d'un ensemble de tableaux de codes pour référence visuelle, d'une méthode de codage et de plusieurs codages de caractères standard, d'une énumération des propriétés de caractère (lettres majuscules, minuscules, APL, symboles, ponctuation) d'un ensemble de fichiers de référence des données informatiques, et d'un certain nombre d'éléments liés, tels que des règles de normalisation, de décomposition, de tri, de rendu et d'ordre d'affichage bidirectionnel (pour l'affichage correct de texte contenant à la fois des caractères d'écritures de droite à gauche, comme l'arabe et l'hébreu, et de gauche à droite). En pratique, Unicode reprend intégralement la norme , puisque cette dernière ne standardise que les caractères individuels en leur assignant un nom et un numéro normatif (appelé "point de code") et une description informative très limitée, mais aucun traitement ni aucune spécification ou recommandation pour leur emploi dans l'écriture de langues réelles, ce que seul le standard Unicode définit précisément. L' fait normativement référence à certaines parties du standard Unicode (notamment ) ; Unicode est également une norme "" pour le traitement du texte et sert de base à de nombreuses autres normes. But. Unicode, dont la première publication remonte à , a été développé dans le but de remplacer l'utilisation de pages de code nationales. Ces pages de code avaient dans le passé quelques problèmes. Par exemple, sur les fonctionnant en EBCDIC : lorsqu'une note de service électronique comportait un caractère « signe monétaire », le même texte plafonnant une dépense en dollars pour le lecteur américain faisait afficher sur un écran britannique le même montant en livres sterling, puisque le signe monétaire était différent dans chacun des deux pays. Dans la pratique, tous les systèmes d'écriture ne sont pas encore présents, car un travail de recherche documentaire auprès de spécialistes peut encore s'avérer nécessaire pour des caractères rares ou des systèmes d'écriture peu connus (parce que disparus, par exemple). Cependant, les écritures les plus utilisées dans le monde sont représentées, ainsi que des règles sur la sémantique des caractères, leurs compositions et la manière de combiner ces différents systèmes. — Par exemple, comment insérer un système d'écriture de droite à gauche dans un système d'écriture de gauche à droite (texte bidirectionnel). Standardisation. Interopérabilité. Sous sa forme UTF-8, l'Unicode offre une certaine interopérabilité avec le code ASCII. Conformité. Le standard Unicode définit des exigences permettant d'évaluer la conformité de l'implémentation d'un processus (ou d'un logiciel) à Unicode. Ces exigences concernent notamment (dans la ) : Ces exigences permettent le support d'un sous-ensemble d'Unicode. Alors que l' définit le même jeu de caractères qu'Unicode, la différence entre et Unicode tient essentiellement dans le surplus d'exigence de conformité fourni par Unicode. Limitations. Unicode est en 2016 le standard leader pour le codage informatique des caractères. Il sert à l'interopérabilité de logiciels, et permet par exemple de copier des textes utilisant des caractères de différents alphabets entre des logiciels différents, même n'ayant pas été spécifiquement conçus pour eux (par exemple un programme en caractères APL dans un texte LibreOffice ou dans un courriel sous Gmail). Tous les textes Unicode ne sont cependant pas codés de la même manière. Suivant la normalisation Unicode adoptée, un même signe graphique peut parfois être codé de différentes manières. Certains textes utilisent la convention , d'autres la convention Et le standard n'interdit pas de mélanger plusieurs conventions dans un même texte. Il en va de même des logiciels. Cette coexistence de plusieurs façons d'écrire la même chose a été exploitée par les pirates dans les en leur permettant de déjouer des filtres : les pirates contournaient les interdictions de certaines chaînes de caractères jugées dangereuses tout simplement en les codant sous une autre forme, plus inhabituelle et de ce fait parfois non filtrée. Unicode répond à ces limitations en apportant la notion d'équivalence canonique. Normes et versions. Le travail sur Unicode est parallèle et synchronisé avec celui sur la norme dont les buts sont les mêmes. L', une norme internationale publiée en français et en anglais, qui ne précise ni les règles de composition de caractères, ni les propriétés sémantiques des caractères. Unicode aborde cependant la problématique de la casse, du classement alphabétique, et de la combinaison d'accents et de caractères. Depuis la d'Unicode et dans toutes les versions suivantes, les caractères ont les mêmes identifiants que ceux de la norme : les répertoires sont maintenus parallèlement, à l'identique lors de leur standardisation définitive, les deux normes étant mises à jour presque simultanément. Les deux normes Unicode (depuis la ) et assurent une compatibilité ascendante totale : tout texte conforme à une version antérieure doit rester conforme dans les versions ultérieures. Ainsi les caractères de la d'Unicode sont ceux de la norme . La d'Unicode classait , symboles et directives. La d'Unicode, mise à jour en , comprenait : Soit un total de près de de codes assignés dans un espace pouvant contenir différents. Quelques problèmes semblent cependant exister, pour le codage des caractères chinois, à cause de l'unification des jeux idéographiques utilisés dans différentes langues, avec une calligraphie légèrement différente et parfois signifiante, mais ils sont en cours de résolution par Unicode qui a défini des sélecteurs de variantes et ouvert un registre de séquences normalisées qui les utilise. Couches d'Unicode. Unicode est défini suivant un modèle en couches ("Note technique Unicode "). Les autres normes ne faisaient typiquement pas de distinction entre le jeu de caractères et la représentation physique. Les couches sont ici présentées en partant de la plus haute (la plus éloignée de la machine). Répertoire des caractères abstraits (""). La couche la plus élevée est la définition du jeu de caractères abstraits. Par exemple, Latin-1 a un jeu de quand Unicode et l' normalisent conjointement actuellement près de dans un répertoire commun. En outre, Unicode et l'ISO/CEO 10646 affectent une dénomination commune et normalisée à chacun de ces caractères. La liste des caractères abstraits avec leurs noms normalisés constituent la couche commune de présentation de la norme et du standard Unicode. Par exemple, le caractère Ç est nommé « lettre majuscule latine c cédille ». Cette définition est totalement identique à celle de l' 10646, qui approuve toute extension du répertoire. Unicode ne reprend dans le texte de sa norme que les noms normatifs en anglais, mais la norme est publiée en deux langues également normatives. Ainsi les noms en anglais et en français sont tous deux normalisés par l'ISO. Dans les faits, toute extension du répertoire se fait aujourd'hui conjointement entre le groupe de travail responsable de l' ("JTC1/SC2/WG2", dont les membres votants sont uniquement des autorités de normalisation nationales des pays participants, ou leur représentant officiel), et le Comité technique Unicode "UTC" (dont les membres votants peuvent être n'importe quelle organisation privée ou d'intérêt public, ou même un gouvernement, qui a adhéré et paye une redevance annuelle permettant de participer à ces décisions). Jeu de caractères codés (""). La normale ISO/CEI 10646 ajoute à la table précédente un numéro associé à chaque caractère abstrait du répertoire commun, lequel est repris dans le standard Unicode. Notons bien qu'il ne s'agit pas d'une représentation en mémoire, juste d'un nombre entier, appelé "point de code". L'espace de codage de ces nombres est divisé en de : ces zones sont appelées « plans de code ». Les plans de code sont eux-mêmes divisés en « colonnes de code » comprenant , qui sont (autant que possible) l'unité minimale de réservation dans le répertoire pour des groupes de caractères (assignés ou à venir) souvent utilisés conjointement dans une même écriture ou ayant des propriétés de base communes). Chaque point de code est noté « U+ » suivi(s) de en hexadécimal : Ainsi le caractère nommé « Lettre majuscule latine c cédille » (Ç) a le numéro U+00C7. Il appartient au premier plan. En principe tous les points de code entre U+0000 et U+10FFFF sont disponibles, mais certaines plages sont perpétuellement réservées à des usages particuliers, notamment une zone d'indirection exclue afin de permettre le codage UTF-16 ( infra), les zones à usage privé, ainsi que quelques régions (dont les deux derniers points de code de chacun des plans de code, par exemple U+FFFE ou U+FFFF) contenant des « non-caractères » et dont l'usage est interdit dans un échange de données conforme. Les autres points de code sont soit déjà affectés à des caractères, soit réservés par l'ISO/CEI 10646 pour une normalisation future. Zone à usage privé : l'ISO/CEI 10646 et Unicode ont assigné de nombreux points de code à des caractères valides, mais dont la sémantique est inconnue car d'usage privé (par exemple les deux derniers plans entre U+F0000 et U+10FFFF sont entièrement dédiés à cet usage, hormis les deux points de code à la fin de chaque plan qui sont des non-caractères interdits dans un texte conforme). Là encore, la standardisation du codage, c'est-à-dire l'affectation des points de codes aux caractères du répertoire commun est une décision conjointe partagée entre les normes Unicode et . Tous les caractères du répertoire disposent d'un point de code unique (même si pour certaines langues ou pour Unicode certains caractères sont considérés comme équivalents, avec l'un d'eux désigné comme standard et recommandé et les autres présents pour des raisons de compatibilité ascendante, par exemple avec d'anciennes normes ou avec des standards encore fréquemment utilisés). On peut noter que si le répertoire des caractères est extensible, il est limité par la borne supérieure de l'espace de codage : U+10FFFF. La grande majorité des points de code possibles n'est encore associée à aucun caractère particulier, mais peut l'être à tout moment. Aussi ces points de code encore libres ne sont pas considérés comme non valides, mais représentent bien des caractères abstraits (non encore spécifiés, et réservés jusqu'à nouvel ordre). Ces caractères abstraits (de même que les caractères à usage privé) complètent le jeu de caractères codés du répertoire standardisé pour former un jeu unique, dit « jeu de caractères codés universel » (', souvent abrégé en UCS), qui contient tous les jeux de caractères codés des répertoires de chacune des versions passées, présentes et futures de l' et ceux d'Unicode (depuis la uniquement). Formalisme de codage des caractères ("). La couche suivante spécifie une représentation physique (en mémoire, sur disque…) de chacun des caractères abstraits : quelle unité de codage ("), ou codet, va représenter un caractère ou plus exactement un point de code : octet, (mot de ) ou (mot de ). Il peut exister (et il existe) plusieurs de ces formalismes. Un formalisme particulier doit préciser la taille de l'unité de codage et indiquer de quelle façon le nombre entier représentant un point de code est représenté en une suite d'unités de codage − et inversement, c'est-à-dire comment retrouver le point de code étant donnée une suite d'unités de codage. Mécanisme de sérialisation des caractères (""). Cette couche s'occupe de sérialiser les suites d'unités de codage définies par la couche précédente en suites d'octets. C'est ici que se choisit l'ordre des octets entre les ordres gros-boutien (octet le plus significatif d'abord) et petit-boutien (octet le moins significatif d'abord). C'est également à cette étape qu'il est possible d'ajouter un indicateur d'ordre des octets (ou BOM, pour '), qui permet d'indiquer en début de fichier ou de flot de données s'il est en gros-boutien ou en petit-boutien. Dans le monde Internet, on l'utilise rarement, en préférant un marquage explicite (« "charset=UTF-16BE" » en MIME, par exemple, pour indiquer un flot de données gros-boutien, où "BE" signifie '). Surcodage de transfert (""). À ce niveau peuvent intervenir les mécanismes de compression ou de chiffrement. Il peut aussi y avoir également des surcodages, notamment au sein des protocoles MIME et HTTP qui les utilisent presque partout, mais aussi pour le LDAP, qui spécifient par exemple que les chaînes Unicode doivent être codées en UTF-8 puis surcodées en Base64 (ou avec d'autres formats d'échappement) et comment indiquer ces options de surcodage au sein des données échangées par ces applications. Ces compressions, chiffrements et surcodages, le plus souvent nécessaires et adaptés (et souvent standardisés) à divers protocoles pour la sécurisation et l'encapsulation correcte du texte codé et transporté (ou stocké), ne font partie ni standard Unicode, ni de la norme . Limite de l'octet. Pour s'affranchir des contraintes rigides des normes précédentes (une suite de bits, une représentation), Unicode sépare dorénavant d'une part la "définition du jeu de caractères" (liste des caractères par leur nom) et leur index, le "point de code", de celle du codage. Ainsi, on ne peut donc pas parler de la taille d'un caractère Unicode, car elle dépend du codage choisi, et celui-ci peut donc varier à volonté. En pratique, UTF-8 est très utilisé dans les pays occidentaux. Là où l'ASCII utilise et (comme la plupart des pages de codes nationales), Unicode, qui rassemble les caractères de chaque page de code, avait besoin d'utiliser plus que les d'un octet. La limite fut dans un premier temps fixée à pour les premières versions d'Unicode, et à pour les premières versions de la norme ISO/CEI 10646. La limite actuelle est désormais placée entre par point de code assigné aux caractères standardisés dans les deux normes, désormais mutuellement compatibles : (UTF). Unicode et acceptent plusieurs formes de transformation universelle pour représenter un point de code valide. Citons : Le nombre après UTF représente le nombre minimal de bits des codets avec lesquels un point de code valide est représenté. Ces transformations ont été initialement créées pour la représentation interne et les schémas de codage des points de code de la norme , qui au départ pouvait définir des points de code sur . Depuis, la norme a été amendée, afin que les trois formes soient totalement compatibles entre elles et permettent de coder tous les points de code (car UTF-16 ne permet de représenter que les points de code des plans). Unicode a standardisé également de façon très stricte ces trois formes de transformation de tous les points de code valides (U+0000 à U+D7FF et U+E000 à U+10FFFF) et uniquement eux, que ce soit pour représenter du texte sous forme de suites de points de code, ou des points de code assignés aux caractères valides, ou réservés, ou assignés à des non-caractères. Les points de code assignés aux demi-zones (U+D800 à U+DFFF), utilisés uniquement en UTF-16, sont invalides isolément puisqu'il servent à la représentation, par un couple de de , des points de code des supplémentaires. UTF-8. L'UTF-8, spécifié dans le , est le plus commun pour les applications Unix et Internet. Son codage de taille variable lui permet d'être en moyenne moins coûteux en occupation mémoire (pour les langues à alphabet latin). Mais cela ralentit nettement les opérations où interviennent des extractions de sous-chaînes dans certains langages qui indexent des chaînes par des entiers (exemple = "815 caractère de la chaîne"), car il faut compter les caractères depuis le début de la chaîne pour savoir où se trouve le premier caractère à extraire. L'UTF-8 assure aussi, et c'est son principal avantage, une compatibilité avec les manipulations simples de chaînes en ASCII dans les langages de programmation. Ainsi, les programmes écrits en C peuvent souvent fonctionner sans modification. Initialement, l'UTF-8 pouvait coder n'importe quel point de code entre U+0000 et U+7FFFFFFF (donc jusqu'à ). Cet usage est déprécié et la norme a été amendée pour ne plus supporter que les points de code valides des plans, sauf ceux de la "demi-zone" correspondant aux codets utilisés en UTF-16 pour la représentation sur deux codets des points de code des supplémentaires. Aussi les séquences les plus longues en UTF-8 nécessitent au maximum , au lieu de 6 précédemment. De plus, UTF-8 a été amendé d'abord par Unicode puis par l' pour ne plus accepter que la représentation la plus courte de chaque point de code ("unicité" du codage). Le fait de pouvoir représenter de plusieurs façons différentes un même caractère posait des problèmes de sécurité, car le pirate pouvait contourner par une écriture différente une forme "filtrée". Son avantage sur l'UTF-16 (et l'UTF-32) est que les différences d'ordonnancement des octets composant un mot (") ne posent pas de problème dans un réseau de systèmes hétérogènes ; ainsi, cette transformation est utilisée aujourd'hui par la plupart des protocoles d'échange standardisés. D'autre part, l'UTF-8 est totalement compatible pour la transmission de textes par des protocoles basés sur le jeu de caractères ASCII, ou peut être rendu compatible (au prix d'une transformation sur plusieurs octets des caractères non-ASCII) avec les protocoles d'échange supportant les jeux de caractères codés sur (qu'ils soient basés sur ou de nombreux autres jeux de caractères codés sur définis par des normes nationales ou des systèmes propriétaires particuliers). Son principal défaut est le codage de longueur très variable ( pour les points de code assignés aux caractères ASCII–, pour les autres points de code), même si l'auto-synchronisation propre à l'encodage UTF-8 permet de déterminer le début d'une séquence à partir d'une position aléatoire (en effectuant au plus supplémentaires des codets qui précèdent). Cependant, cet encodage n'est pas conçu pour faciliter le traitement des chaînes de caractères : on lui préfère alors souvent l'UTF-16, parfois l'UTF-32 (gourmand en mémoire). UTF-16. L'UTF-16 est un bon compromis lorsque la place mémoire n'est pas trop restreinte, car la grande majorité des caractères Unicode assignés pour les écritures des langues modernes (dont les caractères les plus fréquemment utilisés) le sont dans le plan multilingue de base et peuvent donc être représentés sur . La version française de l' nomme ces mots de des « seizets », mais la version internationale les décrit cependant bien comme de classiques mots de composés de deux octets, et soumis aux règles usuelles de boutisme. C'est notamment le codage qu'utilise la plateforme Java en interne, ainsi que Windows pour ses API compatibles Unicode (avec le type codice_1). Certains cadres légaux, tels le utilisé en Chine, peuvent exiger la prise en charge des plans supplémentaires, ceux-ci contenant notamment des caractères présents dans les noms propres. Les points de code des seize plans supplémentaires nécessitent une transformation sur deux mots de : Il est possible de déterminer le début de la séquence de codage à partir d'un point quelconque d'un texte représenté en UTF-16 en effectuant au maximum une lecture supplémentaire, uniquement si ce codet est dans la demi-zone basse. Cette forme est plus économique et plus facile à traiter rapidement que l'UTF-8 pour la représentation de textes contenant peu de caractères ASCII (U+0000 à U+007F). Comme la plupart des caractères couramment usités résident dans le plan de base, l'encodage des plans supplémentaires a longtemps été peu testé dans les logiciels, conduisant à des bogues ou des problèmes de sécurité même dans des logiciels largement diffusés, par exemple en supposant à tort qu'il soit sain de découper ou de tronquer une chaîne entre deux unités de code quelconque (ce qui n'est pas le cas avec UTF-16, pas plus qu'avec UTF-8, ni même avec tous les autres codages multi-octets dont les codages historiques d'avant Unicode/ISO/CEI 10646). Toutefois, cette transformation possède deux schémas de codage incompatibles qui dépendent de l'ordonnancement des octets dans la représentation d'entiers sur . Pour résoudre cette ambiguïté et permettre la transmission entre systèmes hétérogènes, il est nécessaire d'adjoindre une information indiquant le schéma de codage utilisé (UTF-16BE ou UTF-16LE), ou bien de préfixer le texte codé avec la représentation du point de code valide U+FEFF (assigné au caractère « espace insécable de largeur nulle », un caractère aujourd'hui réservé à ce seul usage en tant que marqueur d'ordonnancement des octets), puisque le point de code « renversé » U+FFFE valide est un non-caractère, interdit dans les textes conformes à Unicode et . L'autre défaut d'UTF-16 est qu'un texte transformé avec lui et transmis avec l'un ou l'autre des deux schémas de codage contient un grand nombre d'octets nuls ou ayant une valeur en conflit avec les valeurs d'octets réservées par certains protocoles d'échange : le principal usage d'UTF-16 est dans le traitement en mémoire au sein des logiciels (également dans le stockage de métadonnées de certains systèmes de fichiers, et dans certaines bases de données où il peut être plus compact que l'UTF-8, notamment pour les textes asiatiques), le codage UTF-8 lui étant préféré pour les échanges sur les réseaux (et même dont la prise en charge est hautement recommandée voire maintenant exigée pour les protocoles du web de l'IETF, la prise en charge de l'UTF-16 et ses variantes dans ces protocoles restant facultative et en pratique très peu utilisée, d'autant que l'avantage relatif de compacité de l'UTF-16 disparaissant avec l'emploi fréquent de la compression de données, maintenant bien prise en charge dans de nombreux protocoles Internet). UTF-32. L'UTF-32 est utilisé lorsque la place mémoire n'est pas un problème et que l'on a besoin d'avoir accès à des caractères de manière directe et sans changement de taille (hiéroglyphes égyptiens). L'avantage de cette transformation standardisée est que tous les codets ont la même taille. Il n'est donc pas nécessaire de lire des codets supplémentaires pour déterminer le début de la représentation d'un point de code. Toutefois, ce format est particulièrement peu économique (y compris en mémoire) puisqu'il « gaspille » inutilement au moins un octet (toujours nul) par caractère. La taille en mémoire d'un texte joue négativement sur les performances puisque cela nécessite plus de lectures et écritures sur disque en cas de saturation de la mémoire vive, et que cela diminue aussi les performances du cache mémoire des processeurs. Pour les textes écrits dans les langues modernes actuelles (hormis certains caractères rares du plan idéographique supplémentaire) et n'utilisant donc que les points de code du plan multilingue de base, cette transformation double la quantité mémoire nécessaire par rapport à l'UTF-16. Comme l'UTF-16, l'UTF-32 possède plusieurs schémas de codage dépendant de l'ordonnancement des octets composant un entier de plus de (deux schémas de codage de l'UTF-32 sont standardisés, UTF-32BE et UTF-32LE). Il est donc aussi nécessaire de préciser ce schéma de codage, ou de le déterminer en préfixant le texte par la représentation en UTF-32 du point de code U+FEFF. Comme l'UTF-16, la présence d'octets nuls dans les schémas de codage standardisés de l'UTF-32 le rend incompatible avec de nombreux protocoles d'échange entre systèmes hétérogènes. Aussi ce format n'est utilisé le plus souvent que très localement pour certains traitements en tant que forme intermédiaire plus facile à manipuler, et on lui préfère souvent la transformation UTF-16 souvent plus performante pour traiter et stocker des quantités importantes de textes, la conversion entre les deux étant très simple à réaliser, et très peu coûteuse en termes de complexité de traitement. En fait, de très nombreuses bibliothèques de traitement de textes sont écrites uniquement avec l'UTF-16 et sont plus performantes qu'en UTF-32, même lorsque les textes contiennent des caractères des plans supplémentaires (car ce cas de figure reste rare dans la très grande majorité des cas). On notera toutefois que la transformation en UTF-32 utilise des codets sur , dont de très nombreuses valeurs peuvent ne représenter aucun point de code valide (valeurs hors des deux intervalles représentant les points de code valides U+0000 à U+D7FF et U+E000 à U+10FFFF), donc aucun caractère valide ou réservé (toute information qui y serait contenue ne peut donc pas être du texte au sens d'Unicode). La transmission de textes utilisant ces valeurs invalides de codets dans un des schémas de codage standardisés de l'UTF-32 est interdite pour tout système conforme à Unicode (il faut utiliser plutôt les points de code à usage privé), puisqu'il sera impossible de les représenter dans une autre transformation UTF avec lesquelles les trois UTF standardisées sont bijectivement compatibles. Norme chinoise GB 18030. Il s'agit d'une transformation de l'Unicode qui n'est pas définie par le Consortium Unicode, mais par l'administration de normalisation en Chine, où son support est obligatoire dans les applications. Historiquement c'était un jeu de caractères codé, qui a été étendu pour prendre en charge l'intégralité du répertoire UCS par une transformation algorithmique complétant une large table de correspondance d'un codage à l'autre. Polices de caractères Unicode. Affirmer qu'Unicode code des caractères revient à affirmer qu'il attribue un numéro à des symboles abstraits, selon un principe de codage logique. Unicode ne code en revanche pas les représentations graphiques des caractères, les glyphes. Il n'y a donc pas une bijection entre la représentation du caractère et son numéro, puisque toutes les variantes graphiques de style sont unifiées. De plus, contrairement à une police ASCII ou latin-1 classique, la sélection d'un glyphe par un code n'est pas unique et est souvent contextuelle, et peut aussi afficher le même glyphe pour des codes différents. Ainsi, le caractère français « é » peut être décrit de deux manières : soit en utilisant directement le numéro correspondant au « é », soit en faisant suivre le numéro du « e » par celui de l'accent aigu sans chasse. Quelle que soit l'option choisie, le même glyphe sera affiché. On dira du premier caractère qu'il est précomposé, du second que c'est une composition (deux caractères forment un seul glyphe composé des deux). Ceci est autorisé et même hautement recommandé car les différentes formes de codage sont classées par Unicode comme « canoniquement équivalentes », ce qui signifie que deux formes de codage équivalentes devraient être traitées de façon identique. De nombreux caractères composites sont dans ce cas et peuvent être codés de ces deux manières (ou plus, certains caractères composés pouvant être décomposés de plusieurs façons, notamment quand ils comportent plusieurs signes diacritiques). Le plus souvent, le caractère précomposé est préférable pour le codage du texte, si celui-ci existe (c'est le cas pour le grec polytonique, par exemple, lequel, codé en décomposition, peut ne pas être satisfaisant graphiquement : selon les polices de caractères, les différents constituants du glyphe étant parfois mal disposés et peu lisibles). Toutefois, tous les caractères composites ne disposent pas d'un point de code unique pour leur forme précomposée. De même, certains systèmes d'écriture, comme la devanāgarī, le persan ou l'arabe, nécessitent un traitement complexe des ligatures : les graphèmes changent de forme en fonction de leur position ou de leurs voisins (voir Variante contextuelle et Lettre conjointe). La sélection du glyphe correct nécessite un traitement permettant de déterminer la forme contextuelle à sélectionner dans la police, alors même que toutes les formes contextuelles sont codées de façon identique en Unicode. Pour ces raisons, une police Unicode doit être maniée avec prudence. Par exemple, une police comportant tous les glyphes existants ne suffit pas. Il faut également que le système d'affichage (le moteur de rendu) possède les mécanismes à même de traiter les ligatures, variantes contextuelles et formes conjointes propres à certaines langues. À l'inverse, une police qui ne représente qu'une partie des caractères mais sait les afficher correctement, mérite mieux le titre de « police Unicode ». Enfin, certaines contraintes techniques des formats de polices peuvent les empêcher de supporter la totalité du répertoire. En pratique, il est impossible (en 2009) de trouver une police de caractères unique supportant l'ensemble du répertoire. Une police de caractères Unicode est donc seulement une police permettant d'afficher directement un texte codé selon toutes les formes autorisées par Unicode, et permettant de supporter un sous-ensemble cohérent adapté à une ou plusieurs langues pour supporter une ou plusieurs écritures. Aucune police de caractère Unicode ne peut « fonctionner » seule, et le support complet de l'écriture nécessite un support de celles-ci dans un moteur de rendu, capable de détecter les formes de codage équivalentes, rechercher les formes contextuelles dans le texte et sélectionner les différents glyphes d'une police codée avec Unicode, en s'aidant au besoin de tables de correspondances incluses dans la police elle-même. Détails techniques. Bibliothèques logicielles. La bibliothèque logicielle multiplateforme ICU permet de manipuler des données encodées avec Unicode. Un support d'Unicode spécifique à certaines plateformes est également intégré par les systèmes modernes (Java, Microsoft Windows, GNU/Linux, bibliothèques standards C/C++, Python, etc.). Les types à utiliser pour stocker des variables Unicode, sont les suivants : Unicode souffre toutefois encore d'un faible support des expressions rationnelles par certains logiciels, même si des bibliothèques comme ICU et Java peuvent les supporter. Un tel support n'a pas encore été standardisé pour ECMAScript et n'est fourni qu'avec l'aide de bibliothèques créées avec le langage ou des interfaces d'interopérabilité avec d'autres systèmes (notamment avec CORBA, COM) ou langages (notamment C++ et Java). Partitionnement. Le partitionnement à jour peut être trouvé sur le site officiel d'Unicode. Cependant, étant donné le rôle important d'Unicode actuellement (), on décrira ici les principaux blocs de caractères. Les noms français sont les noms officiels d', la norme internationale bilingue qui reprend les mêmes caractères qu'Unicode. Ils sont aussi officiels que les noms anglais. L'ancien standard est obsolète et incompatible avec la norme et le standard et toutes ses versions ultérieures (dont la version 2.0 et toutes les suivantes qui sont désormais synchronisées avec les éditions de la norme ISO/CEI 10646-1 révisée, pour leur répertoire commun ainsi que les formes de codage normalisées valides, la norme ISO/CEI ayant réduit son espace de codage à ses 17 premiers plans) ; la principale incompatibilité est celle des blocs de caractères Hangul utilisés pour l'écriture de la langue coréenne qui ont changé de position dans Unicode 1.1 pour s'aligner avec la norme ISO, et dont les anciens points de code ont depuis été assignés à d'autres blocs. La table ci-dessous est compatible avec (toutes versions) et (ou ultérieur). N.b. La casse des noms de bloc n’est pas normative. « Latin de base » est donc équivalent à « LATIN DE BASE ». Dans les tableaux suivants, tout nom de bloc ayant une note ramenant à un PDF officiel Unicode signifie que la page Wikipédia associée à ce bloc est inexistante ou erronée. Langues écrites : "Alphabétique" "[L]ogographique, et [S]yllabique ou [A]lphabétique" "Consonantique (abjads sémitiques)" "Alphasyllabique (abugidas)" Plan sinographique ternaire (PST, U+30000 à U+3FFFF). !scope="col" colspan="2"| Points de code !scope="col" rowspan="2"| Nom du bloc en français !scope="col" rowspan="2"| PDF officiel !scope="col" rowspan="2"| En savoir plus !scope="col"| Début !scope="col"| Fin |
UTF-32 UTF-32 est un codage des caractères défini par Unicode où chaque caractère est codé sur un mot de 32 bits. Le codage était défini dans l’annexe 19 à la norme Unicode. Depuis, l’annexe est devenue obsolète, car UTF-32 fait partie intégrante de la norme Unicode, dans son chapitre 3 "Conformance" où elle est définie de façon très stricte. |
UTF-8 UTF-8 (abréviation de l'anglais "" - ) est un codage de caractères informatiques conçu pour coder l’ensemble des caractères du « répertoire universel de caractères codés », initialement développé par l’ISO dans la norme internationale ISO/CEI 10646, aujourd’hui totalement compatible avec le standard Unicode, en restant compatible avec la norme ASCII limitée à l'anglais de base, mais très largement répandue depuis des décennies. L'UTF-8 est utilisé par 82,2 % des sites web en , 87,6 % en 2016, 90,5 % en 2017, 93,1 % en et près de 95,2 % en . Par sa nature, UTF-8 est d'un usage de plus en plus courant sur Internet, et dans les systèmes devant échanger de l'information. Il s'agit également du codage le plus utilisé dans les systèmes GNU/Linux et compatibles pour gérer le plus simplement possible des textes et leurs traductions dans tous les systèmes d'écritures et tous les alphabets du monde. Liens avec la norme internationale ISO/CEI 10646 et les standards Unicode et d'Internet. UTF-8 est un « format de transformation » issu à l'origine des travaux pour la norme ISO/CEI 10646, c'est-à-dire que UTF-8 définit un codage pour tout point de code scalaire (caractère abstrait ou « non-caractère ») du répertoire du jeu universel de caractères codés ("Universal Character Set", ou "UCS"). Ce répertoire est aujourd'hui commun à la norme ISO/CEI 10646 (depuis sa révision 1.) et au standard Unicode (depuis sa version 1.1). UTF-8 est officiellement défini dans la norme ISO/CEI 10646 depuis son adoption dans un amendement publié en 1996. Il fut aussi décrit dans le standard Unicode et fait partie de ce standard depuis la version 3.0 publiée en 2000. En 1996 fut publiée la (« "UTF-8, a transformation format of ISO 10646" ») dans le but de fournir une spécification accessible d'UTF-8 et d'entamer sa standardisation au sein de l"'Internet Engineering Task Force" (IETF). Cette RFC fut révisée en 1998 () puis finalement en 2003 (), cette dernière version faisant d'UTF-8 un des standards de l'internet (STD 63). Description technique. Techniquement, il s'agit de coder les caractères Unicode sous forme de séquences de un à quatre codets d'un octet chacun. La norme Unicode définit entre autres un ensemble (ou répertoire) de caractères. Chaque caractère est repéré dans cet ensemble par un index entier aussi appelé « point de code ». Par exemple le caractère « € » (euro) est le 8365 caractère du répertoire Unicode, son index, ou point de code, est donc 8364 (0x20AC) (on commence à compter à partir de 0). Le répertoire Unicode peut contenir plus d'un million de caractères, ce qui est bien trop grand pour être codé par un seul octet (limité à des valeurs entre 0 et 255). La norme Unicode définit donc des méthodes standardisées pour coder et stocker cet index sous forme de séquence d'octets : UTF-8 est l'une d'entre elles, avec UTF-16, UTF-32 et leurs différentes variantes. La principale caractéristique d'UTF-8 est qu'elle est rétro-compatible avec le standard ASCII, c'est-à-dire que tout caractère ASCII se code en UTF-8 sous forme d'un unique octet, identique au code ASCII. Par exemple « A » (A majuscule) a pour code ASCII 65 (0x41) et se code en UTF-8 par l'octet 65. Chaque caractère dont le point de code est supérieur à 127 (0x7F) (caractère non ASCII) se code sur 2 à . Le caractère « € » (euro) se code par exemple sur : 226, 130, et 172 (0xE2, 0x82 et 0xAC). Description. Le numéro (valeur scalaire) de chaque point de code dans le jeu universel de caractères (UCS) est donné par la norme ISO/CEI 10646 qui assigne un point de code à chaque caractère valide, puis permet leur codage en leur attribuant une valeur scalaire identique au point de code ; cette norme est reprise dans le standard Unicode (qui utilise depuis la version 1.1 le même répertoire). Tous les « points de code » ("code points" en anglais) de U+0000 à U+D7FF et de U+E000 à U+10FFFF sont représentables en UTF-8 et uniquement ceux-là. Les seuls points de code valides dans l'espace de l'UCS et qui ne doivent pas être représentés dans UTF-8 sont ceux qui sont attribués aux « demi-codets » ("surrogates" en anglais), car ils ne sont pas représentables de façon bijective dans le codage UTF-16 et ne sont pas non plus par eux-mêmes des caractères : contrairement aux autres points de code, les demi-codets n'ont donc "pas" de « valeur scalaire » ("scalar value" en anglais) définie. Les points de code ayant une valeur scalaire de 0 à 127 (points de codes U+0000 à U+007F, attribués aux caractères du jeu codé sur 7 bits dans l'ASCII) sont codés sur un seul octet dont le bit de poids fort est nul. Les autres points de code (attribués ou non à des caractères) ayant une valeur scalaire supérieure à 127 (sauf ceux auxquels sont attribués des « demi-codets » qui ne sont pas eux-mêmes des caractères) sont codés sur plusieurs octets ayant chacun leur bit de poids fort non nul : les bits de poids fort du premier octet de la séquence codée forment une suite de 1 de longueur égale au nombre total d'octets (au moins 2) utilisés pour la séquence entière suivie d'un 0 et les octets suivants nécessaires ont leurs deux bits de poids fort positionnés à 10. Ce principe pourrait être étendu jusqu’à huit octets pour un seul point de code (pour représenter des points de code comprenant jusqu’à 42 bits), mais la version normalisée actuelle d'UTF-8 pose la limite à quatre. Le codage interdit la représentation des points de code réservés aux "demi-codets" (qui n'ont pas de valeur scalaire définie, afin de préserver la compatibilité avec UTF-16 qui ne permet pas non plus de les représenter). Il autorise cependant la représentation des points de code assignés à des "non-caractères" (alors même que leur présence est interdite dans un texte conforme). Caractéristiques. Dans toute chaîne de caractères codée en UTF-8, on remarque que : Le plus grand point de code valide affectable à un caractère valide "non privé" est U+EFFFD dans le (il n’est pas encore affecté mais pourrait le devenir à l’avenir), mais le codage UTF-8 peut être utilisé aussi, de façon conforme aux normes, pour représenter n’importe quel caractère valide à usage privé (dans une des trois plages U+E000 à U+F8FF, U+F0000 à U+FFFFD, et U+100000 à U+10FFFD). L’acceptation ou non des "non-caractères" ou des "caractères d’usage privé" est laissée aux applications ou protocoles de transport de texte. Cependant les "non-caractères" ne sont normalement pas acceptés dans des textes interopérables et strictement conformes au standard Unicode où à la norme ISO/CEI 10646. Certaines applications imposent des restrictions supplémentaires sur les points de code utilisables (par exemple, les standards HTML et XML interdisent, dans tout document conforme à ces spécifications, la présence de la plupart des caractères de contrôle entre U+0000 et U+001F et entre U+0080 et U+009F, en dehors du contrôle de la tabulation U+0009 considéré comme un caractère blanc, et interdisent aussi les "non-caractères"). Tout point de code est toujours représenté par exactement la même séquence binaire, quelle que soit sa position relative dans le texte, et ces séquences sont autosynchronisées sur la position indivise des codets significatifs (ici les octets : on peut toujours savoir si un octet débute ou non une séquence binaire effective) ; ce codage autorise donc les algorithmes rapides de recherche de texte, tels que l'algorithme de Boyer-Moore. Ce n'est pas toujours le cas des codages contextuels (qui utilisent généralement la compression de données, par exemple SCSU défini dans la note technique standard UTS#6 optionnelle complétant le standard Unicode) et qui peuvent nécessiter de lire le texte complètement depuis le début, ni des codages basés sur plus d'une seule variable d'état (ou qui incorporent des codes supplémentaires de redondance) ; au mieux certains de ces codages peuvent demander d'utiliser des algorithmes complexes de resynchronisation, basés souvent sur des heuristiques qui peuvent échouer ou conduire à de fausses interprétations si on ne lit pas le texte depuis le début (par exemple BOCU-1). Principe et unicité du codage. Dans le tableau ci-dessus, on voit que le caractère « € » se trouve au point de code U+20AC, soit en décimal 8364, ou en binaire : 100000 10101100. Ce dernier nombre comporteformula_1 chiffres binaires significatifs, donc au moins sont nécessaires pour coder le caractère « € ». La norme présentée ci-dessus impose en réalité trois octets pour représenter ces caractères. Avec quatre octets à disposition, il serait possible de placer selon cette norme jusqu’à , donc en particulier de représenter le caractère « € » par "00000 00"100000 10101100, en lui ajoutant en tête non significatifs. Toutefois, la norme impose qu’un programme décodant l’UTF-8 ne doit pas accepter de chaînes d’octets inutilement longues comme dans cet exemple, ce pour des raisons de sécurité (éviter l’exploitation de tests de sous-chaînes trop tolérants). Ainsi « € » se codera en binaire : 11100010 10000010 10101100, mais le codage 11110000 10000010 10000010 10101100, déduit de la représentation de « € » sur , bien qu’univoque, ne doit pas être utilisé. Une telle forme plus longue que nécessaire s’appelle en anglais ". De telles formes (initialement autorisées dans des spécifications anciennes avant qu’elles soient normalisées successivement par la RFC initiale publiée par le Consortium X/Open, puis parallèlement par la norme ISO 10646 et le standard Unicode) sont désormais interdites et doivent être traitées comme non valides. Types d'octets, séquences valides et décodage. Le codage est prédictif et permet toujours de retrouver la position du premier octet d'une séquence représentant un point de code, à partir de la valeur d'un octet quelconque et de la lecture d'un nombre limité d'octets voisins, dans les deux directions de lecture (ce sera toujours l’octet lui-même, ou le premier éligible dans un des 1 à voisins). Séquences interdites. De telles séquences sont dites mal formées ("). (Voir la référence ci-dessus, notamment la seconde table dans la clause de conformité "D36" du standard ou l'article Unicode). En revanche, les points de code réservés (pas encore alloués à des caractères) sont autorisés (même si l'interprétation des caractères peut rester ambigüe) : il appartient aux applications de décider si ces caractères sont acceptables ou non, sachant que les mêmes applications continueront probablement à être utilisées alors que ces positions auront été assignées dans les normes Unicode et ISO 10646 à de nouveaux caractères parfaitement valides. De même les autres points de code assignés de façon permanente aux autres « non-caractères » sont interdits dans les textes conformes à la norme ISO/CEI 10646 ou au standard Unicode : par exemple U+"x"FFFE à U+"x"FFFF (où x indique un numéro de plan hexadécimal de 0 à 10). Mais ils restent encodables et décodables en tant que tels en UTF-8 (les « non-caractères » sont à disposition des applications qui peuvent en faire un usage au sein d'API internes, par exemple comme codes intermédiaires nécessaires à la mise en œuvre interne de certains traitements, par exemple comme codes intermédiaires de pseudo-décomposition des variantes de certains caractères durant la génération de clés de collation pour le tri). La restriction de l'espace de représentation aux seuls points de code inférieurs ou égaux à U+10FFFF (non compris les points de codes assignés aux « demi-codets ») n’a pas toujours été appliquée : Avantages. Compatibilité avec US-ASCII. Un texte en US-ASCII est codé identiquement en UTF-8 (lorsque le BOM n'est pas utilisé). Interopérabilité. Du fait qu'un caractère est découpé en une suite d'octets (et non en mots de plusieurs octets), il n'y a pas de problème de boutisme (endianness en anglais). Efficacité. Pour la plupart des langues à écriture latine, les fichiers de données numériques ou les codes sources de programmes, ou de nombreux protocoles textuels de communication (comme FTP, HTTP ou MIME), qui utilisent abondamment (voire parfois exclusivement dans certaines parties) les caractères US-ASCII, UTF-8 nécessite moins d'octets que l'UTF-16 ou l'UTF-32. Réutilisabilité. De nombreuses techniques de programmation informatique valables avec les caractères uniformément codés sur un octet le restent avec UTF-8, notamment : Fiabilité. Il s'agit d'un codage auto-synchronisant (en lisant un seul octet on sait si c'est le premier d'un caractère ou non). Inconvénients. Taille variable. Les points de code sont représentés en UTF-8 par des séquences d'octets de taille variable (de même qu'en UTF-16), ce qui rend certaines opérations sur les chaînes de points de code plus compliquées : le calcul du nombre de points de code ; le positionnement à une distance donnée (exprimée en nombre de points de code) dans un fichier texte et en règle générale toute opération nécessitant l'accès au point de code de position "N" dans une chaîne. Une taille variable des caractères d'une chaine empêche l'exploitation d'algorithmes efficaces en matière de comparaisons de chaines, telles que l'algorithme de Knuth-Morris-Pratt et pénalise donc fortement les traitements de données en masse comme dans l'exploitation des bases de données. Ce problème est toutefois davantage lié aux aspects de normalisation que de codage. Efficacité. Pour les langues utilisant beaucoup de caractères extérieurs à US-ASCII, UTF-8 occupe sensiblement plus d'espace. Par exemple, les idéogrammes courants employés dans les textes de langues asiatiques comme le chinois ou le japonais (kanji, par exemple) utilisent en UTF-8 contre en UTF-16. De manière générale, les écritures employant beaucoup de points de code de valeur égale ou supérieure à U+0800 occupent plus de mémoire que s'ils étaient codés avec UTF-16 (UTF-32 sera plus efficace uniquement pour les textes utilisant majoritairement des écritures anciennes ou rares codées hors du plan multilingue de base, c'est-à-dire à partir de U+10000, mais il peut aussi s'avérer utile localement dans certains traitements pour simplifier les algorithmes, car les caractères y ont toujours une taille fixe, la conversion des données d'entrée ou de sortie depuis ou vers UTF-8 ou UTF-16 étant triviale). Séquences non valides. Par son système de codage, il était éventuellement possible de représenter un code de différentes manières en UTF-8, ce qui pouvait poser un problème de sécurité : un programme mal écrit peut accepter un certain nombre de représentations UTF-8, normalement non valides selon la et dans les spécifications (maintenant équivalentes entre elles) publiées par l'ISO 10646 et Unicode ; mais ce n'était pas le cas selon la spécification originale, qui permettait de les convertir comme un seul et même caractère. Ainsi, un logiciel détectant certaines chaînes de caractères (pour prévenir les injections SQL, par exemple) pouvait échouer dans sa tâche (ce n'est plus le cas si la conformité du codage avec la définition stricte et normalisée d'UTF-8 est vérifiée avant toute chose). Prenons un exemple tiré d'un cas réel de virus attaquant des serveurs HTTP du Web en 2001 (Crypto-Gram: July 15, 2000 Microsoft IIS and PWS Extended Unicode Directory Traversal Vulnerability Microsoft IIS 4.0/5.0 Web Directory Traversal Vulnerability). Une séquence à détecter pourrait être « /../ » représentée en ASCII ("a fortiori" en UTF-8) par les octets « codice_1 » en notation hexadécimale. Cependant, une manière malformée de coder cette chaîne en UTF-8 serait « codice_2 », appelée aussi en anglais "overlong form (forme superlongue)". Si le logiciel n'est pas soigneusement écrit pour rejeter cette chaîne, en la mettant par exemple sous forme canonique, une brèche potentielle de sécurité est ouverte. Cette attaque est appelée "directory traversal". Les logiciels acceptant du texte codé en UTF-8 ont été blindés pour rejeter systématiquement ces formes longues car non conformes à la norme : soit le texte entier est rejeté ; mais parfois les séquences non valides sont remplacées par un caractère de substitution (généralement U+FFFD si l'application accepte et traite ce caractère normalement ; parfois un point d'interrogation ou le caractère de contrôle de substitution "SUB" U+001A de l'ASCII, qui peuvent poser d'autres problèmes de compatibilité) ; moins souvent, ces séquences interdites sont éliminées silencieusement (ce qui est très peu recommandé). Caractère nul. UTF-8 ne peut représenter le caractère de contrôle nul (U+0000) qu'avec un seul octet nul, ce qui pose des problèmes de compatibilité avec le traitement de chaînes qui ne codifient pas séparément leur longueur effective car cet octet nul ne représente alors aucun caractère mais la fin de chaîne (cas très courant en langage C ou C++ et dans les API des systèmes d'exploitation). Si un caractère nul doit être stocké dans un texte sur de tels systèmes, il sera nécessaire de recourir à un système d'échappement, spécifique de ce langage ou système avant de coder en UTF-8 le texte ainsi transformé. En pratique, aucun texte valide ne devrait contenir ce caractère. Une autre solution est d'utiliser une des séquences interdites dans le codage UTF-8 standard afin de coder le caractère par cette séquence ; mais le texte ainsi codé ne sera pas conforme au codage UTF-8 standard, même si le codage ainsi modifié reste un format de transformation universelle conforme (qui ne doit cependant pas être désigné comme « UTF-8 »). Voir la section ci-dessous relative aux variantes non standards basées sur UTF-8. Représentation dans les SGBD. L'utilisation d'UTF-8, comme de tout codage à pas variable, dans une base de données pose de multiples problèmes de performances. Les opérations de comparaisons (=, >, <, BETWEEN, LIKE...), de tri (ORDER BY), de regroupement (GROUP BY), comme les opérations de dédoublonnement (DISTINCT) reposant sur la sémantique des informations, sont impossibles à gérer directement en UTF-8. En effet, pour des chaînes de caractères comportant le même nombre de lettres (par exemple CHAR(8)), le nombre d'octets pouvant être différent (du fait notamment des caractères diacritiques : accents, ligatures...), les algorithmes utilisés doivent, pour la plupart, effectuer un alignement avant de pouvoir opérer, ce qui induit un surcoût de traitement non négligeable. Par exemple le SGBD MySQL/MariaDB a choisi de représenter les caractères des chaînes présentées comme UTF-8 en utilisant systématiquement 3 octets par caractère. Les conséquences sont les suivantes : triplement du volume des données et division par trois de la longueur potentielle des clefs d'index par rapport au codage ASCII, et allongement des temps d'exécution pour les comparaisons, les tris, les regroupements ou le dédoublonnement. La chaîne est restituée en final sous la forme UTF-8 après un nettoyage des octets inutiles. D'autres SGBD comme Microsoft SQL Server ont choisi de compresser le support de l'UTF-8 en intercalant les caractères supplémentaires dans un codage à 2 octets, basé sur l'UNICODE en profitant des emplacements laissés vides par la spécification. L'effort supplémentaire pour la traduction en UTF-8 ne se situe qu'au recodage des caractères codés sur 2 octets et à l'expansion de ceux codés sur 3. Histoire. UTF-8 a été inventé par Kenneth Thompson lors d'un dîner avec Rob Pike aux alentours de . Appelé alors "FSS-UTF", il a été immédiatement utilisé dans le système d'exploitation Plan 9 sur lequel ils travaillaient. Une contrainte à résoudre était de coder les caractères nul et '/' comme en ASCII et qu'aucun octet codant un autre caractère n'ait le même code. Ainsi les systèmes d'exploitation UNIX pouvaient continuer à rechercher ces deux caractères dans une chaîne sans adaptation logicielle. FSS-UTF a fait l'objet d'un standard préliminaire X/Open de 1993 qui fut proposé à l'ISO. Cette dernière l'adopta dans le cadre de la norme ISO/CEI 10646 sous le nom d'abord d'UTF-2, puis finalement UTF-8. Restrictions successives. Le codage original FSS-UTF était destiné à remplacer le codage multi-octets UTF-1 initialement proposé par l'ISO 10646. Ce codage initialement permissif, permettait plusieurs représentations binaires pour le même caractère (cela a été interdit dans la version normalisée dans la RFC publiée par le Consortium X/Open, et approuvé par Kenneth Thompson). De plus il pouvait (dans une version préliminaire non retenue) coder tous les caractères dont la valeur de point de code comprenait jusqu'à en définissant un huitième type d'octet (dans des séquences comprenant jusqu'à ), au lieu des d'octets finalement retenus pour ne coder (dans des séquences comprenant aussi jusqu'à ) que les points de code jusqu'à dans la version initiale d'UTF-8 (publiée par le Consortium X/Open sous le nom FSS-UTF, puis proposé par le comité technique d'ISO 10646 comme la proposition « UTF-2 » alors encore en concurrence avec la proposition « UTF-1 », jusqu'à ce que la proposition UTF-2 soit retenue et adopte le nom UTF-8 déjà retenu et utilisé dans X/Open et Plan 9). Ce codage UTF-8 a été restreint encore lorsque Unicode et ISO 10646 sont convenus de n'allouer des caractères que dans les plans afin de maintenir indéfiniment la compatibilité avec UTF-16 (sans devoir le modifier), en restreignant les séquences jusqu'à seulement et en n'utilisant que les des d'octets (ce qui a nécessité de définir comme non valides de nouvelles valeurs d'octet et certaines séquences d'octets pourtant valides individuellement). Prise en charge. L'IETF exige maintenant qu'UTF-8 soit pris en charge par défaut (et non pas simplement supporté en tant qu'extension) par tous les nouveaux protocoles de communication d'Internet (publiés dans ses RFC numérotées) qui échangent du texte (les plus anciens protocoles n'ont toutefois pas été modifiés pour rendre ce support obligatoire, mais seulement étendus si possible, pour le supporter de façon optionnelle, si cela produit des incompatibilités ou introduit de nouveaux risques de sécurité : c'est le cas de protocoles Internet très utilisés comme DNS, HTTP, FTP, Telnet et de HTML dans ses versions initiales alors pas encore standardisés par le W3C et l'ISO). Il est devenu incontournable, notamment dans les principaux logiciels de communication du web et aujourd'hui les systèmes d'exploitation : Extensions ou variantes non standards. Toutefois, des variantes d'UTF-8 (basées sur les possibilités de codage de la version initiale non restreinte) ont continué à être utilisées (notamment dans l'implémentation de la sérialisation des chaînes Java) pour permettre de coder sous forme d'un échappement multioctets certains caractères ASCII réservés normalement codés sur un seul octet (par exemple le caractère nul). De plus, certains systèmes utilisent des chaînes de caractères non restreints : par exemple, Java (et d'autres langages y compris des bibliothèques de manipulation de chaînes en C, PHP, Perl, etc.) représentent les caractères avec des unités de codage sur (ce qui permet de stocker les chaînes en utilisant le codage UTF-16, mais sans les contraintes de validité imposées par UTF-16 concernant les valeurs interdites et l'appariement dans l'ordre des « demi-codets » ou "surrogates") ; dans ce cas, les unités de codage sont traitées comme des valeurs binaires et il est nécessaire de les sérialiser de façon individuelle (indépendamment de leur interprétation possible comme caractères ou comme demi-points de code). Dans ce cas, chaque unité de codage qui représente un « caractère » (non-contraint) est sérialisé sous forme de séquences comprenant jusqu'à chacune, et certains octets interdits par l'implémentation (par exemple les caractères nuls ou la barre de fraction « / » dans un système de fichiers ou d'autres caractères codés sur un octet dans d'autres protocoles) sont codés sous forme de séquences d'échappement à deux octets dont aucun n'est nul, en utilisant simplement le principe de codage de la première spécification de FSS-UTF (avant celle qui a été retenue par le Consortium X/Open dans sa RFC initiale où ces échappements étaient spécifiquement interdits et le sont restés). Avant l'adoption de la proposition UTF-2 retenue pour UTF-8, il a également existé une variante UTF-1, où les codages multiples étaient impossibles, mais cela nécessitait un codage/décodage plus difficile, devant prendre en compte la position de chaque octet et utilisant un certain nombre de valeurs « magiques ». Ces extensions ou variantes ne doivent pas être appelées « UTF-8 ». Extension obsolète d'UTF-8 définie initialement dans une RFC. Avant l'accord survenu entre l'ISO/IEC et Unicode, il a existé une définition (aujourd'hui obsolète) permettant de coder (selon le même principe) des points de code comptant jusqu'à 31 bits significatifs (jusqu'à U-7FFFFFFFFFFFF) en utilisant des séquences comptant jusqu'à 6 octets. Cette définition reposait sur une ancienne RFC publiée par l'IETF, aujourd'hui obsolète (incompatible et non conforme aux versions actuelles des standards Unicode et ISO/IEC 10646). L'accord entre les deux organismes de normalisation a interdit toute utilisation valide des points de code supérieurs à U+10FFFF (soit 17 plans de points de code) pour les échanges entre systèmes compatibles. Par conséquent, les octets préfixes de l'UTF-8 ne peuvent plus être supérieurs à 0xF4 en hexadécimal. L'octet préfixe 0xF4 ne peut être utilisé que pour coder (sur 4 octets) les points de code du et dernier plan valide (U+100000 à U+10FFFF), ce qui impose désormais une restriction sur la valeur du octet, mais permet une interopérabilité avec les standards de codage UTF-16. L'accord s'applique également à la définition actuelle de l'UTF-32, lui aussi modifié pour interdire l'utilisation de plus de 17 plans de points de code. Cependant il peut exister des systèmes utilisant une telle extension de l'UTF-8 (ou de l'UTF-32) de façon interne et privée, mais qui n'est pas destinée aux échanges de textes standards entre systèmes interopérables. Ce type de codage est plutôt destiné à une utilisation intermédiaire nécessaire aux traitements internes dans certaines bibliothèques de code ou des formats de fichiers ou sérialisation spécifiques souhaitant encapsuler de façon universelle autre chose que du texte (par exemple des objets binaires, du code exécutable, des images, des marques spéciales, des métadonnées, des jeux de caractères privés ou non encore normalisés et faisant l'objet de tests ou d'évaluation au sein d'un groupe limité d'utilisateurs utilisant un accord privé spécifique entre eux, etc.). Variante standardisée. Une de ces variantes non standards a fait cependant l'objet d'une standardisation ultérieure (en tant qu'alternative à UTF-16 et utilisant des paires de « demi-codets » codés chacun sur 3 octets ; soit en tout au lieu de UTF-8) : voir CESU-8. Avec l'UTF-8 normalisé actuel (et aussi le codage UTF-32 normalisé actuel), le codage des « demi-codets » isolés est désormais interdit, comme il l'est aussi avec le codage CESU-8 (où les demi-codets doivent former des paires valides, avec un demi-codet fort codé sur 3 octets obligatoirement suivi d'un demi-codet faible codé sur 3 octets, pour coder les points de code standards des 16 plans supplémentaires hors du plan multilingue de base). Le codage CESU-8 standard est donc totalement interopérable avec les codages UTF-8 (même s'il doit obligatoirement être explicitement identifié de façon différente), UTF-16 et UTF-32 des normes et standards actuels de l'ISO/IEC 10646 et d'Unicode. Cependant des variantes privées autorisent le codage de demi-codets isolés au sein de bibliothèques spécifiques qui ne tiennent pas compte de la restriction sur leur utilisation en paires conformes au standard CESU-8. De telles extensions d'usage local (ou faisant l'objet d'un accord privé) ne doivent pas être identifiées comme CESU-8 dans les échanges interopérables de textes standards. Exemple de variante utilisée en Java. Par exemple, les API d'intégration des machines virtuelles Java (pour JNI, "Java Native Interface" ou pour la sérialisation des classes précompilées), qui permettent d'échanger les chaînes Java non contraintes sous forme de séquences d'octets (afin de les manipuler, utiliser ou produire par du code natif, ou pour le stockage sous forme de fichier natif codés en suites d'octets), sont suffixées par « UTFChars » ou « UTF », mais ce codage propre à Java n'est pas UTF-8 (La documentation de Sun la désigne comme "modified UTF", mais certains documents plus anciens relatifs à JNI désignent encore ce codage incorrectement sous le nom "UTF-8", ce qui a produit des anomalies de comportement de certaines bibliothèques natives JNI, notamment avec les API systèmes d'anciennes plateformes natives qui ne supportent pas nativement les codages de caractères sur plus de ), car : En conséquence : Ces traitements peuvent être inefficaces pour l'interfaçage de grosses quantités de texte car ils demandent l'allocation de tampons mémoire supplémentaires pour s'interfacer ensuite dans le code natif avec des interfaces système ou réseau qui n'acceptent que l'UTF-8 standard. Cependant JNI fournit aussi une API binaire plus efficace permettant d'utiliser UTF-16 directement, capable de s'interfacer directement avec les protocoles réseau et les interfaces système (par exemple les API Windows) qui supportent l'UTF-16, sans nécessiter aucune allocation mémoire supplémentaire pour le transcodage (seule la vérification de conformité peut être nécessaire, principalement pour vérifier dans le texte codé l'appariement correct des demi-codets ou "surrogate", que Java (comme aussi d'autres langages de programmation) permet de manipuler sans restriction de validité dans ses propres chaînes de caractères non destinées au stockage des seuls textes conformes à l'UCS). Cette API binaire est supportée sur tous les systèmes où Java a été porté, même ceux dont le système d'exploitation n'offre pas d'API de texte Unicode (la prise en charge pouvant se faire dans l'application native hôte ou en utilisant les bibliothèques standard fournies avec la machine virtuelle Java ou d'autres bibliothèques natives indépendantes. |
UTF-16 UTF-16 est un codage des caractères définis par Unicode où chaque caractère est codé sur une suite de un ou deux mots de 16 bits. Le codage était défini dans le rapport technique 17 à la norme Unicode. Depuis, cette annexe est devenue obsolète car UTF-16 fait partie intégrante de la norme Unicode, dans son chapitre 3 "Conformance" qui la définit de façon très stricte. L'UTF-16 ne doit pas être confondu avec l'UCS-2 qui est le codage, plus simple, de chaque caractère sur deux octets. Ces deux normes sont pourtant appelées toutes les deux Unicode, car le codage est le même tant que l'on n'utilise pas les plages U+D800 à U+DFFF (en principe réservées) et les plages après U+FFFF (peu utilisées en occident). Usage. L'UTF-16 est en particulier utilisé dans les environnements Windows. Dans ce système, les API dites Unicode utilisent ce standard. Il en va de même du système NTFS. UTF-16 est le standard de chaînes de caractères utilisé par l'UEFI. Description. Le numéro de chaque caractère (son point de code) est donné par la norme ISO/CEI 10646, et repris à l'identique par le standard Unicode. Les points de code qui peuvent être représentés doivent être dans l’intervalle de validité U+0000 à U+10FFFF, et ne doivent pas être affectés à un non-caractère. Tous les caractères possibles dans Unicode possèdent de tels points de code. Tout point de code qui n’est pas un non-caractère, et dont la valeur peut être codée sur un seul codet de deux octets (16 bits), c’est-à-dire tout point de code U+0000 à U+D7FF et U+E000 à U+FFFD, est stocké sur un seul mot de 16 bits (la plage de non-caractères U+D800 à U+DFFF est donc exclue, c'est-à-dire les points de code dont les 5 bits de poids fort sont 11011). Dans les autres cas, le caractère est un point de code d’un plan supplémentaire (donc entre U+10000 et U+10FFFD et dont les 16 bits de poids faible ne doivent pas égaler 0xFFFE ou 0xFFFF) ; il est alors stocké sur 2 mots (codets) successifs de 16 bits chacun, dont les valeurs correspondent aux points de code réservés dans les "demi-zones d’indirection" allouées dans le plan multilingue de base des normes Unicode et ISO/CEI 10646 : Puis suivant le format de stockage des mots de 16 bits dans un flux ordonné d’octets, deux systèmes sont possibles pour le codage final : L’indication du type de codage utilisé (ordre des octets) peut être implicite pour le protocole utilisé, ou précisé explicitement par ce protocole (en indiquant par exemple les noms réservés "UTF-16BE" ou "UTF-16LE" dans un entête de MIME). Si le protocole ne permet pas de spécifier l’ordre des octets, et s’il permet l’une ou l’autre des alternatives, on pourra utiliser le codage UTF-16 du point de code valide U+FEFF comme indicateur en tête du flux de données (car un changement d’ordre de ses octets à la lecture du flux conduira à un point de code U+FFFE, valide dans Unicode mais affecté à un non-caractère et donc interdit dans ce cas dans tout flux UTF-16. Ce point de code ainsi représenté (appelé indicateur d'ordre des octets, en anglais, abrégé "BOM") ne sera codé qu’au début du flux de données, et permet de savoir comment a été codé le flux : Si l’une des deux séquences de deux octets chacune est présente en tête de flux, le type de codage en est déduit et la séquence est retirée du flux : elle ne représente aucun caractère du texte stocké dans ce flux de données. Si aucune des deux séquences ne figure en tête du flux de données, la norme Unicode spécifie que le flux doit être décodé en big endian (UTF-16BE). Ailleurs qu’au début du flux (y compris après un "BOM" initial), ces séquences ne sont pas reconnues comme codant un "BOM" et le décodage se poursuit avec un type de codage unique ; donc si ces séquences apparaissent après le début, alors : De même le flux doit être considéré comme invalide et ne contenant pas de texte conforme à Unicode s’il contient un mot de 16 bits compris entre 0xD800 et 0xDBFF non immédiatement suivi d’un mot compris entre 0xDC00 et 0xDFFF, ou s’il contient un mot de 16 bits entre 0xDC00 et 0xDFFF non immédiatement précédé d’un mot entre 0xD800 et 0xDBFF, ou si le décodage fait apparaître le point de code de tout autre non-caractère. |
Union En Mouvement |
Union des républiques socialistes soviétiques L'Union des républiques socialistes soviétiques, abrégé en URSS ou Union soviétique (en russe , ; transcription : "Soïouz Sovietskikh Sotsialistitcheskikh Riespoublik", "SSSR" ; « Union des républiques socialistes des conseils »), était un État fédéral transcontinental à régime communiste. Cette fédération a existé de sa proclamation le à sa dissolution le . État le plus vaste du monde, l'URSS occupait un sixième des terres émergées et s'étendait sur onze fuseaux horaires, de la mer Baltique et de la mer Noire à l'océan Pacifique, soit toute la partie nord-est de l'Eurasie. C'était la majeure partie du territoire de l'ancien Empire russe, moins la Pologne et la Finlande indépendantes depuis la guerre civile russe de 1918 à 1921, et augmentée des gains territoriaux de la période stalinienne en Europe orientale et en Asie de l'Est entre 1939 et 1945. Le territoire de l'URSS évolua donc dans le temps, surtout durant et à l'issue de la Seconde Guerre mondiale. L'Union était composée de républiques fédérées (dont le nombre varia également selon les époques) qui sont devenues indépendantes lors de sa dislocation ainsi que d'un certain nombre de républiques et régions autonomes. La formation de l'URSS fut l'une des conséquences de la révolution russe de 1917. La révolution de Février mit fin au règne des tsars dont Nicolas II fut le dernier représentant, et instaura la République russe qui fut renversée le par les bolcheviks lors de la révolution d'Octobre. L'un des moteurs de la création de l'URSS fut la volonté de Vladimir Ilitch Lénine d'appliquer sa doctrine fédéraliste en transformant la Russie unitaire en une union de républiques formées selon le principe des territoires ethniques jouissant d'un certain degré d'autonomie culturelle locale. Sa conception s'opposait initialement à celle du nationalisme soviétique de Joseph Staline, qui voulait créer une seule "république socialiste fédérative soviétique de Russie". Toutefois, Staline revint ultérieurement sur ses positions et, dans les , procéda lui-même à la création de plusieurs républiques fédérées (dans le Caucase, en Carélie et en Asie centrale). L'URSS était gouvernée par le Parti communiste de l'Union soviétique (PCUS) et tout particulièrement par son bureau exécutif : le "Politburo". Tous les appareils (législatif, exécutif ou judiciaire), ainsi que la presse et la société civile dans son ensemble, étaient directement soumis à l'autorité de ce parti unique et de sa police politique (successivement Tchéka, Guépéou, NKVD, MGB, KGB…), rendant factice l'autonomie constitutionnelle des républiques fédérées et autres entités autonomes, ainsi que celle des soviets et de leur hiérarchie dont le Soviet suprême et de ses deux composantes, le Soviet de l'Union (un député pour ) et le Soviet des nationalités ( pour chaque république soviétique fédérée, 11 pour chaque république autonome, cinq pour chaque oblast autonome et un pour chaque okroug ou raïon autonome). Ces pratiques, analysées dès 1970 par Andreï Amalrik comme une impasse politique, sociale et économique, générant une perte d'espoir et de légitimité, incitèrent le gouvernement soviétique, présidé à partir de 1985 par Mikhaïl Gorbatchev, à réformer le système par une politique de "glasnost" (« transparence ») et de "perestroïka" (« restructuration »). Malgré un référendum organisé en mars 1991 au cours duquel 77,85 % des électeurs se prononcèrent en faveur de la préservation de l'Union soviétique, un coup d'État en août 1991 précipita la chute du pays. La Communauté des États indépendants (CEI) est créée le 8 décembre 1991 et quelques jours plus tard, le 25 décembre, Gorbatchev démissionne de son poste de président de l'URSS. La fédération de Russie est l'État continuateur de l'Union soviétique et a notamment hérité de son siège de membre permanent au Conseil de sécurité des Nations unies. Appellation. Le mot « soviet » est la transcription du mot russe qui signifie « conseil », aussi bien au sens de l'avis donné à quelqu'un, que d'une assemblée de personnes. Un certain nombre d'organisations dans l'histoire russe ont été dénommées « Conseil » (), comme, dans l'Empire russe, le Conseil d'État, qui fonctionna de 1810 à 1917 et qui devint le Conseil des ministres après la révolution russe de 1905. Dans les langues locales de plusieurs républiques, le mot signifiant « des conseils » fut ultérieurement abandonné au profit du mot russe « soviet » (signe *). Les noms de l'Union soviétique sont donc les suivants dans les langues de ses quinze républiques constitutives : En raison de la longueur de son nom, l'État est couramment appelé « Union soviétique » , ' ou « URSS » , '. Sa « langue de communication interethnique » (язык межнационального общения) était le russe, langue de l'État, et l'alphabet cyrillique était employé pour la plupart des langues de l'Union, de sorte que les médias occidentaux et américains prirent l'habitude de l'appeler improprement « Russie » (et ses citoyens « Russes ») par abus de langage, puisque la Russie n'était que l'une des républiques constitutives (et les Russes, l'une des « nationalités » comptabilisées en URSS). Géographie. Héritant de la plus grande partie du territoire de l'ancien Empire russe, l'URSS a été le pays le plus étendu du monde (), avec un peuplement des plus variés, comptant plus de cent « nationalités » (ethnies) recensées, une soixantaine de langues et cinq religions. La population totale était estimée à en 1990 (dite peuple soviétique). Aujourd'hui la Russie demeure toujours le pays le plus étendu du monde, toujours très divers culturellement, et administrant des centaines de minorités non-russes. Elle a conservé les frontières ' de la République socialiste fédérative soviétique de Russie telles qu'elles étaient en 1945, à une seule exception près : l'archipel d'îles fluviales de l'Amour, à l'Ouest de Khabarovsk, partagé avec la Chine en 1991. Toutefois, des territoires contrôlés ' par la Russie dans trois des anciennes républiques soviétiques s'y sont ajoutés depuis 1991. Division territoriale. Avant la constitution en 1922 de l'Union des républiques socialistes soviétiques, des républiques socialistes soviétiques ont existé "de facto", mais sans former "de jure" une unique fédération, et sans avoir encore obtenu la reconnaissance diplomatique de la communauté internationale. Pendant l'« affaire géorgienne », Vladimir Ilitch Lénine appela les États-nations issus de la dislocation de la République russe à rejoindre la nouvelle Russie soviétique pour former une union plus grande, qu'il envisagea d'appeler « Union des républiques soviétiques d'Europe et d'Asie » (en , ""). Staline pour sa part proposa le nom d'« Union des républiques socialistes soviétiques » en 1922, mais il ne fut officiellement adopté qu'en 1924, sous cette forme, bien que jusqu'en 1936 la dénomination des diverses composantes fut celle de « soviétique socialiste » (et non « socialiste soviétique »). Subdivisions territoriales entre 1918 et 1922. Entre une douzaine et une quinzaine de républiques socialistes soviétiques se sont succédé sur les territoires de la première république russe qu'elles ont remplacée après la révolution d'Octobre : leurs intitulés et leur organisation ont varié, certaines se divisant, d'autres se réunissant ; plusieurs n'étaient que des proclamations ne contrôlant pas de territoire : Organisation territoriale entre 1922 et 1941. Entre 1922 et 1940, les républiques soviétiques sont cette fois membres "de jure" de l'Union, elle-même pourvue d'une constitution et internationalement reconnue à partir du traité de Rapallo ; elles se sont ainsi constituées : À ces républiques membres de l'Union, s'ajoutaient deux États-satellites, soviétiques "de facto" mais indépendants "de jure" qui furent les deux premiers pays communistes après l'URSS et avant la constitution du « bloc de l'Est » : Organisation territoriale entre 1939 et 1941. Grâce à la mise en application du pacte germano-soviétique (en 1939 et en 1940), le territoire de l'Union soviétique s'agrandit sans combats de aux dépens des pays baltes (), de la Pologne () et de la Roumanie (), avançant la frontière soviétique vers l'Ouest de en moyenne, agrandissant les républiques socialistes soviétiques de Biélorussie et d'Ukraine, et intégrant quatre nouvelles républiques : l'Estonie, la Lettonie, la Lituanie et la Moldavie. Organisation territoriale entre 1941 et 1954. En 1941, l'offensive allemande contre l'URSS remet pour quatre ans en question l'organisation territoriale de 1939 : les occupants mettent en place leur propre administration avec les « Commissariats du Reich » des « Pays de l'Est » regroupant les pays baltes et la Biélorussie, et « d'Ukraine », auxquels s'ajoutent à l'Est une vaste zone sous administration militaire directe en Russie occidentale, et au Sud une petite zone d'occupation roumaine en Podolie. Ces structures disparaissent en 1944 à mesure que les contre-offensives de l'Armée rouge permettent au gouvernement soviétique de reprendre le contrôle de ces territoires. L'organisation de 1939-1940 est alors rétablie jusqu'en 1954 lorsque certains changements sont opérés : par exemple, la République socialiste soviétique carélo-finnoise est réintégrée à celle de Russie, qui de son côté cède la Crimée à la république socialiste soviétique d'Ukraine. Organisation territoriale entre 1954 et 1991. Entre 1954 et 1991, l'Union soviétique compta quinze républiques socialistes soviétiques (RSS) : <noinclude> Chaque république fédérée était organisée en « régions » ("oblasts") à leur tour divisées en « arrondissements » ("rayons"), sauf les cinq petites RSS d'Estonie, Lettonie, Lituanie, Moldavie et Arménie qui étaient directement divisées en "rayons". La RSFS de Russie disposait, en plus, de « confins » ("kraïs"). Certains des oblasts et des kraïs comptaient des districts ou des arrondissements autonomes. Certaines républiques fédérées (Russie, Géorgie, Azerbaïdjan, Ouzbékistan et Tadjikistan) avaient aussi dans leur structure des républiques autonomes. Les républiques musulmanes d'Asie centrale étaient des créations artificielles de Staline, qui ont été découpées sans tenir compte des réalités géographiques ou ethniques. Une partie de la communauté internationale considérait les trois républiques baltes comme annexées illégalement par l’Union soviétique. Entités territoriales postsoviétiques. Communauté des États indépendants (1991) et ses réformes. La Communauté des États indépendants (CEI), créée le , est une entité intergouvernementale composée de dix anciennes républiques soviétiques. Conformément à ses instruments constitutifs, les accords de Minsk et d'Alma-Ata, la CEI est dépourvue de personnalité juridique internationale. Pour cette raison, la communauté des anciennes républiques soviétiques n'est pas une organisation internationale. Ses membres sont l'Arménie, l'Azerbaïdjan, la Biélorussie, le Kazakhstan, le Kirghizistan, la Moldavie, l'Ouzbékistan, la Russie, le Tadjikistan et le Turkménistan qui dispose du statut d'état associé. La Géorgie quitta la communauté à la suite des événements en Ossétie du Sud de 2008 et l'Ukraine met fin à sa participation à la CEI en 2018. Au début des , les réformes de la CEI contribuent à créer l'Organisation du traité de sécurité collective (OTSC) et la Communauté économique eurasiatique ("Eurasec"). Union économique eurasiatique. L'Union économique eurasiatique (ou Union économique eurasienne) est une organisation supranationale fondée sur le modèle de l'Union européenne et du traité de Maastricht de 1992. Elle est effective depuis le . Englobant une union douanière et économique, elle intègre actuellement la Russie, la Biélorussie, le Kazakhstan, l'Arménie, le Kirghizistan et pourrait s'étendre au Tadjikistan. Proche du projet de l'Union des républiques souveraines imaginé par Gorbatchev en 1991, bon nombre d'observateurs, en particulier les États-Unis, mettent en garde la Russie face à une refondation de l'Union soviétique sous une nouvelle forme. Union de l'État fédéral de la Russie et de la Biélorussie (1996). L'Union de la Russie et de la Biélorussie est une union politico-économique de type confédéral entre les deux pays slaves (Russie et Biélorussie). La Serbie, l'Abkhazie, et l'Ossétie du Sud y ont un rôle d'observateur. C'est une des unions postsoviétiques les plus avancées. États partiellement reconnus ou non reconnus. Si la fédération de Russie est le continuateur de l'Union soviétique et si l'indépendance des quatorze autres anciennes républiques socialistes soviétiques a été reconnue internationalement, plusieurs autres états issus de la dislocation de l'URSS n'ont pas été reconnus par la communauté internationale (ou seulement partiellement). Deux d'entre eux, situés en Russie, ont été remis par celle-ci dans le rang de ses républiques fédérales : il s'agit du Tatarstan et de la Tchétchénie. Quatre autres, situés hors de Russie, ont en revanche été soutenus par celle-ci et, pour deux d'entre eux (signe *), officiellement reconnus par elle : l'Abkhazie*, le Haut-Karabagh, l'Ossétie du Sud-Alanie* et la Transnistrie. En outre, la République de Crimée, la république populaire de Donetsk, la république populaire de Lougansk, l’oblast de Kherson et l’oblast de Zaporijjia, qui selon le droit international font partie de l’Ukraine, ont été annexés par la fédération de Russie. Histoire. Origines de l'Union soviétique : révolution russe et guerre civile (1917-1921). Prémices. Dès le , la Russie tsariste connaît une agitation révolutionnaire qui s'aggrave après une révolution réprimée en 1905 et la défaite russe lors de la guerre russo-japonaise. Le mécontentement populaire culmine à la suite des pénuries causées par la Première Guerre mondiale et aboutit à la chute du gouvernement impérial et à l'abdication de en lors de la révolution de Février. Le nouveau gouvernement de coalition démocrate de la nouvelle république russe veut respecter, vis-à-vis des Alliés, l'engagement de la Russie dans la guerre. Mais cet effort est largement refusé par une armée et un pays exsangues : le gouvernement d'Alexandre Kerenski perd ses appuis dans la population et la classe ouvrière tandis qu'à , un vaste soulèvement paysan spontané procède de lui-même au partage des terres. De leur côté, les forces réactionnaires, regroupées autour du général Lavr Kornilov, tentent vainement un coup d'État (« affaire Kornilov »). L'État perd progressivement son autorité sur le pays et l'armée se débande. Révolution de 1917. Le Parti bolchevique, parti révolutionnaire marxiste mené par Vladimir Ilitch Lénine, devient progressivement majoritaire parmi les socialistes dans les conseils politiques ouvriers et paysans dits « soviets ». Le (selon l'ancien calendrier julien) ou le , il renverse le gouvernement provisoire par un coup d'État dit « révolution d'Octobre ». Le slogan de la révolution qui emporte l'adhésion des masses populaires est simple et percutant : , ce qui signifie nationalisations et armistice. Ainsi, la jeune république bolchevique décide de se sortir de la Première Guerre mondiale en concluant une paix séparée avec l'Empire allemand, qui a facilité le voyage de Lénine de la Suisse vers la Russie. Un armistice signé en aboutit au traité de Brest-Litovsk en par lequel la Russie laisse l'Empire allemand occuper et exploiter 3,6 % de son territoire, 26 % de sa population, 32 % de sa production agricole, 23 % de sa production industrielle et 75 % de ses réserves de charbon. Le territoire occupé comprend l'Ukraine, la Biélorussie, les pays baltes et la Pologne que, de toute manière, les bolchéviks ne contrôlaient pas, mais qu'ils récupéreront après la défaite allemande de , au terme de la guerre civile russe, sauf les pays baltes, la Pologne et la Bessarabie (Moldavie) que l'URSS occupera en 1940, sans guerre, grâce au pacte germano-soviétique. L'État soviétique supprime (nationalise) la propriété privée industrielle ou immobilière, les commerces et les banques. À la place, une propriété d'État est instaurée sur la quasi-totalité des moyens de production, sauf agricoles. Le marché libre disparaît et l'État acquiert le monopole du commerce intérieur et extérieur, du logement, des transports, de la distribution d'eau et d'énergie. Cette tendance au capitalisme d'État est néanmoins critiquée par des communistes comme Nikolaï Ossinski. Lénine annule également les engagements russes sur les emprunts obligataires qui avaient été contractés par le gouvernement tsariste dans le but d'industrialiser le pays, développer les voies ferrées et financer la guerre. La jeune RSFS de Russie créée par la Constitution de 1918 fonctionne selon un principe fédéral, dont le principe de gouvernance est le « centralisme démocratique », une définition "de jure" de ce qui est "de facto" une dictature du parti unique au nom de la . Le pouvoir législatif est théoriquement exercé par le « congrès panrusse des Soviets », lequel mandate le « Comité exécutif central panrusse », tant en matière législative qu'exécutive. Il appartient ainsi au Comité exécutif de contrôler le « Conseil des commissaires du peuple », lequel, avec Lénine à sa tête, a la charge de gouverner la RSFS de Russie. Cette apparence de démocratie ne résiste pas à une analyse plus poussée : noyauté et contrôlé totalement par les bolcheviks, le congrès des Soviets, son Comité exécutif et donc le Conseil des commissaires du peuple, sont aux mains de Lénine et de ses camarades, et en particulier du Politburo du PCUS. Ensuite, le pouvoir d'État devient bien plus arbitraire en raison de la guerre civile, combinée à l'intervention ouverte des États occidentaux, qui fait rage jusqu'en 1921. « Communisme de guerre » (1918-1921). Pour faire face aux forces d'opposition pendant la guerre civile russe, soutenues par divers pays étrangers (Allemagne, Angleterre, France, Japon, États-Unis), le gouvernement bolchévik décrète le , dont les mesures essentielles sont : Grâce au « communisme de guerre », Lénine et le parti bolchevik parviennent à se maintenir au pouvoir face aux forces réactionnaires, aux interventionnistes étrangers, à l'armée anarchiste de Makhno (Makhnovchtchina) qui tient le sud de l'Ukraine, et aux « armées vertes » créées par les paysans en révolte à la fois contre les Blancs et les bolcheviks. Grâce à la division et à l'absence de coordination entre leurs ennemis, les bolchéviks sortent vainqueurs de la guerre civile, et le danger d'une restauration monarchique ou républicaine démocratique est écarté. Mais les difficultés intérieures ne cessent pas : le , l'Armée rouge réprime dans le sang la révolte de Kronstadt, dont les marins avaient exigé le retour au « pouvoir des soviets » et la fin du monopole bolchevique. Sur le plan territorial, la Russie bolchevique perd les pays baltes, la Finlande, la Pologne (qui sauvegarde son indépendance à l'issue de la guerre soviéto-polonaise) et la Moldavie (qui s'unit à la Roumanie). Mais après des luttes confuses, et entre 1920 et 1922, les bolchéviks intègrent l'Ukraine (qui avait elle aussi proclamé son indépendance), la Géorgie, l'Arménie et l'Asie centrale, reprises de force dans le giron russe. La guerre civile, l'embargo des puissances occidentales sur la Russie soviétique et la politique d'expropriation de biens des paysans afin de nourrir les soldats de l'Armée rouge conduisent à une grande famine provoquant la mort de millions de Russes, surtout dans le bassin de la Volga en 1921-1922. Création. L'Union des républiques socialistes soviétiques fut proclamée le , date de la signature du traité d'union (à la suite d'une déclaration préalable) entre la RSFS de Russie, la RSFS de Transcaucasie, la RSS d'Ukraine et la RSS de Biélorussie. Ce traité est ratifié le par le premier congrès des Soviets d'URSS. Ce nouvel État, même s'il a perdu des territoires en comparaison de l'Empire russe, reste le plus vaste pays du monde mais n'est pas encore internationalement reconnu. Une constitution fut rédigée en 1923 ; l'union regroupa plusieurs républiques fédérées dont les frontières furent constituées selon une répartition démographique correspondant à un "peuple" dans sa définition soviétique. L'URSS fut donc un État fédéral dans lequel chaque république était, en théorie, égale en droits aux autres. Dans les faits, le PCUS (et au début le RSDRP) et la Tchéka surveillent étroitement ces républiques dont les premiers secrétaires du Parti furent désignés par Moscou. Soviets à partir de 1917. Le PCUS devint rapidement le seul parti du pays. Théoriquement le pays était gouverné par des « Soviets » démocratiquement élus au niveau régional et local mais en pratique, le pouvoir du "Politburo" est absolu et chaque niveau décisionnel applique les directives transmises par le niveau supérieur, sous la surveillance de la police politique. Union soviétique de l'entre-deux-guerres. NEP (de 1921 à 1929). Après la guerre civile (1921), le pays se trouve dans une situation humanitaire et économique désastreuse. La famine fait cinq millions de morts dans le bassin de la Volga, et les paysans se soulèvent sporadiquement contre les réquisitions. Ce mécontentement prend une ampleur inquiétante en avec la révolte de Kronstadt, ville pionnière de la révolution, abritant l'amirauté et les forces navales de la mer Baltique défendant Pétrograd. Conscient que la répression, aussi dure soit-elle, ne suffit pas à enrayer le mouvement, Lénine décida d'assouplir la politique du régime, et mit en œuvre la « Nouvelle politique économique » (NEP), libéralisation économique donnant droit à une production privée limitée, notamment aux agriculteurs. Les réquisitions sont ainsi remplacées par un impôt en nature peu élevé. Pour expliquer le passage à la NEP, Lénine déclare: , se référant au fait que la Russie était encore une société essentiellement agraire avec une base industrielle insuffisante, ne remplissant pas les critères permettant le passage au socialisme tel que défini par Karl Marx. La NEP devait aussi rassurer les pays occidentaux capitalistes. La NEP atteint les résultats escomptés en permettant à l'économie de se relever des conséquences désastreuses de la guerre. La famine rampante disparaît virtuellement et la classe paysanne retrouve son auto-suffisance ; certains paysans parviennent même à produire des surplus et à alimenter les villes : ils sont appelés koulaks tandis que dans les agglomérations, les artisans et commerçants autonomes sont appelés "nepmen" : les deux catégories sont, aux yeux de la police politique et d'une frange importante du Parti bolchevique, suspectes de former une nouvelle « classe de parasites », une nouvelle aristocratie rurale, une nouvelle bourgeoisie riche. Ces critiques voient la NEP comme une « trahison des principes socialistes » et veulent un retour rapide à une économie intégralement contrôlée et planifiée par le Parti. Il semble qu'à sa mort, Lénine considérait que la NEP devrait être maintenue, tout du moins n'a-t-il jamais fixé, ni même évoqué, la date de son arrêt. Ainsi, à l'approche de sa succession, les oppositions au sein du Politburo se cristallisèrent autour de la NEP. Succession de Lénine (1922-1929). Maladie de Lénine et prise en main du Parti par Staline. Dès 1922, la santé de Lénine décline à la suite d'attaques cérébrales, conséquences d'un attentat dont il fut victime en 1918. La lutte pour sa succession aboutira à l'accession au pouvoir suprême de Joseph Staline, ayant appartenu au premier cercle d'adhérents au Parti (entrée en 1904), bien que Lénine ne l'appréciait plus beaucoup, déclarant même dans son testament () qu'il fallait démettre de ses fonctions cet homme . L'ascension de Staline débute lorsqu'il devient secrétaire général du Parti le , poste-tremplin obtenu grâce à sa prudence (peu de prises de position), ses relations de longue date et sa loyauté apparente à l'appareil du Parti. Toutefois Léon Trotski, ayant acquis dès 1902 l'estime de Lénine et fondé l'Armée rouge, n'est pas dupe, mais Trotski a des handicaps : il a été proche des mencheviks, a adhéré tardivement au Parti bolchevik (1917) et a parfois opposé des objections à Lénine sur certains points pendant les congrès du parti, alors que Staline se présente comme un loyal serviteur du fondateur de l'URSS, ne l'ayant jamais contredit. Pour évincer Trotski du gouvernement, Staline s'associe dès 1923, du vivant de Lénine, à Lev Kamenev, ayant lui aussi adhéré dès 1905, et à Grigori Zinoviev, haut dirigeant du Komintern, ami intime de Lénine , convaincu d'être son légitime successeur et ayant lui aussi proposé un temps l'alliance avec les mencheviks. Décès de Lénine et ascension de Staline. En 1926, deux ans après la mort de Lénine, Zinoviev et Kamenev décident de rompre avec Staline pour se rapprocher de Trotski avec lequel ils partagent une doctrine commune : l'exportation de la révolution à l'échelle mondiale et l'abandon de la NEP. Cette "troïka des purs" forme l'Opposition de gauche à Staline, qui réagit tactiquement en se rapprochant de l'opposition de droite favorable à la NEP et à une réalisation du socialisme d'abord sur le sol russe puis à l'extérieur (Nikolaï Boukharine, Alexeï Rykov et Mikhaïl Tomski). Il s'appuie sur cette aile droite pour exclure du Parti en 1927 ses trois grands opposants de l'aile gauche. Le , une fois assuré que les partisans de l'Opposition de gauche ont été réduits au silence (par l'exclusion, la force, l'emprisonnement, l'exil), il se retourne contre Boukharine, Rykov et Tomski, qu'il exclut du Politburo et démet de leurs fonctions respectives de président du Komintern, chef du gouvernement, et dirigeant du Profintern. Staline, dirigeant de l'Union soviétique (1929-1953). Staline, seul maître à bord, n'hésite pas dès lors à adopter la mesure phare prônée par l'ancienne opposition de gauche devenue impuissante : l'abandon de la NEP. Cette réorientation s'accompagne d'une "relégitimation" de façade. Ainsi, en 1928, Kamenev est rétabli, il en va de même pour Zinoviev en 1929, mais Trotski, toujours populaire, est expulsé la même année. Kamenev et Zinoviev furent finalement jugés et exécutés le , Boukharine et Rykov en , et Trotski assassiné le dans son exil au Mexique. Après avoir réussi à éliminer politiquement, puis à exterminer physiquement toute opposition, Staline devint le dirigeant suprême de l'Union soviétique de 1927 à sa mort, en . Du point de vue politique, ce fut une période de dictature totalitaire, en ce sens que le Politburo ne gouvernait pas seulement les sphères politique et économique, mais régentait aussi, par police politique interposée, la sphère sociale, et par commissaires politiques interposés les sphères locales, familiales et même intimes des citoyens : son contrôle était donc total. Cela n'empêche pas les nostalgiques du régime de contester l'application au stalinisme du qualificatif dû à Hannah Arendt, qualificatif qui, selon eux, devrait être réservé au nazisme. Planification de l'économie. Il s'agissait de prévoir les activités économiques selon des plans quinquennaux et qui fixaient les objectifs obligatoires de production. Ces plans quinquennaux donnaient la priorité aux industries lourdes en laissant de côté les industries de consommation. En URSS, il y eut au total dix plans quinquennaux allant du Plan (1928-1932) jusqu'au Plan (1976-1980). Il s'agit d'un plan typique de l'Union soviétique, mais certains plans ressemblent à celui-ci comme le Commissariat général du Plan (en France) ou même le « Grand Bond en avant » (en république populaire de Chine). Abandon de la NEP. Staline ne définit pas immédiatement une ligne politique au sujet de la NEP : ses changements d'opinion tenaient plus de la tactique politique au sein du Parti, que de la doctrine, ce qui lui permit de se débarrasser alternativement des camarades favorables à la NEP et accusés d'être « droitiers », et de ceux hostiles accusés d'être « gauchistes ». Une fois assuré d'avoir réduit tout contradicteur potentiel au silence, Staline qui visait avant tout un contrôle total de la société et de l'économie, prit le parti des « gauchistes » en économie, en accusant les "nepmen" et les "koulaks" d'avoir formé une classe capitaliste rendue responsable de l'augmentation du chômage et de l'inflation, et en excluant du champ économique toute forme d'autogestion, d'autosuffisance ou d'économie de marché à l'échelle locale. Ses plans quinquennaux visaient une industrialisation lourde du pays (seule capable de forger une armée puissante) et l'autarcie alimentaire, textile, énergétique à l'échelle de l'Union, pour se passer de toute importation. Il fallait aussi peupler les vastes espaces semi-désertiques de la partie asiatique de l'Union. Pour cela, le Politburo chargea l'appareil d'État de recourir massivement au travail intensif appelé « stakhanovisme » et à la main d'œuvre gratuite des déportés et des prisonniers dans les camps de travaux forcés, qui se multiplièrent notamment dans le Nord et en Asie, et dont les détenus y étaient assignés à résidence à l'issue de leurs peines, afin de peupler (et ainsi russifier) la Sibérie et l'Asie centrale. En politique, en revanche, Joseph Staline prit le parti des « droitiers » : il rétablit les grades dans l'Armée rouge, renforça l'institution du mariage et de la famille, promut une morale sociale fort proche de la morale bourgeoise, un urbanisme favorisant le logement par familles plutôt que par brigades ou équipes, une stricte hiérarchie dans les administrations, et sur le plan international il définit la « théorie du socialisme dans un seul pays », ne demanda plus au Komintern de viser une révolution mondiale, chercha à rassurer les autres puissances et à nouer des alliances avec elles, et son soutien à la République espagnole consista surtout à opposer le Parti communiste espagnol aux autres composantes républicaines, ce qui profita aux franquistes. Collectivisation des campagnes et « dékoulakisation ». En 1929, Joseph Staline décide de supprimer l'autogestion des communes rurales dans les campagnes, où les paysans, depuis les réformes agraires de Lénine, avaient pris l'habitude de décider eux-mêmes de l'usage des sols, des moyens de production, des ressources locales : désormais, le bétail, les outils, les terres devront être administrés par les kolkhozes (théoriquement en partie autonomes) ou les sovkhozes (directement dirigés par le ministère de l'agriculture). Cette collectivisation forcée provoque des résistances : plutôt que donner leurs troupeaux, les paysans les abattent pour les consommer ou les vendre immédiatement. Face aux émeutes, le gouvernement soviétique accorde à chaque kolkhozien l'usufruit d'un lopin de terre autour de son habitation (comme l'avaient fait, avant la Révolution, les anciens propriétaires terriens, aristocrates ou religieux). Les paysans en auto-suffisance ou produisant des surplus à vendre, appelés « koulaks » et accusés de parasiter les autres paysans, doivent être « éliminés en tant que classe ». Entre 1929 et 1935, plus de deux millions de paysans sont déportés et autant meurent de faim en Ukraine et dans le sud de la Russie. Cette famine due à la confiscation des récoltes et de tout produit alimentaire aux paysans par les troupes du NKVD, est reconnue dans une trentaine de pays comme un génocide, même si les nostalgiques du régime refusent d'en admettre l'intentionnalité, tandis que d'autres rejettent ce qualificatif parce que la désignation des victimes ne s'est pas faite sur critère ethnique ou religieux, mais social. Le système du passeport intérieur, destiné à contrôler les déplacements et qui n'était pas accordé aux paysans, a été mis en place en Ukraine avant 1929. Le NKVD est responsable, selon le général du KGB Alexandre Karbanov, de la mort de de Soviétiques pendant les Grandes Purges. Après 1935, le premier recensement soviétique a montré une baisse démographique si importante dans cette partie Sud-Ouest de l'URSS, qu'aucun recensement n'a plus été mené pendant . Industrialisation lourde. La Russie du début du était une puissance économique nouvelle et en essor, mais encore très rurale et agricole. Staline voulait développer l'industrie lourde et faire de l'URSS une grande puissance économique et militaire. Les moyens utilisés sont ceux d'une économie planifiée et centralisée et d'une organisation politique totalitaire : Le premier plan quinquennal de 1928 à 1932 était si ambitieux qu'il coûta la vie à , faute de logistique, d'alimentation suffisante, d'hygiène, de logements décents, de sécurité au travail. L'allocation prioritaire des ressources à l'industrie, les exportations massives de céréales pour financer des importations de biens d'équipement, combinées à la diminution de la productivité agricole en raison de la mort ou de la déportation des paysans, provoquèrent de nouvelles famines : celle de 1931-1933 fait près de six millions de morts. Officiellement, le plan quinquennal fut cependant "bouclé" en quatre ans, selon la propagande qui en chante les réussites et selon les statistiques de l'État, qui affirment que de 1928 à 1932 la production de charbon aurait doublé et celle de l'acier triplé, tandis qu'en agriculture, l'invention de la vernalisation était censée avoir multiplié les rendements par six. Bilan de la politique économique en 1939. Selon la propagande officielle, en dix ans, l'URSS avait « accompli un bond remarquable ». En fait, les barrages, les canaux et l'industrialisation lourde se sont faites au détriment de la production de biens de consommation et au prix d'une forte baisse du niveau de vie de la population. À la suite du second plan quinquennal, la production d'acier a grimpé à de tonnes, celle de charbon à de tonnes mais, comme le disait l'humour soviétique, . Avant son interruption par la guerre, le troisième plan avait permis d'atteindre de tonnes d'acier et de tonnes de charbon. Les structures de production de masse étaient ainsi bel et bien établies, mais le complexe militaro-industriel allait être d'autant plus durement mis à l'épreuve par l'invasion nazie, que le zèle du NKVD et des commissaires politiques avait privé institutions, usines et armées de leurs cadres, ingénieurs et officiers les plus compétents, « coupables » d'avoir tenté de rationaliser les directives du Parti, discuté des ordres inapplicables, veillé au bien-être des ouvriers, bref et . Grandes Purges : mécanismes de la terreur de masse (1936-1940). La « Terreur rouge » culmine entre 1936 et 1939 par les « Grandes Purges » concrétisées par l'exécution de et la déportation de centaines de milliers d'autres. En , Staline autorise personnellement le recours à la torture en cours d'interrogatoire, pour l'interdire officiellement fin 1938, ce qui n'en empêche pas l'usage. Le pays vivait de toute manière depuis deux décennies dans la violence, la délation et la suspicion généralisée, qui met bien des nerfs à rude épreuve (la pression subie en conduit plus d'un au suicide), et brise les solidarités amicales, familiales et professionnelles. Des procès truqués dans lesquels les avocats se rallient au procureur tandis que les accusés avouent les crimes les plus invraisemblables après avoir été torturés, débutent en et se multiplient en : c'est la « Grande Terreur ». Staline désigne ainsi des boucs émissaires (souvent même des communistes éminents) aux difficultés du quotidien, en rejetant tout le mal sur une pléthore de et d'. Au-delà, il renforce son pouvoir absolu en liquidant la vieille garde bolchevique et en brisant les réseaux clientélistes et les fiefs personnels que se sont taillés les ministres, les membres du Politburo, ou bien, à tous les échelons, les responsables locaux du Parti et les directeurs du Goulag qui, de ce fait, se trouvent abondamment pourvus de main d'œuvre à bas coût. Quand le est épuisé, on fixe des quotas que les autorités locales sont chargées de fournir aux camps de travail. Les cadres compétents et les techniciens, qui osent encore contredire ses objectifs politiques irréalistes, sont aussi particulièrement visés et Staline entend exterminer tous les éléments et tous les mécontents suscités par sa politique, accusés de constituer une . Pour lancer et développer cette terreur de masse, Staline bénéficie du soutien indispensable de ses fidèles, mais aussi du zèle indéniable de nombreux responsables locaux, des policiers politiques, des commissaires politiques des bureaucrates de tout échelon, ou de bien des simples citoyens délateurs, selon l'adage . En 1939, à l'issue des « Grandes Purges », Staline a éliminé les dernières sphères d'autonomie dans le Parti et la société, conforté par les élections du et imposé définitivement son « culte » et son pouvoir absolu. Il a, ce faisant, désorganisé gravement le pays et décimé les cadres supérieurs de l'armée, alors même que la guerre menace. Dictature de Staline (1929-1953) et son culte de la personnalité. Staline mit en place un système totalitaire sur lequel il régnait en despote absolu et reposant sur deux piliers : la propagande, mettant en œuvre un véritable culte de la personnalité et la répression, s'appuyant notamment sur le NKVD, police politique toute puissante. Si les estimations des victimes entre 1921 et 1954 varient beaucoup, celui de de morts a été avancé. Parmi les personnes condamnées pour de supposés , environ furent condamnés à mort, emprisonnés ou envoyés dans des camps de travail du Goulag, et assignés à résidence dans les zones froides et désertiques de l'URSS, faiblement peuplées. Le haut encadrement de l'Armée rouge ne fut pas plus épargné (« affaire Toukhatchevsky ») et subit une épuration qui devait affaiblir l'URSS au début de la Seconde Guerre mondiale. Seconde Guerre mondiale. Pacte germano-soviétique (1939). Tirant des accords de Munich la conclusion que les puissances de l'Ouest, France et Grande-Bretagne, veulent laisser à Hitler les mains libres à l'est, Staline conclut, le , le Pacte germano-soviétique avec l'Allemagne nazie. Il s'agissait d'un « pacte de non-agression » qui contenait une annexe secrète attribuant l'est de la Pologne, la Lettonie, l'Estonie, l'est de la Roumanie et la Finlande à l'Union soviétique, tandis que l'ouest de la Pologne et de la Roumanie ainsi que la Lituanie étaient attribués au Troisième Reich. La Wehrmacht envahit la Pologne le . L'Allemagne ayant rejeté les prétentions territoriales de l'URSS, celle-ci tente d'envahir la Finlande le : c'est le début de la guerre d'Hiver. La campagne fut difficile, mais par une paix signée à Moscou le , l'URSS obtenait l'annexion de la Carélie, lui permettant d'éloigner la frontière de Léningrad. À la suite du déclenchement de la guerre, l'URSS avait été expulsée de la SDN le . Un avenant au pacte cède alors également la Lituanie à l'URSS. Au , l'Estonie, la Lettonie, la Lituanie et l'Est de la Roumanie, qui n'ont pas de forces militaires ni d'unité civile pour résister à la pression de Staline, sont annexés par un jeu de manipulations politiques, et quatre nouvelles républiques soviétiques sont créées (celles d'Estonie, Lettonie, Lituanie et Moldavie) tandis que la Biélorussie et l'Ukraine sont agrandies vers l'Ouest des territoires pris à la Pologne. « Grande Guerre patriotique » (1941-1945). L'expression de « Grande Guerre patriotique » désigne la seconde partie de la Seconde Guerre mondiale en Europe, où l'URSS répond à l'attaque allemande du (« opération "Barbarossa" »), tandis que les pays que l'URSS avait agressés (Finlande et Roumanie, jusque-là aidés par les Alliés) se retrouvent du côté de l'Axe. Par contre, elle ne désigne pas la guerre soviéto-japonaise déclarée le pour laquelle le traité de paix n'est toujours pas signé entre la Russie et le Japon, puisque le contentieux relatif aux îles Kouriles bloque la signature d'un tel accord. Opération "Barbarossa" (1941). Le , l'Allemagne rompit le « pacte de non-agression » et attaqua l'Union soviétique, Staline ayant refusé de réagir aux mises en garde de ses agents, spécialement de Richard Sorge depuis le Japon, et de Churchill qui était renseigné grâce au décryptage du code de la machine Enigma qui chiffrait les communications militaires allemandes. L'invasion nazie prit l'URSS dans un état de totale impréparation. D'abord débordée et surprise par le choc de l'attaque allemande du , l'Armée rouge perd hommes, matériels, et laisse la Wehrmacht occuper d'immenses territoires en quelques mois (Pays baltes, Biélorussie, Ukraine). Pour beaucoup la guerre semble gagnée par l'Allemagne au début de . Certains historiens estiment que les Grandes Purges des , au cours desquelles auraient été emprisonnés ou assassinés, ne sont pas étrangères aux premières difficultés de l'Armée rouge. Les troupes du Reich atteignirent les environs de Moscou en , mais avaient atteint leur extension maximale, des troupes devant aller consolider le flanc sud de l'attaque. Pourtant plusieurs facteurs vont stopper net l'offensive allemande et permettre la première contre-offensive soviétique : Les historiens débattent des dates du : si l'on prend en compte la co-belligérance de l'URSS aux côtés de l'Allemagne en 1939-1940, c'est avec l'opération Barbarossa qui place l'URSS parmi les Alliés de la Seconde Guerre mondiale ; si l'on prend en compte le premier échec allemand devant Moscou et l'attaque japonaise sur Pearl-Harbour qui place les États-Unis parmi les Alliés, c'est ; mais la plupart s'accordent sur avec la défaite allemande de Stalingrad. Bataille de Stalingrad (1942-1943). Même stoppée ou repoussée, l'armée allemande reste relativement forte et l'Armée rouge n'a pas encore déployé toute sa puissance industrielle. Pendant que le groupe d'armées A du Reich s'enlise dans le Caucase, la armée allemande commandée par le maréchal Paulus est dans Stalingrad où s'engage une sanglante bataille de rues dans une ville ruinée. Les Allemands se font encercler dans la ville par une contre-attaque soviétique fin 1942, qui balaie les troupes alpines italiennes et la moitié des troupes hongroises, tandis qu'une partie des troupes roumaines rejoint les Soviétiques. Les assiégés, isolés du reste de la Wehrmacht, affamés, frigorifiés, manquant de munitions, soumis à une pression de plus en plus forte des Soviétiques, se rendent le , marquant le début d'une contre-offensive soviétique : l'Armée rouge remportait la victoire après avoir perdu un million d'hommes. L'URSS reprit ensuite progressivement l'initiative (à l'exception de la bataille de Koursk en ), et commença à regagner du terrain. Impact et suites de la guerre (1943-1945). L'URSS supporta l'essentiel de l'effort de guerre sur le théâtre d'opérations européen contre l'Allemagne nazie et ses alliés finlandais, italiens, hongrois, slovaques, croates, roumains, français vichystes (LVF, division Charlemagne), belges rexistes, espagnols franquistes (Division Bleue), russes antistaliniens (division Vlassov, armée russe)… jusqu'à ce que les Alliés ouvrent un second front en Europe en Italie en 1943. À la fin de la guerre, on estime qu'environ et demi de Soviétiques y avaient perdu la vie, parmi lesquels de civils : ce chiffre comprend les nombreux prisonniers de l'opération "Barbarossa" qui périrent soit dans les camps allemands de malnutrition et maladie, soit au camp du Goulag après leur délivrance (car la reddition étant interdite au soldat soviétique, considéré comme coupable de haute trahison s'il était capturé par l'ennemi). S'ajoutent à cela des destructions matérielles importantes, ayant provoqué une diminution de 25 % du PIB. L'aide des Alliés par Mourmansk dans le cadre du prêt-bail et l'industrialisation à marche forcée contribua à la victoire finale de l'URSS sur le Reich. Quoique l'Union soviétique eût reçu des fournitures en armes et matériel des États-Unis et de l'Empire britannique, sa production de matériel de guerre était plus importante que celle de l'Allemagne du fait de l'importante augmentation de la production industrielle lourde entre les deux guerres. Durant l'invasion allemande, de nombreuses usines ont été transférées à l'est de l'Oural, ainsi que de travailleurs civils. En plus de l'aide matérielle anglo-américaine, notons que des Français (escadrille Normandie-Niémen), Roumains (divisions "Vladimirescu" ou "Horia-Cloșca-Crișan") ainsi que des Polonais (armée "LWP" ou "Ludowe Wojsko"), entre autres, combattaient du côté soviétique. En , l'Armée rouge pénètre dans Berlin ; le , Hitler se suicide ; le , le drapeau rouge flotte sur le Reichstag et la capitulation sans condition est signée le (avec le décalage horaire, le jour de la victoire est célébré le en URSS). Le , conformément aux accords de Yalta, l'URSS déclare la guerre à l'empire du Japon et réalise l'invasion de la Mandchourie. Pendant et après la guerre, les négociations entre les Alliés aboutirent à la mise en place de deux zones d'influence en Europe et Asie, suivant les accords de Moscou, de Yalta et de Potsdam. Plusieurs millions d'Estoniens, Lettons, Lituaniens, Polonais, Roumains, Ukrainiens occidentaux, Géorgiens, Tchétchènes et autres minorités ethniques furent déportés dans les camps de Sibérie, ou dans des zones reculées pour limiter leurs contacts avec l'Ouest. L'Union soviétique mit en place des régimes dictatoriaux auto-proclamés « démocraties populaires » dans les pays d'Europe centrale et orientale (y compris dans la partie de l'Allemagne sous son contrôle), dans lesquels elle implanta des gouvernements qui lui étaient dévoués. La ligne frontière séparant cet ensemble de pays de l'Europe occidentale alliés aux États-Unis fut nommée « rideau de fer », qui concrétise la guerre froide dans le champ géographique. Après-guerre et guerre froide (1945-1989). Fin de la période stalinienne (1945-1953). Depuis 1945 et quasiment jusqu'à sa dislocation, l'Union soviétique est opposée aux États-Unis dans la « guerre froide », chacun des protagonistes essayant d'augmenter sa sphère d'influence au détriment de l'autre, et souvent des pays concernés. L'URSS avait réuni, dans tout l'Est de l'Europe, un ensemble de pays satellites (République socialiste tchécoslovaque, République démocratique allemande, république populaire de Hongrie, république populaire de Pologne, république populaire de Roumanie, république populaire de Bulgarie, république populaire d'Albanie). Ces pays étaient regroupés au sein du pacte de Varsovie à partir de 1955. Les États-Unis avaient formé, avec l'Europe de l'Ouest et le Canada, l'OTAN en 1949. Dès 1943, Staline fonde l'Institut Kourtchatov de recherches nucléaires, suivi de la création entre 1945 et 1948 du complexe nucléaire Maïak, puis de la création en 1946 de l'Institut panrusse de recherche scientifique en physique expérimentale. L'essor de l'industrie nucléaire soviétique permet ainsi à l'URSS de faire son premier essai nucléaire en 1949. Hors d'Europe, l'Union soviétique et les États-Unis s'opposaient, souvent par « mouvements de libération » interposés, dans diverses parties du monde, notamment en Amérique du Sud et en Afrique. Succession de Staline (1953-1964). Après la mort de Staline en , Nikita Khrouchtchev devint premier secrétaire du Comité central du Parti tandis que Gueorgui Malenkov devient Premier ministre. Lavrenti Beria, le chef du NKVD, qui pouvait prétendre à la succession fut arrêté en et exécuté peu de temps après, en . La nouvelle direction du pays déclara une amnistie pour certaines catégories de prisonniers et relâcha quelque peu le carcan qui enserrait les libertés publiques. Khrouchtchev consolida peu à peu son pouvoir personnel et pendant le congrès du Parti communiste, il prononça, le , un discours sur « le culte de la personnalité et ses conséquences » au cours duquel il dénonça le culte de la personnalité entretenu par Staline ainsi que la dictature qu'il avait fait subir à l'URSS et les crimes de cette période. L'impact de ce discours fut immense et détruisit la légitimité des staliniens qui lui étaient encore opposés. S'ensuivirent de nouvelles mesures de démocratisation de la vie publique, la libération de dissidents, et la mise en place d'une économie plus favorable aux biens de consommation par rapport aux plans quinquennaux précédents. La même année, les troupes soviétiques réprimèrent dans le sang la révolution hongroise : de et de l'Armée soviétique perdirent la vie, tandis que près de quittaient le pays. Cet événement fut, pour la part de l'opinion occidentale favorable à l'Union soviétique, un premier choc sérieux. Khrouchtchev dut encore se défendre en contre les menées de staliniens. Ainsi, la vieille garde stalinienne, constituée de Lazare Kaganovitch, Viatcheslav Molotov, Gueorgui Malenkov et Dmitri Chepilov, tente de démettre de ses fonctions Nikita Khrouchtchev. Avec l'aide du « héros de la Grande Guerre patriotique » et ministre de la Défense Gueorgui Joukov, Khrouchtchev parvient à déjouer leur plan en les présentant comme un « groupe antiparti ». Ils seront tous quatre mis au ban de l'URSS, mais, signe des temps, ils ne seront pas éliminés à la suite de procès aux preuves fabriquées, comme il était de mise du temps de Staline. Khrouchtchev devint enfin Premier ministre le . Il s'agit là d'un grand tournant dans l'histoire de l'Union soviétique. La période de dix ans qui suivit confirma cette nouvelle tendance : le pouvoir politique avait pris le pas sur la coercition pure et simple, le parti reprenant le rôle premier par rapport à la police secrète et à l'armée. Au cours de cette période, également, l'URSS confirma sa place de superpuissance et défiait les États-Unis, souvent sur leur propre terrain. Cuba, pays soutenu par l'URSS, devint le centre de cette opposition lors de la « crise des missiles de Cuba » en , au terme de laquelle elle obtint des États-Unis la promesse qu'un État socialiste né dans l'hémisphère occidental ne soit jamais envahi. En 1957, les Soviétiques envoyèrent dans l'espace le premier satellite artificiel, Spoutnik et le premier être vivant en orbite terrestre, la chienne Laïka. En 1961, Youri Gagarine fut le premier homme dans l'espace, et en 1963, Valentina Terechkova la première femme. C'est également durant son mandat que, le , explosa la plus puissante arme jamais développée par l'être humain, la tsar Bomba. Sans doute partiellement à cause de l'affaire des missiles et d'une politique trop défavorable à la nomenklatura, Khrouchtchev fut déposé lors d'une réunion du Comité central du Parti le . Stagnation politico-économique et politique brejnévienne (1964-1985). À la suite de la chute de Khrouchtchev en 1964, Léonid Brejnev devient premier secrétaire du Parti, Alexis Kossyguine Premier ministre et Anastase Mikoyan chef de l'État, rapidement remplacé par Nikolaï Podgorny (on parle alors de "troïka" pour désigner ces trois personnages détenteurs du pouvoir d'État ; mais Brejnev ne tardera pas à concentrer l'essentiel de la réalité du pouvoir pour lui-même). Sous Brejnev, le régime soviétique se durcit à nouveau. Le KGB (la police politique), dirigé par Iouri Andropov, retrouve une grande partie du pouvoir dont elle avait joui sous Staline. Cependant, Andropov n'imitera pas les excès répressifs de cette époque. Une des crises les plus graves de l'époque de Brejnev fut celle du Printemps de Prague en 1968, lorsque les tentatives de la Tchécoslovaquie de construire un « socialisme à visage humain » sont finalement réprimées par les forces du pacte de Varsovie, sans toutefois tomber dans les excès de la répression de la révolution hongroise. Au niveau économique, le niveau de vie de la population commença à descendre et le manque de productivité dans de nombreux secteurs dont l'agriculture se fit sentir. L'URSS dut entre autres, pour faire face à la faiblesse de la production d'aliments, acheter des millions de tonnes de céréales en Occident en général et aux États-Unis en particulier. Sur le plan international, l'ère Brejnev fut marquée par un certain relâchement de la tension avec les États-Unis, avec notamment la signature de traités de limitation des armes nucléaires (accords sur la démilitarisation de l'espace en 1967, traités SALT I en 1972, SALT II en 1979) et la Conférence sur la sécurité et la coopération en Europe. Pendant l'ère Brejnev, on voit apparaître des mouvements nationalistes séparatistes qui réclament de nouveau l'indépendance de leur pays et qui commencent à être actifs. Au début de l'année 1977, l'opinion publique soviétique est marquée par les attentats du métro de Moscou, que le KGB attribuera aux nationalistes arméniens. En , Brejnev intervint en Afghanistan pour soutenir le régime communiste en place, menacé par une rébellion que finançait secrètement depuis juillet 1979 les États-Unis. Cet événement mit un coup de frein à la détente, provoquant un embargo par les États-Unis, la fourniture d'armements aux moudjahidines et le boycott des Jeux olympiques d'été de 1980 à Moscou. En , Brejnev fit une crise cardiaque qui le diminua considérablement. À partir de ce moment, il ne remplit que partiellement ses fonctions jusqu'à sa mort en novembre de la même année. Deux chefs d'État en mauvaise santé se succédèrent entre et : Iouri Andropov et Konstantin Tchernenko. Chacun continua d'appliquer la ligne politique de Brejnev, malgré les efforts d'Andropov pour combattre le népotisme que son prédécesseur avait toléré. Toutefois en politique extérieure, les deux successeurs de Brejnev marquèrent quelques points. Au Liban, Andropov mit en échec les États-Unis qui occupaient le pays du cèdre depuis . De ce fait une aide massive de l'URSS à la Syrie à partir de , entraîna la multiplication des attentats, contre les marines américains et obligea le président Reagan à faire retirer ses marines du Liban en . Puis sous Tchernenko, l'URSS rendit aux États-Unis la monnaie de leur pièce à leur offense sportive. Ce fut l'annonce en d'une non-participation soviétique aux Jeux olympiques de Los Angeles, faisant ainsi pendant au boycott des JO de Moscou par les États-Unis. À cette initiative soviétique s'ajoutèrent des « contre-jeux » à l'été 1984 dans une dizaine de capitales de pays socialistes qui s'associaient au boycott. Cependant ils subirent un échec retentissant avec l'installation des Pershing en Europe occidentale en et durent faire face devant la communauté internationale deux mois plus tôt à l'annonce de la destruction par l'un de leurs chasseurs, du vol Korean Air Lines 007, un Boeing sud-coréen qui avait traversé pendant plusieurs heures l'espace aérien de l'URSS. Après Iouri Andropov (-) et Konstantin Tchernenko (-), Mikhaïl Gorbatchev, un jeune et énergique dirigeant de , devint premier secrétaire du Parti. Dernières années de l'URSS (1985-1991). "Perestroïka" et "glasnost" : Mikhaïl Gorbatchev et le déclin de l'Union (1985-1991). Constatant la déliquescence du pays et de son économie, Gorbatchev tenta tout d'abord de sortir son pays de l'impasse de la guerre froide, alors que Ronald Reagan avait lancé les États-Unis dans des programmes de modernisation rapide de l'armement, entraînant ainsi l'URSS, sous peine d'obsolescence technologique, dans une course qu'elle ne pouvait que perdre vu son retard informatique et son économie en grave crise. Gorbatchev entama donc une série d'initiatives qui aboutirent à une détente certaine et à la signature d'accords de désarmement. Gorbatchev obtint le prix Nobel de la paix pour ces efforts en 1990. Cette politique aboutit à l'ouverture du rideau de fer et à la chute du mur de Berlin en 1989. Se débarrasser de cette contrainte externe n'était cependant pas suffisant, et sans abandonner le dogme central du « socialisme », Gorbatchev lança la "glasnost" (« transparence des décisions », « publicité des débats », liberté des médias) et la "perestroïka" (« restructuration », nouvelle politique économique et sociale), avec trois principaux objectifs : Alors que tous les prisonniers politiques détenus par le gouvernement sont libérés, la "glasnost" est également marquée par le retour de la liberté d'expression : on voit des humoristes caricaturer Gorbatchev. Il cherche par là une voie intermédiaire entre les « traditionalistes » attachés au régime (la nomenklatura) et les « réformistes », tels Boris Eltsine qui lui reprochent la lenteur des réformes. Pourtant il était trop tard, et Gorbatchev ne réussit pas à corriger les failles qui minaient l'État depuis des décennies. Les problèmes économiques furent mal résolus. La privatisation des grandes entreprises se fit au bénéfice des privilégiés de la nomenklatura et l'inflation se développa : la "perestroïka" fut un échec. Le , Gorbatchev créa une nouvelle assemblée législative : le congrès des députés du peuple dont les deux tiers étaient des membres élus au suffrage universel, à bulletin secret, sur candidatures multiples. Les premières élections législatives révélèrent l'échec des candidats de Gorbatchev et l'émergence des réformateurs et des nationalistes. Son gouvernement apparut trop timoré aux réformateurs partisans d'un « socialisme à visage humain » et d'une économie plus auto-gérée que proposait depuis longtemps Evseï Liberman, mais trop réformateur pour ceux qui souhaitaient un retour au communisme dirigiste dit . Dislocation de l'URSS (1991). En , Boris Eltsine, président du Soviet suprême de la RSFS de Russie, déclara la souveraineté de la Russie et démissionna du Parti. Le , un référendum est organisé et 77,85 % des électeurs votent en faveur de la préservation de l'Union soviétique. Un nouveau traité, présenté comme une refondation de l'Union soviétique, devait être signé le . Le , un putsch mené par des membres du gouvernement opposés aux réformes montra à quel point la position de Gorbatchev s'était fragilisée. Le complot échoua en partie grâce à l'intervention de Eltsine, qui confirma de ce fait sa position de chef de file des réformistes. Le coup d'État empêcha également l'adoption du nouveau traité. Au cours de , tandis que les républiques constituantes de l'URSS proclamaient, l'une après l'autre, leur indépendance sans que Gorbatchev ne s'y oppose par la force, le gouvernement russe prit peu à peu l'ascendant, reprenant les fonctions auparavant assurées par l'Union. Ainsi, Gorbatchev tout en étant président de l'Union soviétique perdait rapidement prise. On disait à l'époque que l'Union soviétique se limitait aux murs du Kremlin. En , le président russe Eltsine publia un décret qui interdisait les activités du Parti communiste de l'Union soviétique sur le territoire de la fédération de Russie. Le , lors des accords de Minsk, les chefs de la Russie, de l'Ukraine et de la Biélorussie publièrent une déclaration selon laquelle l'Union soviétique était dissoute et remplacée par la Communauté des États indépendants (CEI), une organisation sans entité juridique forte, qui ne fonctionna pas réellement, malgré un renouveau récent avec de nouvelles organisations partenaires telles que l'OTSC ou la Communauté économique eurasiatique ("Eurasec"). Gorbatchev était encore président, mais sans pays, son pouvoir ne signifiait plus rien. Le , Gorbatchev remit sa démission en tant que président de l'Union soviétique. Le jour suivant, l'Union soviétique était officiellement dissoute. Dans l'ouvrage "La Russie à la croisée des chemins" de Oleg Serebrian, Michel Heller raconte le souvenir des éléments suivants : « Le drapeau rouge, avec la faucille et le marteau, fut amené le 25 décembre [1991] à 19 h 32, exactement vingt minutes après que M. Gorbatchev eut annoncé qu’il cessait ses activités. À 19 h 45 fut hissé le drapeau tricolore russe. Les journalistes étrangers notèrent avec une certaine perplexité que la cérémonie ne suscita pas d’émotions particulières chez les Moscovites peu nombreux qui se trouvaient ce soir-là sur la place Rouge. Quelques-uns applaudirent, d’autres sifflèrent, et ce fut tout […]. L’empire avait rendu le dernier soupir dans une atmosphère d’indifférence méprisante. Il avait vécu soixante-quatorze ans et quelques semaines. ». La fédération de Russie, elle-même état fédéral, allait désormais la remplacer, aux côtés de quatorze autres républiques indépendantes, mais d'une importance moindre. La Russie hérita du siège permanent au Conseil de sécurité des Nations unies dont jouissait l'URSS. Les causes de la chute. Dès 1970, Andreï Amalrik analysa les risques d'effondrement futur du régime, à travers un ouvrage publié clandestinement et faisant référence au fameux "1984". C'est d'abord la conséquence du système politique autoritaire et inefficace en raison de son aspect centralisateur et bureaucratique. La « déstalinisation » est interrompue et la "nomenklatura" s'oppose à toute tentative d'évoluer vers un « socialisme à visage humain », au point de tenter un coup d'État contre le président Mikhaïl Gorbatchev qui voulait réformer le régime. Le régime censurait toute liberté et initiative née de la société civile : toute association née hors de la tutelle du Parti unique était perçue comme « dissidente » et par conséquent, l'émergence des forces démocratiques devint centrifuge au sein de l'Union, et se chercha des repères identitaires nationaux ou religieux, plutôt que politiques et sociaux. Hélène Carrère d'Encausse cite aussi comme cause en 1978 la fragmentation dû aux nationalismes même si ses prédictions ne furent pas toutes exactes. Stéphane Courtois ajoute également (dans "Sortir du communisme, changer d'époque", même s'il pointe aussi l'URSS en faillite) la gérontocratie et l'instabilité politique inédite avec une succession de quatre secrétaires généraux de 1982 à 1985. D'autres causes sont économiques. Le système sous planification quinquennale, dominée par l'industrie lourde et le complexe militaire, se révèle incapable à répondre aux besoins de la population. Cette incapacité dite « stagnation » dans le discours officiel, fut prépondérante sous Brejnev, favorisant ainsi le développement d'une économie informelle, hors de la tutelle de l'État et de ses structures, vite monopolisée par des réseaux oligarchiques et mafieux clandestins. L'URSS est aussi affaiblie par son retard technologique et informatique dans l'épuisante et coûteuse course aux armements pendant la guerre froide l'opposant aux États-Unis. La crise se renforce avec l'effondrement dans les années 1980 du prix du pétrole sur le marché mondial (contre-choc pétrolier), qui força l'URSS à puiser dans ses réserves d'or et de devises jusqu'à l'épuisement. Dans son livre "Imperium" (1993), l'écrivain polonais Ryszard Kapuscinski décrit la chute de l'URSS comme le dernier processus de décolonisation du . Son analyse mondiale le différencie des journalistes et écrivains occidentaux qui parcourent le pays au début des années 1990 et qui se concentrent sur le prisme du communisme ou des relations entre l'Europe et la Russie. Monde postsoviétique (depuis 1991). Certaines anciennes républiques soviétiques, très affaiblies, avaient prévu de reformer une union. Sur l'initiative de l'Ukraine ou du Kazakhstan, des projets sont nés entre 1994 et 1995 pour recréer l'union. En 1994, le président kazakh Nazarbayev propose la création d'une Union eurasiatique, mais le projet reste au point mort jusqu'au milieu des années 2010. L'Union économique eurasiatique voit finalement le jour le janvier 2015. En 2018, 66 % des Russes se déclarent nostalgiques de l'Union soviétique. Système politique. L'URSS fut officiellement un État fédéral, basé sur le « centralisme démocratique » regroupant quinze républiques soviétiques. Le système politique, très hiérarchisé, reposait en droit sur le « Conseil des ministres » ("Soviet ministrov"), censé détenir le pouvoir exécutif, et le Parlement (« Soviet suprême », "Verkhovny Soviet") censé détenir le pouvoir législatif. En pratique, la séparation des pouvoirs n'était pas respectée, car le PCUS, parti unique dont le Politburo concentrait tous les pouvoirs et contrôlait l'État, contrôlait étroitement tous les hauts fonctionnaires, choisis parmi les « activistes » (« permanents ») supérieurs du Parti. L'organisation qui maintenait la cohésion du Parti et son pouvoir absolu sur la société soviétique était la police politique, successivement nommée Tchéka, Guépéou, NKVD et KGB : cette organisation fut imitée dans l'ensemble du pacte de Varsovie, en république populaire de Chine, au Viêt Nam et à Cuba. Le Parti affirmait exercer la « dictature du prolétariat » telle que le « marxisme-léninisme » l'avait conçue : au profit du peuple, mais en fait, c'était au profit de la "nomenklatura" qui, avec ses parentèles et sa clientèle, représentait environ un cinquième de la population En principe, le Parti était ouvert à tout citoyen , mais en pratique le processus d'adhésion au parti était long, accompagné de multiples enquêtes, et finalement élitiste, mais exclusivement sur des critères de soumission à la hiérarchie. Dans les , 6 % des d'habitants étaient membres du PCUS, ce qui était loin de conférer la représentativité du peuple tant affichée. Le PCUS compta quelque à plein temps : les "apparatchiks", « gens de l'appareil ». La structure du Parti doublait la structure de l'État : si à chaque niveau il y avait des organes étatiques censés exercer le pouvoir, ces organes étaient en fait contrôlés par le Parti, donc par son responsable à chaque niveau, lequel prenait ses ordres de l'échelon supérieur, jusqu'à arriver au secrétaire général du Parti, poste rendu par Staline le plus important de toute l'Union soviétique. Au sommet de l'État se situaient donc le « Soviet suprême », avec son organe exécutif, le Præsidium, ainsi que la Cour suprême et le Procureur de l'Union soviétique. Ces trois magistratures étant en principe sous le contrôle des deux chambres législatives mais en réalité sous celui du gouvernement et de la police politique. Les parlements sont considérés par des observateurs comme des chambres d'enregistrement du Politburo. Le Conseil des ministres supervisait un grand nombre de commissions et de services, dont les titres et les attributions changeaient régulièrement, mais qui étaient des organes plus importants que les ministères des républiques. Au sommet du Parti se trouvait le Secrétaire général, dont le titre est modeste, mais dont le pouvoir dépassait de loin celui du Président du Præsidium du Soviet suprême de l'Union soviétique au titre purement honorifique, et celui du Président du Conseil des ministres (Premier ministre) de l'URSS. Au-dessous de lui, par ordre d'autorité décroissante viennent le Politburo, le Secrétariat et le Comité central. Au-dessous encore se trouvaient le congrès du PCUS, puis les Comités centraux, les Secrétariats et les Conférences provinciales représentent l'échelon suivant. Un degré plus bas venaient les Comités, Secrétariats et Conférences de district. Enfin, constituant la base de la pyramide, les secrétariats, bureaux et cellules locales. Le Parti déterminait la politique à suivre que l'État devait exécuter. La tâche des fonctionnaires du gouvernement consistait à mettre en application les décisions du Parti, c'est-à-dire du Politburo et du Comité central. Cette méthode avait un avantage : contrairement à ce qui se passa en Occident, ceux qui font la politique sont ainsi déchargés des besognes de routine. Staline a été le premier chef soviétique à cumuler les titres du Premier secrétaire du Parti et celui du président du Conseil des ministres de l'URSS. Khrouchtchev, qui lui a succédé a lui aussi cumulé les deux fonctions pendant une partie de son mandat de Secrétaire général. Quant à Brejnev, il fut en même temps Premier secrétaire (depuis 1966, secrétaire général) du Parti et président du « Soviet suprême » de l'URSS (de 1960 à 1964 et de 1977 à 1982). En 1990, Gorbatchev sera le premier et dernier dirigeant soviétique à prendre le poste de président de l'Union soviétique. Économie. À la veille de la révolution russe, l'économie de l'Empire russe était . La valeur de la production industrielle en 1913 représentait moins de la moitié de celle de la France, un sixième de celle de l'Allemagne, ou un quatorzième de celle des États-Unis. Le rendement agricole était médiocre, la pénurie de transport paralysait toute tentative de modernisation économique. Le PIB par habitant était inférieur à celui de la Hongrie ou de l'Espagne de l'époque, et environ un quart de celui des États-Unis. Surtout, le pays était dominé par les capitaux étrangers qui possédaient un tiers des actions en Russie. Au , l'URSS devient une puissance économique majeure. De 1928 à 1991, le développement économique est guidé par une série de plans quinquennaux. L'URSS devient une des trois premières productrices d'un grand nombre de produits industriels, mais reste en retard dans l'industrie légère, les biens de consommation et l'agriculture. Le transport en URSS, confronté au double défi de la distance et du climat extrême, est marqué par le choix de privilégier le transport collectif (, métro de Moscou, etc.) plutôt que la voiture particulière. Il comporte quelques points forts comme les avions-cargos Antonov. L'économie soviétique est gérée par le "Gosplan" (« Commission de Planification d'État »), la "Gosbank" (« Banque d'État ») et le "Gossnab" (« Commission d'État pour la fourniture en matériaux et équipements »), au moyen d'indicateurs comme le produit matériel net. L'économie soviétique est basée sur la propriété d'État, mais il existe quelques autres formes juridiques de propriété dites « collectives » telles que le kolkhoze (« ferme collective ») et la coopérative. Bilan économique. L'entre-deux-guerres et l'après-guerre sont des périodes de croissance économique importante que certains attribuent, pour une bonne part, au mariage de la planification et du travail forcé. Entre 1913 et 1989, le revenu par habitant est multiplié en Russie par , contre en Grande-Bretagne, aux États-Unis, en France ou en Allemagne. Lorsque la croissance économique se ralentit vers les , cela est considéré comme un phénomène provisoire. Les responsables de la planification sont incapables de prévoir certains problèmes économiques, et le concept même d'économie planifiée semble difficile à mettre en œuvre dans le cadre d'une économie mondiale capitaliste et changeante, surtout que sur le plan interne, l'administration de la planification étant paralysée par la bureaucratie, et que la nomenklatura semble parfois être plus attachée à ses privilèges qu'au service de l'État. La production militaire d'armement représente une part très importante de l'industrie, freinant la production de biens de consommation. Le maréchal Nikolaï Ogarkov publie, à partir de 1979, une série d'articles, dans la presse officielle, expliquant de façon alarmiste que les Américains avaient une et même deux générations d'avance en électronique et en informatique, et sans possibilité de les rattraper. Dans les , l'URSS commence pourtant à développer le secteur de la micro-informatique et des technologies (ordinateurs de la série et Elektronika 60). Le taux d'activité des femmes s'élève à 84 % en 1989, soit l'un des plus élevés au monde. Le bilan économique en 1992 (un an après l'éclatement de l'URSS) fait état d'une inflation de à la suite de la déréglementation de la plupart des prix alors fixés par l'administration. D'après la Banque mondiale, les inégalités telles que mesurées par le coefficient de Gini doublent après l'éclatement de l'URSS : situé à 0,24 en 1988, il monte à 0,48 en 1993. Mais cette analyse ne vaut que si l'on considère les statistiques officielles de l'URSS comme reflétant la réalité de l'époque soviétique, ce que font les nostalgiques du système, mais l'ouverture des archives a révélé qu'en fait, ces statistiques étaient truquées et occultaient les chiffres réels et les inégalités entre la "nomenklatura" (complexe militaro-industriel, bureaucratie) et le reste de la population. Bilan environnemental. Le gouvernement de l'URSS a empêché la formation d'une conscience environnementale, d'une part en promouvant l'idéologie productiviste de la (qui réduisait à un prudent silence les scientifiques conscients des dégâts et des conséquences de la surexploitation des ressources naturelles) et d'autre part en interdisant les mouvements et les associations indépendantes du Parti unique. Dans les dernières années du régime, le nombre de réserves naturelles et parcs nationaux fut fortement réduit tandis que l'érosion, l'épuisement de nombreuses terres arables et la surexploitation des réserves hydriques favorisaient la désertification. Le développement de l'industrie lourde et la pollution des sols, des cours d'eau et des mers considérées comme des poubelles chimiques et nucléaires, ont laissé aux États héritiers de l'URSS une situation préoccupante : déforestation, régions affectées par des pluies acides, fonte du pergélisol, dégazage à effet de serre, incendies à répétition, dégradation des sols, accumulation de déchets industriels, pollution des lacs (le lac Baïkal a été notamment fragilisé par la construction des chemins de fer Magistrale Baïkal-Amour dans les ), contamination radioactive (notamment dans la zone autour de Tchernobyl), avec tous les problèmes de santé publique consécutifs. L'irrigation massive (pour permettre l'agriculture intensive, notamment du coton) et la construction de barrages hydro-électriques sont entre autres responsables de l'assèchement de la mer d'Aral en Asie centrale soviétique. Forces militaires. Le complexe militaro-industriel était très développé : entre 1985 et 1990 il employait plus de de salariés répartis dans plus de d'État, ce qui permettait à l'URSS de : L'industrie militaire proprement dite absorbait durant les 20 % du revenu national, 8 % du PIB et 47 % des dépenses publiques, et la production d'armes soviétiques était la plus importante du monde. En 1981 l'URSS produisit , , de combat, , et balistiques (IRBM, ICBM). Après la dislocation de l'URSS en 1991, les Forces armées de la fédération de Russie héritèrent de la quasi-totalité de l'équipement militaire soviétique, en particulier de l'arsenal nucléaire et des différentes flottes, qui conservèrent leurs arsenaux même à l'extérieur des frontières russes de 1991, comme celui de Sébastopol. Populations. Démographie. Selon les recensements successifs la population comptait : La population soviétique a d'abord baissé durant les à la suite des massacres de la première guerre mondiale, de la révolution, de la guerre civile, de la famine de 1921-22 et de la terreur rouge, stagnant autour de d'habitants. Il n'en est pas moins vrai, cependant, que la Nouvelle politique économique a des effets positifs sur le développement démographique. La vaccination, l'utilisation des antibiotiques et des produits hygiéniques généralisés à toute la population sont à la base de cette reprise. Ce qui a permis de constituer une classe ouvrière forte qui va constituer la base de l'industrialisation du pays et ce bien qu'elle soit d'origine paysanne sans éducation et sans formation. Dans les , une forte natalité parvient à remonter la population à plus de à la veille de la Seconde Guerre mondiale, comblant les pertes dues aux famines soviétiques de 1931-1933 ayant ajouté six millions de victimes, aux « Grandes Purges » et aux déportations vers le Goulag (chiffrées à les archives soviétiques). Lorsque la planification du pays a été décidée et à la suite de l'accession de Joseph Staline au pouvoir, près de dix millions de personnes (des opposants politiques, des intellectuels ou même des privilégiés appartenant au Parti communiste ou des paysans et des commerçants que la Nouvelle politique économique a enrichis et qui ont manifesté leur désaccord avec le nouveau régime) sont mortes ou ont été déportées vers les Goulags (alors qu'une grande partie de ces pertes humaines n'a aucune relation avec le développement et est liée directement à la Grande Terreur). Pendant la seconde guerre mondiale, entre 1941 et 1945, encore 27 à de Soviétiques sont morts, victimes soit des faits de guerre, soit de la faim, soit des crimes hitlériens (dont l'extermination des Juifs et des Roms) et staliniens (dont la déportation de peuples entiers accusés de collaboration avec l'ennemi). De nos jours, les chiffres des pertes soviétiques durant le conflit ne sont toujours pas définitifs, les historiens et experts se livrent sans cesse à de nouvelles estimations à mesure qu'ils ont accès à des documents déclassifiés. Après la guerre, une nouvelle famine a encore diminué la population, mais dans les une baisse importante de la mortalité, liée à la déstalinisation et à la fin de la terreur de masse et des déportations, a permis de rattraper les déficits de naissances à la suite de la guerre, faisant passer la population de en 1950 à en 1960 et à plus de en 1970. Cette augmentation continua, surtout dans les républiques musulmanes d'Asie centrale où le taux de natalité était plus élevé que dans la partie européenne de l'Union, pour atteindre, en 1989, d'habitants. Vers la fin de la période, il existe en outre une différence notable entre une population russe et ukrainienne à croissance faible, et des peuples « allogènes » (principalement turcophones) à forte natalité. Le mot employé par les soviétologues occidentaux montre à quel point ils considéraient l'URSS comme fondamentalement russe : en effet, les plupart de ces étaient en fait les indigènes de leurs républiques. Système de santé. Le Commissariat du peuple à la santé – le "Narkomzdrav" – est créé en 1918. Sous la direction de Nikolaï Semachko, médecin de formation, le Narkomzdrav développe un système de santé unifié à l'échelle d'un pays — le premier du monde. Gratuit et universel, celui-ci repose sur une organisation de soins par niveaux, selon la gravité des affections, appelé . Ce système, précurseur de la médecine générale, a ensuite été adopté dans de nombreux pays comme base de leur système de santé. La prévention des maladies infectieuses fait l'objet d'une attention particulière. Dès 1922, un organisme de surveillance sanitaire et épidémiologique – le "Sanepid" – est créé, disposant d'équipes d'intervention actives sur tout le territoire, des villages aux entreprises. Couplée à une vaccination de masse, cette surveillance permet à l'URSS d'éliminer des maladies comme la tuberculose ou le paludisme. L'espérance de vie, qui ne dépassait pas à la fin du en Russie, atteint au début des années 1960, les Soviétiques tentant de rattraper leur retard sur les pays occidentaux. Droit des femmes. La révolution de Février avait permis l'obtention de nouveaux droits par les femmes. Le , le droit de vote des femmes était officiellement garanti. Les bolcheviks maintiennent ensuite cette volonté d'égalité entre femmes et hommes, que l'on peut retrouver dans la Constitution de 1918 (puis, en théorie, celle de 1936 et celle de 1977 : (art. 35 de la Constitution de 1977)). L'URSS se présentait donc initialement comme un État particulièrement en avance en matière d'égalité homme-femme, notamment grâce aux actions de la Commissaire du peuple Alexandra Kollontaï ou aux initiatives d'Inès Armand. Les femmes obtiennent en 1917 droit de vote et d'être élues, le droit au divorce par consentement mutuel, l'accès à l'éducation, un salaire égal à celui des hommes, des congés de maternité et l'égalité de reconnaissance entre enfants légitimes et naturels. Le droit à l'avortement est obtenu en 1920 – il est limité en 1936 par Staline, puis rétabli après la mort de ce dernier. Par ailleurs dans la vie professionnelle, les femmes, très majoritairement actives, bénéficiaient avec les hommes du principe à travail égal-salaire égal, mais devaient ou pouvaient accepter les mêmes emplois que les hommes (femmes-mineurs, terrassières, ouvrières du bâtiment, conductrices d'engins, pilotes d'avion, cosmonautes). Organisations de jeunesse. La jeunesse soviétique (et plus tard celle des autres pays communistes) était encadrée par une organisation éducative communiste, inspirée du scoutisme mais indépendante de celui-ci (qui fut interdit) : le mouvement des pionniers, créé en URSS le et dont l'objectif était de fonder un « nouvel homme soviétique ». Présent partout où il y avait des écoles, des centres de loisirs et des colonies de vacances, le mouvement des pionniers ne faisait qu'un avec l'institution éducative et assurait l'éducation idéologique, patriotique et militaire de la jeunesse : il était étroitement lié à l'éducation nationale, avec des activités non seulement d'instruction politique, mais aussi sportive, culturelle et paramilitaire. La participation à ces activités valait des bonnes notes de conduite. Dans les villes, des « palais des pionniers » accueillaient les activités, et des colonies de vacances de pionniers les engageaient en outre à participer aux dans les chantiers ou les kolkhozes voisins, afin de parfaire leur éducation à la fois politique et physique. Les jeunes de 10 à devaient obligatoirement faire partie de l'organisation et porter un foulard rouge noué autour du cou lorsqu'ils étaient à l'école ; leur emblème était la torche à trois flammes rouges symbolisant l'ardeur révolutionnaire, la discipline et l'obéissance. Faire partie des pionniers était considéré comme une étape préparatoire aux jeunesses communistes ("komsomol"), organisation des jeunes communistes de 14 à , et l'on devenait pionnier après avoir été « octobriaste » () de 5 à (foulard bleu). Le "pionnier" prêtait serment de fidélité « au et à la Patrie », et ne pas être "Pionnier" était une forme d'exclusion, concernant les « cancres », les « voyous » et les enfants des « ennemis du peuple » (c'est-à-dire ceux des citoyens « douteux », des dissidents ou des opposants politiques). « Nationalités » et identités culturelles. L'URSS, par sa superficie et la variété de ses régions, était un État largement multiethnique, même si les Russes étaient le groupe majoritaire, présent dans toutes les Républiques. Si tous les habitants étaient des citoyens soviétiques selon le droit du sol, tous n'avaient pas pour autant le même nationalité car en URSS et dans les autres pays communistes le mot « nationalité » () désignait en fait un groupe ethnique selon le droit du sang, et ce groupe était indiqué sur les documents d'identité (ainsi, ceux des juifs soviétiques portaient la mention « juif » à la rubrique « nationalité »). Quinze grands groupes ethniques (dont le russe, l'ukrainien et le biélorusse, qui dominaient démographiquement les autres) disposaient chacun d'une république. Dans chacune, la langue locale était co-officielle avec le russe, « langue de communication interethnique » (язык межнационального общения) et aussi langue d'État de l'Union. Outre la Russie, une autre république fédérée, la Moldavie, et une république autonome, la Carélie, avaient également le russe comme première langue, et utilisaient l'alphabet cyrillique alors que les pays baltes utilisaient leur langue locale comme première langue et l'alphabet latin. Il y avait à cela une raison : il fallait constituer les caréliens et moldaves en groupes ethniques différents respectivement des autres finnois et des autres roumains, pour leur éviter ainsi des tentations séparatistes et les rapprocher des Russes avec lesquels ils cohabitaient. Une section du NKVD, la du , était consacrée à la gestion et à la surveillance des appartenances ethniques en tant que repère identitaire et moyen de classification des citoyens. À mesure que se délite la confiance dans la , à savoir l'avènement du communisme idéal, sans État autoritaire, ni inégalités, ni lutte des classes, ni répression des opposants, ni censure, ni pénuries, les citoyens se replient sur leurs traditionnelles, qui peuvent être nationales, tribales, coutumières, linguistiques ou , ce qui génère des tendances centrifuges s'exprimant de plus en plus impunément lors de la "glasnost" et de la "perestroïka", et qui aboutiront à la dislocation de l'URSS. Arts et culture. L'État soviétique a financé les artistes, mais les a aussi embrigadés dans des unions professionnelles (union des musiciens, union des artistes plastiques, union des artistes scéniques, union des écrivains et des poètes, union des cinéastes et ainsi de suite) : ce système a ensuite été étendu aux autres pays communistes et au existe toujours en Chine, au Vietnam, en Corée du Nord et à Cuba. La culture soviétique est passée, au cours des d'existence de l'Union, par plusieurs étapes. Après une période initiale de relative liberté de création artistique dans la première partie des , l'État soviétique a institué une stricte censure et promu un seul et unique courant : le , voué à la propagande politique appelée . Codes. L'Union soviétique a pour codes : |
Union pour un mouvement populaire L'Union pour un mouvement populaire (UMP) est un parti politique français classé du centre droit à la droite de l'échiquier politique. Fondé sous le nom d’Union pour la majorité présidentielle en vue des élections législatives de 2002, le parti devient quelques mois plus tard l'Union pour un mouvement populaire, gardant les mêmes initiales. Son ambition est de rassembler les différentes tendances de la droite et du centre droit : l’UMP naît ainsi de la fusion en un seul parti du Rassemblement pour la République (RPR), de Démocratie libérale (DL) et du Mouvement des réformateurs (MDR), auxquels se sont associés des partis ayant conservé leur autonomie (FRS, CNIP, Parti radical), tandis que de nombreux parlementaires de l'UDF la rejoignent. Plusieurs personnalités centristes l'ont ensuite quittée, notamment pour former l'Union des démocrates et indépendants (UDI) en 2012. L'UMP soutient les gouvernements nommés par Jacques Chirac entre 2002 et 2007, puis par Nicolas Sarkozy entre 2007 et 2012. Dans l'opposition à partir de 2012, le parti connaît une succession de crises internes. Redevenu président du parti en 2014, Nicolas Sarkozy fait renommer l'UMP en Les Républicains par une modification de ses statuts en 2015. Historique. Contexte. Tendance gaulliste. La tendance gaulliste est née des mouvements de la Résistance, à la fin de la Seconde Guerre mondiale. Elle est dès ses origines assez composite idéologiquement, son unité résidant avant tout dans le soutien qu'apportent ses membres à la personne du Général de Gaulle. Le gaullisme peut cependant être considéré comme une résurgence démocratique de la tradition bonapartiste de la droite française. Après l'expérience progressiste de la Nouvelle société menée par son Premier ministre Jacques Chaban-Delmas, le président Georges Pompidou devient l'artisan de l'ancrage du gaullisme à droite de l'échiquier politique. Jacques Chirac, ministre sous la présidence de Georges Pompidou, prend la tête de l’UDR après avoir favorisé l'élection de Valéry Giscard d'Estaing à l’élection présidentielle de 1974. Il fonde le Rassemblement pour la République (RPR) en 1976. Le discours idéologique du parti varie en fonction des circonstances (travaillisme et eurosceptisme à la fin des années 1970, libéralisme pendant la deuxième cohabitation, social-libéralisme lors de la campagne présidentielle de 1995, mélange de libéralisme et de conservatisme en 1995-1997). Dirigé par intérim par Serge Lepeltier, le RPR reste, au moment de sa fusion au sein de l'UMP, un parti composite, regroupant à la fois des gaullistes « traditionnels », des néo-gaullistes « post-pompidoliens », des libéraux, des conservateurs voire des centristes, des gaullistes de gauche et des souverainistes. Libéraux et centristes. L'Union pour la démocratie française (UDF), parti de centre droit fondé par le président Valéry Giscard d'Estaing en vue des élections législatives de 1978, comprend pendant longtemps une aile libérale, le Parti républicain (PR), et une aile centriste, principalement représentée par le Centre des démocrates sociaux (CDS). À la suite des élections régionales de 1998, le Parti républicain soutient les présidents de conseil régionaux élus avec les voix de conseillers Front national, et quitte l'UDF. De son côté, le CDS fusionne avec les Adhérents directs, le PRIL et le PPDF au sein de la « nouvelle UDF ». En 2002, Démocratie libérale rejoint l'UMP, tandis que deux tiers des élus de l'UDF rejoignent le nouveau parti. Ce n'est pas le cas du président de l'UDF, François Bayrou, qui souhaite maintenir l'UDF comme force politique centriste indépendante. Lancement et débuts. Issue d'Alternance 2002 puis de l'Union en Mouvement (UEM ; mouvement de soutien à Jacques Chirac qui avait pour ambition de rassembler l'ensemble des forces de droite et du centre), l'UMP est créée le par Jacques Chirac et Alain Juppé, sur le conseil de Jérôme Monod, à la suite du premier tour de l'élection présidentielle et en vue des législatives de la même année, afin d'« unir les forces politiques de toutes les droites ». Elle se nomme d'abord « Union pour la majorité présidentielle » en signe de soutien au président de la République, mais une fois les élections terminées, ce nom perd sa raison d'être et doit donc être changé. Un débat interne a lieu afin de nommer ce nouveau parti. Alain Juppé proposa de nommer ce parti « La Maison Bleue », quand d'autres étaient partisans (les libéraux pour l'essentiel) d'une référence au Parti populaire européen et au Parti populaire espagnol, souvent cité en exemple, et proposèrent de nommer le parti « Union populaire ». Il a été choisi de conserver le sigle alors déjà bien connu des Français, mais de changer la dénomination en « Union pour un mouvement populaire », lors de son congrès fondateur le au Bourget. Alors que le RPR, DL et Écologie bleue sont dissous à l'intérieur de l'UMP, deux partis fondateurs subsistent en tant que tels : le Forum des républicains sociaux de Christine Boutin et le Parti radical de Jean-Louis Borloo (ce parti quitte l'UMP en 2012 afin de créer l'UDI avec d'autres partis de centre droit). 2002-2004 : années Juppé. Au congrès du Bourget du , Alain Juppé est élu premier président de l'UMP par 79,42 %, devant Nicolas Dupont-Aignan (14,91 %) et trois autres candidats. La participation ne s'élevait qu'à 28,79 %, avec un corps électoral composé des adhérents à jour de cotisation. Le parti permet à Alain Juppé d’entretenir une lutte à distance avec son principal rival à l'intérieur de sa famille politique, Nicolas Sarkozy. Les années 2003 et 2004 constituent l'apogée du combat féroce mené entre chiraquiens et sarkozystes. L'UMP en devient un de ses principaux théâtres. En 2004, ont lieu les premières élections depuis 2002, véritable test pour le gouvernement Raffarin et le parti. Lors des régionales (le parti ne conserve que l'Alsace et la Corse sur les 26 régions), cantonales et européennes, les résultats sont désastreux. La politique gouvernementale est sévèrement sanctionnée. En outre, Alain Juppé est rattrapé par la justice : le , à la suite de sa condamnation dans l'affaire des emplois fictifs de la mairie de Paris, il donne sa démission. Jean-Claude Gaudin assure l'intérim à la tête du parti, en attendant l'élection d'un nouveau président par les adhérents. 2004-2012 : années Sarkozy. 2004-2007 : préparation de l’élection présidentielle. Le , au Bourget, élu par 85,09 % des membres du parti face à Nicolas Dupont-Aignan (9,10 %) et Christine Boutin (5,82 %), Nicolas Sarkozy devient le deuxième président de l'UMP. La participation s'élevait à 53,29 %. Pierre Méhaignerie est nommé secrétaire général. Lui permettant de rivaliser à distance avec Jacques Chirac, le nouveau président de l'UMP n'a plus qu'un seul objectif en tête, à savoir l'élection présidentielle de 2007. Malgré l'échec du référendum constitutionnel de 2005, l'UMP bat tous les records d'affluence et d'adhésion. Le mouvement entreprend alors un vaste chantier de modernisation et de réflexion interne, par l'organisation d'une vingtaine de conventions thématiques entre 2005 et 2006, afin d'élaborer le programme de Nicolas Sarkozy et de l'UMP pour les échéances de 2007. Le parti atténue fortement sa référence gaulliste. Seul candidat en lice, Nicolas Sarkozy est désigné candidat de l'UMP à l'élection présidentielle par les militants du parti le . Il est élu président de la République quatre mois plus tard, avec 53,06 %, face à Ségolène Royal. Le , deux jours avant son investiture, il démissionne de la présidence du parti. Jean-Claude Gaudin, pour la deuxième fois, assure l'intérim. 2007-2012 : présidence de la République. Les élections législatives de 2007 ont lieu sur le thème de donner au président les moyens ou non de gouverner. Dès le premier tour de scrutin, le , l'UMP réalise des scores très importants, puisque de droite sont élus contre 1 de gauche (PS). Au second tour, l'UMP l'emporte largement mais la « vague bleue » attendue n'a pas eu lieu, sûrement à cause du lancement maladroit du sujet sur la TVA sociale. À elle seule, l'UMP obtient tout de même sur 577, soit la majorité absolue. Depuis 1978, c'est la première fois qu'une majorité se succède à elle-même. À partir de ce moment se pose la délicate question de la succession de Nicolas Sarkozy à la tête de l'UMP. La bataille est lancée entre Patrick Devedjian, proche du président de la République, et Jean-Pierre Raffarin, ancien Premier ministre, développant une image consensuelle. À la sortie d'une réunion du bureau politique, le , Jean-Claude Gaudin affirme « [considérer] que, moralement, le président [de l'UMP] reste Nicolas Sarkozy et, par conséquent, [penser] qu'il n'est pas utile d'élire à nouveau un triumvirat comme les statuts l'exigent ». Réuni le , le conseil national de l'UMP adopte à 72 % une réforme des statuts du mouvement instituant une direction collégiale de l'UMP composée d'un pôle législatif (le bureau du conseil national, animé par trois vice-présidents, Jean-Pierre Raffarin, Jean-Claude Gaudin et Pierre Méhaignerie) et d'un pôle exécutif (le secrétariat général, dirigé par Patrick Devedjian assisté de Philippe Cochet et de Dominique Paillé). À la suite des élections municipales et cantonales de 2008, Xavier Bertrand et Nathalie Kosciusko-Morizet sont nommés secrétaires généraux adjoints en lieu et place de Philippe Cochet et Dominique Paillé. Christian Estrosi les rejoint quelques semaines plus tard. Lors des élections municipales de 2008, si à l'échelle nationale les listes étiquetées « majorité présidentielle » arrivent en tête en nombre de voix et en nombre de sièges, l'UMP et la droite en général perdent un certain nombre de villes importantes. Si après les élections municipales de 2001 elle contrôlait de plus de sur 39, la droite en perd 10 et n'en gagne aucune. Quant aux cantonales, la gauche qui contrôlait déjà une majorité de départements depuis 2004, en remporte huit de plus, alors que la droite en reprend deux à l'opposition. Le , Patrick Devedjian est nommé ministre de la Relance économique. Il démissionne aussitôt de son poste de secrétaire général. L'intérim est assuré dans un premier temps par les trois secrétaires généraux adjoints, puis confié à Xavier Bertrand jusqu'au , date à laquelle le conseil national désigne les nouvelles instances nationales et confirme ce dernier à ce poste. En 2009, l'UMP lance sa campagne pour les élections européennes : création d'un site web "créateurs de possibles" par l'agence de publicité Blue Advertainment (destiné à faire le buzz, ce site qualifié par « Facebook de droite » par le médias, se révélant un échec ; organisation d'un meeting à Rueil-Malmaison en présence de François Fillon le ; spots de la campagne audiovisuelle officielle. Cette campagne est caractérisée par le docteur en linguistique Pierre-Yves Modicom, par un déplacement des méthodes de la communication traditionnelle (argumentation politique) au profit du marketing politique (recours au récit). En , après sa victoire aux élections européennes, l'UMP lance une grande campagne d'adhésion et de re-adhésion pour ses adhérents. Lors des élections régionales de 2010, l'UMP conserve l'Alsace et remporte la Réunion et la Guyane, mais perd la Corse. Jean-François Copé devient secrétaire général de l'UMP le , à la suite du retour de Xavier Bertrand au gouvernement. Les responsables de l'UMP décident de ne pas organiser de primaire pour la présidentielle de 2012, malgré le souhait de certaines personnalités, et de soutenir la candidature de Nicolas Sarkozy pour un second mandat. Le , entre les deux tours de scrutin, Jean-François Copé propose la création de « mouvements » internes au parti afin d'éviter un éventuel éclatement du parti en cas d'échec à la présidentielle, tournant le dos selon certains observateurs au schéma du courant unique au service du Président. Il se déclare favorable à la mise en place d'un système de primaires pour l'UMP en 2017. 2012-2014 : succession de crises internes. Après la défaite de Nicolas Sarkozy à l'élection présidentielle de 2012, l'UMP organise le renouvellement de sa direction, ce qui aboutit à la première crise majeure du mouvement. Départ des radicaux et de certains centristes fondateurs. Les membres du Parti radical de Jean-Louis Borloo reprennent leur indépendance. Le , une assemblée constituante officialise la création de l'Union des démocrates et indépendants (UDI), qui regroupe le Parti radical et divers partis de centre droit (tels que le Nouveau Centre ou l'Alliance centriste), restés indépendants de l'UMP. Ils sont soutenus par Valéry Giscard d'Estaing et Simone Veil, puis, après le scrutin UMP du 18 novembre, par Pierre Méhaignerie, secrétaire général de l'UMP de 2004 à 2007. Congrès disputé de 2012. L'élection du président de l'UMP par les adhérents est prévue pour le . Les candidatures doivent être parrainées par au moins 3 % des adhérents à jour de cotisation, soit parrains, dans au moins 10 fédérations différentes. Cette règle de parrainage est un obstacle pour certains candidats, malgré l'autorisation d'accès au fichier des adhérents donnée par la CNIL, et cause le retrait de Dominique Dord en faveur de François Fillon. C'est pourquoi Bruno Le Maire, Nathalie Kosciusko-Morizet, Henri Guaino puis François Fillon demandent au secrétaire général, Jean-François Copé, de faciliter « l'accès » aux signatures des militants. Finalement, seuls François Fillon et Jean-François Copé restent en lice le , en annonçant respectivement et parrainages. Aucun autre candidat n'atteint le nombre de parrainages requis et Xavier Bertrand, qui affirme pourtant avoir parrainages, renonce. La campagne officielle dure deux mois (du au ). François Fillon possède une large avance dans les sondages qui portent sur les sympathisants et de nombreux parlementaires et cadres du parti se rallient à lui. Jean-François Copé se présente quant à lui comme le « candidat des militants » contre celui des « barons » et se prononce pour une « droite décomplexée » ; pendant la campagne, il introduit des thèmes tels que le racisme antiblanc. Le vote du voit une participation record avec notamment d'importantes files d'attente et des soupçons d'irrégularités. Les résultats sont beaucoup plus serrés que prévu et, dans la nuit, les deux camps proclament leur victoire à moins de d'intervalle. Le , Patrice Gélard, le président de la Commission d'organisation et de contrôle des opérations électorales (COCOE), proclame Jean-François Copé vainqueur avec 50,03 % des suffrages. Mais les partisans de François Fillon contestent cette décision, tandis que la Commission nationale des recours, le , annonce à son tour la victoire de Jean-François Copé avec 50,28 % des voix. François Fillon annonce alors la création d'un groupe parlementaire dissident, le Rassemblement-UMP. Le , après un mois de confusion, les deux candidats concluent un accord prévoyant une nouvelle élection en et la dissolution de groupe filloniste. De peur de voir les tensions internes ravivées et la situation financière du mouvement aggravée, le bureau politique décide finalement de solliciter les adhérents sur le report du scrutin à , soit à la fin initiale du mandat de Jean-François Copé. Les , et , lors d'un congrès extraordinaire, les adhérents de l'UMP votent en faveur de ce report. Lors du congrès de 2012, parallèlement à l'élection du président de l'UMP, les militants devaient se prononcer sur une nouvelle charte des valeurs, qui a finalement été approuvée par 96,10 % des suffrages, et sur l'adoption de « motions ». Parmi les six en lice, cinq dépassent les 10 % des suffrages exprimés et sont donc habilitées à se constituer en mouvements au sein de l'UMP : Présidence de Jean-François Copé. À l'été 2013, la question de l'« inventaire » du quinquennat de Nicolas Sarkozy fait débat au sein du parti. Cet exercice critique est notamment demandé par les proches de François Fillon, qui annonce son intention de se présenter à la primaire prévue en 2016, se posant ainsi en concurrent de l'ancien président de la République. D'abord réticent à cette idée, Jean-François Copé accepte finalement cette proposition, à la condition qu'il s'agisse d'un travail court et ne tournant pas à une critique personnelle de Nicolas Sarkozy. L'Association des amis de Nicolas Sarkozy ne voit pas pour sa part l'intérêt d'un inventaire et préfère mettre l'accent sur l'opposition à François Hollande. Une « convention » d'une demi-journée a finalement lieu au siège de l'UMP le , en l'absence de plusieurs figures notables du parti. Début 2014, une haute autorité présidée par la juriste Anne Levade est créée afin d'organiser les primaires de l'UMP en 2016. Elle compte cinq anciens ministres membres de l'UMP (Christine Albanel, Françoise de Panafieu, Dominique Perben, Jacques Toubon — deux anciens ministres de la Justice — et Nicole Catala) ainsi que quatre juristes indépendants (outre Anne Levade, Jean-Claude Magendie, ancien premier président de la Cour d'appel de Paris, Bernard Maligner, ingénieur CNRS et spécialiste du droit électoral et Pierre Steinmetz, ex-membre du Conseil constitutionnel). Lors des deux premières années de la présidence Hollande, l'UMP dénonce la hausse continue du nombre de chômeurs alors que le président de la République avait promis l'« inversion de la courbe du chômage », et critique les hausses d'impôts décidées par le gouvernement Ayrault ainsi que l'important déficit budgétaire, le gouvernement n'étant pas parvenu à le ramener à 3 % du PIB. Au printemps 2013, une grande partie de l'UMP milite contre l'ouverture du mariage entre personnes de même sexe. Les élections municipales de mars 2014 permettent à l'UMP d'obtenir de bons résultats, Jean-François Copé parlant même de « vague bleue » avec de plus de gagnées par la droite. La campagne pour les élections européennes de mai 2014 voit en revanche des dissensions importantes apparaître entre les pro-européens et les eurosceptiques de l'UMP, Alain Juppé demandant même à Henri Guaino de quitter le parti en raison de ses positions eurosceptiques. Simultanément, l'affaire Bygmalion, concernant notamment la gestion des finances du parti, ravive les tensions entre partisans de Jean-François Copé et ceux de François Fillon. Le , l'UMP arrive deuxième au niveau national (20,80 %, ), derrière le Front national (24,85 %, ) mais largement devant le Parti socialiste (13,98 %, ). Le lendemain du scrutin, Jérôme Lavrilleux, bras droit de Jean-François Copé et nouvellement élu député européen, reconnaît avoir eu un rôle central dans l'affaire Bygmalion, incluant également la campagne de soutien à Nicolas Sarkozy lors de l'élection présidentielle de 2012. À l'issue d'un bureau politique houleux tenu le , Jean-François Copé ainsi que tous les membres de la direction du parti annoncent leur démission, effective le . Direction collégiale provisoire. Le , le bureau politique de l'UMP désigne Luc Chatel comme secrétaire général de l'UMP et le place sous l'autorité d'un « triumvirat » constitué des trois anciens Premiers ministres François Fillon, Alain Juppé et Jean-Pierre Raffarin. Le préfet Jacques Laisné est nommé trésorier, en remplacement de Catherine Vautrin. Éric Cesari, un proche de Nicolas Sarkozy, directeur général de l'UMP depuis 2008, est suspendu de ses fonctions le , puis remplacé par Philippe Gustin, un proche de Luc Chatel. Un congrès est convoqué les et par voie électronique, afin d'élire une nouvelle direction, la date limite de réception des candidatures étant fixée au mardi . Hervé Mariton et Bruno Le Maire annoncent séparément leur candidature à la présidence et font campagne. En politique étrangère, dans le contexte de reprise du conflit israelo-palestinien et de massacres perpétrés au Kurdistan irakien, la direction provisoire de l'UMP prend l'initiative le , dans une lettre ouverte au président de la République François Hollande, affirmant que , et lui demandant afin de décider d'une intervention européenne au Proche-Orient. Ces critiques sont à leur tour critiquées par le ministre Laurent Fabius. Congrès de. Fin , Nicolas Sarkozy annonce sa candidature à la Présidence de l'UMP. La campagne officielle l'oppose à Hervé Mariton et Bruno Le Maire. Le , il est élu président avec 64,50 % des voix, contre 29,18 % pour Bruno Le Maire et 6,32 % pour Hervé Mariton. 2014-2015 : retour de Nicolas Sarkozy et changement de nom. Nicolas Sarkozy prend ses fonctions le suivant. Le 4 décembre, Nathalie Kosciusko-Morizet devient la numéro 2 du parti, en tant que vice-présidente et Laurent Wauquiez , comme secrétaire général. Christian Estrosi devient président de la commission nationale d'investitures, Valérie Pécresse, coordinatrice pour les élections régionales, Éric Doligé, coordinateur pour les élections départementales, Luc Chatel et Brice Hortefeux, conseillers politiques, Éric Ciotti, secrétaire général adjoint aux fédérations, Gérald Darmanin, secrétaire général adjoint aux élections, Sophie Primas, secrétaire générale adjointe aux adhésions, Édouard Courtial, secrétaire général adjoint à la formation et Isabelle Le Callennec et Sébastien Huyghe, porte-paroles. Nicolas Sarkozy rembourse le à l'UMP la somme de correspondant à l'amende infligée par la Commission des comptes de campagne et qui avait été avancée par la trésorerie du parti. Néanmoins, l'ancien président de l'UMP, Jean-François Copé, ainsi que l'ancienne trésorière, Catherine Vautrin, sont mis en examen début pour « abus de confiance » à la suite du paiement initial de cette amende par l'UMP. Nicolas Sarkozy avait déclaré pendant la campagne pour la présidence de l'UMP vouloir changer le nom et les statuts du parti. C'est la dénomination qui est proposée. Ce nom est d'abord critiqué par les partis concurrents pour le coût estimatif, pour ses références, mêmes fortuites, au Parti républicain américain et au parti allemand Les Républicains, ou encore pour l'appropriation potentielle de la valeur « République » revendiquée également par d'autres partis. Malgré des critiques exprimées également au sein de l'UMP, le nom proposé est accepté à l'unanimité moins une abstention lors de la réunion du bureau politique du . À la demande de responsables du parti, Nicolas Sarkozy accepte de soumettre les nouveaux statuts au vote électronique des adhérents le . Ces statuts indiquent, dans leur article 1 : « il est fondé entre les personnes physiques adhérant aux présents statuts un parti politique dénommé « les Républicains », ci-après désigné le Mouvement ». Le , Nicolas Sarkozy annonce que l'UMP devient officiellement « Les Républicains ». Cependant, juridiquement, il s'agit d'un changement de nom et non pas de la création d'un nouveau parti. Positionnement politique. Fondements idéologiques. Dans sa « Charte des valeurs », l'UMP se donne pour but de donner à la politique française un et d'enrayer . Ses mots d'ordre : . La doctrine de l'UMP déclare qu'il faut laisser libre cours au qui dépasse le . L'UMP . Le travail, le mérite et l'innovation doivent être encouragés, afin de mener la France vers la reprise de la croissance et la baisse du chômage. Cette liberté ne doit cependant pas être comprise comme un égoïsme : . Pour faire respecter cette liberté, un respect strict de la loi est nécessaire : . L'UMP se déclare très attachée à la solidarité : . Néanmoins, la solidarité se doit de et . Elle se limite essentiellement aux domaines des services publics, de l'égalité entre les territoires, du soutien des familles et de l'école de la République, laquelle doit . Enfin, l'UMP affirme sa fierté pour la nation française, tout en définissant son horizon dans la construction européenne, synonyme de « paix » mais aussi d'. L'Europe ne doit pas se réduire à la seule coopération économique : elle doit dans le contexte de la mondialisation, tout en faisant en sorte que . Factions et courants internes. La création de l'UMP s'est voulue être le grand rassemblement des forces politiques de la droite et du centre. Afin de permettre aux différentes familles qui la composent de s'exprimer en son sein, les statuts de l'UMP prévoient la possibilité de créer des courants internes appelés « mouvements ». L'un des buts de ces mouvements était de favoriser l'émergence d'un débat interne riche et d'éviter que l'UMP, à l'instar du RPR de Jacques Chirac, ne se transforme en un parti avant tout organisé pour favoriser la victoire politique de son leader. Cette création n'a toutefois pas lieu pendant longtemps. Dans un premier temps, Alain Juppé a été contraint de la repousser, Jacques Chirac, entre autres, y voyant un risque de recréer au sein de l'UMP une « guerre des chefs » telle que l'UDF l'a connue pendant plus de entre libéraux et démocrates chrétiens et les multiples chapelles qui naquirent au sein de ces deux familles. De plus, les courants qui se dessinaient à l'époque reprenaient presque à l'identique les contours des anciens partis, ce qui aurait pu donner un argument à ceux qui dénonçaient (notamment au sein de l'UDF demeurée indépendante) le caractère artificiel de la nouvelle formation. Ce report devint très rapidement définitif, la peur des chiraquiens se fondant rapidement sur les conséquences que pourrait avoir la création d'un courant sarkozyste à vocation majoritaire. Lors de son élection à la présidence de l'UMP, Nicolas Sarkozy prit l'engagement de favoriser l'émergence de ces courants, bien des militants s'estimant quelque peu « floués » par rapport aux engagements qui avaient prévalu lors de la création de l'UMP. Mais devant le nombre de ralliements très important autour de son nom (devenant très largement majoritaire, il n'avait plus lui-même l'utilité de rassembler ses partisans au sein d'un courant, qui serait au contraire devenu exclusif pour les autres) et la difficulté pour certaines familles, comme celles des centristes ou des gaullistes, à se structurer sans démontrer par là même une déliquescence certaine, ce projet ne sera pas concrétisé. L'expression des différentes tendances internes à l'UMP n'en existe pas moins. Elle se traduit à travers plusieurs clubs, associations, voire partis politiques associés, qui regroupent des élus et/ou des militants. À l'exception des partis associés (PCD, CNI, et jusqu'en 2011 le Parti radical), ces différentes structures n'ont cependant aucune reconnaissance en termes de démocratie interne, bien que l'UMP les subventionne pour la plupart. Il est également à noter que certaines grandes familles comme les néo-gaullistes (« chiraco-villepinistes ») ne s'appuient sur aucune structure formelle, mais n'en ont pas moins une très forte influence grâce à leurs leaders. Arrivé au secrétariat général de l'UMP en 2010, Jean-François Copé décide d'appliquer les statuts et de permettre le dépôt de déclarations de principe par les courants. Ceux dont la déclaration de principe, parrainée par au moins dix parlementaires membres d'au moins dix fédérations départementales, obtient au moins 10 % des suffrages exprimés lors du congrès sont en effet officiellement reconnus et peuvent peser plus fortement au sein des instances dirigeantes de l'UMP. Ils disposent en outre d'une autonomie financière grâce à une dotation annuelle fixe et à une dotation annuelle proportionnelle aux suffrages obtenus. L'ensemble des sommes versées aux courants est limitée à 30 % du montant de l'aide publique annuelle versée par l'État à l'UMP. Une partie du financement de la formation politique revient donc directement aux courants qui en feront un usage libre. Le premier congrès à appliquer cette organisation en courant est celui du 18 novembre 2012. Quelques courants s'étaient déjà formés et structurés au cours du quinquennat de Nicolas Sarkozy, tels la Droite populaire ou la Droite sociale en 2010. D'autres groupements plus anciens, jusqu'ici associations ou partis associés à l'UMP, comme Le Chêne ou Les Réformateurs, apparaissent très vite comme ayant vocation à devenir des courants reconnus. À l'approche du congrès de , de nombreux autres courants voient le jour, dans le but de déposer une déclaration de principe ou de soutenir un candidat à la présidence du parti : La Droite forte. Ce courant est lancé en juillet 2012 par Guillaume Peltier et Geoffroy Didier qui se déclarent héritiers du sarkozysme. Ils sont rejoints par Brice Hortefeux, Édouard Courtial, Pierre Charon ou Olivier Marleix entre autres. . Leur motion "La Droite forte – Génération France Forte 2017" arrive en tête du congrès avec 27,77 % des suffrages des adhérents. En février 2013, Geoffroy Didier devient secrétaire général adjoint de l'UMP, derrière la titulaire du poste, Michèle Tabarot, dans le cadre de la direction entre Jean-François Copé, qu'il a soutenu pour la présidence du parti, et François Fillon. Ce courant sera dissous en 2018. La Droite sociale. Au départ un groupe de réflexion créé à l'initiative de Laurent Wauquiez en 2010, il devient un courant de l'UMP à la suite du Congrès de l'Union pour un mouvement populaire de 2012 lors duquel il dépose la motion "Droite Sociale : défense des classes moyennes - lutte contre l'assistanat", soutenue par Valérie Boyer, Natacha Bouchart, Caroline Cayeux ou Bernard Debré. Il a pour objectifs notables la défense des classes moyennes et la lutte contre « l’assistanat ». Avec 21,69 % des voix parmi les militants, il se place comme le deuxième courant de l'UMP. Depuis les élections municipales de 2014, ce courant est en sommeil. France moderne et humaniste. Ce courant créé en août 2012, rassemble les différents clubs libéraux et centristes. À la suite de la création de l'UMP, les libéraux principalement issus de Démocratie libérale, se regroupent au sein de clubs comme « Les Réformateurs » animé par Hervé Novelli, Gérard Longuet, Luc Chatel et Michèle Tabarot, « Dialogue & initiative » autour de Jean-Pierre Raffarin et Marc Laffineur ou encore « Réforme et modernité » fondé par les « villepinistes » Hervé Mariton et François Goulard. De même, les anciens UDF forment le club « Démocrate & populaire » dirigé par Pierre Méhaignerie, Philippe Douste-Blazy et Marc-Philippe Daubresse. Cependant, après le départ de la Convention démocrate puis de Jean-Louis Borloo avec le Parti radical pour fonder l'ARES, l'aile centriste de l'UMP s'est retrouvée réduite autour de Marc-Philippe Daubresse ou au sein du club « République et humanisme » créé par Jean Leonetti (ex-RAD). Dans le cadre du congrès de 2012, ces différents clubs se réunissent pour déposer une motion commune intitulée "France moderne et humaniste". Le but de ce courant est de donner plus de visibilité à l’action libérale de l'UMP face à la montée de la ligne « sécuritaire » et de proposer un nouveau pacte libéral et social à droite. Le courant promeut « le rassemblement des gaullistes sociaux, des humanistes, des libéraux et des radicaux ». Bien qu'étant le courant ayant réuni le plus de soutiens parmi les élus, il n'arrive qu'en position lors du vote des militants avec 18,17 % des voix. Gaullistes en mouvement. Avec la dissolution du RPR dans l'UMP, la doctrine gaulliste se retrouve de plus en plus minoritaire au sein de la droite française. De plus, l'affrontement entre « chiraco-villepinistes » et « sarkosystes » de 2004 à 2007, a fracturé cette mouvance encore plus réduite avec les départs des « souverainistes » au sein de Debout la République en 2008 et de Dominique de Villepin qui fonde République solidaire en 2010. Cependant, en vue du congrès de l'UMP de 2012, le micro-parti "Le Chêne" dirigé par Michèle Alliot-Marie regroupant les derniers « chiraquiens » (Patrick Ollier, Serge Grouard) et le club "Rassemblement gaulliste" réunissant des « gaullistes sociaux » proches de Nicolas Sarkozy (Roger Karoutchi, Henri Guaino), forment le courant « Gaullistes en mouvement » et déposent la motion "Le Gaullisme, une voie d'avenir pour la France". À l'issue des résultats, elle obtient 12,31 % des votes des adhérents et se place en quatrième position. La Droite populaire. Créé en juin 2010 comme collectif parlementaire par Lionnel Luca, Richard Mallié, Jean-Paul Garraud et Thierry Mariani, la Droite populaire réunissait alors 42 députés dont le tiers était issu de la région Provence-Alpes-Côte d'Azur. Prônant le « retour aux fondamentaux » sarkozystes de 2007, ce groupe est souvent à l'origine de polémiques pour ses positions radicales sur des sujets touchant aux mœurs, à l'immigration et à la sécurité. Les prises de position en faveur d'un rapprochement entre l'UMP et le FN font également beaucoup parler de la Droite populaire. Le collectif s'en défend, affirmant être une . Après l'annonce de Jean-François Copé d'autoriser les courants au sein de l'UMP, le collectif annonce qu'il va se constituer en mouvement autonome. Sa motion "Maîtriser notre destin et réaffirmer le pacte républicain" arrive avant-dernière, en cinquième position, avec 10,87 % des voix. La Boîte à idées. Ce courant est créé par des personnalités proches d'Alain Juppé qui souhaitent renouer avec les principes fondateurs de l'UMP, lorsque ce dernier était président. Sa motion "La Boîte à idées, la motion anti divisions !" est portée par Maël de Calan, Bruno Le Maire, Benoist Apparu, Thierry Solère ou encore Édouard Philippe et soutenue par Xavier Bertrand. Arrivé en dernière position avec 9,19 % des voix, il n'est pas reconnu comme un courant officiel de l'UMP (n'ayant pas dépassé les 10 %). Résultats électoraux et personnalités marquantes. Figures politiques majeures. L'UMP a compté dans ses rangs plusieurs personnalités figures de la politique française, qui ont parfois pu occuper les plus hautes fonctions de la République sous l'étiquette de l'UMP : Valéry Giscard d'Estaing, président de la République de 1974 à 1981, quitte l'UDF pour rejoindre l'UMP en 2002. Outre ces figures de la classe politique, plusieurs personnalités du monde de la culture, de la société civile ou du show-biz sont considérées comme proches de l'UMP ou ont officialisé leur soutien au parti : Organisation interne. Direction. Direction nationale. Nommés par le bureau politique sur proposition du président de l'UMP, (article 22 des statuts de l'UMP) dans leurs domaines respectifs. Ils doivent rendre compte de leurs travaux auprès du bureau politique et, au moins une fois par an, devant le conseil national. On peut retrouver leur liste complète sur le site officiel de l'UMP. Instances collégiales de direction. Les trois principales instances collégiales de direction de l'UMP sont le congrès, le conseil national et le bureau politique. Le congrès est l'assemblée générale de l'UMP, composée de l'ensemble des adhérents du parti. C'est lui qui désigne le candidat que soutient l'UMP à chaque élection présidentielle. Le conseil national, présidé par le président de l'UMP, est composé de conseillers nationaux élus par les adhérents. Le bureau politique est chargé d'assurer la direction de l'UMP entre les sessions du conseil national. Le président ou un quart de ses membres peuvent le réunir et définir de l'ordre du jour. Les décisions sont prises à la majorité, à condition qu'il y ait au moins la moitié des membres présents. Il est composé des principaux dirigeants du mouvements (président, vice-président, secrétaire général, trésorier, conseillers politiques, secrétaires nationaux, membres élus par le conseil national). Outre le conseil national et le bureau politique, il existe six autres instances nationales de l'UMP : Fédérations locales. Les fédérations départementales de l'UMP sont organisées dans chaque département autour d'un président du conseil départemental, d'un secrétaire départemental et d'un responsable département des jeunes. Structures spécialisées. Jeunes Populaires. L'UMP a une branche pour les jeunes de , les Jeunes Populaires ou Jeunes de l'UMP. Les Jeunes Populaires ont, à leur tête, un président élu pour deux ans. Tous les adhérents de l'UMP de moins de sont inscrits automatiquement chez les Jeunes Populaires. Une fois le cap des atteint, les adhérents sont radiés du mouvement de jeunesse. Son fonctionnement repose sur une organisation décentralisée. Ce fonctionnement est confirmé en 2004 avec l'établissement de statuts garantissant l'élection du président des Jeunes Populaires par les conseillers nationaux des Jeunes Populaires (CNJP), eux-mêmes élus par l'ensemble des adhérents. Au niveau local cependant, les responsables départementaux jeunes (RDJ) sont nommés par le président des Jeunes Populaires en accord avec le secrétaire départemental de la fédération UMP. Un responsable départemental ne peut donc être nommé si le parti ne le souhaite pas. Inversement, le RDJ ne peut pas être nommé sur ordre du secrétaire départemental. Dans la réalité, il s'agit le plus souvent d'un accord entre les parties. Les Jeunes Populaires ne revendiquent pas leur autonomie par rapport au parti. Fabien de Sans Nicolas déclara : . Les Jeunes Actifs. Les Jeunes Actifs sont une autre antenne de l'UMP pour laquelle l'appartenance n'est pas liée à une tranche d'âge spécifique, mais plutôt au fait d'exercer une activité professionnelle. L'association a été créée par François Guéant dans le courant de l'année 2005 et elle est présidée par Gilles Laborde de 2008 à 2010. Siège du parti. Le siège de l'UMP se situe à Paris. Entre 2002 et 2011, il est domicilié au 55 rue La Boétie (). Il déménage en 2011 au 238 rue de Vaugirard (). Cette acquisition, permettant une économie de coûts de fonctionnement, s'élève à d'euros ( d'euros pour acheter le bâtiment, 21 pour le réhabiliter) et est financée en majeure partie par un emprunt de d'euros contracté sur une période de et demi. Budget et situation financière. L'UMP a repris la dette du RPR. Recettes et trésorerie. En 2004 est créé le Premier Cercle, un cercle qui rassemble les plus gros donateurs de l'UMP. Dans le cadre des financements des partis politiques, l'UMP perçoit un financement public de d'euros en 2010 ( dans le cadre de la première fraction de l'aide publique et dans le cadre de la deuxième). Le parti était en déficit de plus de d'euros à la fin de l'année de la présidentielle en 2007 et tablait sur un retour à l'équilibre pour 2011. Après les campagnes présidentielle et législative de 2012, la situation financière du parti est difficile. Les raisons sont notamment un nombre de voix obtenu moindre ainsi qu'une pénalité pour non-respect de la parité. Dès , le personnel du siège national passe de (équivalent temps-plein) à 90, par non-renouvellement des CDD. L'UMP doit faire face à une dette de d'euros. Le déficit approche lors de la démission du trésorier Dominique Dord, après le congrès de . Après arrêt définitif des comptes, la dette du parti atteint un peu plus de d'euros à la fin de l'exercice 2012. Pour suivre son plan de retour à l'équilibre en 2017, l'UMP doit faire des économies annuelles de d'euros. En , à la suite de l'encaissement de de dotation publique, la dette est estimée à d'euros, correspondant à une année de recettes. Le rejet des comptes de campagne de Nicolas Sarkozy, le , prive l'UMP de d'euros de remboursements qui avaient été intégrés dans le budget prévisionnel. Jean-François Copé annonce alors qu'il lance une « grande souscription nationale ». Le , le président du parti déclare que la somme de d'euros de dons a été réunie, affirmant notamment qu'. En , François Fillon annonce un endettement « proche de d'euros ». Le , à la suite du bureau politique de l'UMP, "Le Monde" annonce que le montant de la dette est de d'euros. Transparence des comptes. En , Jean-François Copé annonce le dépôt d'une proposition de loi imposant à l'ensemble des partis bénéficiant d'une aide publique, dont l'UMP, de publier leurs pièces comptables depuis 2007, ainsi que d'une autre proposition de loi imposant aux « principaux dirigeants et salariés des médias » de répondre aux mêmes contrôles que les parlementaires. En attendant le vote de ces deux propositions, l'intégralité de la comptabilité de l'UMP ainsi que les archives des deux dernières campagnes présidentielles sont enfermées dans une pièce scellée par un huissier. Il le fera finalement le de la même année, abandonnant pour l'occasion sa proposition de loi concernant les médias. Selon des informations du "Journal du dimanche", le groupe UMP au Sénat aurait entre 2002 et 2014 organisé une comptabilité occulte qui permettait à certains élus de détourner pour eux-mêmes de l'argent normalement destiné à rémunérer leurs assistants parlementaires. Partis associés. Les partis politiques associés à l'UMP le sont selon les statuts du mouvement : C'est le cas également de partis politiques à portée strictement locale : Organisations politiques internationales auxquelles l'UMP est affiliée. Français de l'étranger. Il existe plusieurs délégations de l'UMP à l'étranger, en Allemagne, en Belgique, aux États-Unis, au Québec ou encore au Maroc. Accords internationaux. En , Xavier Bertrand a signé un protocole entre l'UMP et le Parti communiste chinois. Ce protocole a pour vocation de rapprocher les deux partis au pouvoir dans leur pays respectif et ainsi d'améliorer les relations entre la France et la Chine. En , Xavier Bertrand a proposé à Gilles Duceppe, alors premier secrétaire du Bloc québécois, l'officialisation des relations entre l'UMP et le Bloc, parti québécois qui défend les intérêts spécifiques des francophones sur la scène politique canadienne. |
Var (département) Le Var () est un département français en région Provence-Alpes-Côte d'Azur, qui doit son nom au fleuve côtier qui constituait jadis la limite orientale du département mais ne l'arrose plus aujourd'hui. Il est le seul département français à avoir eu dans l'histoire quatre chefs-lieux différents : Brignoles, Grasse, Draguignan et enfin Toulon. Le chef-lieu du département est Toulon, tandis que Draguignan et Brignoles en sont les sous-préfectures. En 1860, l'arrondissement de Grasse (alors sous-préfecture du Var) est détaché pour constituer le nouveau département des Alpes-Maritimes. Les habitants du Var sont appelés les Varois. L'Insee et la Poste lui attribuent le . Nom. Le département du Var tire son nom du fleuve Var qui constituait autrefois sa limite orientale, avant le rattachement du comté de Nice à la France et l'incorporation de l'arrondissement de Grasse au sein du nouveau département des Alpes-Maritimes. Depuis, le département porte le nom d'un cours d'eau qui ne coule pas sur son territoire, cas unique en France. Plusieurs projets de changement de nom du département furent proposés, sans résultats. Parmi ceux-ci figurait celui de rebaptiser le Var en département de l'Argens, du nom du principal fleuve traversant le département, d'ouest en est, ou encore « Côtes-du-Sud ». Mais, pour l'heure, le département conserve le nom sous lequel il est connu, notamment à l'extérieur du territoire. Géographie. Le Var fait partie de la région Provence-Alpes-Côte d'Azur. Il est limitrophe des départements des Bouches-du-Rhône à l'ouest, de Vaucluse (sur quelques centaines de mètres à peine), des Alpes-de-Haute-Provence au nord, des Alpes-Maritimes à l'est, et est baigné par la mer Méditerranée au sud. Le département du Var a une superficie de avec de littoral (îles incluses). 58,3 % de la superficie est boisée soit , pour un taux moyen de 39,4 % pour la région Provence – Alpes - Côte d’Azur. 14 % de la superficie, soit , est utilisée par l'agriculture. Le Var possède un relief varié avec une partie calcaire sur tout l'ouest d'un axe Toulon-Draguignan, et une partie cristalline à l'est. Les principaux massifs sont : Climat. Avec un climat méditerranéen, le Var est habitué aux fortes chaleurs, cependant en 2003 lors de la canicule et en juillet-août 2005, les pics de chaleurs ont été tels que de nombreux feux se sont déclarés, emportant notamment une grande partie de la végétation du Massif des Maures. La Garde-Freinet et le Plan-de-la-Tour ont été très sévèrement touchés. Si certains feux furent accidentels, d'autres mises à feu furent volontaires en plusieurs endroits de la région. Toulon est statistiquement la ville de France métropolitaine la plus ensoleillée. Les fortes précipitations d'automne amènent à des inondations, régulièrement dévastatrices. Entre 1983 et 2003, du département (sur plus de 900) ont été concernées par au moins un arrêté de catastrophe naturelle. Ces inondations sont dues aux caractéristiques climatiques de la région, qui favorisent des pluies rares mais de très forte intensité, donnant lieu à des crues soudaines et brutales. Ces phénomènes provoquent des dégâts importants en raison de la forte urbanisation des zones inondables, suscitée par la pression foncière très importante. Histoire. Le département a été créé à la Révolution française, le (décret du ) en application de la loi du , à partir d'une partie de la province de Provence. Son chef-lieu, d'abord fixé à Toulon, fut déplacé pour punir les Toulonnais d'avoir livré leur ville aux Britanniques en 1793. Grasse devint alors chef-lieu, remplacée à son tour par Brignoles en 1795 puis Draguignan en 1797. Le département suivit les progrès de la Révolution française avec intérêt, comme en témoigne le nombre de sociétés populaires, 115 en 1794. De la même façon, 96 % des prêtres acceptent de prêter serment à la constitution civile du clergé. À partir de 1795, une administration centrale est instaurée dans chaque département, de même qu'une administration locale dans chaque canton. En 1800, Napoléon Bonaparte réforme en profondeur l'organisation de l'État. L'administration du département est confiée au préfet. Après la victoire des coalisés à la bataille de Waterloo (), le département est occupé par les troupes autrichiennes de à novembre 1818 (voir occupation de la France à la fin du Premier Empire). Le département est très à gauche sous la Deuxième République. Lorsque le président Louis-Napoléon Bonaparte fait son coup d’État, le 2 décembre 1851, le département se soulève, avant que les troupes insurgées soient dispersées par l’armée. Le chemin de fer parvient à Toulon en 1859. Lors de la création des Alpes-Maritimes en 1860, après l'annexion à la France du comté de Nice, le Var est amputé de sa partie la plus orientale, qui constitua l'arrondissement de Grasse dans le nouveau département. À la suite de cette modification, le Var ne coule plus dans le département auquel il a donné son nom. En 1884, le choléra endeuille Toulon. À cette occasion, Georges Clemenceau, médecin, se fait connaître comme « l'homme qui affronte l'épidémie ». Alors député de la Seine, il plaide la cause du Var à la Chambre. Apparemment adopté par les Varois, il sera leur député de 1888 à 1893 puis sénateur de 1902 à 1920. Au , la guerre de 1914-1918 stimule la production industrielle intéressant la défense nationale, mais elle frappe notamment les industries alimentaires. Le département est occupé par l’Italie fasciste de à . En 1942, l'armée allemande envahit la zone sud, et occupe le département du Var en 1944. Le de cette année, dans la nuit, des commandos français débarquent au Cap Nègre, au Trayas, à Saint-Tropez, à Sainte-Maxime ou encore à Saint-Raphaël (voir débarquement de Provence). La flotte revient à Toulon le . Finalement, Toulon redevient préfecture du département par décret du . Le conseil général suit . Le Var a été une terre d'accueil pour les rapatriés d'Algérie (environ ). Les séquelles de la lutte pour l’Algérie française et l'abandon des Harkis, leurs conditions lamentables d'accueil voire leur renvoi en Algérie ont cependant laissé des traces sur la vie politique locale. Le Var est un territoire en plein développement, tant sur le plan économique que démographique, en partie grâce à son cadre de vie et sa vocation touristique. Économie. La principale source de revenus est le tourisme. Le Var s'engage depuis quelques années dans une nouvelle voie, la terre cultivée est exclusivement consacrée aux productions suivantes : fleurs, fruits, primeurs, vin et huile d'olive. Il développe d'autre part des investissements liés aux énergies renouvelables, notamment dans le photovoltaïque comme le site pilote de Cotignac. Le département possède deux centres économiques. Le premier est situé dans la région de Toulon, où se trouve une grande industrie compétitive. L'autre centre économique se situe à Fréjus-Saint-Raphaël, spécialisé dans les services (immobilier, finances, gestions de fortunes…) et dans les hautes technologies (avec notamment le siège français du fabricant de casques GPA). Démographie. Les habitants du Var se nomment les Varois. La répartition de la population, sur le territoire départemental, n'est pas uniforme. En effet, la zone urbaine de Toulon, concentre une grande partie de la population. Le Var comprend quatre villes de plus de et sept villes de plus de . Le Var est le département de Provence-Alpes-Côte d’Azur comptant la plus grande proportion de personnes âgées de soixante ans et plus, à savoir plus de 30 % de la population du département (contre 27 % au niveau régional et 24 % au niveau national). Par ailleurs, les aînés de 75 ans et plus représentent près de 12 % de la population varoise (environ au ). Tourisme. Le Var (comme la plupart des départements de la côte méditerranéenne) est une importante destination touristique, notamment en période estivale (tourisme balnéaire). On peut en particulier y visiter les caves et les vignobles de Bandol, voir les villages perchés du pays de Fayence (Montauroux, Fayence, Callian, Seillans, Tourrettes, Saint-Paul-en-Forêt, Mons, Tanneron), faire une randonnée dans le massif de l'Esterel, de la planche à voile sur la presqu'île de Giens, ou prendre un bateau pour l'île de Porquerolles ou le parc naturel sous-marin de l'île de Port-Cros. La plage de Cavalaire-sur-Mer est également la plus longue plage de sable de la côte. La ville de Saint-Tropez est aussi située dans le Var. Le nord du département, dit le Haut-Var, présente également un intérêt avec ses villages perchés dans les collines, les sites majestueux des gorges du Verdon et du lac de Sainte-Croix, ou bien le lac de Saint-Cassien. Le département comprend plusieurs villes disposant d'un patrimoine architectural et historique remarquable : Fréjus, Draguignan, notamment. Les résidences secondaires. Selon le recensement général de la population du , 26,5 % des logements disponibles dans le département étaient des résidences secondaires. Ce tableau indique les principales communes du Var dont les résidences secondaires et occasionnelles dépassent 10 % des logements totaux. Sources : Source INSEE, chiffres au 01/01/2008. Transports. Varlib est le service de transport en commun par bus du département du Var. Il permet de se déplacer dans tout le département pour trois euros. La Régie mixte des transports toulonnais (RMTT) gère le réseau Mistral, un réseau de transports en commun réparti dans l'aire urbaine de Toulon sur plusieurs communes : Toulon, La Seyne/Mer, Hyères, Six-Fours, Ollioules, Le Pradet, Carqueiranne, La Crau, Le Revest-les-Eaux... Routiers. Le département est desservi par trois autoroutes : l'autoroute A8 (Aix-en-Provence – frontière italienne) qui traverse le centre du département d'est en ouest, l'autoroute A57 qui relie Le Cannet-des-Maures à Toulon et l'autoroute A50 qui relie Toulon à Marseille. Ces trois autoroutes sont gérées par le réseau Escota et Vinci Autoroutes . Sur une grande partie de son parcours, l'autoroute A8 longe la nationale 7, qui est un axe très emprunté. L'autoroute A570 relie l'A57 à Hyères, cette portion est gratuite (non concédée). La RD98 (ancienne nationale 98) relie l'agglomération toulonnaise au Golfe de Saint-Tropez. |
Vienne Personnalités. Le patronyme Vienne a désigne quelqu'un originaire d'une des localités de ce nom. |
Vosges (département) Les Vosges ( ) sont un département français de la région Grand Est, situé dans la région historique de Lorraine. Elles tirent leur nom du massif des Vosges, qui occupe une grande partie de son territoire. Son chef-lieu est Épinal. L'Insee et la Poste lui attribuent le code 88. Histoire. Occupant le sud de la province de Lorraine et quelques communes de Champagne et de Franche-Comté, le département des Vosges est l'un des créés à la Révolution française le , en application de la loi du. Le , la principauté de Salm-Salm, enclave lorraine de l'Empire, gérée par la municipalité de Senones, demande un rattachement à la France. Le départ prudent de sa famille princière à l'été 1791 et surtout le blocus français des vivres de 1792 a discrédité le pouvoir princier et retourné l'opinion en terre de Salm. Ce rattachement est ratifié par la Convention nationale le . En 1795, à la suite d'une réfection du canton de La Broque, créée à partir des terres de Salm en vallée de la Bruche, des communes alsaciennes environnant Schirmeck et des communes des anciennes terres du Ban de la Roche initialement incluses dans le Bas-Rhin, sont rattachées au département des Vosges. En 1871, à la suite du traité de Francfort du , une convention additionnelle signée à Berlin et à Paris les 21 et , annexe à l'Empire allemand dix-huit communes des Vosges soit le canton de Schirmeck et la moitié du canton de Saales, comprenant et une superficie de . Raon-sur-Plaine réduit à , puisque la commune est amputée de son territoire stratégique sur le Donon, est rendu ultérieurement à la France le puis incorporé sur demande des habitants au canton de Raon-l'Étape. Les communes du canton de Saales restées françaises forment en 1872, avec Beulay, le canton de Provenchères-sur-Fave. Les territoires vosgiens annexés par l'Empire allemand en 1871 ont été rendus à la France par le traité de Versailles de 1919 mais sont restés rattachés au Bas-Rhin. Géographie. Le département des Vosges fait partie de la région Grand Est, il est entouré par les départements de la Meuse et de Meurthe-et-Moselle au nord qu'il croise au site des trois bornes, du Bas-Rhin et du Haut-Rhin à l'est, du Territoire de Belfort et de la Haute-Saône au sud, et de la Haute-Marne à l'ouest. Le département a la particularité d'être à cheval sur quatre bassins fluviaux : Le département n'est en adéquation avec son nom que dans sa partie orientale montagneuse. On peut ainsi distinguer deux moitiés disparates de part et d'autre d'Épinal. L'ouest du département, comprenant la Vôge et le Xaintois, est une région de collines avec un couvert de feuillus. L'est, tantôt granitique, tantôt gréseux, est plus élevé et couvert de forêts de résineux. Avec 47 %, le taux de boisement du département se situe à la quatrième place après la Guyane, les Landes et le Var. La partie orientale et montagneuse du département dépasse ce pourcentage moyen. La partie la plus élevée est incluse dans le parc régional des Ballons. Démographie. Les Vosges sont une région de moyenne montagne, où la population s'est concentrée le long des vallées. Grâce à un important développement industriel (exploitation forestière et industries dérivées), les villes sont nombreuses, mais de taille assez faible. Seule l'agglomération d'Épinal (préfecture du département) dépasse , et la seule autre ville importante est Saint-Dié-des-Vosges avec en . La population du département est restée très longtemps stable. La diminution des activités agricoles étant compensée par l'essor industriel, le département passa de en 1831 à en 1911, progressant lentement mais assez régulièrement. Tombée à en 1921, la population se maintiendra ensuite, culminant à en 1975. Depuis cette date, la population du département baisse régulièrement du fait notamment de la désindustrialisation. Architecture. Le style des maisons et des fermes anciennes est caractérisé par leurs portes de grange en arrondi. Culture. Langue. D'après Abel Hugo, en 1835, il existait entre les habitants des diverses communes du département, des différences notables dans le parler vosgien. Vers 1845, l'accent alsacien dominait dans les contrées qui touchent aux départements du Haut et du Bas-Rhin. Quant à l'accent comtois, il dominait lui aussi dans les contrées qui avoisinent le département de la Haute-Saône. À la même époque, le vieil accent lorrain, ayant survécu aux révolutions politiques, était encore présent dans les villes comme dans les campagnes, trahissant l'origine du Vosgien. Le patois était encore à cette époque l'idiome préférentiellement usité dans les communes rurales. Cultes et lieux de culte. Le département des Vosges abrite plusieurs lieux de culte de diverses religions. Marque territoriale. Je Vois la Vie en Vosges |
Val de Marne |
Virus de l'immunodéficience humaine Le virus de l'immunodéficience humaine (VIH-1 ou simplement VIH dans le langage courant ; en anglais, "human immunodeficiency viruses-1" ou "HIV-1") est une espèce de rétrovirus infectant l'humain et responsable du syndrome d'immunodéficience acquise (sida), qui est un état affaibli du système immunitaire le rendant vulnérable à de multiples infections opportunistes. La transmission du vih par plusieurs fluides corporels (sang, sécrétions vaginales, sperme ou lait maternel) fait que le sida est aujourd'hui considéré comme une pandémie ayant causé la mort d'environ 32 millions de personnes entre 1981 (date de la première identification de cas de sida) et 2018. Il existe aujourd’hui des traitements antirétroviraux luttant contre le VIH en bloquant l’évolution de la maladie, et en empêchant sa transmission à un partenaire (à condition de suivre rigoureusement son traitement et d’obtenir une charge virale dite indétectable). Par conséquent la mortalité et la morbidité est fortement réduite, si bien qu’un patient sous traitement antiviraux (bi-thérapie ou tri-thérapie) a une espérance de vie égale à celle d’une personne non atteinte par la maladie. Cependant il n'existe à l'heure actuelle aucun vaccin ou traitement définitif. Le moyen de lutte le plus efficace reste donc la prévention, qui passe notamment par les rapports sexuels protégés et la connaissance de son statut sérologique de manière à éviter d'infecter autrui. Histoire. Les débuts de l'épidémie de sida datent du , quand le CDC américain annonce une recrudescence, dans les villes de Los Angeles, San Francisco et New York, de cas de pneumonies à "Pneumocystis carinii" et de sarcomes de Kaposi (travaux de Linda Laubenstein notamment). Ces deux maladies ont pour particularité d'affecter les personnes immunodéprimées. Il est justement remarqué que, chez ces patients, le taux de lymphocytes T4 est en chute libre. Ces cellules jouent un rôle essentiel dans le système immunitaire. Les premiers malades sont tous homosexuels, ce qui fait que ce syndrome, qui ne portait pas encore le nom de sida, est provisoirement appelé le "syndrome gay" ou "cancer gay". Une des premières causes suggérées de cette immunodépression est le poppers, un vasodilatateur très utilisé chez les homosexuels. Mais, dans les mois qui suivent, d'autres personnes sont infectées, des toxicomanes par injections, des hémophiles et des Haïtiens. Cette découverte révèle que le poppers n'est pas la cause, et une origine infectieuse est de plus en plus admise. Il reste alors à trouver l'agent infectieux. Découverte et isolement du VIH. L'origine virale est privilégiée, eu égard aux modes de transmission alors identifiés (sanguin et sexuel). Plusieurs virus sont mis en cause, mais on s'aperçoit qu'ils ne sont qu'une conséquence. Robert Gallo et son équipe, qui ont découvert le premier rétrovirus humain, le HTLV-1, pensent qu'un mutant de ce dernier est la cause du sida. Il explique cela par le fait que le HTLV-1 fait proliférer les lymphocytes T4, cet agent infectieux faisant l'inverse, une mutation peut donc en être la cause. Cette hypothèse est renforcée par le fait que certains des cas haïtiens sont positifs à un test de dépistage du HTLV-1. Cette positivité se révèlera être causée par un biais, le HTLV-1 étant très présent à Haïti. À partir de 1982, avec les premiers cas identifiés en France, la recherche française débute. Willy Rozenbaum, médecin à l'hôpital Bichat de Paris, veut inciter les chercheurs à étudier plus en avant le sida et à en trouver la cause. Par l'entremise de Françoise Brun-Vézinet, une collègue médecin, Willy Rozenbaum contacte Jean-Claude Chermann, Françoise Barré-Sinoussi et Luc Montagnier, de l'unité d'oncologie virale de l'Institut Pasteur, qui avaient les outils pour étudier les rétrovirus. Ces derniers acceptent de commencer les recherches. En 1983, Robert Gallo n'est pas parvenu à isoler le virus dans les échantillons sanguins de patients atteints du sida. Willy Rozenbaum pense alors que chez les malades du sida, la plupart des cellules infectées sont détruites et que c'est la raison du manque de résultats dans ces tentatives d'isolement du virus. Il a alors l'idée de chercher le virus dans un organe riche en lymphocytes, les ganglions lymphatiques de personnes malades mais qui ne sont pas encore en phase de sida. En janvier 1983, Willy Rozenbaum prélève un échantillon d'un patient atteint d'une lymphadénopathie, pathologie identifiée comme une maladie opportuniste du stade pré-sida. L'échantillon est mis en culture et Françoise Barré-Sinoussi découvre une activité de transcriptase inverse, confirmant la présence d'un rétrovirus. Une apoptose apparaît et l'adjonction de globules blancs à la mise en culture relance alors l'activité de transcriptase inverse. Un examen au microscope électronique a permis de visualiser, pour la première fois, le virus, le 4 février 1983. Après une prise de contact avec Robert Gallo, pour un échange d'informations, l'équipe de l'Institut Pasteur confirme que le virus identifié chez le patient lymphadénopathique n'est pas le HTLV-1. Ce nouveau rétrovirus est alors appelé "Lymphadenopathy Associated Virus" (LAV) et les résultats sont publiés dans "Science" le . À ce stade, le lien entre le LAV et le sida n'est pas clairement établi par l'équipe de Luc Montagnier. Luc Montagnier et David Klatzmann découvrent que ce virus détruit les lymphocytes T4 (LT4) avec lesquels il est mis en culture. On savait que le nombre de LT4 diminuait beaucoup chez les malades atteints de sida. Le LAV était donc sûrement l'agent provoquant le sida. L'équipe de Robert Gallo publie le , dans "Science", les résultats de l'isolement d'un virus qu'elle considère comme responsable du sida et le nomme HTLV-3, qui s'avérera, bien plus tard, provenir d'un échantillon envoyé par l'Institut Pasteur. L'équipe de Jay A. Levy à San Francisco fait de même le et trouve plusieurs rétrovirus, qu'elle nomme "AIDS-associated retroviruses" (ARV). Pendant un temps, les trois dénominations HTLV-3, LAV et ARV cohabiteront. En 1986, le sigle VIH (ou HIV) est choisi. Controverse sur la paternité de la découverte. L’équipe de l’Institut Pasteur et celle de Robert Gallo ont d’abord volontiers échangé réflexions, informations et matériels biologiques : l’urgence des enjeux sanitaires, des considérations stratégiques de part et d’autre, et des relations personnelles y avaient d’abord concouru. Divers comportements de l’équipe américaine commencent par étonner les Français, puis finissent par éroder leur confiance qui pâtit beaucoup de la conférence de presse organisée par le HHS le 23 avril 1984 quand la secrétaire américaine à la Santé Margaret Heckler affirma que Robert Gallo avait découvert le virus du sida. C’est à l’occasion de cette même conférence que les Américains annoncèrent la prochaine distribution d’un test de diagnostic pour lesquels Gallo et le HHS avaient déposé une demande d’enregistrement juste quelques heures auparavant. Or l’Institut Pasteur avait déposé une demande de brevet de test de dépistage devant le Bureau américain des brevets le 5 décembre 1983. Cette demande s’était heurtée à un premier refus pour des raisons administratives. Tandis qu’une deuxième demande se voit refusée, la demande de Gallo et du HHS est acceptée en mai 1985. C’est ce traitement inégal concernant les brevets qui conduira l’Institut Pasteur à engager quatre actions en justice. La polémique scientifique concernant la priorité des découvertes, qui faute d’éléments définitivement concluants à l’époque, ne faisait que commencer, allait trouver dans ces actions judiciaires un écho tout autant qu’un point d’appui : l’enjeu financier considérable représenté par les royalties dues sur la vente des tests sera une des clefs de cette controverse. La presse généraliste, surtout américaine, interviendra plutôt dans un deuxième temps pour relancer la controverse, en n’hésitant pas à soulever des soupçons de fraudes scientifiques à l’encontre de Robert Gallo et d’un de ses collègues. L’Institut Pasteur porte d’abord plainte contre le NIH le 13 décembre 1985 car il pense que la souche utilisée pour mettre au point le test VIH américain a été conçue à partir de la souche envoyée par Montagnier à Gallo. L’Institut Pasteur demande au tribunal de reconnaître que le National Cancer Institute, où travaille Gallo, a violé un contrat en faisant une utilisation commerciale du virus Lav qui leur avait été pourtant transmis à seule fin d’étude. Pasteur demandait également au tribunal d’affirmer la priorité de leur découverte du virus du sida et de les déclarer seuls bénéficiaires des royalties sur les tests de dépistage développés à partir de celui-ci. L’Institut Pasteur perd en première instance pour des raisons formelles qui seront invalidées en appel en mars 1987 quelques jours seulement avant un compromis dont le premier effet est de mettre un terme aux différentes actions judiciaires entreprises — le procès auprès de l’United States Court of Claims principalement, mais aussi les actions auprès de l’office américain des brevets (USPTO) ou au titre de la FOIA. Le différend ne se règle donc pas par une décision de justice mais par un compromis entre les parties (« "out of court agreement" »), paraphé solennellement le , lors d’une rencontre entre le président des États-Unis, Ronald Reagan, et le Premier ministre français de l’époque, Jacques Chirac. L’accord n’est toutefois définitivement signé que le 4 décembre 1987 : la question de la priorité est résolue en qualifiant Gallo et Montagnier de « co-découvreurs » du virus du sida ; les Français renoncent aux redevances déjà encaissées par leurs adversaires américains ; les redevances associées sont partagées entre les instituts américains alors que, en Europe, elles reviennent intégralement à l’Institut Pasteur. Les deux parties se sont en outre mises d’accord sur une chronologie des découvertes, Gallo et Montagnier s’engageant à ne publier aucune déclaration qui contredirait ce canon. Le 19 novembre 1989 dans le "Chicago Tribune", John M. Crewdson signe un très long article intitulé "The Great AIDS Quest-science under the microscope" : Robert Gallo y est, au mieux, accusé d’avoir fait une erreur en contaminant sa souche avec celle de l’Institut Pasteur et, au pire, d’être coupable de fraude scientifique. Par la suite, différents articles de Crewdson ou d’autres personnes suivent, relançant la controverse, ce qui conduit les autorités américaines à diligenter plusieurs enquêtes administratives, tandis qu’une commission parlementaire menée par le démocrate John Dingell lancera aussi des investigations poussées. Dans une lettre publiée le 30 mai 1991 dans la revue Nature, Gallo reconnaît — de façon alambiquée — que la souche utilisée par les NIH a été contaminée par celle de l’Institut Pasteur ; il dément toute fraude scientifique. Au cours de l’été 1991, un rapport préliminaire de l’OSI disculpe Gallo de toute accusation de mauvaise conduite tout en le critiquant pour avoir censuré certains articles ; l’OSI se montre plus sévère à l’égard de Mikulas Popovic, qui, refusant le rôle de bouc émissaire, révèlera en septembre 1991 que le professeur Gallo lui aurait demandé de ne pas faire référence au virus envoyé quelques mois plus tôt par l’Institut Pasteur. En janvier 1992, l’OSI, dans son rapport final, reconnaît Popovic coupable de mauvaise conduite scientifique (sans pour autant l’exclure des NIH) mais acquitte Gallo au bénéfice du doute. Le rapport est contesté par une commission d’évaluation. Le 10 février 1992, le "Chicago Tribune" confirme les « falsifications » américaines sur la découverte du virus du sida. Le 17 juillet 1992, les États-Unis rejettent la demande française de renégociation de l’accord de mars 1987. L’arrivée à la présidence des États-Unis de Bill Clinton va infléchir le cours de la controverse : la directrice du NIH est remplacée (par le docteur Harold Varmus), l'enquête de l’ORI débloquée et les négociations pour une réévaluation des royalties sur les tests reprises. En décembre 1992, le professeur Gallo, disculpé de toute accusation de vol, est reconnu coupable — par le Bureau de l'intégrité de la recherche (ORI) du ministère de la Santé — de « mauvaise conduite scientifique » pour avoir omis de créditer les apports de l’équipe de Montagnier dans ses propres travaux. Gallo fit ensuite appel de cette décision. En novembre 1993, l’ORI choisit d’abandonner l’enquête avant même que Gallo ait été entendu par le bureau d’appel : Popovic ayant été disculpé de toute faute quelque temps auparavant par le bureau d’appel, l’ORI — comme tous les observateurs — anticipa qu’il en serait de même pour Gallo. En janvier 1994 l’Inspecteur Général du HHS préconise que Gallo soit poursuivi — au pénal — par le procureur des États-Unis de l’État du Maryland qui refuse de se saisir de l’affaire. Finalement, et à la suite notamment d'un "Investigative Memorandum" de l’inspecteur général June Gibbs Brown daté du 6/10 juin, des institutions fédérales américaines reconnaissent, le 11 juillet 1994, que la découverte du VIH est purement française et que Robert Gallo est coupable de fraude scientifique. Ce même 11 juillet, le conseil d’administration de la Fondation franco-américaine (créée par l’accord de mars 1987) reconnaît la priorité des chercheurs français et institue une répartition des redevances plus favorable à l’Institut Pasteur. En octobre 2010 cette affaire connaît un nouvel épisode mineur opposant l’Institut Pasteur aux laboratoires Abbott. La reconnaissance de cette paternité est confirmée en 2008 par le Comité Nobel, lorsqu’il attribue le Prix Nobel de Médecine à Luc Montagnier et Françoise Barré-Sinoussi, sans mentionner les travaux de Robert Gallo sur le sujet. Lors d’un entretien, peu de temps après l’attribution des Nobel, Robert Gallo se déclare de ne pas être également honoré, mais considère que tous les récipiendaires méritent ce prix. Séquençage et découverte du VIH-2. À côté de la controverse, la recherche continue et le LAV est étudié sous tous les aspects : plusieurs points sont alors démontrés, comme le fait qu'il est totalement différent du HTLV-1 ― oncovirus poussant les lymphocytes T à se multiplier, alors que le LAV les tue. Avec la coopération du CDC, l'équipe de l'Institut Pasteur renforce de plus en plus l'hypothèse que le VIH est la cause du sida, ce qui est depuis considéré comme un fait avéré par la communauté scientifique. En janvier 1985, le séquençage du LAV est réalisé par une équipe de l'Institut Pasteur, qui publie ses résultats dans "Cell". C'est cette même année qu'a été confirmée l'identité commune entre les trois virus LAV, HTLV-3 et ARV. Le , les résultats de l'étude d'un patient venant d'Afrique de l'Ouest sont publiés, dans "Science", par l'équipe de Luc Montagnier, en collaboration avec des médecins portugais. Les examens ont permis d'identifier un nouveau type de LAV, le LAV-2. Le séquençage du nouveau virus est réalisé l'année suivante, ainsi que la mise au point d'un test de dépistage. En 1986, le LAV (ainsi que les autres dénominations) est officiellement renommé en virus de l'immunodéficience humaine (VIH), le LAV-1 devient le VIH-1, et le LAV-2, le VIH-2. Vers une prise de conscience. La communauté internationale prend conscience de la gravité de l'épidémie qui se transforme rapidement en pandémie et c'est ainsi que, le , l'Assemblée générale des Nations unies vote une résolution invitant tous les États et toutes les agences onusiennes à coopérer pour lutter contre cette pandémie. Depuis, la lutte contre le VIH/sida est devenue une priorité pour l'ONU à travers son programme Onusida, ainsi que pour nombre de gouvernements. La communauté scientifique est également très active en vue de mettre au point un vaccin, faisant du VIH le virus le plus étudié à ce jour. Bien que l'AZT ait été utilisée dès 1986 pour lutter contre le VIH, il faudra attendre le milieu des années 1990 pour qu'arrivent sur le marché des traitements vraiment efficaces contre la réplication du VIH. Ces traitements, appelés trithérapies, combinent plusieurs médicaments pour combattre le VIH sur plusieurs fronts à la fois. Le développement de tests biologiques permettant d'estimer la charge virale a grandement participé à l'efficacité de ces traitements, aboutissant à modifier en conséquence la trithérapie, pour la rendre la plus efficace possible. Structure. Le VIH est un rétrovirus du genre des lentivirus (du latin "lentus" « lent »), qui se caractérisent par une longue période d'incubation avec, par conséquent, une évolution lente de la maladie. Le VIH-1 est un virus sphérique d'un diamètre moyen de 145 nanomètres. Comme de nombreux virus infectant les animaux, il dispose d'une enveloppe composée d'un fragment de la membrane de la cellule infectée. Dans cette enveloppe lipidique sont insérés des trimères de glycoprotéine d’enveloppe (Env). Chaque protéine Env est formée de 2 sous-unités : une sous-unité de surface gp120 et une sous-unité transmembranaire gp41. La surface d’un virus VIH contiendrait en moyenne seulement 14 trimères Env. Lors de l'attachement du virus à la cellule, la protéine Env gp120 se lie à un récepteur CD4 présent à la surface des cellules CD4+ du système immunitaire. C'est pour cette raison que le VIH n'infecte que des cellules ayant ce récepteur à leur surface, qui sont en très grande majorité les lymphocytes CD4+. À l'intérieur de l'enveloppe, se trouve une matrice protéique (MA) composée de protéines p17 et, encore à l'intérieur, la capside (CA) composée de protéines p24. C'est ce dernier type de protéines qui, avec gp41 et gp120, sont utilisés dans les tests VIH western blot. Les protéines nucléocapside p7 (NC) protègent l'ARN viral en le recouvrant. La protéine p6 est exclue de la capside et se trouve entre la matrice et la capside, elle permet la sortie par bourgeonnement des virus nouvellement formés dans la cellule. Le génome du VIH, contenu dans la capside, est constitué d'un simple brin d'ARN en double exemplaire (9181 nucléotides), accompagné d'enzymes : Ces trois enzymes sont les principales cibles des traitements antirétroviraux, car elles sont spécifiques aux rétrovirus. Le génome du VIH est composé de neuf gènes. Les trois principaux sont "gag", "pol" et "env", qui définissent la structure du virus et sont communs à tous les rétrovirus. Les six autres gènes sont "tat", "rev", "nef", "vif", "vpr" et "vpu" (ou "vpx" pour le VIH-2), qui codent des protéines régulatrices. Transmission. Le VIH est présent dans de nombreux fluides organiques. On en a retrouvé dans la salive, les larmes et l'urine, mais en des concentrations insuffisantes pour que des cas de transmission soient enregistrés. La transmission par ces fluides est considérée de ce fait comme négligeable. En revanche des quantités de VIH suffisamment importantes pour déclencher une infection ont été détectées dans le sang, le lait maternel, la cyprine, le sperme, ainsi que le liquide précédant l'éjaculation et la concentration du virus dans les sécrétions génitales (sperme et sécrétions au niveau du col de l’utérus chez la femme) sont de bons prédicteurs du risque de transmission du VIH à une autre personne. Par voie de conséquence, les trois modes de contaminations sont : Cycle de réplication. Les cellules cibles du VIH sont celles présentant des récepteurs CD4 à leur surface. Ainsi, les lymphocytes T CD4+, les macrophages, les cellules dendritiques et les cellules microgliales cérébrales peuvent être infectées par le VIH. Ainsi, la réplication virale a lieu dans plusieurs tissus. La réplication du virus se déroule en plusieurs étapes : La fixation ou attachement à une cellule. Cette étape repose sur une reconnaissance entre les protéines de la surface virale gp120 et les récepteurs CD4 de la cellule cible. Après l'union avec un récepteur CD4, gp120 change de conformation et est attiré vers un corécepteur devant également être présent à côté de la molécule CD4. Plus d'une dizaine de corécepteurs ont été identifiés, mais les principaux sont CXCR4 pour les lymphocytes T CD4+ et CCR5 pour les macrophages. La fusion, la pénétration et la décapsidation. C'est la seconde étape de l'infection, intervenant juste après l'union de gp120 avec le corécepteur. Cette union libère la protéine gp41, qui se fixe sur la membrane cytoplasmique. Par repli sur elle-même, gp41 attire l'enveloppe virale vers la membrane cytoplasmique, puis la fusion des membranes cellulaire et virale a lieu grâce à un peptide de fusion présent dans gp41. La capside du VIH pénètre alors dans le cytoplasme de la cellule ; une fois à l'intérieur de la cellule, elle se désagrège, libérant les deux brins d'ARN et les enzymes qu'elle contenait. Ainsi, la protéine gp120 est responsable de l'attachement et gp41 de la fusion, puis de la pénétration au sein de la cellule. La transcription inverse. Cette étape est spécifique aux rétrovirus. En effet, ces derniers ayant pour génome de l'ARN et non de l'ADN, une opération de transcription inverse (ou rétrotranscription) intervient afin de convertir l'ARN viral en une molécule d'ADN en double hélice, seule structure compatible avec celle de l'ADN cellulaire dans lequel le génome viral doit être intégré pour assurer la réplication du virus. Cette transcription inverse est réalisée par une enzyme virale : la transcriptase inverse, une ADN polymérase ARN-dépendante associée à l'ARN viral dans la nucléocapside. Après pénétration de la capside dans le cytoplasme, la transcriptase inverse parcourt l'ARN viral et le transcrit en une première molécule d'ADN simple-chaîne, ou ADN brin(-). Pendant cette synthèse, l'ARN matrice est dégradé par une activité ribonucléase H portée par la transcriptase inverse. La dégradation de l'ARN est totale, sauf pour deux courtes séquences riches en purines appelées séquences PPT (polypurine tracts). Ces deux courtes séquences vont servir d'amorces à la transcriptase inverse pour la synthèse du second brin d'ADN, le brin(+), en utilisant l'ADN brin(-) comme matrice. L'ADN final produit est ainsi une molécule en double hélice (ADN bicaténaire aussi appelé ADN double-brin). Ce processus de transcription inverse est complexe, et requiert la présence des protéines de nucleocapside fixées sur l'ARN viral puis sur l'ADN brin(-). Une particularité de la transcriptase inverse est de ne pas être fidèle dans sa transcription et de souvent faire des erreurs. C'est la raison pour laquelle le VIH a une très grande variabilité génétique. L'intégration. L'ADN bicaténaire pénètre dans le noyau cellulaire, selon un processus actif encore mal compris. Cet import nucléaire constitue une particularité propre aux lentivirus qui sont, de fait, capables d'infecter des cellules en phase stationnaire, c'est-à-dire dont le noyau est intact. Pour ce faire, l'ADN bicaténaire est, à ce moment du cycle, étroitement associé à l'intégrase et d'autres composants protéiques viraux et cellulaires, dans un complexe appelé complexe de préintégration. Ce complexe possède la capacité d'interagir avec des éléments de la membrane nucléaire, pour traverser cette membrane et accéder à la chromatine cellulaire. L'ADN s'intègre ensuite au hasard dans le génome de la cellule cible, sous l'effet de l'enzyme intégrase. La formation d'un ARN messager. Les deux brins d'ADN de la cellule « s'écartent » localement sous l'effet de l'ARN polymérase. Des bases azotées libres du noyau viennent prendre la complémentarité de la séquence et se polymérisent en une chaîne monobrin, l'ARNm (messager). L'épissage. L'ARNm ainsi obtenu est hétérogène. En effet, il est constitué d'une succession d'introns (parties non codantes) et d'exons (parties codantes). Cet ARNm doit subir une maturation pour pouvoir être lu par les ribosomes. Se passe alors une excision des introns, pour ne laisser que les exons. La traduction de l'ARN. Une fois sorti du noyau par l'un des pores nucléaires, l'ARNm est lu par les ribosomes du RER (réticulum endoplasmique rugueux). L'ARNm vient en fait se glisser entre les deux sous-unités du ribosome. À chaque codon (groupe de trois nucléotides) de l'ARNm, le ribosome attribue un acide aminé. Les différents acides aminés se polymérisent au fur et à mesure de la lecture. Un codon initiateur AUG (Adénine-Uracile-Guanine) fera débuter la synthèse, tandis qu'un codon stop (UAA ; UGA ; UAG) en marquera la fin. Maturation des protéines virales. Les polypeptides ainsi formés ne sont pas encore opérationnels, ils doivent subir une maturation dans l'appareil de Golgi. L'assemblage. Les protéines de structure du virus (matrice, capside et nucléocapside) sont produites sous forme de polyprotéines dénommées polyprécurseurs Gag. Les enzymes virales sont produites elles aussi sous forme de polyprotéines appelées Gag-Pol (Matrice-Capside-Nucléocapside-Protéase-Reverse Transcriptase - Intégrase). Lorsqu'elles sortent du Golgi, les polyprotéines Gag et Gag-Pol sont transportées vers la membrane cellulaire où elles rejoignent les glycoprotéines virales membranaires. Les domaines MA (matrice) de Gag et Gag-Pol interagissent avec la membrane, tandis que les ARN viraux sont capturés par les domaines NC (nucléocapside) de Gag et Gag-Pol. Des interactions entre les différents domaines de Gag, en particulier les capsides, permettent l'assemblage d'une structure globulaire conduisant à la formation d'une particule virale par bourgeonnement de la membrane plasmique. Le bourgeonnement. La capside sort de la cellule infectée en arrachant une partie de la membrane cellulaire (à laquelle ont été préalablement fixées les protéines virales de surface (gp120 et gp41)). La maturation des virus. Les particules issues du bourgeonnement sont dites immatures. Les interactions des précurseurs Gag et Gag-Pol entraînent un rapprochement de domaines (PR) dentiques de la protéase, qui vont dimériser et former une protéase active. Cette autoactivation de la protéase va entraîner la coupure des domaines PR aux alentours, et cette réaction en chaîne va permettre l'activation de toutes les protéases virales. Ces dernières vont ensuite couper les polyprécurseurs Gag et Gag-Pol entre chacun de leurs domaines. Ceci va libérer la Matrice de la Capside et de la Nucléocapside, cette dernière restant fixée sur l'ARN viral. Les protéines de capside, par leurs propriétés intrinsèques d'auto-assemblage, formeront la capside à la forme conique caractéristique. Dans cette capside : la nucléocapside, formée de l'ARN viral, des protéines de nucléocapside, de la transcriptase inverse et de l'intégrase. Cette étape de maturation virale est essentielle pour rendre les virions infectieux et prêts à infecter de nouvelles cellules. Variantes génétiques et origines du VIH. Le VIH est un virus qui a une très importante variabilité génétique et présente ainsi une extrême diversité. Deux types ont été identifiés : Au sein de chaque type existent plusieurs groupes qui, à leur tour, comportent des sous-types. Depuis 1998, le VIH-1 est classé en trois groupes auquel s'ajoute un quatrième découvert en 2009 : Les types M et N du VIH-1 sont proches du VIScpz infectant le chimpanzé et correspondraient chacun à une transmission indépendante du chimpanzé à l'humain. Les types O et P du VIH-1 sont proches du VIS infectant le gorille (VISgor). Le groupe M prédomine largement avec plus de 40 millions de personnes contaminées, contre un peu plus de 500 pour le groupe O et seulement 7 pour le groupe N. Non seulement le groupe M est de loin le groupe le plus important en nombre de personnes contaminées, mais il est également celui qui est le plus répandu de par le monde, en étant présent sur tous les continents, alors que les autres groupes sont uniquement présents en Afrique centrale. Le groupe M comprend neuf sous-types ou clades (de A à D, de F à H, J et enfin K). S'ajoutent plusieurs formes recombinantes (en anglais "circulating recombinant form" ou CRF), qui ont pour origine la multiple infection d'une cellule par des sous-types différents, ce qui entraîne des mélanges dans le génome viral. Les sous-types et formes recombinantes du groupe M ne sont pas réparties uniformément sur toute la planète. Ainsi, en Europe, dans les Amériques et en Australie, c'est le sous-type B qui est le plus présent, alors qu'en Afrique c'est, selon les régions, le A et le C et, en Asie, toujours selon les régions, les groupes C et E. Bien que la variabilité génétique au sein d'un même groupe ne semble pas modifier, de manière significative, la pathogénicité ni la progression de l'infection, elle pose tout de même de sérieux problèmes pour la mise au point d'un vaccin efficace sur tous les groupes et souches du VIH, pour les mesures de la charge virale et dans certains cas particuliers de test VIH. Dans ce dernier cas, c'est ainsi que les tests de dépistage basés sur des antigènes du VIH-1 de sous-type B et du VIH-2 de sous-type A, peuvent présenter une sensibilité moindre pour la reconnaissance des autres sous-types, particulièrement lors de la primo-infection ou d'une infection par des variants comme les VIH-1 du groupe O. Origine de la variabilité. L'apparition de nouvelles variantes génétiques est due à un processus d'évolution, dont les mécanismes sont semblables à ceux qui expliquent l'évolution de toute espèce vivante. La seule différence est que l'évolution du VIH est extrêmement rapide, ce qui a conduit au grand nombre de variantes actuelles. On explique cette grande variabilité génétique du VIH par plusieurs causes : Chez les VIH, le taux de mutations est très important : plus de mille fois plus important que dans le génome d'un humain. En voici les raisons : Ainsi, dans un seul organisme infecté, il y a déjà plusieurs variantes génétiques, représentant ainsi une quasi-espèce virale. La variabilité du génome viral n'est pas la même pour tous les gènes, certains sont plus enclins à varier que d'autres. C'est ainsi que le gène "env" est le plus variable (c'est justement lui qui code les protéines de surface gp41 et gp120), alors que le gène "pol" est le plus conservé. Lorsqu'une cellule est infectée par deux virions génétiquement différents, les séquences peuvent se recombiner, ce qui donne naissance à des formes recombinantes. Ce processus, aléatoire, est favorisé par les comportements à risque, parce qu'ils augmentent la probabilité de contaminations multiples chez une même personne. Il y a ensuite un processus de sélection naturelle. Les erreurs de transcription et les recombinaisons produisent de nombreux virions différents les uns des autres. La plupart de ces mutations entraînent la production de virions incapables de se répliquer correctement, ce qui les destine à disparaître. Cette importante disparition de virions est compensée par le grand nombre de virions produits. Parmi les virions survivants, certains ont pour particularité d'être plus résistants aux attaques des défenses immunitaires. Cela a pour conséquence de les rendre mieux adaptés à leur milieu et, finalement, seuls les virions résistants sont présents dans l'organisme. Cela mène, à plus ou moins court terme, à une inefficacité des défenses immunitaires, provoquant l'état immunodéprimé de l'organisme si le taux de lymphocytes CD4+ est trop bas. La prise d'un traitement médicamenteux par les patients infectés par le VIH entraîne également une sélection au sein de la population virale. Ceci favorise la transmission des virions mutants les plus résistants aux médicaments. Pour contrer cette adaptation des VIH, les multithérapies visent à « attaquer » le VIH sur plusieurs facettes à la fois, et ainsi à limiter les possibilités du virus de s'adapter à son milieu. La multiplicité temporelle des passages du VIScpz à l'humain est la raison de l'existence des différents groupes du VIH-1. Il en est de même pour le VIH-2, dont l'ancêtre est le VISsmm. Nouveau variant. Des études mettent en évidence la présence depuis plusieurs années d'un variant du VIH-1B plus virulent aux Pays-Bas. Il présente un grand nombre de mutations affectant près de aminés. Diagnostic et suivi infectieux. Le diagnostic précoce de l'infection par le VIH est important pour une bonne prise en charge du VIH/sida. En France, par exemple, un cas sur deux est détecté au moment du stade sida, ce qui, pour les cas non détectés, multiplie par seize le risque de décès du patient dans les six premiers mois de son traitement. Dans les pays développés, des tests sont pratiqués systématiquement pour les dons de sang, d'organes et de sperme. Le manque de tests a entraîné plusieurs contaminations de masse. Le diagnostic sérologique est un acte médical réalisé, en France, par un médecin. Diagnostic. Le diagnostic visant à déterminer le statut sérologique au VIH est réalisé en deux étapes : La première étape se base sur la détection d'anticorps produits en réponse à une infection par le VIH, les anticorps anti-VIH. Cette production d'anticorps peut être détectée, avec les moyens actuels, en moyenne 22 jours après la contamination. Durant cette période, appelée fenêtre sérologique, le patient est parfaitement infectieux, ce qui pose des problèmes évidents de santé publique. Une fois la fenêtre sérologique passée, son statut sérologique peut être établi. La première étape de détection emploie la méthode ELISA, qui utilise la réaction anticorps-antigène pour détecter la présence des anticorps anti-VIH. Pour éviter les faux négatifs - qui feraient passer à côté d'un cas de séropositivité - le test doit avoir une sensibilité optimale. Un mélange d'antigènes viraux est alors utilisé, permettant la détection des anticorps anti-VIH-1 et anti-VIH-2 (on parle alors d'ELISA mixte). L'utilisation de deux tests commerciaux d'origine différentes est généralement effectuée pour éliminer le maximum de faux positifs dès la première étape. Si la détection se révèle positive, douteuse, ou discordante, une confirmation est réalisée. Cette dernière vise à savoir si les anticorps détectés sont bien liés à une infection par le VIH-1. Pour cela, on utilise une méthode spécifique, dont le but est d'éliminer les résultats faussement positifs. C'est la méthode western blot (WB) qui est généralement utilisée. Là encore, si le test est douteux ou dénote un début de séroconversion, un second test de confirmation est réalisé trois semaines plus tard, le temps que la séroconversion soit complète. Ce n'est qu'à la suite de l'ensemble de ces tests qu'un médecin pourra déclarer un patient séropositif. Autres méthodes. Il existe d'autres techniques de détection d'une infection par le VIH, comme : Suivi infectieux. Une fois la séropositivité établie, un suivi régulier de l'infection doit être effectué, pour assurer une bonne prise en charge de la maladie et ainsi évaluer au mieux l'état du malade. Deux facteurs permettent d'évaluer l'évolution de la maladie : On considère depuis 2013 en France que tous les malades atteints par le VIH doivent être traités par antirétroviraux, quel que soit leur niveau de lymphocytes CD4+. En dessous de 200/mm le patient est fortement immunodéprimé et est particulièrement vulnérable aux maladies opportunistes liées au sida. Une antibioprophylaxie par co-trimoxazole est alors indispensable pour prévenir certaines de ces infections : la pneumocystose et la toxoplasmose cérébrale. Physiopathologie. L'infection par le VIH évolue en plusieurs phases pouvant se succéder dans le temps : Dès la primo-infection, le virus se réplique activement dans l'organisme, avec une production quotidienne de dix milliards de virions, entraînant la destruction d'environ cinq milliards de lymphocytes T CD4+. Cette réplication se stabilise, après quelques semaines, à un niveau plus ou moins important selon les sujets. Le système immunitaire, hyperactivé, compense partiellement la destruction massive des lymphocytes T CD4+ en augmentant leur production, mais l'infection à VIH persiste malgré tout, avec pour conséquence l'émergence et la sélection de virus mutants qui échappent à la réponse immunitaire de l'hôte. Des chercheurs du CNRS, de l'Institut Curie et de l'Institut Pasteur ont découvert que le virus modifiait le pH des compartiments cellulaires où il s'accumule dans les macrophages, empêchant ainsi l'activation des enzymes chargées de le dégrader. Pendant plusieurs années, les lymphocytes T CD4+ semblent se renouveler rapidement malgré leur destruction par le virus, jusqu’à ce que l'épuisement des organes lymphoïdes centraux (thymus) ne permette plus leur régénération. La destruction des lymphocytes T CD4+ est bien souvent due à l'hyperactivation de ces cellules, par interaction avec certaines structures du virus, et non à une destruction directe par le VIH. Après dix à quinze ans d'évolution spontanée sans traitement, le sujet est immunodéprimé (stade sida), des pathologies infectieuses ou tumorales rares (dites opportunistes) surviennent et conduisent au décès. Actuellement les traitements antirétroviraux évitent ou retardent l'évolution vers le stade sida, en maintenant les niveaux de réplication du virus au plus bas possible. La destruction du système immunitaire et la progression clinique avec apparition de maladies opportunistes sont directement liées au taux sanguin des lymphocytes T CD4+ du patient. L'efficacité des traitements antirétroviraux est évaluée par le niveau de réplication virale mesurée par la charge virale VIH (taux d'ARN plasmatique), la mesure de taux de lymphocytes T CD4+ (immunodepression) et par l'état clinique du patient. Non-progresseurs à long terme. Plusieurs cas de personnes séropositives ont réussi à garder pendant une longue durée (au minimum 8 ans), naturellement (c'est-à-dire sans traitement), un taux de CD4 normal (supérieur à 500/mm³) et une charge virale basse, voire indétectable pour certains. Elles sont dites "non-progresseurs à long terme" ou encore "asymptomatiques à long terme" (ALT). Quelques patients français sans traitement sont restés asymptomatiques, et même à charge virale indétectable ou presque, pendant au moins vingt ans. Il n'existe pas de modèle unique, certains patients restent dans un état asymptomatique sans évolution significative de leur état, d'autres (la majorité) connaissent une lente détérioration de leur système immunitaire. Il faut noter le rôle important de la mitochondrie dans l’évolution plus ou moins rapide d'aggravation de la réplication virale et dans la baisse de la réponse immunitaire. La protection des mitochondries freine la baisse des lymphocytes T et CD4 et la réplication du virus, favorisant l'état . La prise régulière de coenzymes Q10 (> 100 mg/j), associée à divers anti-oxydants vitaminés A, B, C, D, E, K, ainsi que la prise de différents minéraux anti-oxydants, ont un effet protecteur sur ces mitochondries au cours des maladies à déficiences mitochondriales, ce qui favorise une bonne réponse immunitaire. Ce rôle protecteur est d’ailleurs important en cas de prise d’un traitement antirétroviral, en bloquant une partie de la toxicité inhérente à la prise du remède et en activant l’anti-oxydation. Il est important de souligner qu'une ou plusieurs réinfections à d'autres types ou sous-types de souches virales VIH ne favorise pas le maintien dans l'état « ALT », car, du fait de la mutation très rapide du VIH, le risque de recombinaison génétique (en termes de probabilité mathématique) avec des souches plus virulentes diminue forcement la résistance immunitaire d'un patient lambda et sa réponse immune face à un traitement antirétroviral futur. Contrôleurs du VIH. Certains patients, très rares (moins de 1 %), qui ne développent pas de maladie malgré parfois plus de vingt années de séropositivité et en l’absence de traitement, sont appelés « contrôleurs du VIH » (HIC). Il s'agit des patients infectés par le VIH, ne développant pas le sida, dont l'organisme parvient spontanément et durablement à contrôler la réplication virale, maintenant le virus indétectable ou presque dans le plasma (jusqu’à moins de 50 copies d’ARN viral /ml). Ils font l'objet de recherches qui pourraient conduire à des médicaments ou à un vaccin contre le VIH. Épidémiologie. Dans le monde, chaque année, il y a environ 1,7 million de cas de nouvelles infections. En 2018, il y avait 37,9 millions de personnes vivant avec le virus de l'immunodéficience humaine, la majorité étant en Afrique sub-saharienne. La même année, 770 000 décès dus au sida ont été recensés. En France, pour l'année 2018, l’Institut de Veille Sanitaire estime à environ 6 200 les nouveaux cas de séropositivité (chiffre stable depuis 2003). Les rapports hétérosexuels représentent la moitié de ces nouveaux cas et concernent pour moitié des personnes d’Afrique subsaharienne. Entre 2013 et 2018, le nombre de découvertes de séropositivité a diminué chez les hommes hétérosexuels, mais augmenté chez les homosexuels nés à l'étranger et les femmes hétérosexuelles nées à l'étranger. La proportion d’infections à VIH-2 était de 1 % en France, en 2016. Parmi les infections à VIH-1, la proportion de sous-types non-B est de 39% en 2016. En 2018, 5,8 millions de sérologies VIH ont été réalisées en France, soit une augmentation de 11 % par rapport à 2013, tandis que le nombre de sérologies confirmées positives a baissé. Cette baisse signifie surtout que l'augmentation du dépistage a bénéficié moins aux personnes les plus exposées au VIH qu'à celles les moins exposées. Traitements. Les antirétroviraux constituent l'arsenal thérapeutique contre le VIH, qui s'étoffe progressivement. Une vingtaine de médicaments antirétroviraux sont disponibles en 2006 et ont pour but d'interférer différents mécanismes : d'une part, les enzymes du VIH nécessaires à sa réplication et, d'autre part, ses mécanismes d'entrée dans la cellule. Grâce à la trithérapie utilisée depuis 1996, la mortalité due au sida a chuté, de façon significative, partout où ces nouveaux traitements étaient disponibles. C'est ainsi qu'aux États-Unis, l'utilisation à grande échelle de trithérapies a fait passer le nombre de décès chaque année de en 1995 à 15 807 en 2016. Ces médicaments sont susceptibles d'avoir des effets secondaires passagers ou permanents, ce qui peut conduire à l'arrêt ou surtout à la modification du traitement, sachant que, correctement suivis, ils ont une efficacité relativement importante. L'intestin joue un rôle essentiel dans l'immunopathogenèse du virus de l'immunodéficience humaine (VIH). La diminution des niveaux de zonuline est corrélée à une mortalité accrue chez les patients VIH. Les traitements par maraviroc (antagoniste de récepteur de CCR5) et raltegravir (inhibiteur de l'intégrase) augmentent la zonuline. Ces données combinées suggèrent que la voie de la zonuline dans sa fonction d'immunité innée peut protéger contre l'infection par le VIH. Antirétroviraux. La recherche sur le VIH/sida étant très importante, de nombreuses recherches, études et publications voient régulièrement le jour. Mais la durée entre la conception d'une molécule et son autorisation de mise sur le marché oscillant entre sept et douze ans en France, il faut relativiser les effets d'annonces qui, pour certaines, ne déboucheront pas sur une application directement pratique dans la lutte contre le VIH/sida. Ainsi les seuls médicaments reconnus comme réellement efficaces sont les antirétroviraux ayant reçu leur autorisation de mise sur le marché. Depuis décembre 2021 en France il est possible sous certaines conditions de remplacer le traitement journalier par une piqûre tous les deux mois combinant deux rétroviraux (cabotégravir et la rilpivirine). Les antirétroviraux sont classés suivant leur domaine d'action : Inhibiteurs de la transcriptase inverse. Les inhibiteurs de la transcriptase inverse empêchent la synthèse d'ADN proviral (c'est-à-dire qui va permettre la duplication du virus) à partir de l'ARN viral. On trouve dans cette classe : Inhibiteurs nucléosidiques (INTI). Les INTI ont constitué la première classe d'antirétroviraux mise sur le marché en 1985. Ils comprennent la zidovudine (AZT) (synthétisée en 1964), la didanosine (ddI), la zalcitabine (ddC), la stavudine (d4T), la lamivudine (3TC) (1989 et utilisée à partir de 1995), l'abacavir (ABC) et l'emtricitabine (FTC). Les mutations du génome à cause de la transcriptase inverse confèrent au VIH une résistance aux INTI, qui peut être croisée entre plusieurs INTI. Ces composés sont tous neutres ou réducteurs, à l'exception de l'AZT qui est un oxydant. Inhibiteurs non nucléosidiques (INNTI). Les INNTI sont des inhibiteurs puissants et très sélectifs de la transcriptase inverse du VIH. On trouve dans cette classe la névirapine et l'efavirenz. Ils ne sont actifs que sur les VIH-1. Ils sont métabolisés en phénols par oxydation. Analogues nucléotidiques. Les analogues nucléotidiques comme le ténofovir qui a été mis sur le marché en 2002, sont des composés organophosphorés. Inhibiteurs de la protéase. La classe des inhibiteurs de la protéase (IP) est une classe d'antirétroviraux mise sur le marché en 1996. Elle a constitué un tournant majeur dans les stratégies thérapeutiques contre le virus de l'immunodéficience humaine. Ils agissent en inhibant l'action de la protéase virale qui permet le découpage et l'assemblage des protéines virales, processus indispensable à l'obtention de virus infectieux. On obtient alors des virions incapables d'infecter de nouvelles cellules. Les IP sont actifs sur le VIH-1 et le VIH-2, et ne créent pas de résistance croisée avec les INTI ou les INNTI. Inhibiteurs d'intégrase. Ces inhibiteurs bloquent l'action de l'intégrase et empêchent ainsi le génome viral de se lier à celui de la cellule cible. Les molécules disponibles actuellement sont : le raltégravir, commercialisé sous la marque Isentress, l'elvitégravir et le dolutégravir, commercialisé sous la marque Tivicay. Inhibiteurs de fusion. Les inhibiteurs de fusion-lyse interviennent au début du cycle de réplication du VIH, en bloquant les protéines de surface du VIH ou en perturbant les corécepteurs des cellules ciblées par le VIH. Plusieurs produits sont à l'étude et, en 2009, seuls l'enfuvirtide et le maraviroc ont reçu une autorisation de mise sur le marché. Choix thérapeutique. Depuis le début des années 1990 différentes trithérapies ont vu le jour, pouvant être prescrites en fonction du stade clinique, du taux de lymphocytes T CD4+ et de la charge virale. Ce traitement antirétroviral comprend actuellement trois médicaments, en général deux inhibiteurs nucléosidiques de la transcriptase inverse, associés à un inhibiteur des protéases ou à un inhibiteur non nucléosidique de la transcriptase inverse, ou parfois à un troisième inhibiteur nucléosidique de la transcriptase inverse (trithérapies). Un inhibiteur de fusion y est éventuellement associé. Lors d'un premier traitement, la quasi-totalité des patients voient leur charge virale plasmatique rendue indétectable dans les six premiers mois. Ce premier traitement doit être le plus simple et le mieux toléré possible. C'est la non observance du traitement qui est la principale cause de l'échec thérapeutique. Bien que les traitements antirétroviraux soient très efficaces lorsqu'ils sont bien suivis, le VIH est toujours présent dans l'organisme. Seule sa multiplication est ralentie. Si on a un temps pensé que le sang et le sperme des personnes infectées restaient contagieux, l'étude Partner2, présentée à la conférence internationale sur le sida a montré qu'un porteur d'une charge virale indétectable ne transmet pas le virus. Prévention. Même si la recherche est très active et que certains candidats vaccins existent avec pour l'un des résultats encourageants concernant la faisabilité de la mise au point d'un vaccin, il n'en existe pas de vraiment efficace contre ce virus. Le préservatif offre une protection simple et efficace lors des rapports sexuels ; depuis le début des années 2010, l'utilisation prophylactique des agents antirétroviraux Emtricitabine/ténofovir (Truvada) a également prouvé son efficacité contre la transmission lors de rapports sexuels, en particulier chez les populations particulièrement exposées (hommes homosexuels, travailleuses et travailleurs du sexe). Les dons de sang font l'objet d'une sélection des donneurs, de dépistages systématiques et de traitements spécifiques. Aussi, la prévention se fait par l'utilisation de seringues à usage unique en toute occasion, en particulier en cas de toxicomanie par intraveineuse ou de traitement substitutif. Malgré la large diffusion d'informations sur la maladie et la prévention, certaines personnes ont néanmoins des comportements à risque (voir article prise de risque sida), ce qui nécessite des actions de prévention. Traitement post-exposition. Le traitement post-exposition (TPE) est actuellement le seul moyen de stopper le VIH ou, plutôt, de ne pas être contaminé par le virus, à la suite d'une exposition. En effet, à la suite d'une exposition à un risque de contamination (rapport sexuel non protégé par exemple), au plus tard dans les 48 heures suivant cette exposition, si le traitement est pris, le risque d'être contaminé est réduit de 80 %, ce qui en fait un traitement relativement efficace. La communauté scientifique s'accorde à dire que ce n'est pas suffisant pour être sûr de ne pas contracter le virus. De plus, des problèmes d'intolérance à ces médicaments font que ces traitements ne sont pas toujours pris pendant la durée nécessaire (1 mois). Aussi, l'usage du préservatif est toujours conseillé, car c'est le seul moyen de protection efficace s'il est correctement utilisé. Contestation erronées de la responsabilité du VIH dans le sida. Certaines personnes ou groupes remettent en question le lien de causalité entre le VIH et le sida, voire nient l'existence du virus. Le virologue Peter Duesberg soutient que le sida est causé par la consommation à long terme de drogues ou d'antirétroviraux. Ce point de vue a été repris pendant un temps par le gouvernement d'Afrique du Sud et, plus particulièrement, son président de l'époque, Thabo Mbeki. En réaction à ces controverses, la "Déclaration de Durban" rappelle que les preuves que le sida est causé par le VIH sont claires, sans ambiguïtés et conformes aux plus hauts standards de la science. Ces contestations constituent, selon le point de vue général, une menace pour la santé publique, en dissuadant la population de se faire tester ou les malades d'être sous des traitements antirétroviraux qui ont fait leurs preuves. Ces dissidents affirment que l'approche officielle du sida, qui considère comme acquise sa causalité rétrovirale, a eu pour conséquence des diagnostics erronés, l'apparition d'une terreur psychologique et d'une certaine forme de racisme, l'utilisation de traitements toxiques et le gaspillage de fonds publics. Ces opinions sont largement rejetées et sont considérées comme de la pseudo-science par la plupart des membres de la communauté scientifique. |
Vocabulaire japonais Voici quelques mots de base de la langue japonaise classés par thème. La prononciation est donnée en romaji. |
Verts |
Eugène Viollet-le-Duc Eugène Viollet-le-Duc, né le à Paris et mort le à Lausanne, est un architecte français. Aujourd'hui, il est surtout connu auprès du grand public pour ses restaurations de constructions médiévales, édifices religieux et châteaux dont Notre-Dame de Paris, Pierrefonds, Carcassonne, le Mont Saint-Michel et le château de Roquetaillade. Viollet-le-Duc est aussi historien, théoricien, pédagogue, dessinateur, professeur, écrivain, décorateur, archéologue. Il écrit plus de cent ouvrages dont certains auront un succès international et sont toujours publiés aujourd'hui : le "Dictionnaire raisonné de l’architecture française du ", "Entretiens sur l'architecture" et son "Histoire d'une Maison". Ses ouvrages sont toujours accompagnés d'une dense iconographie pédagogique permettant ainsi la compréhension de ses livres, ce qui explique, entre autres, son succès à l'étranger. Son "Dictionnaire raisonné de l'architecture française du " contient plus de et reste aujourd'hui la plus grande base de données iconographiques existante sur le Moyen Âge. Ce livre aura une influence sur l'Arts and Crafts et le style Victorien en Grande-Bretagne, mais aussi sur tous les mouvements du renouveau gothique en Europe. Ses dessins et ses idées seront repris et copiés par de nombreux architectes, tels William Burgess, Anton Gaudi, Hector Guimard... On retrouve l’influence des dessins du "Dictionnaire" directement dans l’esthétisme des œuvres Arts and Crafts de Edward Burne-Jones, Dante Gabriel Rossetti et William Morris à l’Exposition Universelle de Londres en 1862. Il pose les bases de l'architecture modernepar ses écrits théoriques marqués par le rationalisme. Son livre "Entretiens sur l'architecture" est considéré « comme fondateur de l'architecture moderne ». Le Corbusier confirme cela : « les racines de l'architecture moderne sont françaises et sont à rechercher chez Viollet-le-Duc ». Ce livre préconisera aussi l’utilisation de matériaux modernes en architecture comme le fer, ce qui influencera la construction du premier gratte-ciel à Chicago (1885) par Le Baron Jenney, qui dira de Viollet le Duc "« ses recherches et ses trouvailles dépassent tout ce qu’un autre auteur a pu écrire »." De son côté Frank Lloyd Wright affirmera que "les Entretiens était le seul livre sensé sur l'architecture au monde". Il est aussi considéré aujourd'hui comme le théoricien incontesté de l'Art Nouveauet en sera avec presque trente ans d'avance le premier protagoniste. Ses disciples seront nombreux et son travail influencera les plus grands artistes du et du en Europe comme aux États-Unis : Anton Gaudi, Victor Horta, Hector Guimard, Émile Gallé , Eugène Grasset et ses élèves Mucha et Maurice Pillard-Verneuil, Henri Sauvage et l'École de Nancy, John Ruskin, William Morris, Van de Velde, l’École de Barbizon, Louis Comfort Tiffany, Paul Hankar, Hendrik Petrus Berlage, Louis Sullivan, Frank Lloyd Wright, Le Corbusier, Auguste Perret, Jean Nouvel… Biographie. Jeunesse et famille. Eugène Emmanuel Viollet-le-Duc naît au 1 rue Chabanais (aujourd'hui dans le de Paris). Il est le fils d'Emmanuel-Louis-Nicolas Viollet-le-Duc (1781-1857), conservateur des résidences royales à l'intendance générale de la liste civile sous le règne de Louis-Philippe, dès 1832, hommes de lettres ("Nouvel Art poétique", Paris, Martinet, 1809) et d'Élisabeth Eugénie Delécluze (1785-1832), fille de l'architecte Jean-Baptiste Delécluze (1745-v. 1805), femme du monde qui tenait un salon où était reçu, entre autres, Stendhal. Une correspondance fournie montre la proximité et l'affection entre Eugène Viollet-le-Duc et son père, encore plus après la mort de sa mère, en 1832, victime de l'épidémie de choléra qui touche alors Paris, Viollet-le-Duc n'est âgé que de . Son père l'encourage dans sa voie professionnelle. Il est également très proche de son oncle, Étienne-Jean Delécluze, peintre et critique d'art, qui était le frère aîné de sa mère. Celui-ci recevait à son domicile du 1 de la rue Chabanais, des artistes, des peintres et des architectes au sein d'un salon littéraire. Ces personnalités (comme Prosper Mérimée) aidèrent plus tard le jeune Viollet-le-Duc dans sa carrière. Eugène avait un frère cadet, Adolphe Viollet-le-Duc (1817-1878), qui fut peintre. Du fait de la fonction occupée par leur père dans l'administration, toute la famille Viollet-le-Duc était logée au palais des Tuileries. Le , à vingt ans, il épouse Élisabeth Tempier, qu'il a rencontrée chez son ami le compositeur Émile Millet, frère du sculpteur Aimé Millet, avec qui il avait l'habitude de voyager. Ils ont un fils, qu'ils nomment également Eugène (Eugène-Louis), né en 1835 et mort en 1910, et une fille, Marie-Sophie, née en 1838. Celle-ci se marie plus tard avec Maurice Ouradou, un élève de son père et de Lebas. Viollet-le-Duc lui confie plusieurs travaux, dont la construction du château du Tertre d'Ambrières. Ouradou est également architecte diocésain à Châlons en 1862. Formation. Le petit Eugène vit dans une ambiance artistique et libérale et à six ans c'est déjà un dessinateur précoce et surdoué. Entre 1826 et 1829, il est en pensionnat à l'institut Morin, à Fontenay-aux-Roses dont le directeur était un ancien républicain, anticlérical, disciple de Pestalozzi et de sa pédagogie moderne. Jeune, Viollet-le-Duc avait « l’esprit rebelle » de son âge et déjà le goût de la construction et du risque : à seize ans il monte des barricades pendant la Révolution de 1830 et voit ses compagnons tomber autour de lui. À , pour ses études supérieures, il n'écoute pas ses proches et refuse de rentrer dans le rang : « Si j'ai du talent, que je sorte ou non de l'École [Beaux-Arts de Paris], je percerai. Si je n'en ai pas, ce n'est pas l'École qui m'en donnera ». D'un caractère bien trempé il ne suivra donc pas les cours de l'École des Beaux-Arts de Paris et cela lui vaudra le mépris de nombreux architectes. La jalousie que cela suscitera sera à l'origine d'innombrables polémiques auxquelles Viollet-le-Duc répondait avec lucidité : « S’il doit tomber dans l’oubli comme tant d’autres choses, à quoi bon répondre à des attaques contre une doctrine dont personne ne gardera souvenir ? » À la place, il parcourt la France, étudie les anciens bâtiments en les dessinant et vend ses œuvres pour financer ses voyages d’études à venir. Cette stature d'architecte autodidacte donnera à de Viollet-le-Duc quelques années plus tard un aura immense auprès des jeunes étudiants réformistes qui refusaient la mentalité conventionnelle de l'architecture académique. En 1834, Viollet-le-Duc devient professeur suppléant de composition et d’ornement à la « Petite école » de dessin (ancienne École royale gratuite de dessin, qui devint plus tard l'École nationale supérieure des arts décoratifs). Il y impose l’étude et le dessin de la nature qui pour lui est le modèle parfait de l’esthétisme et de l’harmonie. Cette approche pédagogique, combattue par les Beaux-Arts, prendra pieds dans l’école par les professeurs qui devinrent ses disciples, comme Charles Genuys « un des plus illustres animateurs de l'Art nouveau ». Ainsi sous l’influence de Viollet-le-Duc l’enseignement de l’art floral et la reproduction en dessin de la nature allait ouvrir la voie à ce mouvement : Hector Guimard, le décorateur Louis Majorelle, le bijoutier Lalique, élèves de l’école, illustrent la filiation naturaliste de Viollet-le-Duc. Après un voyage au mont Saint-Michel en 1835 il concrétise en 1836 son rêve de réaliser un long voyage en Italie grâce au produit de la vente de l’aquarelle "" au roi Louis-Philippe. À son retour, il entre au Conseil des bâtiments civils comme auditeur, et est nommé sous-inspecteur des travaux de l’hôtel des Archives du royaume. C'est le début de sa collaboration aux "Voyages pittoresques et romantiques dans l'ancienne France" du baron Taylor. Discours. Paradoxalement c’est dans ses travaux de restauration qu’il découvre dans le génie des gothiques un système de construction intemporel, basé sur l’observation de la nature. Ainsi pour Viollet-le-Duc la nature « était le modèle à suivre en architecture». Grâce à cela il établira les bases de l’architecture moderne qui sera dite « rationaliste » : "nature, forme, fonction et matière". Son discours sera propagé par son enseignement, ses restaurations et aussi par ses ouvrages illustrés. Son « "Dictionnaire »" (souvent considéré comme une simple encyclopédie sur le Moyen Âge) propose "une recherche alternative au corps doctrinal de l'Académie""." Ses dessins d’inspiration naturalistes ou gothique, influenceront le renouveau gothique partout en Europe, mais aussi les arts décoratifs de la fin du dont ceux de l’Art nouveau. Son livre « "Entretiens »" influence l’architecture proprement dite, comme la notion de structure ou le rapport aux matériaux modernes, comme le fer. Il inaugure un mode de raisonnement qui part des problèmes structurants comme noyau central du problème architectural. Les artistes Art nouveau (Gaudi, Guimard, Horta…) copieront ouvertement ses modèles pour leurs constructions et le premier gratte-ciel aux États-Unis sera basés sur ses écrits. Dans son « "Histoire d’une maison »", Viollet-le-Duc exprime "sa volonté de faire de l'architecture un art total. Ainsi, la réflexion sur l'aménagement intérieur de la maison et sur son décor prend-elle autant d'importance que celle sur la construction elle-même". Cette idée de considérer l’architecture et les arts décoratifs comme inséparable sera essentiel dans la conception artistique des artistes Art nouveau. Elle est aujourd’hui devenue la norme en architecture. "« Histoire d’un dessinateur»" est presque a"utobiographique" et pose son crédo en matière d’éducation ":" la pratique du dessin comme un vecteur de l’émancipation personnelle. Le discours de Viollet le Duc se voulait effectivement antidogmatique et libératrice. Ce qui transcende l’œuvre de Viollet le Duc est sa volonté d’une "renaissance de la méthodologie"[7] en architecture. Cela explique sa confrontation avec le conservatisme des Beaux-Arts qui considérait que Viollet le Duc « était le dogme a abattre ». Si ses idées lui valurent de violentes critiques elle lui assurèrent aussi son succès, car la nouvelle génération d’architectes voulait "remettre en cause de l’ordre établie""." A la fin du l’expression « faire du Viollet le Duc » signifiait moderne et anti académique. Chantiers marquants. C'est en 1840 que commence sa carrière de restaurateur. Prosper Mérimée lui demande de restaurer la basilique de Vézelay, qui menace de s’effondrer et que beaucoup voient condamnée. À vingt-six ans Viollet-le-Duc relève le défi et ce travail qui durera sera le premier d'une longue série de restaurations. En 1843 il restaure la cathédrale Notre-Dame de Paris avec Jean-Baptiste-Antoine Lassus. La cathédrale devient célèbre grâce au succès du roman de Victor Hugo et ce chantier était connus des architectes « Anglais, Américains, Allemands… qui voulaient tous le visiter et entrer en contact avec le maître. » Viollet-le-Duc profite du chantier pour présenter ses idées pour un nouvel art décoratif. À partir de 1851 il y crée des décorations dans un style novateur : « Il est fascinant de constater combien le style de ses créations est précurseur dans le sens où il annonce, avec trente ans d’avance, les ornements typiques du futur mouvement de l’Art nouveau ». Considérées comme trop audacieuses ces décorations seront en grande partie effacées en 1945 et remplacées par une iconographie jugée plus académique. La grande flèche qu'il installe sur la cathédrale sera sujet à de nombreuses polémiques, même si cette dernière avait bien existé jusqu'en 1794. Viollet-le-Duc fut également chargé de la restauration de la cathédrale Notre-Dame d'Amiens de 1849 à 1874. Il y incorpora des éléments que le monument légué par le Moyen Âge n'avait jamais possédés. Il refit ainsi, au sommet de la grande façade occidentale, la galerie des sonneurs et des musiciens reliant les deux tours au-dessus de la rosace. Sa reconstruction et ses décorations du château de Pierrefonds pour Napoléon III influenceront les châteaux de Louis II de Bavière, "le château du Haut-Koenigsbourg" de Guillaume II, le château de Cardiff de William Burgess et le Château de la belle au bois dormant de Walt Disney. La Cité de Carcassonne est son plus grand chantier. Il aménage aussi le château de Roquetaillade où il crée un art décoratif qui le concrétise comme le premier acteur du mouvement Art nouveau et son théoricien incontesté. Parallèlement à ses nombreux travaux, il occupe de nombreux postes : En 1849, il est atteint du choléra dont il se remet et, l'année suivante, voyage en Angleterre avec Mérimée. En 1863, il devient professeur d’histoire de l'art et d’esthétique à l'École des beaux-arts (la première chaire où figuraient explicitement les mots « histoire de l'art », discipline dont il fut un des fondateurs en France). En 1866, il reprend la restauration de l'emblématique cathédrale Notre-Dame-de-l'Assomption qui se dresse sur la butte centrale de Clermont-Ferrand, impulsée par la visite de Napoléon III. C'est le premier et plus vaste édifice entièrement construit en lave de Volvic. On lui devra notamment ses deux flèches de de hauteur, un chevet caractéristique du style gothique de l'Île-de-France. L’actuel maître-autel, les grilles du chœur et la chaire épiscopale ont été également dessinés par Viollet-le-Duc. En 1868, il commence ses courses dans le massif du Mont-Blanc où il manque de se tuer deux ans plus tard, en 1870, en chutant dans une crevasse ; dans l'attente des secours, il utilise son carnet de croquis pour dessiner la crevasse vue du fond. Alors que Mérimée meurt à Cannes en septembre 1870, Viollet-le-Duc est responsable des fortifications pendant le siège de Paris lors de la guerre franco-prussienne. Après la fin du siège de Paris, il quitte la capitale. Il va cette année-là voyager en Italie et publier son "Mémoire sur la défense de Paris". La défaite de la France en 1870 est une désillusion pour lui, le signe d'une dégénérescence nationale. En 1871, il est condamné à mort par la Commune de Paris et il s'exile en Suisse. En 1872, il est chargé de la rénovation de la cathédrale de Lausanne en Suisse. Il préside également le comité d'exposition pour l'Exposition internationale de Lyon. L'année suivante, il est chargé d'organiser le retour des cendres de Louis-Philippe ; les dépouilles du roi et de la reine Amélie sont ramenées trois ans plus tard, en 1876, et inhumées dans la chapelle royale de Dreux. À Lausanne, Viollet-le-Duc construit de 1874-1876 "La Vedette", à la fois maison-atelier et demeure privée où loge sa confidente Alexandrine Suréda, accompagnatrice de l'architecte durant ses longues marches nécessaires à l'étude du massif du Mont-Blanc. Ce manifeste architectural de la fin de sa carrière, orné dans le grand atelier d'un décor peint sur toiles marouflées illustrant des montagnes, a été sacrifié à la spéculation immobilière en 1975, « Année européenne du Patrimoine ». Il publie en 1874 une carte topographique du massif du Mont-Blanc et intervient l'année suivante au château d'Eu. En mars 1874, les autorités de la ville de Genève, auxquelles la constitution genevoise de 1848 a confié la gestion des lieux de culte sur son territoire, lancent le projet de restauration de la chapelle des Macchabées de la cathédrale Saint-Pierre et le confie à Eugène Viollet-le-Duc. Finalement, les autorités jugeant ses idées trop audacieuses, il renonce au mandat. En 1877, il travaille à la préparation de l'Exposition universelle de Paris qui doit se dérouler l'année suivante. Il perd son frère en 1878 et meurt à la fin de l'été 1879, à Lausanne, alors qu'il travaille sur le chantier de restauration de la cathédrale de la ville. Il est inhumé au cimetière du Bois-de-Vaux (concession 101) à Lausanne sans célébration et dans l'anonymat total. Reconnaissances. La liste des institutions dont il fut membre résume la place centrale qu'avait Viollet-le-Duc dans l'architecture en Europe et dans les Amériques au . Il est à noter que la seule Académie qui ne le reconnaît pas sera celle des Beaux-Arts en France : Correspondant de l'Institut Royal des Architectes Britanniques (1854). Membre des Beaux-Arts de Milan (1862), de la Société d'Architecture d'Amsterdam (1863), de l'Académie Royale des Beaux-Arts de Belgique (1863). Membre de l’Académie Saint-Ferdinand en Espagne (1864), des Beaux-Arts d'Amsterdam (1864), membre de l'Institut Royal des Architectes britanniques (1864) et Médaille d'or royale pour l'architecture (1864). Membre de l'Académie Royale des Beaux-Arts de Lisbonne (1864), de l’Académie de Vienne (1865), de l'Institut Américain des Architectes (1870), de l'Académie Royale de Hanovre (1873), de l'Institut Genevois des Beaux-Arts (1874), de la Société Arti-Amicitiae aux Pays-Bas (1874), de la Société Américaine de Philosophie de Philadelphie (1874), de l'Académie Américaine des Arts et des Sciences (1875), des Beaux-arts de Boston (1875), de l'Académie de Roumanie (1878), de la Société des Arts Industriels de Bavière (1879). En 1877, à la demande du gouvernement Russe, Viollet-le-Duc écrira "L'Art Russe, ses origines, ses éléments constitutifs, son apogée, son avenir." Postérité. Eugène Viollet-le-Duc influença le regard de la société sur l'histoire du patrimoine historique français. C'est ainsi que sera créée en 1884, la Société des amis des monuments parisiens, puis en 1897, la Commission du Vieux Paris. Ses théories sont à l'origine de l'Art nouveau et du mouvement moderne. Les travaux mis en œuvre durant la défense de Paris pendant la guerre franco-allemande de 1870 influenceront les ingénieurs des fortifications de Verdun avant la Première Guerre mondiale et ceux de la ligne Maginot. Il préconisera l'utilisation du cuivre pour la statue de la Liberté et c'est lui qui construira la tête et le bras tenant la torche. L'artiste franco-allemand Theodor Josef Hubert Hoffbauer fut influencé par son œuvre. L'écrivain Marcel Proust l'évoque à de nombreuses reprises dans son roman-fleuve "À la recherche du temps perdu" (1913-1927), principalement dans le premier tome, "Du côté de chez Swann" (1913). Œuvres. Quelques immeubles construits à Paris. Pendant toute sa carrière, il prend des notes et des croquis, pas seulement des constructions sur lesquelles il travaillait, mais aussi des constructions romanes, gothiques et Renaissance qui devaient être bientôt démolies. Son étude de la période médiévale et de la Renaissance ne s'est pas limitée à l'architecture : il s'intéressa aussi au mobilier, aux vêtements, aux instruments de musique, à l'armement… Il est aussi historien et surtout théoricien de l'architecture. En 1863 il est à l’origine de la première chaire intitulée «Histoire de l’Art» à l’école des Beaux-Arts de Paris. Victime d’une cabale créée par certains professeurs, dont le peintre néo-classique Ingres et par Julien Guadet qui prendra sa place, la pédagogie qu’il propose pour enseigner cette nouvelle matière est rejetée par les élèves. Dans une ambiance hostile Viollet-le-Duc démissionne au bout de deux mois. En réaction à cela il sera à l'origine de la création de l'École spéciale d'architecture, boulevard Raspail. Ses idées, marquées par une lecture rationaliste de l'architecture médiévale et exprimées dans les "Entretiens sur l'architecture" qu'il publie en 1863, inspirèrent nombre de ses contemporains, ainsi que certains des représentants majeurs du futur mouvement Art nouveau au tournant du (Hector Guimard, Victor Horta, Antoni Gaudí, Hendrik Petrus Berlage, etc.) et trouvèrent même un nouvel essor au travers de réalisations récentes. L'architecte Frank Lloyd Wright a reconnu l'importance des écrits de Viollet-le-Duc dans sa propre formation. Homme aux amitiés remarquées, son nom, parfois associé aux excès du romantisme – « Faire du Viollet-le-Duc » – avait, jusqu’à la fin du , des connotations péjoratives que les colloques et expositions présentés lors du centenaire de sa mort en 1979 ont contribué à atténuer. Il a travaillé sur plusieurs chantiers, dont le Mont-Saint-Michel, le château de Pierrefonds, avec les Ateliers Monduit. Il est intervenu à la Grand-Place de Bruxelles. Un cul-de-lampe historié de l'aile gauche de l'Hôtel de Ville de Bruxelles rappelant l'assassinat d'Éverard t'Serclaes (le bas du cul-de-lampe montre le diable emportant l'âme du seigneur de Gaesbeek). La mise en place de ce cul-de-lampe fut faite à la suggestion de Viollet-le-Duc. Au-delà de l'architecture, c'est aussi un dessinateur remarquable, auteur de nombreux dessins et aquarelles réalisés au cours de ses voyages, notamment dans les Pyrénées et les Alpes, où il recherche dans le chaos des montagnes une structure cachée. Passionné par la montagne, et en particulier le mont Blanc, il s'intéresse à la géologie et aux effets de l'érosion. Doctrine sur la restauration. Avant le la "science de la restauration" n'existait pas. Comme le faisait remarquer Viollet-le-Duc le mot "restauration" n'existait pas chez les Romains. Il dénonce dès 1851 l'absence de culture de l'entretien du patrimoine bâti en France et surtout ses conséquences financières. Son point de vue sur la restauration est complexe et souvent on ne retient qu'une de ses phrases qui sera sujet à de nombreuses polémiques : Si cette phrase est hypothétique, elle exprime la volonté de Viollet-le-Duc de rechercher une "unité de style". En application de ces principes, Viollet-le-Duc modifia plusieurs monuments, ce qui explique que son œuvre soit controversée en son temps, mais cela permit souvent de les sauver de la ruine. Il a longtemps incarné en France le symbole d'une restauration arbitraire et traumatisante. En effet, pendant la première partie du , il essuie de violentes attaques, en particulier au sujet de ses restaurations de monuments historiques et de ses raisonnements jugés pseudo-scientifiques sur l’architecture gothique, attaques qui passent sous silence le théoricien du rationalisme. Son travail est cependant apprécié en ce qui concerne Notre-Dame. "Cependant ses restaurations se fondaient sur une pensée rationnelle, forgée à partir d’études archéologiques approfondies". La basilique Saint-Sernin de Toulouse a été dérestaurée en 1995-1996, c'est-à-dire qu'on est revenu à l'état précédant les restaurations de Viollet-le-Duc. Publications. Des parties de sa correspondance ont été éditées : |
Virtual Reality Markup Language Le Virtual Reality Modeling Language (abrégé en VRML) ou Virtual Reality Markup Language est un langage de description d'univers virtuels en 3 dimensions mis au point en 1994. Ce langage interprété est une norme internationale de l'ISO et le CEI (ISO/CEI 14772-2) depuis 1995 et les fichiers VRML ont habituellement pour extension .wrl. C’est à proprement parler un langage de présentation et non de programmation, puisque comme pour le langage HTML par exemple, un fichier VRML ne contient généralement pas une suite d'instructions mais plutôt les informations permettant au visionneur d'afficher ensuite les éléments (formes, senseurs, lumières, etc). Le but premier de ce langage est de permettre la représentation d'univers interactifs 3D virtuels. Les fichiers .wrl sont des fichiers texte décrivant les scènes virtuelles à l'aide du langage VRML. Les fichiers .wrl, qui peuvent être stockés localement sur un ordinateur ou téléchargés depuis un serveur web, sont visualisés à l'aide d'un visionneur, qui est soit un plugin ajouté au navigateur web ou encore un logiciel autonome indépendant du navigateur web, qui est installé sur l'ordinateur de l'utilisateur. Les programmes VRML peuvent décrire des formes simples (points, lignes, polygones) ou complexes (sphères, cubes, cônes, cylindres...), du texte, des images, des animations, des éclairages, des sons, des hyperliens, ainsi que leur agencement dans l'espace, leur texture, leur couleur, leur matériau (en format .bmp). Historique. Présenté lors de la World Wide Web Conference de 1994, VRML n'est pas l'œuvre d'un unique programmeur, mais plutôt le résultat de la collaboration de plusieurs professionnels de la 3D, dont entre autres Mark Pesce, Tony Parisi, Gavin Bell (Silicon Graphics) et Paul Strauss. En 1995, un format de Silicon Graphics est créé pour VRML ; l'Open Inventor. À l'époque, il y avait encore des problèmes de compatibilité entre la 3D et le Web car la taille des fichiers qui atteignait plusieurs mégaoctets était trop volumineuse pour des connexions de 30 Kbps et les téléchargements de fichiers 3D étaient juste... Interminables. Mais le VRML a bien été conçu pour la toile. Concrètement, le VRML n'a pu servir que pour des applications industrielles et était mal adapté à la communication. Les applications concernaient essentiellement l'architecture, les modélisations techniques et, plus rarement, certains sites web. Mais dans de tels cas le navigateur, à l'époque, ne suffisait pas. Il fallait aussi un plug-in. Un visualiseur. Du coup, en août 1996, Silicon Graphics sort une version 2 baptisée VRML.97. Le logiciel que vend Silicon Graphics pour développer avec ce langage s'appelle Cosmo. Il y a davantage d'options pour les déplacements et les animations 3D. On peut dorénavant insérer des scripts et en plus il y a une meilleure prise en charge des sons (il y a un partenariat entre Sony, Mitra et Silicon Graphics). Mais là encore, il y a des problèmes : si le débit est correct pour certaines sociétés industrielles pour le téléchargement (ils ont besoin de compresser avec WinZip ou autre...), c'est la mémoire vive de l'ordinateur qui n'est pas suffisante. On ne peut alors pas développer avec ce langage autrement qu'en téléchargeant les fichiers, puis en développant en local, ce qui est un comble pour un langage censé être dédié à l'Internet. Par ailleurs, des partenariats entre Silicon Graphics et Apple, mais aussi Microsoft ou encore IBM n'aboutissent pas. L'effet est une mauvaise adaptation des scripts par les développeurs de ces sociétés pour le VRML. Il faudra donc attendre l'abandon du logiciel Cosmo par Silicon Graphics ainsi qu'un nouveau partenariat avec les sociétés Apple, IBM et Paragraph pour aboutir à une nouvelle version binaire et compressée du langage VRML en laissant tomber le mode texte. La vitesse de téléchargement est alors multipliée par 50. Nous sommes alors en 2000 à ce moment-là. Exemple de description de forme en langage VRML. #VRML V2.0 utf8 Shape { appearance Appearance { material Material { diffuseColor .8 0 .2 shininess .7 geometry Cylinder { radius 1 height 8 side FALSE top TRUE bottom FALSE Une fois le programme interprété par le visionneur, le monde virtuel s'affiche à l'écran, en 3D; la caméra (c'est-à-dire le point de vue) se positionne à l'endroit prévu de la scène, et l'utilisateur est alors libre de se déplacer dans ce monde (généralement à l'aide du clavier, de la souris ou du trackball) et d'interagir avec les différents objets présents. Les "sensors" de proximité permettent de lancer une action lors du passage à proximité d'un objet, les "sensors" de touché permettent de déclencher, par exemple, avec un clique sur l'objet l'ouverture d'un autre monde virtuel... En 1996, une nouvelle mouture du langage fut présentée : VRML 2.0 (par la suite rebaptisée VRML97). Parmi les améliorations par rapport à la version 1.0, on peut citer : En complément des informations de base concernant les différents objets de la scène 3D, le VRML v2 possède un véritable langage de programmation interne appelé VrmlScript, dont la syntaxe est similaire au JavaScript. Il permet notamment de manipuler les objets (nœuds) de la scène VRML (de type SFNode), ou d'autres types de données propres au VRML comme les SFTime, SFColor, ou encore SFRotation. Un script écrit en VrmlScript est exécuté à l'intérieur d'un objet (ou nœud) de type Script{}, comme ceci : #VRML V2.0 utf8 Script { field SFInt32 unNombre 123456 field SVec3f unVecteur 1 3 2 url "vrmlscript: function maFonction() { print('Hello world !'); print('Voici un vecteur : '+unVecteur); " Ce langage ouvert et accessible à tous, est bien documenté sur le web et est souvent utilisé pour : |
Victor Hugo Victor Hugo est un poète, dramaturge, écrivain, romancier et dessinateur romantique français, né le () à Besançon et mort le à Paris. Il est considéré comme l'un des plus importants écrivains de la langue française. Il est aussi une personnalité politique et un intellectuel engagé qui a eu un rôle idéologique majeur et occupe une place marquante dans l'histoire des lettres françaises au. Au théâtre, Victor Hugo s'est imposé comme un des chefs de file du romantisme français en présentant sa conception du drame romantique dans les préfaces qui introduisent "Cromwell" en 1827, puis "Hernani" en 1830, qui sont de véritables manifestes, puis par ses autres œuvres dramatiques, en particulier "Lucrèce Borgia" en 1833 et "Ruy Blas" en 1838. Son œuvre poétique comprend plusieurs recueils de poèmes lyriques, dont les plus célèbres sont "Odes et Ballades" paru en 1826, "Les Feuilles d'automne" en 1831 et "Les Contemplations" en 1856. Victor Hugo est aussi un poète engagé contre dans "Les Châtiments", paru en 1853, et un poète épique dans "La Légende des siècles", publié de 1859 à 1883. Comme romancier, il a rencontré un grand succès populaire, d'abord avec "Notre-Dame de Paris" en 1831, et plus encore avec "Les Misérables" en 1862. Son œuvre multiple comprend aussi des écrits et discours politiques, des récits de voyages, des recueils de notes et de mémoires, des commentaires littéraires, une correspondance abondante, près de quatre mille dessins dont la plupart réalisés à l'encre, ainsi que la conception de décors intérieurs et une contribution à la photographie. Très impliqué dans le débat public, Victor Hugo a été parlementaire sous la monarchie de Juillet et sous la Deuxième et Troisième République. Il s'est exilé pendant près de vingt ans à Jersey et Guernesey sous le Second Empire, dont il a été l'un des grands opposants. Attaché à la paix et à la liberté et sensible à la misère humaine, il s'est exprimé en faveur de nombreuses avancées sociales, s'est opposé à la peine de mort et a soutenu l'idée d'une Europe unifiée. Son engagement résolument républicain dans la deuxième partie de sa vie et son immense œuvre littéraire ont fait de lui un personnage emblématique, que la Troisième République a honoré par des funérailles nationales et le transfert de sa dépouille au Panthéon de Paris le , dix jours après sa mort. Ayant fortement contribué au renouvellement de la poésie et du théâtre et ayant marqué son époque par ses prises de position politiques et sociales, Victor Hugo est encore célébré aujourd'hui, en France et à l'étranger, comme un personnage illustre, dont la vie et l'œuvre ont fait l'objet de multiples commentaires et hommages. Biographie. Enfance et jeunesse. "Victor"-Marie Hugo est le fils du général d'Empire Joseph Léopold Sigisbert Hugo (1773-1828), créé comte, selon la tradition familiale, par Joseph Bonaparte, roi d'Espagne, capitaine en garnison dans le Doubs au moment de la naissance de son fils, et de Sophie Trébuchet (1772-1821), issue de la bourgeoisie nantaise. Il naît le ( selon le calendrier républicain alors en vigueur), à Besançon, au du 140 Grande Rue, renommée depuis place Victor-Hugo). À peine né, il est déjà le centre de l'attention. Enfant fragile, sa mère prend beaucoup soin de lui, comme il le racontera plus tard dans son poème autobiographique "Ce siècle avait deux ans". Dernier d'une famille de trois garçons après Abel Joseph Hugo (1798-1855) et Eugène Hugo (1800-1837), il passe son enfance à Paris, au 8 rue des Feuillantines, dans un logement loué dans l'ancien couvent des Feuillantines, vendu comme bien national à la Révolution. Ce séjour dans un jardin sauvage, vestige du parc de l'ancien monastère, lui laissera des souvenirs heureux. De fréquents séjours à Naples et en Espagne, à la suite des affectations militaires de son père, marqueront ses premières années. Ainsi, en 1811, alors que Madame Hugo rejoint son mari, la famille fait halte à Hernani, ville du Pays basque espagnol. La même année, il est, avec ses frères Abel et Eugène, pensionnaire dans une institution religieuse de Madrid, le Real Colegio de San Antonio Abad. En 1812, il s'installe à Paris avec sa mère qui s'est séparée de son mari, car elle entretient une liaison avec le général d'Empire Victor Fanneau de la Horie, parrain et précepteur de Victor Hugo, duquel il tient son prénom. En septembre 1815, il entre avec son frère à la pension Cordier. D'après Adèle Foucher, son amie d'enfance qui deviendra plus tard son épouse, c'est vers cet âge qu'il commence à versifier. Autodidacte, c'est par tâtonnement qu'il apprend la rime et la mesure. Il est encouragé par sa mère à qui il lit ses œuvres, ainsi qu’à son frère Eugène. Ses écrits sont relus et corrigés par un jeune maître d'études de la pension Cordier qui s’est pris d'amitié pour les deux frères. Sa vocation est précoce et ses ambitions sont immenses. Âgé de quatorze ans à peine, Victor note dans un journal : « Je veux être Chateaubriand ou rien ». En 1817, Victor Hugo a quinze ans lorsqu'il participe à un concours de poésie organisé par l'Académie française, sur le thème "Bonheur que procure l’étude dans toutes les situations de la vie". Selon le récit qu'en fait Adèle Foucher, le jury est à deux doigts de lui décerner le prix, mais le titre de son poème ("Trois lustres à peine") suggère trop son jeune âge et l’Académie croit à un canular : il reçoit seulement une mention. Il concourt sans succès les années suivantes mais gagne, à des concours organisés par l'Académie des Jeux floraux de Toulouse, en 1819, un Lys d'or pour "La statue de Henri IV" et une Amaranthe d'or pour "Les Vierges de Verdun", ainsi qu’une Amaranthe d'or en 1820 pour "Moïse sur le Nil". Ayant remporté trois prix, il devient Maître-ès-jeux floraux de 1820, suivi par Chateaubriand l'année suivante. Encouragé par ses succès, Victor Hugo délaisse les mathématiques, pour lesquelles il a des aptitudes (il suit les cours des classes préparatoires au lycée Louis-le-Grand), et embrasse la carrière littéraire. Avec ses frères Abel et Eugène, il fonde en 1819 une revue ultraroyaliste, "Le Conservateur littéraire", qui attire déjà l’attention sur son talent. Son premier recueil de poèmes, "Odes", paraît en 1821 : il a alors dix-neuf ans. Les mille-cinq-cents exemplaires s’écoulent en quatre mois. Le roi Louis XVIII, qui en possède un exemplaire, lui octroie une pension annuelle de mille francs, ce qui lui permet de vivre de sa passion et d’envisager d’épouser son amie d’enfance Adèle Foucher. Jeune écrivain. La mort de sa mère le l’affecte profondément. En effet, les années de séparation d'avec son père l’avaient rapproché de celle-ci. Le , il épouse Adèle Foucher, son amie d’enfance, en l'église Saint-Sulpice de Paris. De leur mariage naîtront cinq enfants. Le premier, Léopold, en 1823, ne vit que quelques mois. Suivront Léopoldine en 1824, Charles en 1826, François-Victor en 1828 et Adèle en 1830. Hugo commence la rédaction de "Han d'Islande", publié en 1823, qui reçoit un accueil mitigé, mais vaut à son auteur une nouvelle pension de deux mille francs. Une critique de Charles Nodier, bien argumentée, est l’occasion d’une rencontre entre les deux hommes et de la naissance d’une amitié. À la bibliothèque de l'Arsenal, berceau du romantisme, il participe aux réunions du Cénacle, qui auront une grande influence sur son développement. Son amitié avec Nodier dure jusqu’à 1827-1830, époque où celui-ci commence à être très critique envers les œuvres de Victor Hugo. Durant cette période, Victor Hugo renoue avec son père, qui lui inspirera les poèmes "Odes à mon père" et "Après la bataille". Celui-ci meurt en 1828. Dans cette période, il s'intéresse à la peinture et découvre l'atelier de Paul Huet avec enthousiasme : , écrit-il. Jusqu'en mars 1824, le couple habite chez les parents d'Adèle. Ils déménagent pour le 90 rue de Vaugirard, appartement où leur fille Léopoldine naît, en août 1824. L'arrivée de leur fils Charles, en novembre 1826, fait déménager la famille l'année suivante dans une maison au 11 rue Notre-Dame-des-Champs. Sa pièce "Cromwell", publiée en 1827, fait éclat. Dans la préface de ce drame, Victor Hugo s’oppose aux conventions classiques, en particulier à l'unité de temps et à l'unité de lieu, et jette les premières bases de son drame romantique. Le couple reçoit beaucoup et se lie avec Sainte-Beuve, Lamartine, Mérimée, Musset, Delacroix. François–Victor naît en octobre 1828. En mai 1830, la famille déménage pour la Rue Jean-Goujon. Adèle, leur dernier enfant, naît en juillet. Ils habiteront rue Jean-Goujon jusqu'en octobre 1832. Adèle Foucher, délaissée dans le tourbillon qui a entouré la rédaction, les répétitions, les représentations et le triomphe d"'Hernani", se rapproche du meilleur ami et confident du couple, Sainte-Beuve, puis entretient une relation amoureuse avec lui, qui se développe durant l'année 1831. Entre les deux hommes, les relations courtoises se maintiennent pourtant avant que leur amitié ne se transforme en haine (Hugo songe même à le provoquer en duel) lorsqu'Adèle avoue son infidélité à son mari. Leur liaison dure jusqu'en 1837, date à laquelle Sainte-Beuve quitte Paris pour Lausanne. De 1826 à 1837, la famille séjourne fréquemment au Château des Roches à Bièvres, propriété de Bertin l'Aîné, directeur du "Journal des débats". Au cours de ces séjours, Hugo rencontre Berlioz, Chateaubriand, Liszt, Giacomo Meyerbeer, et rédige des recueils de poésie, dont "les Feuilles d'automne". Il publie, en 1829, le recueil de poèmes "les Orientales". La même année, paraît "Le Dernier Jour d'un condamné", court roman dans lequel Victor Hugo présente son dégoût de la peine de mort, sujet qu'il abordera à nouveau dans "Claude Gueux" en 1834. Le roman "Notre Dame de Paris" paraît en 1831. Années « théâtre ». De 1830 à 1843, Victor Hugo se consacre presque exclusivement au théâtre. Il continue cependant d'écrire des poèmes pendant cette période et en publie plusieurs recueils : "Les Feuilles d'automne" (1831), "Les Chants du crépuscule" (1835), "Les Voix intérieures" (1837), "Les Rayons et les Ombres" (1840). Déjà en 1828, il avait monté une œuvre de jeunesse "Amy Robsart". L'année 1830 est celle de la création d’"Hernani", qui est l'occasion d'un affrontement littéraire fondateur entre anciens et modernes. Ces derniers, au premier rang desquels Théophile Gautier, s'enthousiasment pour cette œuvre romantique. Le 25 février 1830, la pièce est jouée au Théâtre-Français. Dès les premiers vers, les querelles se font entendre dans le parterre. Rapidement les romantiques et les anciens se battent et se défendent. Ce combat qui restera dans l'histoire de la littérature sous le nom de « bataille d'Hernani », souligne le triomphe de la pièce. "Marion de Lorme", interdite une première fois en 1829, est montée en 1831 au Théâtre de la Porte-Saint-Martin, puis, en 1832, "Le roi s'amuse" au Théâtre-Français. La pièce sera dans un premier temps interdite, fait dont Hugo s'indignera dans la préface de l'édition originale de 1832. En 1833, il rencontre l'actrice Juliette Drouet, qui devient sa maîtresse et le restera pendant cinquante ans, jusqu'à sa mort. Il écrira pour elle de nombreux poèmes. Tous deux passent ensemble chaque anniversaire de leur première nuit d'amour et remplissent, à cette occasion, année après année, un cahier commun qu'ils nomment tendrement le "Livre de l'anniversaire". Il aura cependant de nombreuses autres maîtresses, parmi lesquelles Léonie d'Aunet avec qui il entretiendra une liaison de 1844 à 1851, et l'actrice Alice Ozy en 1847, alors même que son fils Charles en était l'amant. "Lucrèce Borgia" et "Marie Tudor" sont montées au Théâtre de la porte Saint-Martin en 1833, "Angelo, tyran de Padoue" au Théâtre Français en 1835. Ne trouvant pas de salle pour jouer ses nouveaux drames, Victor Hugo décide, avec Alexandre Dumas, de créer une salle consacrée au drame romantique. Anténor Joly, directeur de tréatre puis de journal, reçoit, par arrêté ministériel, le privilège autorisant la création du théâtre de la Renaissance en 1836, où sera donné, en 1838, "Ruy Blas". Victor Hugo accède à l'Académie française le 7 janvier 1841, après trois tentatives infructueuses essentiellement dues à certains académiciens menés entre autres par Étienne de Jouy, opposés au romantisme et le combattant férocement. Il y prend le fauteuil () de Népomucène Lemercier, l'un de ces opposants. Puis, en 1843, est montée la pièce "Les Burgraves", qui ne recueille pas le succès escompté. Lors de la création de toutes ces pièces, Victor Hugo se heurte aux difficultés matérielles et humaines. Ses pièces sont régulièrement sifflées par un public peu sensible au drame romantique, même si elles reçoivent aussi de la part de ses admirateurs de vigoureux applaudissements. Le 4 septembre 1843, sa fille Léopoldine meurt tragiquement à Villequier, dans la Seine, noyée avec son mari Charles Vacquerie dans le naufrage de leur barque. Hugo était alors dans les Pyrénées, avec sa maîtresse Juliette Drouet, et il apprend ce drame par les journaux à Rochefort. L'écrivain est terriblement affecté par cette mort, qui lui inspirera plusieurs poèmes des "Contemplations" . À partir de cette date et jusqu'à son exil, Victor Hugo ne produit plus rien, ni théâtre, ni roman, ni poème. Certains voient dans la mort de Léopoldine et l'échec des "Burgraves" une raison de sa désaffection pour la création littéraire. D'autres y voient plutôt l'attrait pour la politique, qui lui offre une autre tribune. De 1848 à décembre 1851, Victor Hugo habite à l'ancien , soit au nouveau rue de La Tour-d'Auvergne Action politique. Élevé par sa mère, Sophie Trébuchet, dans l'esprit du royalisme, Victor Hugo se laisse peu à peu convaincre de l'intérêt de la république (, écrit-il dans le poème "" en réponse au reproche d'un ami de sa mère). Victor Hugo devient ainsi confident de Louis-Philippe en 1844, puis pair de France en 1845. Son premier discours en 1846 est pour défendre le sort de la Pologne écartelée entre plusieurs pays, puis en 1847, il défend le droit au retour des bannis, dont celui de Jérôme Napoléon Bonaparte. Il réclame la diminution du temps de travail des enfants, de 16 heures à 10 heures, mais sa proposition est contrée par le baron Louis Jacques Thénard dont il se vengera en formant le nom des Thénardier, ses personnages les plus détestables des "Misérables". Le 25 février 1848, il est nommé maire du de Paris. Après un premier échec, il est élu le 4 juin député de la deuxième République et siège parmi les conservateurs. Le 20 juin, il prononce son premier discours à l'Assemblée. Lors des émeutes ouvrières de juin 1848, il devient, comme soixante autres, commissaire chargé par l’Assemblée Constituante de rétablir l’ordre. Il commande des troupes face aux barricades, dans l'arrondissement parisien dont il se trouve être le maire. Il désapprouvera plus tard la répression sanglante à laquelle il a participé. Il fonde le journal "L'Événement" en août 1848. Il est déçu par les autorités issues de la Révolution de février et les lois répressives, que vote l’assemblée constituante contre la presse les 9 et 11 août, le révulsent et lui font dire : « Les hommes qui tiennent le pays depuis février ont d’abord pris l’anarchie pour la liberté ; maintenant ils prennent la liberté pour l’anarchie ». Il soutient la candidature de Louis-Napoléon Bonaparte, élu président de la République en décembre 1848. Après la dissolution de l'Assemblée nationale, il est élu le 13 mai 1849 à l'Assemblée législative et prononce son "" le 9 juillet 1849. Il rompt avec Louis-Napoléon Bonaparte, lorsque celui-ci soutient le retour du pape à Rome, et il se bat progressivement contre ses anciens amis politiques, dont il réprouve la politique réactionnaire. Exil. Lors du coup d'État du 2 décembre 1851 de Louis-Napoléon Bonaparte, Victor Hugo tente sans succès d'organiser une résistance. Devenu un opposant du pouvoir, il part le 11 décembre pour Bruxelles, début d'un exil qui durera dix-neuf ans. Un mois plus tard, le décret de proscription du 9 janvier 1852 ordonne l'expulsion du territoire français, pour cause de sûreté générale, de soixante-six anciens représentants à l’Assemblée législative, dont Victor Hugo. D'abord contraint, l'exil deviendra volontaire en 1859, Victor Hugo refusant de rentrer en France malgré l'amnistie dont il bénéficie. Bruxelles. Victor Hugo arrive à Bruxelles le 12 décembre 1851 et y reste huit mois. Il loge successivement à l’hôtel de la Porte Verte, puis dans une chambre de la Maison du Moulin à vent, sur la Grand-Place de Bruxelles, et enfin dans un appartement de la Maison du Pigeon, également sur la Grand-Place, où il demeure jusqu'à la fin de son séjour. Parti seul pour Bruxelles, il y est rejoint le lendemain de son arrivée par Juliette Drouet, qui apporte avec elle la malle à manuscrits, matériel précieux pour l'écrivain. Elle s'installe dans un logement séparé où elle recopie ses manuscrits. Victor Hugo commence l'écriture d'un récit des évènements du 2 décembre 1851, qui ne sera terminé et publié qu'après son retour d'exil, sous le titre "Histoire d'un crime". Pour l'heure, il laisse de côté ce projet et écrit "Napoléon le Petit", pamphlet contre Louis-Napoléon Bonaparte. Achevé en juillet 1852 et publié à Bruxelles le mois suivant, l'ouvrage est diffusé clandestinement en France, malgré la surveillance des autorités. La publication de ce livre contraint cependant Victor Hugo à quitter le territoire belge. En recherche d'une nouvelle destination, il décide en avril 1852 de s'exiler à Jersey, île anglo-normande située entre la France et l'Angleterre, et placée sous la protection de celle-ci. En juin 1852, Adèle Foucher, restée à Paris pour assurer les questions matérielles, met en vente le mobilier de l'appartement parisien en vue du départ de la famille pour Jersey. Jersey. Victor Hugo quitte Bruxelles le à destination de Jersey. Il y débarque le 5 août, accueilli par son épouse Adèle Foucher, leur fille Adèle Hugo et Auguste Vacquerie, arrivés avant lui. Le 16 août, la famille Hugo s'installe dans une maison nommée , située dans le sud de l'île, en bord de mer, et y réside jusqu'à la fin de l'exil à Jersey, qui dure trois ans. Juliette Drouet, arrivée en même temps que Victor Hugo, y loge dans des habitations séparées. En novembre 1852, Victor Hugo commence la rédaction des "Châtiments", recueil de poèmes satiriques critiquant le Second Empire et Napoléon III. Interdit en France, le recueil est publié à Bruxelles en novembre 1853. Victor Hugo écrit également plusieurs poèmes pour "Les Contemplations", recueil poétique commencé avant l'exil, qui sera publié en 1856. L'exil à Jersey donne l'occasion à Victor Hugo d'explorer de nouvelles voies artistiques. En novembre 1852, son fils Charles installe un atelier de photographie à . Charles Hugo et Auguste Vacquerie prennent plus de trois cents photographies pendant l'exil à Jersey, témoignage de la vie des proscrits. S'il ne les réalise pas lui-même, Victor Hugo participe souvent à leur mise en scène et prévoit d'en utiliser pour illustrer ses livres et même d'en publier un recueil, projets qui ne pourront pas se concrétiser. Il utilise des photographies ou s'en inspire pour exécuter ses dessins, dont la production est d'une grande diversité pendant cette période, avec l'expérimentation de nouvelles techniques graphiques, comme les pochoirs. En septembre 1853, Delphine de Girardin initie les membres de la famille Hugo à la pratique des "tables parlantes", qui permettent de "communiquer" avec l'esprit de personnes décédées. Victor Hugo prend part à ces séances, qui dureront jusqu'à la fin de l'exil à Jersey. Les échanges issus de ces séances, retranscrits dans "Le livre des tables", influencent son œuvre littéraire et graphique. Victor Hugo poursuit son combat contre la peine de mort en s'opposant à l'exécution de John Tapner, condamné à mort à Guernesey pour meurtre et finalement exécuté le 10 février 1854. Le lendemain, il écrit une lettre à Lord Palmerston, ministre de l'Intérieur anglais, pour exprimer son indignation. Marqué par cet évènement, il réalise "Le Pendu", série de dessins emblématiques de sa lutte contre la peine capitale. En octobre 1855, trois proscrits français sont expulsés de Jersey par les autorités britanniques, après avoir publié dans leur journal "L'Homme", un texte s'opposant à la visite officielle de la reine Victoria à Napoléon III. Le 17 octobre 1855, Victor Hugo publie avec d'autres proscrits une déclaration de soutien à leurs compagnons d'exil, ce qui amène les autorités à ordonner également leur expulsion de Jersey. Le 31 octobre 1855, Victor Hugo s’embarque pour l'île voisine de Guernesey. Guernesey. Arrivé le 31 octobre 1855 sur l'île de Guernesey, Victor Hugo loge d'abord à l'Hôtel de l'Europe puis, à partir du 9 novembre, dans une maison située 20 rue Hauteville où il reste pendant un an et qu'il achètera dix ans plus tard avec Juliette Drouet, qui y logera. Il achève "Les Contemplations", qui paraît en avril 1856 à Bruxelles et à Paris. Grâce au succès de ce recueil de poèmes, il achète, dans la même rue, le 16 mai 1856, « Hauteville House », qui sera sa résidence pendant près de quinze ans, jusqu'à la fin de son exil. La famille y emménage le 5 novembre 1856. Passionné de brocante et de décoration, Victor Hugo se consacre pendant trois ans à l'aménagement de « Hauteville House », qu'il personnalise entièrement, concevant et réalisant lui-même les décors intérieurs, composés à partir de meubles et objets collectés sur l'île. Pendant cette période, il aménage en même temps « La Fallue », première maison de Juliette Drouet à Guernesey, située à proximité de « Hauteville House ». Le 16 août 1859, Napoléon III décrète une amnistie générale pour tous les condamnés. Le 18 août, Victor Hugo annonce son refus de rentrer en France, déclarant : « Fidèle à l’engagement que j’ai pris vis à vis de ma conscience, je partagerai jusqu’au bout l’exil de la liberté ». En septembre 1859, il publie la première série de "La Légende des siècles". Poursuivant son combat contre la peine de mort, il lance un appel en décembre 1859 en faveur de John Brown, militant antiesclavagiste, condamné à mort aux États-Unis. En 1860 et 1861, il se consacre principalement à la rédaction de son roman "Les Misérables", qui est publié en 1862 et qui connaît un immense succès. En 1863, il écrit "William Shakespeare", publié l'année suivante. Victor Hugo dénonce le sac du Palais d'Été (octobre 1860) par les troupes franco-britanniques dans une lettre au capitaine Butler du 25 novembre 1861. À partir de 1861, Victor Hugo reprend ses habitudes de voyages annuels avec Juliette Drouet, dont le dernier remonte à dix-huit ans. Chaque année jusqu'à la fin de son exil en 1870, ils passent plusieurs mois sur le continent, principalement en Belgique, au Luxembourg et dans la vallée du Rhin. Ces séjours sont des moments de création intense pour Victor Hugo, aussi bien pour ses romans et ses poèmes que pour ses dessins. Il visite des monuments et collecte toute sorte d'objets qui lui servent pour concevoir des décors et alimenter ses carnets. En 1864, il achète avec Juliette Drouet la maison située 20 rue Hauteville, où il avait habité huit ans auparavant et où cette dernière habite désormais. Il réalise les décors de la maison à partir de mobilier, panneaux et objets récupérés à Guernesey ou lors de ses voyages avec Juliette. La famille de Victor Hugo, d'abord rassemblée à « Hauteville House », s'éloigne progressivement de Guernesey. Adèle Foucher fait de fréquents séjours à Bruxelles et à Paris, où elle veille aux intérêts littéraires et financiers de son mari. En 1863, elle publie "Victor Hugo raconté par un témoin de sa vie", un livre de souvenirs. Adèle Hugo fait également des séjours de plusieurs mois à Paris avec sa mère, puis part en 1863 à Halifax, au Canada, pour rejoindre un officier anglais, qu'elle espère épouser. Charles Hugo effectue de fréquents séjours en France et en Belgique à partir de 1860, puis se marie en 1865 à Bruxelles, où il s'installe. François-Victor Hugo s'installe à son tour à Bruxelles en 1865 après le décès de sa fiancée. En avril 1868, le premier fils de Charles Hugo meurt à l'âge d'un an. Son deuxième fils, Georges Victor-Hugo, naît en août 1868, puis sa fille, Jeanne Hugo, en septembre 1869. Adèle Foucher meurt à Bruxelles le 27 août 1868 et est enterrée à Villequier auprès de Léopoldine. Victor Hugo accompagne le cercueil jusqu’à la frontière française. Vers la fin de l'exil, Victor Hugo publie de nouvelles œuvres : le recueil "Les Chansons des rues et des bois" en 1865, le roman "Les Travailleurs de la mer", hommage à Guernesey et à ses habitants, en 1866, puis le roman "L'Homme qui rit", en 1869. En même temps, il poursuit son combat politique et maintient sa volonté de rester en exil tant que dure le Second Empire. En 1869, il contribue au journal d'opposition "Le Rappel", que fondent ses fils Charles Hugo et François-Victor Hugo avec Paul Meurice et Auguste Vacquerie. Rêvant d'une Europe unifiée, il plante symboliquement le « chêne des États-Unis d’Europe » dans le jardin de « Hauteville House », le 14 juillet 1870. Alors que la défaite de la France dans la guerre franco-prussienne est proche, il quitte Guernesey pour Bruxelles le 15 août 1870, en vue d'un éventuel retour en France. Le 5 septembre 1870, lendemain de la proclamation de la République, il rentre en France où il est accueilli comme un héros. Retour en France. De retour en France, il pense alors fermement, selon ses notes de la fin août, que son pays va lui attribuer la dictature. Les Parisiens lui font un accueil triomphal. Il participe activement à la défense de la ville assiégée. Dans le même temps, il lui importe, au nom de l’intérêt du pays, de soutenir le gouvernement de la Défense nationale présidé par le Général Trochu. Aussi, lorsque le 17 janvier 1871, Louis Blanc lui demande à nouveau d'intervenir pour exercer une pression sur le général, il répond : « Je vois plus de danger à renverser le gouvernement qu’à le maintenir ». Élu à l'Assemblée nationale (siégeant alors à Bordeaux) le 8 février 1871, il en démissionne un mois plus tard pour protester contre l'invalidation de Garibaldi. Le 13 mars, son fils Charles meurt brusquement d'une apoplexie. Ses obsèques ont lieu le 18 mars à Paris, le jour même du soulèvement qui marque le début de la Commune de Paris. Victor Hugo se rend ensuite à Bruxelles pour régler la succession de son fils et y reste pendant l'insurrection. Il désapprouve si vivement la répression contre la Commune qu'il est expulsé par les autorités belges. C'est le Roi Léopold II qui signe l'arrêté royal qui décide son expulsion au motif qu'il s'est "rendu coupable d'avoir accueilli en sa demeure les vaincus de la Commune". Il trouve refuge pendant trois mois et demi au Luxembourg ( juin-23 septembre), séjournant successivement à Luxembourg ville, à Vianden (deux mois et demi), à Diekirch et à Mondorf, où il suit une cure thermale. Il y achève le recueil "L'Année terrible". Il est largement battu à l'élection complémentaire du 2 juillet 1871. Sollicité par plusieurs comités républicains, il accepte de se porter candidat à l'élection complémentaire du 7 janvier 1872 et est encore une fois battu, en raison de sa position en faveur d'une amnistie des communards. La même année, Hugo retourne à Guernesey où il écrit le roman "Quatrevingt-treize". En 1873, il est à Paris et se consacre à l'éducation de ses deux petits-enfants, Georges et Jeanne, qui lui inspirent le recueil de poèmes "L'Art d'être grand-père". Il reçoit beaucoup de personnalités politiques et littéraires, comme les Goncourt, Lockroy, Clemenceau ou Gambetta. Le 30 janvier 1876, il est élu sénateur et milite pour l'amnistie des communards. Il s'oppose à Mac Mahon quand celui-ci dissout l'assemblée. Dans son de 1878, il se positionne pour le respect de la propriété littéraire, mais aussi pour le fondement du domaine public. En juin 1878, Hugo est victime d'un malaise, peut-être une congestion cérébrale. Il part se reposer quatre mois à Guernesey dans sa demeure de Hauteville House, suivi de son « secrétaire bénévole » Richard Lesclide. Ce mauvais état de santé met pratiquement fin à son activité d'écriture. Toutefois, de très nombreux recueils, réunissant en fait des poèmes datant de ses années d'inspiration exceptionnelle (1850-1870), continuent à paraître régulièrement ("La Pitié suprême" en 1879, "L'Âne", "Les Quatre Vents de l'esprit" en 1881, la dernière série de "la Légende des siècles" en septembre 1883), contribuant à la légende du vieil homme intarissable jusqu'à la mort. Durant cette période, nombre de ses pièces sont de nouveau jouées ("Ruy Blas" en 1872, "Marion de Lorme" et "Marie Tudor" en 1873, "Le roi s'amuse" en 1882). Sous la Troisième République, le gouvernement Ferry promulgue la loi du 30 juillet 1881, dite de « réparation nationale », qui alloue une pension ou rente viagère aux citoyens français victimes du coup d'État du 2 décembre 1851 et de la loi de sûreté générale. La Commission générale chargée d'examiner les dossiers, présidée par le ministre de l'Intérieur, est composée de représentants du ministère, de conseillers d'État, et comprend huit parlementaires, tous d'anciennes victimes : quatre sénateurs (Victor Hugo, Jean-Baptiste Massé, Elzéar Pin, Victor Schœlcher) et quatre députés (Louis Greppo, Noël Madier de Montjau, Martin Nadaud et Alexandre Dethou). Mort et funérailles. Jusqu'à sa mort en 1885, il est une des figures emblématiques de la république, en même temps qu'une référence littéraire incontestée. Le vendredi 15 mai 1885, il est victime d'une congestion pulmonaire. Il meurt le , jour de la fête de Juliette Drouet, dans son hôtel particulier « La Princesse de Lusignan », qui était situé au 50 avenue Victor-Hugo, à la place de l'actuel . Trois jours avant sa mort, il écrit cette dernière pensée : « Aimer, c’est agir », et selon la légende, ses derniers mots sont : . Conformément à ses dernières volontés, c'est dans le « corbillard des pauvres » qu'a lieu la cérémonie. Le décret du 26 mai 1885, voté par sur 418, lui accorde des obsèques nationales et sécularise à nouveau le Panthéon pour y déposer son corps, le . Avant d'y être transféré, son cercueil est exposé dans la nuit du au sous l'Arc de triomphe, voilé obliquement par un crêpe noir. Des cuirassiers à cheval veillent toute la nuit le catafalque surmonté des initiales VH, selon l'ordonnancement de Charles Garnier. Le jour du transfert, le cortège vers le Panthéon s'étire sur plusieurs kilomètres, avec près de deux millions de personnes et venues lui rendre un dernier hommage. Il est alors l'écrivain français le plus populaire de son temps et est déjà considéré depuis plusieurs décennies comme l'un des monuments de la littérature française. L'œuvre littéraire. L'ensemble des écrits de Victor Hugo, triés et organisés par ses exécuteurs testamentaires Paul Meurice et Auguste Vacquerie, a fait l'objet de plusieurs éditions complètes, représentant presque quarante millions de caractères réunis en une cinquantaine de volumes. Victor Hugo a pratiqué tous les genres : roman, poésie, théâtre, essai, etc. . Écrivain et homme politique, Victor Hugo n'a jamais cherché à opérer une distinction entre son activité d'écrivain et son engagement. Ainsi mélange-t-il intimement, dans ses œuvres de fiction, développement romanesque et réflexion politique. Ses écrits témoignent de ses intérêts multiples qui allaient de la science à la philosophie, de la Terre à l’univers entier ; ils illustrent sa passion pour l'histoire tout autant que sa foi en l’avenir ; ils s'inspirent de tout ce que Hugo voyait, entendait, vivait, de tout ce qu'il disait dans sa vie quotidienne. Théâtre. Renouvellement du genre. Le théâtre de Victor Hugo se situe dans un renouveau du genre théâtral initié par Madame de Staël, Benjamin Constant, François Guizot, Stendhal et Chateaubriand. Dans sa pièce "Cromwell" qu'il sait être injouable à son époque (pièce de et aux innombrables personnages), il donne libre cours à son idée du nouveau théâtre. Il publie conjointement une préface destinée à défendre sa pièce et où il expose ses idées sur le drame romantique : un théâtre « "tout-en-un" », à la fois drame historique, comédie, mélodrame et tragédie. Il se revendique dans la lignée de Shakespeare, jetant un pont entre Molière et Corneille. Il y expose sa théorie du grotesque qui se décline sous plusieurs formes : du ridicule au fantastique en passant par le monstrueux ou l'horrible. Victor Hugo écrit . Anne Ubersfeld parle à ce sujet de l'aspect carnavalesque du théâtre hugolien et de l'abandon de l'idéal du beau. Selon Victor Hugo, le grotesque doit côtoyer le sublime, car ce sont les deux aspects de la vie. Lors de la création de ses autres pièces, Victor Hugo est prêt à de nombreuses concessions pour apprivoiser le public et le mener vers son idée du théâtre. Pour lui, le romantisme est le libéralisme en littérature. Ses dernières pièces, écrites durant l'exil et jamais jouées de son vivant, sont d'ailleurs réunies dans un recueil au nom évocateur "Théâtre en liberté". Le théâtre doit s'adresser à tous : l'amateur de passion, celui de l'action ou celui de la morale. Le théâtre a ainsi pour mission d'instruire, d'offrir une tribune pour le débat d'idées et de présenter . Victor Hugo choisit de situer ses pièces principalement dans les , se documente beaucoup avant de commencer à écrire, présente souvent une pièce à trois pôles : le maître, la femme, le laid où se confrontent et se mélangent deux mondes : celui du pouvoir et celui des serviteurs, où les rôles s'inversent (Ruy Blas, serviteur, joue le rôle d'un grand d'Espagne), où le héros se révèle faible et où le monstre a une facette attachante. Victor Hugo préfère écrire avec l'alexandrin auquel il donne cependant, quand il le souhaite, une forme plus libre et rares sont ses pièces en prose (Lucrèce Borgia, Marie Tudor). Controverses. Victor Hugo, s'il possède d'ardents défenseurs de son théâtre comme Théophile Gautier, Gérard de Nerval, Hector Berlioz, Petrus Borel, etc., a aussi rencontré de nombreuses difficultés dans la présentation de ses pièces. La première est une opposition politique. Sa remise en question des représentants du pouvoir ne plaît pas, "Marion de Lorme" est interdite, "le Roi s'amuse" l'est aussi après sa première représentation, Les Ultras attaquent "Ruy Blas". La seconde est la contrainte économique : il n'existe sur Paris que deux théâtres susceptibles de représenter le drame, le Théâtre-Français et le théâtre de la Porte-Saint-Martin. Ces deux théâtres subventionnés ne roulent pas sur l'or et sont tributaires des subsides de l'État. Leurs directeurs hésitent à prendre des risques. Victor Hugo se plaindra du manque de liberté qu'ils offrent. C'est une des raisons qui lui font entreprendre l'aventure du théâtre de la Renaissance. La troisième et la plus importante est une opposition du milieu artistique lui-même. Les artistes et les critiques de son époque sont pour beaucoup hostiles à la transgression des codes culturels que représente le théâtre de Victor Hugo. Ils approuvent les grandes pensées qui élèvent l'âme, mais s'insurgent contre tout ce qui relève du grotesque, du vulgaire, du populaire ou du trivial. Ils ne supportent pas tout ce qui est excessif, lui reprochent son matérialisme et son absence de morale. Ils critiquent vigoureusement chaque pièce présentée et sont souvent à l'origine de leur arrêt prématuré. "Le Roi s'amuse" ne fut représenté qu'une seule fois, "Hernani", pourtant forte de cinquante représentations à succès ne fut pas reprise en 1833, "Marie Tudor" n'est joué que 42 fois, "Les Burgraves" sont un échec et sont retirés de l'affiche après trente-trois représentations. "Ruy Blas" est un succès financier, mais est boudé par la critique. Balzac envoya à Madame Hanska un commentaire au vitriol : « Ruy Blas est une énorme bêtise, une infamie en vers. Jamais l’odieux et l’absurde n’ont dansé de sarabande plus dévergondée. Il a retranché ces deux horribles vers : ... Affreuse compagnonne/Dont la barbe fleurit et dont le nez trognonne. Mais ils ont été dits pendant deux représentations. Je n’y suis pas encore allé : je n’irai probablement pas. À la quatrième représentation, où le public est arrivé, on a sifflé d'importance ». Seule "Lucrèce Borgia" peut être considérée comme un plein succès. Postérité. Le théâtre de Victor Hugo a été peu joué dans la première moitié du . Il est remis au goût du jour par Jean Vilar en 1954 qui monte successivement "Ruy Blas" et "Marie Tudor". D'autres metteurs en scène suivent qui font revivre "Lucrèce Borgia" (Bernard Jenny), "Les Burgraves" et "Hernani" (Antoine Vitez), "Marie Tudor" (Daniel Mesguich), les pièces du "Théâtre en liberté" ("L'Intervention", "Mangeront-ils?", "Mille Francs de récompense"…) sont montées dans les années 1960 et continuent à l'être. On peut lire aujourd'hui l'ensemble de ce Théâtre en liberté dans l'édition qu'en a procurée Arnaud Laster. Naugrette souligne aussi les difficultés d'interprétation du théâtre hugolien, comment n'être ni grandiloquent, ni prosaïque, mais sans fausse pudeur, comment présenter le grotesque sans glisser vers la caricature et comment gérer l'immensité de l'espace scénique et rappelle le conseil de Jean Vilar : . Poésie. Vers de jeunesse. À vingt ans, Hugo publie les "Odes", recueil qui laisse déjà entrevoir, chez le jeune écrivain, les thèmes hugoliens récurrents : le monde contemporain, l'Histoire, la religion et le rôle du poète, notamment. Par la suite, il se fait de moins en moins classique, de plus en plus romantique, et Hugo séduit le jeune lecteur de son temps au fil des éditions successives des "Odes" (quatre éditions entre 1822 et 1828). En 1828, Hugo réunit sous le titre "Odes et Ballades" toute sa production poétique antérieure. Fresques historiques, évocation de l'enfance ; la forme est encore convenue, sans doute, mais le jeune romantique prend déjà des libertés avec le mètre et la tradition poétique. Cet ensemble permet en outre de percevoir les prémices d'une évolution qui durera toute sa vie : le chrétien convaincu s'y montre peu à peu plus tolérant, son monarchisme qui se fait moins rigide et accorde une place importante à la toute récente épopée napoléonienne ; de plus, loin d'esquiver son double héritage paternel (napoléonien) et maternel (royaliste), le poète s'y confronte et s'applique à mettre en scène les contraires (ce que l'on appelle l'antithèse hugolienne) pour mieux les dépasser : Puis Hugo s'éloigne dans son œuvre des préoccupations politiques immédiates auxquelles il préfère l'art pour l'art. Il se lance dans "Les Orientales" (l'Orient est un thème en vogue) en 1829 (l'année du "Dernier jour d'un condamné"). Le succès est important, sa renommée de poète romantique assurée et surtout, son style s'affirme nettement tandis qu'il met en scène la guerre d'indépendance de la Grèce (le choix de présenter l'exemple de ces peuples qui se débarrassent de leurs rois n'est pas innocent dans le contexte politique français) qui inspira également Lord Byron ou Delacroix. Première maturité. Dès "Les Feuilles d'automne" (1832), "Les Chants du crépuscule" (1835) "Les Voix intérieures" (1837), jusqu'au recueil "Les Rayons et les Ombres" (1840), se dessinent les thèmes majeurs d'une poésie encore lyrique , à Dieu, aux amis, à la Nature et enfin (avec "Les Chants du crépuscule") aux puissants qui sont comptables des injustices de ce monde. Ces poésies touchent le public parce qu'elles abordent avec une apparente simplicité des thèmes familiers ; pourtant, Hugo ne peut résister à son goût pour l'épique et le grand. Ainsi, on peut lire, dès le début des "Feuilles d'automne", les vers : Créativité et puissance littéraire. À partir de l'exil commence une période de création littéraire qui est considérée comme la plus riche, la plus originale et la plus puissante de l'œuvre de Victor Hugo. C'est alors que naîtront certains de ses plus grands poèmes. 1856 est l'année des "Contemplations". Hugo déclare : « Qu'est-ce que "Les Contemplations" ? [...] Les Mémoires d'une âme. » A son éditeur Hetzel, il écrivait le 31 mai 1855 : « Il faut frapper un grand coup et je prends mon parti. Comme Napoléon (), je fais donner ma réserve. Je vide mes légions sur le champ de bataille. Ce que je gardais à part moi, je le donne, pour que "les Contemplations" soient mon œuvre de poésie la plus complète. Mon premier volume aura , le , près de en tout. "Les Châtiments" n’en avaient . Je n’ai encore bâti sur mon sable que des Giseh ; il est temps de construire Chéops ; "les Contemplations" seront ma grande Pyramide. » Le succès est phénoménal. Le recueil sort le , tiré à . Dès le lendemain, Paul Meurice demande à Hugo l’autorisation de procéder à un nouveau tirage, ce qui se fait le 20 mai, à nouveau . Entre-temps les premiers droits d’auteur permettent à Hugo d’acheter sa maison de Hauteville-House à Guernesey. Apothéose lyrique, marquée par l'exil à Guernesey et la mort (cf. "Pauca Meae") de la fille adorée : exil affectif, exil politique : Hugo part à la découverte solitaire du moi et de l'univers. Le poète, tout comme dans "Les Châtiments", se fait même prophète, voix de l'au-delà, voyant des secrets de la vie après la mort et qui tente de percer les secrets des desseins divins. Mais, dans le même temps, "les Contemplations", au lyrisme amoureux et sensuel, contient certains des plus célèbres poèmes inspirés par Juliette Drouet. On y trouve également "Demain, dès l’aube" et les vers où il se représente en révolutionnaire de la littérature : « […] sur l’Académie, aïeule et douairière, / […] je fis souffler un vent révolutionnaire. / Je mis un bonnet rouge au vieux dictionnaire. » "Les Contemplations" : œuvre multiforme donc comme il convient aux « mémoires d'une âme ». Place à part dans son siècle. Tantôt lyrique, tantôt épique, Hugo est présent sur tous les fronts et dans tous les genres: il a profondément ému ses contemporains, exaspéré les puissants et inspiré les plus grands poètes. Victor Hugo était convaincu que « l’élargissement de la civilisation » européenne au reste du monde amenait la littérature à s’adresser à tous les hommes et que donc « les conditions, jadis étroites, de goût et de langue » n’avaient plus de raison d’être. « En France, explique-t-il à l’éditeur italien des "Misérables", certains critiques m’ont reproché, à ma grande joie, d’être en dehors de ce qu’ils appellent le goût français ; je voudrais que cet éloge fût mérité ». Ainsi que le rappelle Simone de Beauvoir : « Son anniversaire fut célébré comme une fête nationale : défilèrent sous ses fenêtres, on lui avait dressé un arc de triomphe. L'avenue d'Eylau fut peu après baptisée avenue Victor-Hugo et il y eut un nouveau défilé en son honneur le 14 juillet. Même la bourgeoisie s'était ralliée […] ». Romans. Victor Hugo a laissé neuf romans. Le premier, "Bug-Jargal," a été écrit à seize ans ; le dernier, "Quatrevingt-treize", à soixante-douze. L'œuvre romanesque a traversé tous les âges de l'écrivain, toutes les modes et tous les courants littéraires de son temps, sans jamais se confondre totalement avec aucun ; en effet, allant au-delà de la parodie, Hugo utilise les techniques du roman populaire en les amplifiant et subvertit les genres en les dépassant : si "Han d'Islande", en 1823, "Bug-Jargal", publié en 1826, ou "Notre-Dame de Paris", en 1831, ressemblent aux romans historiques en vogue au début du ils en dépassent le cadre ; Hugo n'est pas Walter Scott et, chez lui, le roman se développe vers l'épopée et le grandiose. "Le Dernier Jour d'un condamné" en 1829 et "Claude Gueux" en 1834 engagent une réflexion directement sociale, mais ils ne sont pas plus aisés à définir. Pour Hugo lui-même, il faut distinguer « romans de faits et romans d'analyse ». Ces deux derniers sont des romans à la fois historiques et sociaux, mais sont surtout des romans engagés dans un combat qui dépasse de loin le cadre de la fiction. On peut en dire autant des "Misérables", qui paraît en 1862, en pleine période réaliste, mais qui lui emprunte peu de caractéristiques. Dans une lettre à Lamartine, Victor Hugo explique : . Ce succès populaire phénoménal suscita le sarcasme des Goncourt qui trouvèrent en particulier . Il embarrasse encore aujourd'hui la critique, car il louvoie constamment entre mélodrame populaire, tableau réaliste et essai didactique. De la même façon, dans "Les Travailleurs de la mer" (1866) et dans "L'Homme qui rit" (1869), Hugo se rapproche davantage de l'esthétique romantique du début du siècle, avec ses personnages difformes, ses monstres et sa Nature effrayante. C'est dans ce roman que Victor Hugo introduit dans la langue française le mot "pieuvre". Enfin, en 1874, "Quatrevingt-treize" signe la concrétisation romanesque d'un vieux thème hugolien : le rôle fondateur de la Révolution française dans la conscience littéraire, politique, sociale et morale du . Il mêle alors la fiction et l'histoire, sans que l'écriture marque de frontière entre les narrations. Le roman hugolien n'est pas un « divertissement » : pour lui l'art doit en même temps instruire et plaire et le roman est presque toujours au service du débat d'idées. Cette constante traverse les romans abolitionnistes de sa jeunesse, elle se poursuit, dans sa maturité, au travers de ses nombreuses digressions sur la misère matérielle et morale dans "Les Misérables". Poète ou romancier, Hugo demeure le dramaturge de la fatalité et ses héros sont, comme les héros de tragédie, aux prises avec les contraintes extérieures et une implacable fatalité ; tantôt imputable à la société (Jean Valjean ; Claude Gueux ; le héros du "Dernier jour d'un condamné"), tantôt à l'Histoire ("Quatrevingt-treize") ou bien à leur naissance (Quasimodo). Le goût de l'épopée, des hommes aux prises avec les forces de la Nature, de la Société, de la fatalité, n'a jamais quitté Hugo ; l'écrivain a toujours trouvé son public, sans jamais céder aux caprices de la mode, et personne ne s'étonne qu'il ait pu devenir un classique de son vivant. Textes politiques. Victor Hugo a rassemblé ses principaux discours et textes politiques dans le recueil "Actes et paroles", publié en trois volumes en 1875 et 1876, intitulés respectivement "Avant l'exil", qui couvre la période de 1841 à 1851, "Pendant l'exil" pour les années 1852 à 1870, "Depuis l'exil", pour les années qui ont suivi son retour en France entre 1870 et 1876, auxquels s'ajoute un quatrième volume également "Depuis l'exil" pour la période de 1876 à 1885. Opposant déterminé à Napoléon III, il a écrit deux ouvrages visant directement la personne de l'Empereur : le pamphlet "Napoléon le Petit", écrit et publié en 1852 à Bruxelles, quelques mois après son départ en exil, et "Histoire d'un crime", un récit des événements du coup d'État du 2 décembre 1851, qu'il avait commencé à écrire en 1852 et qui n'a été publié que bien plus tard, après son retour d'exil, en 1877 et 1878. Carnets de voyages. Victor Hugo a beaucoup voyagé jusqu'en 1871. De ses voyages, il rapporte des carnets de dessins et des notes. On peut ainsi citer le récit d'un voyage fait à Genève et dans les Alpes avec Charles Nodier. Il part aussi chaque année pour un voyage d'un mois avec Juliette Drouet découvrir une région de France ou d'Europe et en revient avec notes et dessins. De trois voyages sur le Rhin (1838, 1839, 1840), il rapporte un recueil de lettres, notes et dessins publié en 1842 et complété en 1845. Pendant les années 1860, il traverse plusieurs fois le Grand-Duché de Luxembourg comme touriste, alors qu'il se rend sur le Rhin allemand (1862, 1863, 1864, 1865). De retour à Paris en 1871, il cesse de voyager. Arts graphiques. Les créations picturales et graphiques de Victor Hugo, qui complètent son œuvre littéraire, sont restées assez longtemps méconnues du grand public. Ses nombreux dessins, dont seulement certains ont été publiés de son vivant, les décors intérieurs qu'il a conçus et son intérêt pour la photographie ont fait l'objet d'une mise en valeur après son décès, et plus encore ces dernières décennies. Dessins. Victor Hugo a réalisé près de dessins. Exclusivement destinés à ses proches ou gardés en sa possession, ces dessins n'ont pas été exposés de son vivant, ni fait l'objet de publications, sauf rares exceptions. Il légua tous les dessins qu'il avait conservés, avec ses manuscrits, à la Bibliothèque nationale de France. Réalisant déjà des dessins dans ses jeunes années, Victor Hugo produit divers croquis et caricatures dans les années 1830, prenant aussi l'habitude de dessiner des lieux ou monuments au crayon dans ses carnets de voyage. Inspiré par ses voyages sur les bords du Rhin avec Juliette Drouet entre 1838 et 1840, ses dessins prennent une nouvelle dimension, avec de nombreuses compositions à la mine de plomb représentant des burgs typiques de la vallée du Rhin. En 1850, il installe un atelier chez Juliette Drouet et réalise de nombreux dessins de plus grand format, représentant des châteaux et paysages d'allure surnaturelle ou fantomatique, principalement des lavis à l'encre, parfois rehaussés de fusain, d'aquarelle ou de gouache. Pendant les années d'exil dans les îles anglo-normandes de Jersey et Guernesey de 1852 à 1870, Victor Hugo, inspiré par la présence de la mer, réalise des dessins presque fantastiques, dont beaucoup représentent des paysages marins, des tempêtes et des navires en perdition, avec l'utilisation de nouvelles techniques graphiques, telles que des pochoirs, des papiers découpés et des empreintes de dentelle. La production graphique de Victor Hugo se poursuit lorsqu'il reprend ses voyages annuels avec Juliette Drouet, en Belgique et sur les bords du Rhin, à partir de 1861. Bien que l'œuvre picturale de Victor Hugo fut largement restée intime de son vivant, certains de ses dessins ont été destinés à illustrer ses œuvres littéraires (dessins réalisés pour "Les Travailleurs de la mer", "Le Rhin", "Les Orientales" et "La Légende des siècles") et d'autres ont fait l'objet d'un ouvrage publié en 1862 sous le titre "Dessins de Victor Hugo". Après sa mort, certains dessins ont été exposés dans le cadre d'une levée de fonds en 1888 en vue de l'érection d'un monument au poète. Ce n'est que bien plus tard que l'œuvre picturale de Victor Hugo fit l'objet de nombreuses et prestigieuses expositions, telles que « Soleil d'Encre » au Petit Palais lors du centenaire de sa mort en 1985, et tout récemment, l'exposition « Victor Hugo, dessins » prévue à la Maison de Victor Hugo en 2021. Plusieurs expositions ont aussi eu lieu à l'étranger, ainsi à Bologne, Bruxelles, Madrid, Zürich, Lausanne, New York, Los Angeles et dans plusieurs villes au Japon. Les surréalistes ont contribué à la redécouverte du génie pictural de Hugo chez qui ils admiraient l'usage novateur de techniques telles que les empreintes, les tâches, le grattage, le pochoir ou la réserve. En bon autodidacte, Victor Hugo n'hésitait pas à utiliser les méthodes les plus rustiques ou expérimentales, mélangeant à l'encre le café noir, le charbon, la suie de cheminée, le jus de mûre, l'oignon brûlé, la cendre de cigare, du dentifrice, peignant du bout de l'allumette ou au moyen des barbes d'une plume, techniques similaires à celles qu'utiliseront plus tard les artistes surréalistes. Décors. L'activité de décorateur de Victor Hugo, concentrée pendant les années d'exil à Guernesey, peut légitimement être considérée comme son « troisième art ». Il commence à se livrer à cette passion lors de l'achat de la maison de « Hauteville House » en 1856, sa résidence pendant près de quinze ans jusqu'à la fin de l'exil et où il fera quelques séjours après son retour en France. Durant trois ans, il se consacre presque entièrement à son aménagement intérieur, par l'achat de mobilier et la conception de décors, composés à partir de meubles et objets collectés sur l'île. Pendant cette période, il aménage en même temps « La Fallue », la première maison où réside Juliette Drouet à Guernesey, à proximité de « Hauteville House ». En 1864, Victor Hugo achète avec Juliette Drouet la maison située 20 rue Hauteville à Guernesey, aujourd'hui connue sous le nom de « Hauteville Fairy » ou « Hauteville II » , où elle vécut de 1864 à 1870. Comme pour « Hauteville House », Victor Hugo réalise les décors de la maison à partir de mobilier, panneaux et objets récupérés à Guernesey ou lors des nombreux voyages qu'il effectue avec Juliette en Europe continentale à partir de 1861. Les décors chinois de la salle à manger ont été entièrement conçus et imaginés par Victor Hugo et réalisés par des ouvriers sous sa direction. Beaucoup des décors de « Hauteville Fairy », comme ceux de « Hauteville House », se caractérisent par l'association de multiples éléments, comme des fragments de coffres, de meubles, de carreaux ou de faïence, parfois issus d'univers très différents, tels que des éléments décoratifs chinois et gothiques. Les décors de « Hauteville Fairy » ont été démontés et installés dans la pièce connue comme le « salon chinois », dans la Maison de Victor Hugo à Paris, à l'initiative de Paul Meurice, qui les a rachetés à l'héritier de Juliette Drouet, tandis que les décors de Hauteville House, restés en l'état, sont accessibles au public à Guernesey. Photographie. L'invention du daguerréotype en 1839 suscita un engouement pour la photographie auquel Victor Hugo prit part de manière active pendant son exil. En novembre 1852, deux mois après l'arrivée de Victor Hugo à Jersey, un atelier photographique est installé dans une pièce de Marine Terrace, maison où il réside avec sa famille. Son fils Charles Hugo apprend la technique du daguerréotype auprès d'un proscrit nommé Jean-Jacques Sabatier, puis se rend à Caen en mars 1853 dans l'atelier du photographe Edmond Bacot, pour se former à d'autres techniques photographiques permettant la reproduction. Pendant les trois années d'exil à Jersey, entre trois cents cinquante et quatre cents photographies sont prises par Charles Hugo et Auguste Vacquerie, ami proche de la famille qui habite aussi à Marine Terrace, ainsi que certaines par François-Victor Hugo. S'il ne réalise pas lui-même les photographies, Victor Hugo participe activement à leur mise en scène, dirigeant les séances de prises de vue, choisissant les cadrages et les poses. Plusieurs photographies des membres de la famille Hugo et d'autres exilés sont réunies dans des albums, connus comme les « "Albums des proscrits" », remis à des proches de la famille en souvenir de ces années d'exil, témoignages précieux sur la vie des proscrits à Jersey. Certains de ces albums, agrémentés de collages et décorations, sont de véritables œuvres d'art, comme l'« "Album Allix" » qui fixe l'amitié des Hugo pour Augustine Allix. Victor Hugo envisage aussi de composer un ouvrage constitué de clichés des paysages des îles anglo-normandes et d'utiliser des portraits photographiques pour illustrer ses œuvres littéraires. Ces projets ne se concrétisèrent pas, principalement en raison de la réticence des éditeurs, et la plupart de ces photographies resteront dans l'intimité de la famille Hugo et de son entourage pendant plusieurs décennies. Cette activité se poursuit à Guernesey à partir de 1855, un atelier photographique étant aménagé à Hauteville House. En 1860, les photographes Leballeur et Auzou sont invités à réaliser des vues stéréotypiques de la maison. Edmond Bacot, qui avait aidé Charles Hugo à se former à la photographie, se rend à Hauteville House du 28 juin au 15 juillet 1862 et réalise cinquante-sept clichés de la maison et des occupants. D'autres, comme Arsène Garnier et Henry Mulling prennent aussi des portraits du poète. En 1862, à Bruxelles, Hugo fait la connaissance de Nadar, qui laissa de nombreux portraits de Victor Hugo dans ses dernières années. Il sera également photographié par Étienne Carjat et Bertall, autres grands photographes de l'époque. Victor Hugo avait conscience que la photographie pouvait jouer un rôle considérable pour établir son image de banni courageux fidèle à son pays et contribuer, dans le même temps, à la promotion de son œuvre en offrant à ses lecteurs le visage de son auteur . Convictions personnelles. Carrière politique. Homme de lettres engagé, Victor Hugo s'est impliqué pendant toute sa vie dans le débat politique. D'abord de conviction royaliste puis bonapartiste, il fut dans la deuxième partie de sa vie un républicain convaincu. Il s'est vu reprocher son opportunisme politique, ayant changé à plusieurs reprises de bord politique au cours de sa carrière, comme il l'écrivait lui-même en 1850 (texte publié dans "Actes et paroles") : Au départ de tendance ultraroyaliste, autant par conviction que par fidélité à sa mère, Victor Hugo soutient la Seconde Restauration, publiant des odes favorables à Louis XVIII puis à Charles X, ce qui lui vaut d'être récompensé par des gratifications financières. Vers 1827, il prend ses distances avec la monarchie et adhère au bonapartisme, probablement sous l'influence de son père, ancien général d'Empire, avec qui il renoue pendant ces années-là. Vers la fin des années 1830, il soutient la monarchie de juillet, sans toutefois renoncer complètement à ses opinions bonapartistes. En 1845, il est nommé pair de France par Louis-Philippe. En 1848, lors de la révolution de Février et de l'avènement de la Deuxième République, il finit par se rallier à celle-ci après quelques hésitations et est élu à l'Assemblée constituante le 4 juin 1848. Pendant les journées de juin, il est chargé de contenir l'insurrection populaire causée par la fermeture des Ateliers nationaux. Il soutient la candidature de Louis-Napoléon Bonaparte à l'élection présidentielle de décembre 1848. Après la promulgation de la Constitution, il est élu représentant à l'Assemblée législative unique le 13 mai 1849. S'opposant aux mesures conservatrices prises par le nouveau régime républicain, il intervient à l'Assemblée pour dénoncer la misère sociale, défendre l'instruction obligatoire, le suffrage universel et la liberté de la presse, et devient un des principaux opposants au régime et au président Louis-Napoléon Bonaparte, résumant leur action par l'expression « "Police partout, justice nulle part" ». Lors du coup d'État du 2 décembre 1851, il tente d'organiser une résistance puis doit quitter le territoire, début d'un exil de près de dix-neuf ans pendant lequel il lutta inlassablement contre le régime du Second Empire, aussi bien par ses écrits et ses interventions que par son refus de rentrer en France, malgré l'amnistie dont il bénéficie en 1859. Revenu en France en 1870 après la défaite de la France et la proclamation de la Troisième République, il est élu en 1871 à l'Assemblée nationale, siégeant alors à Bordeaux, et n'y reste que quelques semaines, démissionnant de ses fonctions à la suite du refus de l'Assemblée de laisser siéger Garibaldi dans ses rangs. En 1876, il est élu au Sénat, puis réélu six ans plus tard. Vision d'une Europe unifiée. Victor Hugo, qui a écrit qu’« une guerre entre Européens est une guerre civile », a fréquemment défendu l'idée de la création des "États-Unis d'Europe". Ainsi, dès 1849, au congrès de la paix, il lance : Victor Hugo imagine une Europe axée sur le Rhin, lieu d'échanges culturels et commerciaux entre la France et Allemagne qui serait le noyau central de ces États-Unis d'Europe. Il se désole de constater que l’antipathie entre les deux pays n’est que la conséquence de manœuvres diplomatiques menées par l’Angleterre et la Russie pour affaiblir la France ; de l’inquiétude que suscite une France modèle de liberté, de justice et de droit des peuples ; de l’opposition de la Prusse. Il présente une Europe des peuples par opposition à l'Europe des rois, sous forme d'une confédération d'États avec des peuples unis par le suffrage universel et l'abolition de la peine de mort. L'idée n'est pas neuve, ayant été défendue avant lui par Saint-Simon, Guizot et Auguste Comte, mais Victor Hugo en fut un de ses plus ardents défenseurs à une époque où le contexte historique s'y prêtait peu. Considéré comme visionnaire ou fou, Victor Hugo reconnaît les obstacles qui entravent cette grande idée et précise même qu'il faudra peut-être une guerre ou une révolution pour y accéder. Il croyait si fermement à cette idée d’une fédération européenne qu'il tint à lui donner corps, en plantant symboliquement le « chêne des États-Unis d'Europe » dans le jardin de Hauteville-House, le 14 juillet 1870, arbre encore visible aujourd'hui. Il souhaite pour l'Europe à venir la création d’une monnaie unique : « Une monnaie continentale, à double base métallique et fiduciaire, ayant pour point d’appui le capital Europe tout entier et pour moteur l’activité libre de deux cents millions d’hommes, cette monnaie, une, remplacerait et résorberait toutes les absurdes variétés monétaires d’aujourd’hui [...]. » Lutte contre la peine de mort. Grand opposant à la peine capitale, Victor Hugo a mené sans relâche un combat pour abolir ce châtiment. Dans "Le Dernier Jour d'un condamné", publié en 1829, et "Claude Gueux", publié en 1834, il montre à la fois la cruauté, l'injustice et l'inefficacité du châtiment suprême. Dans la préface de la deuxième édition du "Dernier Jour d'un condamné" en 1832, il expose en détail tous ses arguments contre la peine de mort. Dans ses fonctions d'élu, il profite de la tribune que lui donne sa présence à la Chambre des Pairs puis à l'Assemblée constituante et l'Assemblée nationale législative pour poursuivre son combat abolitionniste. En tant que pair de France, il s'élève sans succès contre l'exécution de Pierre Lecomte, qui a tenté d'assassiner Louis-Philippe. En tant que député à l'Assemblée nationale, il y prononce le 15 septembre 1848 son discours le plus célèbre pour l'abolition de la peine de mort, déclarant que . En 1851, son fils Charles Hugo est condamné pour avoir publié un article contre la peine de mort dans le journal "L'Événement". Victor Hugo défend son fils lors du procès et prononce un discours contre la peine de mort devant la cour d'assises de la Seine, le . Alors en exil à Jersey, il proteste contre l'exécution de John Tapner, condamné à mort à Guernesey pour assassinat. Malgré ses efforts, Tapner est finalement exécuté le . Le lendemain de l'exécution, il écrit une lettre à Lord Palmerston, ministre de l'intérieur anglais, pour exprimer son indignation. Marqué par cet évènement, il réalise une série de quatre dessins représentant le cadavre d'un condamné pendu à une potence, emblématiques de sa lutte contre la peine capitale. Ces dessins semblent avoir eu une importance particulière pour Victor Hugo, puisqu'il a affiché l'un d'entre eux dans sa chambre de Marine Terrace puis à Hauteville House. À Guernesey, Victor Hugo lance un appel en pour protester contre l'exécution de John Brown, militant antiesclavagiste, condamné à mort aux États-Unis, dans une affaire ayant un grand retentissement. Combat contre la misère. Sensible à la misère bien avant d'écrire "Les Misérables", Victor Hugo se préoccupe dès les années 1830 de mettre fin à la pauvreté des classes populaires. Dans son « discours sur la misère », prononcé à l'Assemblée nationale le 9 juillet 1849, il affirme être « de ceux qui pensent et qui affirment qu'on peut détruire la misère » et déclare : Tout au long de sa vie, il pratique la charité et aide matériellement ceux qui sont dans le besoin. En exil à Guernesey, il organise à partir de 1862, chez lui à Hauteville House, des repas destinés aux enfants pauvres, écrivant à ce sujet : . Victor Hugo est convaincu qu'un des moyens d'éradiquer la misère et la criminalité est l'instruction gratuite et obligatoire pour tous. Le 15 juillet 1850, dans un discours contre la loi Falloux, il réclame une instruction . Même s'il croit profondément en Dieu, il s'oppose radicalement à l'influence de l'Église dans l'enseignement et se prononce en faveur de l'instruction publique et laïque, contrôlée par l'État. Droit des femmes. De nombreuses prises de position témoignent de l'engagement de Victor Hugo en faveur de la cause des femmes. En 1882, il accepte d'être président d'honneur de la Ligue française pour le droit des femmes, héritière de l'Association pour le droit des femmes, association féministe fondée par Léon Richer. Dans une lettre adressée à ce dernier le 8 juin 1872, il écrivait : . Victor Hugo a été proche de deux femmes illustres et engagées, Louise Michel, avec qui il entretient une correspondance lorsqu'elle est déportée en Nouvelle-Calédonie, et George Sand, aux obsèques de laquelle il prononce un discours lui rendant hommage, déclarant : . Croyance religieuse. Victor Hugo, élevé par un père franc-maçon et une mère non pratiquante, se construit une foi profonde, mais personnelle. Croyant fermement dans l'existence de Dieu, il rejette aussi bien le rationalisme que le dogmatisme religieux. Victor Hugo reproche à l'Église le carcan dans lequel celle-ci enferme la foi. Son anticléricalisme transparaît dans ses écrits comme "Religions et religion", "La Fin de Satan", "Dieu", "Le Pape", "Torquemada", ainsi que dans son adhésion à des mouvements anticléricaux. Il est l'auteur de l'expression « L'Église chez elle et l'État chez lui » prononcée le 14 janvier 1850 à l'Assemblée nationale afin de marquer son profond attachement à la laïcité Victor Hugo reste cependant profondément croyant en un Dieu souffrant et compatissant, en un Dieu force infinie créatrice de l'univers, à l'immortalité de l'âme et la réincarnation. Son testament, représentatif de sa conception de la religion, fait figure de profession de foi : Spiritisme. Alors en exil à Marine Terrace sur l'île de Jersey, Victor Hugo y reçoit en 1853 son amie Delphine de Girardin qui l'initie aux « tables parlantes », une pratique issue du spiritualisme anglo-saxon permettant de communiquer avec les morts en "écriture automatique" au moyen d'un crayon fixé à l'un des pieds d'un guéridon. En témoigne l"'Album spirite" conservé aux Manuscrits de la Bibliothèque nationale de France. Victor Hugo participe à de nombreuses séances de « tables parlantes » de 1853 à 1855, dont les échanges avec les esprits des personnes disparues sont consignés dans "Le livre des tables". Ces séances enregistrent des communications avec des esprits très divers, ainsi la première avec sa fille Léopoldine, d'autres avec des personnages historiques, dont Jésus, et des écrivains comme Dante et Shakespeare, ainsi que des entités abstraites telles la Mort, Le Drame ou la Critique, la Bouche d'Ombre ; ces textes lui serviront dans ses "Contemplations" et remodèleront sa vision du monde : Vie familiale et privée. Épouse. Victor Hugo et Adèle Foucher, amis d'enfance depuis dix ans et dont les parents sont proches, commencent une relation amoureuse en 1819. Leur romance, d'abord secrète en raison de l'opposition de la famille Foucher et de la mère de Victor Hugo, devient officielle après la mort de celle-ci en 1821. Ils se marient le 12 octobre 1822 à Paris, civilement à la mairie du arrondissement et religieusement à l'église Saint Sulpice. Leur vie commune durera près de quarante-six ans, jusqu'au décès d'Adèle en 1868. Plusieurs poèmes publiés par Victor Hugo entre 1822 et 1835 sont consacrés à son épouse. Elle donne naissance à cinq enfants, dont quatre survivent. Se sentant délaissée par son mari, très absorbé par son intense activité littéraire, Adèle entretient à partir de 1830 une relation amoureuse de plusieurs années avec Sainte-Beuve, ami intime du couple. Les deux amants prennent leurs distances à partir de 1836, tandis que Victor Hugo commence une relation amoureuse avec Juliette Drouet à partir de 1833, qui durera jusqu'à la mort de celle-ci en 1883. D'abord hostile à la liaison de son mari avec Juliette Drouet, Adèle finit par accepter cette situation et la recevra à Hauteville House en 1866. En 1863, Adèle Foucher publie "Victor Hugo raconté par un témoin de sa vie", recueil de souvenirs personnels sur son mari et témoignage précieux sur la vie de l'écrivain, auquel contribuent également Charles Hugo, Auguste Vacquerie et Victor Hugo lui-même. Pendant les dernières années d'exil, Adèle Foucher fait de longs séjours en Belgique et en France, souvent accompagnée de sa fille Adèle Hugo, et meurt à Bruxelles le 27 août 1868. Ayant pris la décision de rester en exil, Victor Hugo accompagne le cercueil de sa femme jusqu'à la frontière franco-belge, sans la franchir. Elle est enterrée à Villequier auprès de sa fille Léopoldine. Enfants. Victor Hugo et Adèle Foucher ont eu cinq enfants : Victor Hugo fut profondément marqué par la disparition de sa fille Léopoldine, morte noyée avec son mari Charles Vacquerie dans les eaux de la Seine, le 4 septembre 1843 à Villequier, à l'âge de dix-neuf ans, quelques mois après leur mariage. Le décès de Léopoldine, celle des enfants dont il était le plus proche, eut une grande influence sur son œuvre et sa vie. Ayant appris la disparition de sa fille alors qu'il était en voyage, Victor Hugo interrompt alors ses habitudes de voyages annuels, qu'il ne reprendra qu'en 1861. Le recueil poétique "Les Contemplations" lui rend hommage, en particulier par le poème "Demain, dès l'aube…". Le recueil est divisé en deux parties, "Autrefois (1830-1843)" et "Aujourd'hui (1843-1855)", l'année qui les sépare étant celle de la mort de Léopoldine. Victor Hugo fut proche de ses deux fils Charles et François-Victor, qui partageaient ses opinions politiques. En 1848, ils fondent avec leur père le journal d'opinion "L'Événement". En 1852, après leur sortie de prison où ils étaient enfermés pour délit de presse, ils rejoignent leur père en exil et restent à ses côtés à Jersey, puis pendant les dix premières années à Guernesey. Pendant l'exil, Charles se consacre à la photographie, tandis que François-Victor traduit en français l'œuvre complète de William Shakespeare, qui inspirera l'écriture de "William Shakespeare" par son père. Les deux frères s'installent à Bruxelles en 1865, puis fondent en 1869 le journal politique "Le Rappel", auquel leur père contribue. Charles meurt brusquement en 1871, puis François-Victor en 1873. Victor Hugo leur rend hommage dans "Mes fils", texte publié en 1874. Adèle Hugo, dernière née des enfants d'Adèle Foucher et Victor Hugo, fut profondément bouleversée par la mort de sa grande sœur et ne se remit jamais complétement de cette disparition tragique. Accompagnant son père à Jersey puis à Guernesey, elle tient un "Journal de l'exil", témoignage de la vie des proscrits et de sa famille pendant cette période. Elle s'enfuit au Canada en 1863 pour suivre un officier britannique qu'elle avait connu à Jersey et qu'elle espérait épouser. Elle dut être placée à partir de 1872 dans une maison de santé, à l'initiative de son père et d'Émile Allix, médecin de la famille. Après la mort soudaine de son fils Charles en 1871, Victor Hugo s'occupa des deux enfants de ce dernier, Georges et Jeanne. Le plaisir d'élever ses petits-enfants lui inspira l'écriture de "L'Art d'être grand-père", publié en 1877. Maîtresses. En 1833, Victor Hugo et Juliette Drouet commencent une liaison amoureuse qui durera jusqu'au décès de celle-ci en 1883. Le suivant pendant son exil, tout en vivant dans un logement séparé, elle l'accompagne dans ses nombreux voyages en France et en Europe. En décembre 1851, elle lui fait connaître un certain Lanvin, ouvrier typographe, qui lui offre son passeport. Elle le fait ensuite héberger en cachette par des amis. En 1860, Hugo lui dédicace les épreuves de "La Légende des siècles" et lui rend un hommage appuyé : « Si je n’ai pas été pris et, par conséquent, fusillé, si je suis vivant à cette heure, je le dois à Mme Juliette Drouet qui, au péril de sa propre liberté et de sa propre vie, m’a préservé de tous les pièges, a veillé sur moi sans relâche, m’a trouvé des asiles sûrs et m’a sauvé, avec quelle admirable intelligence, avec quel zèle, avec quelle héroïque bravoure, Dieu le sait et l’en récompensera ! ». Elle le suit dans son exil à Guernesey où Victor Hugo lui loue une maison, La Fallue, à proximité de la demeure familiale. Le 16 juin 1864, elle emménage à Hauteville Fairy, que Hugo a fait décorer. Le 22 décembre de la même année, elle reçoit d'Adèle Hugo une invitation au Noël que la famille organise au profit des enfants pauvres, ce qui est une façon d’officialiser cette liaison. Le 25 septembre 1870, pendant le siège de Paris, Victor Hugo laisse des instructions à ses enfants, dont celles-ci, à propos de Juliette Drouet : « Elle m’a sauvé la vie en décembre 1851. Elle a subi pour moi l’exil. jamais son âme n’a quitté la mienne. que ceux qui m’ont aimé l’aiment. que ceux qui m’ont aimé la respectent. Elle est ma veuve. » Elle lui a écrit quelque vingt mille lettres exprimant son amour immense et sa jalousie. Dans "Les Misérables", Victor Hugo glisse une allusion très intime de leur vie amoureuse. La date du 16 février 1833, nuit de noces de Cosette et Marius (Cinquième partie, livre VI, chapitre I), fut aussi celle où Juliette se donna à Victor pour la première fois. L’entourage de Hugo dissuade celui-ci d’assister aux obsèques de sa maîtresse. Juliette Drouet n'a cependant pas été la seule maîtresse de Victor Hugo et ses relations en dehors du mariage auraient même été assez nombreuses. En mars 1843, il fait la connaissance de Léonie d'Aunet, épouse du peintre François-Auguste Biard, et devient son amant le avril 1844. Leur liaison se poursuivra pendant plus de sept ans. Les deux amants sont surpris en flagrant délit d'adultère le 5 juillet 1845. Son statut de pair de France permet à Hugo d’échapper aux poursuites tandis que Léonie d'Aunet passe deux mois en prison et six au couvent. Bien des années après la fin de leur liaison, Victor Hugo continue d'aider financièrement son ancienne maîtresse. Liste des œuvres. Poésies. Recueils posthumes : Choix de poèmes parmi les manuscrits de Victor Hugo, effectué par Paul Meurice : Influence et postérité. Notoriété et critiques. Relations avec les autres écrivains. Admirateur de Chateaubriand à qui il dédie plusieurs odes, "Le génie", "Quiberon" (1820), "Ode à Monsieur de Chateaubriand", il se détache peu à peu de son ancien maître qui lui reproche une littérature subversive. Il entretient des relations d'estime et d'admiration mutuelles avec Balzac, Nerval et Vigny et des relations d'amitié avec Dumas, son compagnon de romantisme, qui dureront, avec beaucoup de hauts et quelques bas, toute la vie. La rivalité est plus exacerbée avec Lamartine, auquel Hugo ne cesse de proclamer son admiration, mais ne lui concède plus, le succès venant, de réelle prééminence artistique et avec Musset qui lui reproche ses artifices et son engagement politique. Il détient en Barbey d'Aurevilly, Gustave Planche, et Sainte-Beuve à partir de 1835, des adversaires tenaces et constants, dans les frères Goncourt des lecteurs très critiques et en George Sand une commentatrice très perspicace. Mais il possède en Théophile Gautier un admirateur inconditionnel. Les relations sont plus conflictuelles avec les admirateurs de la première heure, que Victor Hugo déçoit parfois par la suite et qui alternent éloges et critiques : Charles Baudelaire, Flaubert. D'autres revendiquent leur filiation avec Victor Hugo tout en empruntant des voies qui leur sont propres, se détachant même du romantisme : Théodore de Banville, Leconte de Lisle, Mallarmé, Verlaine. L'étiquette d'auteur engagé que lui vaut son exil participe à sa notoriété, mais lui aliène l'estime de poètes comme Baudelaire et provoque sa rupture avec Vigny, fidèle à l'Empereur. Popularité auprès des contemporains. Estimé par certains et critiqué par d'autres, Victor Hugo reste une figure de référence de son siècle. Quand il retourne en France après l'exil, il est considéré comme le grand auteur qui a traversé le siècle et comme un défenseur de la république. Les monarchistes ne pardonnent pas facilement à celui qui a trahi son milieu et si les républicains les plus à gauche doutent de sa conversion, il devient cependant un enjeu politique, adulé par la gauche républicaine qui organise pour l'anniversaire de ses 79 ans, une grande fête populaire. Ce culte hugolien exaspère ses pairs. Paul Lafargue écrit en 1885 son pamphlet "La légende de Victor Hugo" et Zola s'exclame : Renommée et critiques ultérieures. Au début du , Victor Hugo reste une gloire nationale et l'anniversaire de sa naissance donne lieu à de nombreuses manifestations officielles. Le milieu artistique a cependant pris un peu ses distances. Le mouvement parnassien et le mouvement symboliste, en remettant en cause l'éloquence dans la poésie, se sont posés en adversaires de l'école de Hugo et la mode en ce début de siècle est à une poésie moins passionnée. André Gide assume la paternité du mot « Hugo, hélas ! » donné en réponse à la question « Quel est votre poète ? » posée par "L'Ermitage" en février 1902 et que certains attribuaient à Verlaine. Il se souvient de l'émotion que suscitait la poésie de Hugo chez l'adolescent qu’il était, mais pour l’écrivain, le défaut essentiel de Victor Hugo est qu’il « a trop de confiance en son génie. » Son admiration pour lui « s’en tient à la forme » et à son incomparable don d’observation, mais tous ses « défauts énormes [tels que] antithèses constantes, procédés » l’agacent profondément. Cela montre la double attitude des poètes du , reconnaissant à Victor Hugo une place prééminente, mais exaspérés parfois aussi par ses excès. Charles Péguy, dans "Notre patrie" publié en 1905, n'est pas tendre envers le grand homme, l'accusant d'être un , disant de lui que , mais plus loin s'exclamant et parlant d'. Saint-John Perse lui reproche d'avoir perverti le romantisme par son engagement politique. On retrouve de son influence aussi bien chez des admirateurs comme Dostoïevski que chez de violents détracteurs comme Jean Cocteau. Aux yeux de Paul Valéry, « Hugo est un milliardaire. », exprimant ainsi l’idée que la richesse de ses dons ne fait pas de Victor Hugo un des grands maîtres de la littérature. Vers 1930, Eugène Ionesco écrit le pamphlet "Hugoliade" et reproche à Hugo une éloquence masquant la poésie ainsi que sa mégalomanie. Entre les deux guerres, c'est en sa qualité de révolutionnaire qu'il est apprécié par les gens de gauche (Romain Rolland, Alain) et exécré des réactionnaires (Charles Maurras), c'est en sa qualité de visionnaire qu'il est apprécié des surréalistes. Il est admiré par Aragon, par Desnos. Durant la guerre, son image sert de porte-drapeau à la résistance. Au retour de la guerre, les passions s'assagissent, on découvre l'homme. François Mauriac déclare, en 1952 : « Il commence à peine à être connu. Le voilà au seuil de sa vraie gloire. Son purgatoire est fini ». Henri Guillemin publie une biographie très nuancée de l'écrivain. Jean Vilar popularise son théâtre. Victor Hugo est désormais adapté au cinéma, au théâtre et pour la jeunesse. Le centenaire de sa mort est fêté en grande pompe. Hommages. Musées et lieux de mémoire. Plusieurs lieux où a vécu ou séjourné Victor Hugo font aujourd'hui l'objet d'une commémoration ou d'un hommage particulier, certaines de ces habitations ayant été transformées en musées consacrés à sa vie et à la conservation de son œuvre. Les principaux lieux consacrés à Victor Hugo sont : D'autres lieux ouverts au public font également mémoire de la présence de Victor Hugo, tels que la « Maison natale de Victor Hugo » à Besançon, propriété de la municipalité transformée en musée en 2013, le Château des Roches à Bièvres, où il séjourna à plusieurs reprises et baptisé « Maison littéraire de Victor Hugo », la « Maison Victor Hugo » à Vianden au Luxembourg où il séjourna et devenu en 1935 un musée documentant ses séjours dans la ville et le pays, ou encore la « Casa de Victor Hugo » à Pasaia en Espagne, commémorant son séjour dans cette maison et dans la région. La grande majorité des manuscrits et dessins de Victor Hugo sont conservés à la Bibliothèque nationale de France, à qui Victor Hugo légua tous ceux qui étaient restés en sa possession. Le reste des manuscrits, lettres, dessins et photographies se trouvent à la Maison de Victor Hugo à Paris et dans d'autres musées, dont certains à l'étranger, ainsi que dans des collections privées. Monuments et statues. Plusieurs monuments et statues ont été élevés pour honorer Victor Hugo. Un monument à sa gloire, réalisé par Ernest Barrias sur la place Victor-Hugo à Paris, a été inauguré le 26 février 1902 à l'occasion du centenaire de sa naissance et fut détruit en 1941, remplacé par la « fontaine Victor-Hugo ». La « Colonne Victor Hugo » à Waterloo, en Belgique, édifiée en 1912, célèbre le séjour de l'écrivain dans la ville. Les plaques commémoratives signalant les lieux où il vécut ou qu'il a visités sont nombreuses, par exemple à la Maison du Pigeon à Bruxelles, à Vianden et à Clervaux au Luxembourg, à Hauteville Fairy à Guernesey et au lieu où se trouvait l'hôtel de la Pomme d'or à Jersey. Commémorations. En 1902, le centenaire de la naissance de Victor Hugo a été commémoré de manière officielle, à la fois par l'État et par la Ville de Paris. De nombreuses cérémonies sont organisées à cette occasion, dans sa ville natale à Besançon, au Panthéon à Paris et au Sénat, ou Victor Hugo siégea. Des hommages et célébrations semblables ont lieu en 1985 pour le centenaire de son décès, puis en 2002 pour le bicentenaire de sa naissance, à l'occasion duquel l'Assemblée nationale, le Sénat, l'Académie française et le Ministère de la Culture organisèrent plusieurs manifestations pour honorer sa mémoire. La Bibliothèque nationale de France a aussi participé à ces commémorations par deux expositions de grande ampleur, « Soleil d'encre : manuscrits et dessins de Victor Hugo » en 1985, en partenariat avec le Petit Palais, et « Victor Hugo l'homme océan » en 2002. Un rosier thé est baptisé en octobre 1885 du nom de 'Souvenir de Victor Hugo' en sa mémoire. Noms de lieux. De nombreuses voies publiques en France portent le . Certaines sont directement liées à la vie de l'écrivain. L'avenue Victor-Hugo à Paris, où se trouve le logement qu'il occupait dans ses dernières années, fut nommée ainsi de son vivant, en 1881. La place Victor-Hugo à Paris, située à proximité de cette avenue, fut renommée en son honneur le jour de son décès. La place Victor-Hugo à Besançon, où il est né, fut également renommée au moment de son décès. Bien d'autres voies publiques célèbrent Victor Hugo, telles que le cours Victor-Hugo à Bordeaux, la rue Victor-Hugo à Lyon et la place Victor-Hugo à Toulouse, parmi beaucoup d'autres. Selon une étude réalisée en 2016 sur les noms des voies publiques françaises, Victor Hugo serait la troisième personnalité la plus mentionnée dans les noms de voies en France, avec portant son nom, derrière Charles de Gaulle et Louis Pasteur. À l'étranger, certaines voies publiques portent également son nom, notamment dans les villes ou les pays où il a vécu ou qu'il a visités, ainsi la rue Victor Hugo à Bruxelles et l'avenue Victor Hugo à Luxembourg. Plusieurs écoles, collèges et lycées honorent également Victor Hugo en portant son nom, comme le Lycée Victor-Hugo de Besançon, ville natale de l'écrivain, baptisé ainsi en 1885, l'année de son décès. C'est aussi le cas de certains lycées français à l'étranger, comme le Lycée Victor-Hugo de Florence. Selon une étude réalisée en 2017, « Victor Hugo » serait le dixième nom de personnalité le plus porté parmi les scolaires français, publics et privés confondus, avec 365 établissements portant ce nom. Timbres. Trois timbres à l'effigie de Victor Hugo ont été mis en circulation par la Poste française : un timbre émis le 11 décembre 1933, un autre émis le 30 mai 1935 pour le cinquantenaire de sa mort et un autre émis le 23 février 1985 pour le centenaire de sa mort. Ont également été émis le timbre « Hernani de Victor Hugo » le 8 juin 1953 et les timbres « Esmaralda », « Vidocq» et « Gavroche » le 30 août 2003. Plusieurs timbres ont célébré Victor Hugo à l'étranger, par exemple en URSS et en République démocratique allemande, émis en 1952 pour le cent-cinquantenaire de sa naissance, émis en Albanie en 1987 et émis en Roumanie en 2002 pour le centenaire de sa naissance, parmi beaucoup d'autres. Monnaie. La Banque de France a mis en circulation le « Billet de 500 francs Victor Hugo » à l'effigie de Victor Hugo à partir de 1954, remplacé à partir de 1960 par le « Billet de 5 nouveaux francs Victor Hugo » lors du passage au nouveau franc, définitivement retiré en 1968. Une pièce commémorative de dix francs « Pièce de 10 francs Victor Hugo » a été émise en 1985 à l'occasion du centenaire du décès de l'écrivain. Astronomie. En astronomie ont été nommés, en l'honneur de Victor Hugo, l'astéroïde « (2106) Hugo » découvert en 1936 dans la ceinture principale et le cratère « Hugo » sur la planète Mercure, nommé ainsi en 1979. Iconographie. Deux portraits en buste de Hugo, gravés par Auguste Rodin (pointes-sèches, 1884 et 1886), figuraient sous les numéros 219 et 220 du catalogue de dessins et d'estampes de la galerie Paul Prouté de 1985. Le sculpteur reçut deux commandes de l’État pour des statues de l'écrivain, une « assis sur un rocher » pour le jardin du Palais du Luxembourg à Paris et qui, finalement, fin 1906, soit vingt-sept ans après sa commande, fut placée dans celui du Palais-Royal, et en 1886 une autre destinée au Panthéon, où le corps de l'écrivain était entré l'année précédente. Cinéma et télévision. En plus des nombreuses adaptations de ses œuvres à l'écran, la vie de Victor Hugo a aussi fait l'objet d'adaptations. Un documentaire-fiction intitulé "Victor Hugo, la face cachée du grand homme" lui a été consacré en 2012 dans l'émission "Secrets d'Histoire", présentée par Stéphane Bern. Le documentaire revient notamment sur son parcours politique, sa lutte contre l'injustice sociale, sa défense des idéaux de la république et son combat pour l'abolition de la peine de mort. Toujours à la télévision, la minisérie française "Victor Hugo, ennemi d'État" (2018) couvre les principaux événements de la vie de Victor Hugo de 1848 à 1851. Le téléfilm "La Bataille d'Hernani" (2002) est consacré à sa pièce "Hernani" et à la controverse qu'elle a suscité, connue comme la « bataille d'Hernani ». Au cinéma, Victor Hugo est un personnage secondaire des films "Suez" (1938), "La Symphonie fantastique" (1942), "Si Paris nous était conté" (1956) et "Personal Shopper" (2016). Il est aussi évoqué dans "L'Histoire d'Adèle H." (1975) de François Truffaut, consacré à sa fille Adèle Hugo. Adaptations. Les romans, pièces de théâtre et poèmes de Victor Hugo ont fait l'objet de plusieurs adaptations à l'écran, sur scène et en musique. Contrairement à ce qui a pu être affirmé, Victor Hugo n'était pas hostile à la mise en musique de ses poèmes, ni aux opéras inspirés par ses œuvres, du moment qu'il était mentionné comme auteur de l'œuvre adaptée. Cinéma et télévision. Les romans et pièces de théâtre de Victor Hugo ont donné lieu à de nombreuses adaptations au cinéma et à la télévision, avec quelque deux-cents productions adaptées ou librement inspirées de ses œuvres, tous formats confondus (longs métrages, courts métrages, animation, séries télévisées). Son œuvre la plus souvent adaptée est le roman "Les Misérables" avec une cinquantaine d'adaptations pour le cinéma et la télévision. En 1897, les frères Lumière tournent un film très court nommé "Victor Hugo et les principaux personnages des Misérables". Les adaptations les plus marquantes du roman sont : "Le Chemineau" d'Albert Capellani (1905), "Les Misérables" d'Henri Fescourt (1925), "Les Misérables" de Raymond Bernard (1934), "Les Misérables" de Richard Boleslawski (1935), "Les Misérables" de Riccardo Freda (1948), "Les Misérables" de Jean-Paul Le Chanois (1958), "Les Misérables" de Robert Hossein (1982), "Les Misérables" de Claude Lelouch (1995) et "Les Misérables" de Tom Hooper (2012). Si la plupart des productions sont françaises, ainsi que britanniques, américaines et italiennes, des adaptations ont été faites dans d'autres pays, comme le film japonais "La Légende du géant" (1938), et plus récemment, dans d'autres genres, l'anime japonais "" (2007) et le telenovela mexicain "Los miserables" (2014). Également très adapté à l'écran, "Notre-Dame de Paris" le fut pour la première fois en 1905 avec "La Esmeralda", film muet réalisé par Alice Guy. Parmi les adaptations les plus notables figurent "Notre-Dame de Paris" de Wallace Worsley (1923), "Quasimodo" de William Dieterle (1939), "Notre-Dame de Paris" par Jean Delannoy (1956) et, plus récemment, le film d'animation "Le Bossu de Notre-Dame" de Walt Disney Pictures (1997). Les adaptations des autres romans de Victor Hugo incluent "L'Homme qui rit" de Paul Leni (1928) et "L'Homme qui rit" de Sergio Corbucci (1966), ainsi que "Les Travailleurs de la mer" d'André Antoine (1918) et "La Belle Espionne" de Raoul Walsh (1953), adaptés du roman "Les Travailleurs de la mer". Les pièces de théâtre de Victor Hugo ont aussi fait l'objet d'adaptations, comme "Marion de Lorme" (1918), "Rigoletto" (1946), "Ruy Blas" (1948) et, surtout, "La Folie des grandeurs" (1971), adaptation de "Ruy Blas" réalisée par Gérard Oury et ayant connu un grand succès sur les écrans français. Certaines adaptations sont inspirés de l'œuvre poétique de Victor Hugo, comme le téléfilm français "L'Année terrible" (1985), inspiré du recueil de poèmes éponyme, et le film français "Les Neiges du Kilimandjaro" (2011), inspiré par un poème de "La Légende des siècles". En 2016, le film documentaire "Ouragan, l'odyssée d'un vent" a utilisé le texte de Hugo intitulé "La Mer et le Vent" pour l'essentiel de sa narration, accompagnant les images dédiées à l'ouragan. Pièces de théâtre. Les romans de Victor Hugo ont fait l'objet d'adaptations au théâtre, comme la pièce "Les Misérables" écrite et jouée en 1863 à Bruxelles par Charles Hugo, fils de l'écrivain. Les pièces de théâtre de Victor Hugo elles-mêmes furent adaptées dans d'autres pièces, telles que "Don César de Bazan", écrite en 1844. Opéras. Plus d'une cinquantaine d'opéras ont été inspirés par les œuvres de Victor Hugo. Victor Hugo lui-même écrit en 1836 les paroles de l'opéra "La Esmeralda" avec une musique de Louise Bertin, d'après son roman "Notre-Dame de Paris", seul opéra dont il ait été le librettiste. Il fut retiré de la scène à la sixième représentation, n'obtenant pas tout le succès attendu. Les adaptations qui ont eu le plus de succès et de notoriété sont les deux opéras que Verdi a composés : "Ernani," adapté de la pièce "Hernani" en 1844, et surtout "Rigoletto," d'après la pièce "Le Roi s'amuse" en 1851. Avant lui, Gaetano Donizetti avait composé "Elisabetta al castello di Kenilworth" en 1829, d'après "Amy Robsart", et "Lucrezia Borgia" en 1833, d'après "Lucrèce Borgia". Victor Hugo intenta sans succès un procès contre Donizetti pour s'être inspiré de ses pièces. Parmi les autres adaptations notables figurent "Ruy Blas", composé en 1869 par Filippo Marchetti d'après "Ruy Blas", et "La Gioconda," composé en 1876 par Amilcare Ponchielli d'après "Angelo, tyran de Padoue". Comédie musicales. Parmi les comédie musicales créées d'après des œuvres de Victor Hugo, "Les Misérables", une adaptation réalisée en 1980 par Alain Boublil et Claude-Michel Schönberg pour Robert Hossein, est celle qui a connu le plus grand succès. Sa version anglophone, lancée au Royaume-Uni en 1985, a connu un grand succès international et détient le record mondial de longévité d'une comédie musicale. Le spectacle a ensuite été traduit dans une vingtaine de langues et représenté dans une quarantaine de pays. On peut également citer la comédie musicale "Notre Dame de Paris", adaptée du roman du même nom en 1998 par Luc Plamodon et Richard Cocciante. Cette comédie musicale fut un énorme succès francophone et fut traduite en plusieurs langues dont l'anglais, l'italien, le coréen et le polonais. On peut citer parmi ses chansons les plus connues le titre "Belle", interprété par Garou, Daniel Lavoie et Patrick Fiori, qui resta plus de 60 semaines dans le Top 50, dont 18 en première position. Musique. Victor Hugo est un des poètes dont les textes ont été les plus adaptés en musique au . Ses poèmes les plus souvent mis en musique par les principaux compositeurs de son temps sont "Guitare", "L'Extase", "L'Attente", "Rêverie" et "L'Aurore". Des parties de ses pièces ont aussi été adaptées, en particulier des passages de "Ruy Blas", "Marie Tudor" et "Lucrèce Borgia". Le premier grand compositeur à adapter ses œuvres fut Hector Berlioz avec ses mélodies "La Captive" (1832) et "Sara la baigneuse" (1834), adaptées de poèmes des "Orientales". Le compositeur Franz Liszt, proche de Victor Hugo, composa plusieurs œuvres musicales tirées de ses poèmes, parmi lesquelles les poèmes symphoniques "Ce qu'on entend sur la montagne" (1850) et "Mazeppa" (1851), ainsi que huit "lieders". Beaucoup d'autres compositeurs ont mis en musique des poèmes de Victor Hugo, notamment Camille Saint-Saëns, Georges Bizet, Gabriel Fauré, Charles Gounod, Édouard Lalo, Jules Massenet, Léo Delibes, César Franck, Reynaldo Hahn et Richard Wagner. Le chanteur Georges Brassens a repris des poèmes de Victor Hugo pour écrire ses chansons "Gastibelza" (1954) et "La Légende de la nonne" (1956). Bande dessinée. Les romans de Victor Hugo influencèrent assez tôt les auteurs de "comics" américains, puisque la création du Joker, un personnage de l'éditeur DC Comics, a été directement inspiré par le film "L'Homme qui rit" (1928), adapté du roman éponyme de l'écrivain. Dans les années 1940, quatre romans de Victor Hugo ont été adaptés en "comic book" dans la collection "Classics Illustrated" : "Les Misérables", "Notre-Dame de Paris", "Les Travailleurs de la mer" et "L'Homme qui rit". En 1976, une adaptation du roman "Notre-Dame de Paris" a été publiée par Marvel Comics. En France, plus récemment, sont parus aux éditions Delcourt les albums "Le Dernier Jour d'un condamné" (2007) et "L'Homme qui rit" (2007-2008), et aux éditions Glénat les albums "Les Misérables" (2017) et "Notre-Dame de Paris" (2017), dans la collection "Les Grands Classiques de la littérature en bande dessinée". Voir aussi. Bibliographie. Catalogues bibliographiques. Il existe deux catalogues bibliographiques des œuvres de Victor Hugo : |
Vielle |
Volvo Volvo AB ou plus simplement Volvo, fondée en 1927 en Suède avec l'aide de la société SKF, est un conglomérat industriel suédois de fabrication de camions, d'autocars et d'autobus, d'engins de chantier et de moteurs marins et industriels. En latin, "" signifie « je roule ». À l'origine détenues par AB Volvo depuis 1927, les activités automobiles grand public réalisées sous la dénomination Volvo Cars, appartiennent depuis 2010 au groupe automobile chinois Geely, après avoir appartenu à Ford durant onze ans. Volvo produit des camions, des autobus et autocars depuis 1928. AB Volvo est aujourd'hui l'un des principaux constructeurs de camions, d'autobus, d'autocars, d'engins de chantier, de moteurs marins et industriels dans le monde. Il est le deuxième constructeur mondial de poids lourds. Au début de 2002, AB Volvo a restructuré son secteur camions en le divisant en trois marques distinctes : Renault Trucks, Mack Trucks Inc. et Volvo Trucks. Enfin, UD Trucks a rejoint le groupe en 2006, afin notamment d'augmenter sa présence en Asie. AB Volvo produit également des groupes électrogènes et des moteurs destinés à l'industrie navale (Volvo Penta) ainsi que des engins de chantier (Volvo Construction Equipment). Dans ce dernier département, la firme est célèbre pour ses "dumpers" articulés. Le groupe Volvo intègre également plusieurs Business Units tels que Group Trucks Technology pour la recherche et développement, Group Trucks Purchasing pour les achats ou Group Information Technology pour ses solutions et services informatiques. Histoire. Dans l'industrie automobile, les évolutions se sont succédé rapidement dans les . Assar Gabrielsson, directeur des ventes chez SKF, envisageait d'ouvrir une usine destinée à accueillir la production d'automobiles pour lesquelles SKF fournirait des roulements à billes et des rotules à rouleaux. Il prit donc contact avec le designer Gustaf Larsson, qui s'attela à la conception d'une voiture. Les plans furent achevés au printemps 1925, et Assar Gabrielsson et Gustaf Larsson réalisèrent la production de dix voitures. Une fois ces exemplaires préparés, il fut décidé en 1926 que Volvo, filiale de SKF, poursuivrait la production automobile. Cette société fabriquait auparavant un roulement à une rangée de billes dénommé « Volvo » (dérivé du latin, signifiant « je roule ») . Le logo fut choisi pour représenter la force suédoise et à l'origine copia l'ancienne représentation de l’élément fer. La production en série du modèle décapotable (ÖV4 Jakob) fut inaugurée en 1927. Plus tard, une version à conduite intérieure fut ajoutée à la gamme, contribuant à élever les ventes de véhicules, mais la société ne fut viable qu'à compter de 1930. Depuis cette époque, la société Volvo a connu une évolution dynamique, et est devenue la plus importante entreprise de Scandinavie. En 1971, le Club des Quatre est formé : L'Euro Truck Development Group Saviem, DAF, Volvo et Magirus-Deutz s'entendent pour produire en commun un modèle de classe « médium » à partir d'une cellule et d'une cabine basculante commune. Ceci a permis de réduire les coûts de développement, mais cette association prit fin après l'introduction des cabines sur les camions. Les années 1980 voient une relative remise en cause du travail à la chaîne, probable effet secondaire de Mai 68. Ainsi, pour tenter de briser la monotonie du travail à la chaîne, on instaure la rotation des postes. Celle-ci est encore en cours, particulièrement, par exemple, à l'usine Volvo de Gand, en Belgique. L'un des modèles les plus représentatifs de l'histoire de Volvo, le vaisseau amiral 760, a été introduit en 1982 : sa forme carrée et son contenu séduisent le public et en font la première alternative aux voitures de luxe allemandes classiques. En 1995, Volvo acquiert une partie des actifs des autobus Prévost (Prévost Car Inc.) en Amérique du Nord. Neuf ans plus tard, Volvo prend la totalité des actifs de cette entreprise qui se spécialise dans la fabrication des autobus de grand tourisme. En 1999, le groupe Volvo AB cède sa branche automobile au groupe Ford pour de dollars. En 2010, l'américain Ford vend l'ancienne branche automobile de Volvo au chinois Geely pour de dollars. La transaction a été finalisée en . En , Renault, principal actionnaire du groupe, cède ses 6,5 % de participation dans l'entreprise Volvo AB pour d'euros. En , Volvo vend sa filiale de location de véhicule en Amérique du Nord pour de dollars. En , Geely prend une participation minoritaire de 8,2 %, lui donnant droit à 15,6 % des droits de votes, dans Volvo pour d'euros. En , Volvo vend sa filiale japonaise UD Trucks à Isuzu Motors pour de dollars. En , Volvo acquiert l'activité dédiée aux poids lourds de Jiangling Motors pour de dollars. Groupe. AB Volvo ou Volvo Group fabrique principalement des engins de transport. Après avoir été actionnaire principal, le groupe Renault a vendu toutes ses parts en . Ses filiales sont : Le groupe exerce aussi des activités liées à ses produits : Technologie. Brevet de la ceinture de sécurité. L'ingénieur Nils Bohlin recruté par Volvo brevette en 1959, la ceinture de sécurité moderne en installant des points d'ancrage pour des ceintures trois points avec une sangle abdominale et une sangle diagonale. L'entreprise décide alors de laisser le brevet libre de droits et les autres constructeurs ont pu profiter de cette avancée. Elle est montée en équipement standard pour la première fois la même année dans la Volvo Amazon et dans la . Ce sont les premiers modèles de série à en être équipés. Véhicule automatisé. Volvo est partie prenante avec d'autres acteurs, Luminar, Zenseact, dans un partenariat, pour commercialiser un système automatisé de conduite sur autoroute de niveau 3 monté en série, sous la dénomination commerciale de « Sentinel ». Actionnaires. Liste des principaux actionnaires au : Campagnes de communication. En , Volvo Trucks fait appel à Jean-Claude Van Damme afin de réaliser un grand écart entre deux camions en marche arrière. Le but de cette campagne intitulée « Epic Split » étant de démontrer la stabilité et la précision de leur modèle « Dynamic Steering ». En à peine trois semaines, la vidéo fait le buzz et engendre plus de de vues sur YouTube. Deux ans après l'Epic Split, Volvo Trucks veut encore démontrer la résistance d'un de ces camions et confie alors les commandes d'un d'entre eux à une fillette de quatre ans, Sophie. Imaginé par l'agence suédoise Forsman and Bodenfors, le clip vidéo largement diffusé met alors en scène la fillette équipée d'une télécommande et pilotant l'engin à distance au travers de différents obstacles. En , l'agence Grey et Volvo lancent la campagne « Volvo life paint » afin de sensibiliser les cyclistes britanniques, proposant ainsi une bombe de peinture visible la nuit grâce à la réflexion des phares de voiture. |
Venezuela Le Venezuela ou Vénézuéla ( ; ), en forme longue la république bolivarienne du Venezuela, en espagnol "", nom officiel en l'honneur de Simón Bolívar, est une république fédérale située dans la partie la plus septentrionale de l'Amérique du Sud, bordé au nord par la mer des Caraïbes, à l'est-sud-est par le Guyana, au sud par le Brésil, au sud-ouest et à l'ouest par la Colombie. La langue nationale du Venezuela est l'espagnol et sa capitale et principale métropole est Caracas. Le pays est majoritairement catholique. Sa population est composée essentiellement de métis. Le Venezuela est une puissance énergétique majeure avec des réserves prouvées de de barils de pétrole, ce qui en fait le premier pays au monde dans le classement par réserves de pétrole prouvées devant l'Arabie saoudite, mais près des trois quarts de ces réserves ( de barils) sont des sables bitumineux, dont l'exploitation est malaisée et très polluante. Le pays est riche d'autres matières premières – gaz, ressources hydrauliques avec le barrage de Guri, le plus important au monde, avec une puissance installée de quelque – d'une importante diversité géographique et d'une mégadiversité remarquable. Sa devise est ' (« Dieu et Fédération ») et son hymne le ' (« Gloire au peuple brave »). Le Venezuela est membre de l'ONU, de l'OPEP et de l'ALBA. Il est actuellement suspendu du Mercosur, dont il est membre de plein droit. Origine étymologique du nom. Hypothèse d'une origine européenne. En 1499, une expédition menée par Amerigo Vespucci et Alonso de Ojeda explore cette région pour la première fois (côte nord-ouest). Elle découvre des indigènes (dont des Kalinago, des Arawaks et des Cumanagotos), vivant principalement d'agriculture et de chasse, installés le long de la côte, de la Cordillère des Andes et du fleuve Orénoque. Les maisons sur pilotis des Indiens du golfe de Maracaibo font penser à une petite Venise, "Venezziola" ou "Venezuola", ce qui donne le nom du pays. Le , Christophe Colomb nomme (« Île de Grâce ») cette terre sur laquelle il débarque et qu'il prend pour une île, qu'il surnomme (« Terre de Grâce ») lors de son troisième voyage, surnom qui est encore utilisé pour désigner le pays. Hypothèse d'une origine indigène. Une autre version affirme que le nom Venezuela a pour origine un vocable indigène. Une première preuve vient de Martín Fernández de Enciso, membre de l'expédition de Vespucci et Ojeda. Dans son livre "" édité en 1519, il affirme que l'expédition a rencontré une population indigène qui se nomme elle-même "Veneçiuela", ce qui suggère que le nom Venezuela a pu dériver de ce nom local : Une seconde preuve vient d'Antonio Vázquez de Espinosa, moine espagnol, qui écrit dans son ouvrage "Compendio y Descripcion de las Indias Occidentales" (1629) : Histoire. À l'époque précolombienne, le territoire de l'actuel Venezuela est habité par plusieurs peuples dont des Kalinago, des Arawaks et des Cumanagotos. Christophe Colomb est le premier conquérant au service de l'Espagne à atteindre cette région le , lors de son troisième voyage. Au début du , les Espagnols commencèrent à coloniser les îles et les régions côtières. L'un des premiers établissements coloniaux du Venezuela est la ville de Nueva Cadiz dans l'île de Cubagua. Les villes Cumaná et Coro, fondées en 1515 et en 1527, sont les premières colonies d'importance dans le pays. Colonisation. Le premier trait historique d'une colonisation du territoire vénézuélien est allemand avec la famille Welser originaire d'Augsbourg. Avec l'accord du régime impérial basé à Vienne, Bartholomé Welser commence cette entreprise et il finance les expéditions pour la recherche d'or et le mythique Eldorado. Cette première colonisation de plusieurs gouvernants allemands ne dure que et est abandonnée en 1556. Ce sont les Espagnols qui, au cours des trois siècles suivants, réalisèrent la colonisation et l'administration de l'actuel territoire vénézuélien, notamment à travers les cabildos coloniaux. Guerres d'indépendance. Plusieurs conspirations contre les représentants de la couronne espagnole précédent les guerres d'indépendance. À la fin du et au début du , inspirés par les révolutions américaines, françaises et haïtiennes, les futurs héros de la nation incarnent un effort d'émancipation et d'indépendance des colonies espagnoles en Amérique. Le , une assemblée est formée à la suite de la destitution de Vicente Emparan par l'intermédiaire de l'Acte du 19 avril 1810, gouverneur de la capitainerie générale du Venezuela. Le , le Venezuela se déclare indépendant et cela déclenche la réaction de la couronne espagnole. Simón Bolívar est le grand leader de ce mouvement et des luttes pour la construction d'une nouvelle nation. Grande Colombie. Le , à Angostura, aujourd'hui Ciudad Bolívar, est réuni un congrès constituant pour la nouvelle République. La république de Colombie, ou Grande Colombie, est un État défini par le Congrès d'Angostura, dans le territoire du vice-royauté de Nouvelle-Grenade de l'Empire espagnol. Celui-ci comprend les territoires des quatre pays actuels que sont la Colombie, l'Équateur, le Panama et le Venezuela. Caudillos. Des intérêts vénézuéliens et les vastes distances entre les départements de la nouvelle République font éclater le rêve de Bolivar et redéfinissent les territoires comme les territoires de pays bien distincts. Au Venezuela, le plus charismatique de ses généraux, le général José Antonio Páez, est à la tête des revendications et de la séparation définitive en 1831. Lui et d'autres "caudillos" militaires réalisent la conquête du pouvoir au cours des années qui suivent. Guerre fédérale et libéralisme jaune. Au cours du , le Venezuela traverse des difficultés qui finissent par causer le plus grand conflit interne que le pays ait connu : la « guerre fédérale », également connue sous le nom de « Grande guerre » (1859-1863). Les libéraux représentent les régions caféières de l'est du Venezuela, plus modernistes et connectées au commerce international. Ils sont aussi appelés « fédéralistes » car ils veulent une plus grande autonomie pour les provinces, s'opposent au parti conservateur, accusé de monopoliser les postes de gouvernement et la propriété foncière, et d'opposer l'intransigeance à toute velléité de réforme. C'est la plus grave et la plus sanglante des guerres civiles au Venezuela depuis l'indépendance. Sous la forme de guérilla, elle cause près de deux cent mille morts, souvent du fait de la faim ou de la maladie, dans un pays d'un peu moins de deux millions d'habitants. Le Venezuela apparaît alors comme une addition d'enclaves autour des ports du commerce international. Caracas détient le port La Guaira, desservi par le chemin de fer, Valencia a Puerto Cabello, tandis que Maracaibo constitue elle-même une enclave, reliée par le réseau fluvial au Lac Maracaibo et aux régions caféières des Andes, comme Táchira, proche de la Colombie caféière. Le triomphe des fédéralistes sur les conservateurs s'obtient au prix le plus coûteux en vies perdues, en dévastations et pertes matérielles. Le libéralisme jaune est le nom de la période qui succède à la guerre civile et sous laquelle Antonio Guzman Blanco modernise le pays et lui donne son ordre définitif. Après les régimes militaires et dictatoriaux, le Venezuela change véritablement en 1935 après la mort du général Juan Vicente Gómez, chef d'État pendant . L'exploitation pétrolière commence en 1917. Les compagnies multinationales arrivent en 1922. Ces événements majeurs bouleversent l'activité économique du pays. Le Venezuela, pays neutre lors du premier conflit mondial, officialise son soutien aux pays alliés lors de la Seconde Guerre mondiale. La démocratie commence à s'installer à partir de 1958. Le Parti communiste reste cependant interdit et la gauche légale subit une répression constante qui conduit aux assassinats de ses dirigeants, tandis que des mouvements de guérilla communistes ou castristes sont actifs dans les années 1960 et 1970 (Forces armées de libération nationale en particulier). En 1950, le Venezuela est classé au mondial par rapport au PIB par habitant, derrière les États-Unis, la Suisse et la Nouvelle-Zélande. Cette aubaine poussée par les revenus pétroliers croissants se prolonge jusqu'à la fin des années 1980, date à laquelle le pays est encore considéré comme le plus riche d'Amérique Latine; en 1976 l'agence de notation Moody’s note la dette du Venezuela Aaa, la meilleure note possible. Le pétrole est une véritable manne pour le Venezuela, qui se lance dans d'ambitieux projets d'État comme le pont du Général Rafael Urdaneta (deuxième plus grand d'Amérique Latine), la centrale hydroélectrique de Guri (quatrième plus grande au monde), ou encore les tours jumelles de Parque Central (les plus grandes d'Amérique Latine entre 1979 et 2003, avec de hauteur); et bénéficie d'importants investissement privés, notamment américains, par exemple la raffinerie d'Amuay (deuxième plus grande au monde). Dans les années 1980, le Venezuela est contrôlé par une coalition rassemblant les principaux partis de cette époque : l'Action démocratique (AD, "Acción Democratica", social-démocrate), le COPEI (Comité d'organisation politique électorale indépendante, social-chrétien) et l’Unión Republicana Democrática (Union républicaine et démocratique, social-libéral). Les et , le peuple se soulève à Caracas et aux alentours, à la suite d'une explosion des tarifs, notamment des transports en commun, et des réformes économiques inspirées par le néolibéralisme, à la suite d'accords avec le Fonds monétaire international. Le deuxième jour, le président Carlos Andrés Pérez déclenche le plan Avila et envoie l'armée contre la population révoltée, tuant plus de en quelques jours. Années Chavez. En 1992, dans un pays où les couches populaires sont ruinées, se produisent deux tentatives de coup d'État (en février et novembre), dont l'une dirigée par Hugo Chávez. Le début du est marqué par la personnalité du président Hugo Chávez, qui dirige le pays pendant quatorze ans (1999-2013) jusqu'à sa mort. Il est élu le pour un premier mandat courant de 1999 à 2004, réélu le pour la période 2001-2007 (à la suite de la modification de la constitution qu'il a impulsée). En 2002, il subit une tentative de coup d'État pour le destituer. Il est réélu le pour la période 2007-2013 et puis à nouveau le , alors qu'il a un cancer, pour la période 2013-2019. Il quitte le pouvoir et meurt le . Avant sa mort, Chávez désigne comme son successeur son ancien ministre des Affaires étrangères et vice-président Nicolás Maduro. À sa mort, Nicolas Maduro devient président par intérim puis remporte une nouvelle élection présidentielle avec 50,62 % des voix, élection contestée par le leader d’opposition Henrique Capriles, malgré la présence d'observateurs internationaux. Les années Chavez sont caractérisées par une augmentation des dépenses sociales qui permettent une réduction des inégalités, une diminution du taux de pauvreté, du chômage (avec néanmoins 40 % de la population active employée dans le secteur informel et le reste dans le secteur public) et de la malnutrition. Cette politique sociale est rendue possible par une large augmentation de la dette du pays qui passe de de dollars (le pays devenant fortement dépendant de la Chine, son principal créancier) et par l'envolée du prix du pétrole des années 2000, l'État utilisant largement les bénéfices de la compagnie pétrolière étatisée PDVSA. Du fait de l'absence de réformes économiques, la situation du pays se tend immédiatement dès que le cours du baril s'effondre à partir de 2008. En dépit des richesses naturelles du pays, Chavez laisse un secteur privé et un tissu industriel atrophiés, un large clientélisme, une inflation très importante et une population confrontée à des pénuries alimentaires chroniques. Ces années sont également marquées par une forte aggravation de la criminalité avec, selon les ONG, un quadruplement du taux d'homicides. Années Maduro. Les élections législatives du 6 décembre 2015 donnent une large victoire à l'opposition dans un contexte de crise économique, sociale et politique. Le Parlement vénézuélien, contrôlé par l’opposition de centre-droit, approuve le l’ouverture d’un procès en destitution contre le président socialiste Nicolas Maduro, bien que la constitution ne prévoie pas une procédure de destitution, mais une procédure pour manquements au devoir de sa charge. Après une longue période de blocage politique (les pouvoirs exécutif et législatif se paralysant mutuellement), le , la Cour Suprême, favorable au pouvoir chaviste, décide de s'arroger les pouvoirs du Parlement ; mais le elle y renonce. Dans un contexte de violences et de contestation sociale, le président Maduro tente en de contourner le Parlement en faisant élire une Constituante entièrement contrôlée par les chavistes. L'opposition choisit de boycotter cette constituante, accusant le régime de malversations électorales. Zeid Ra'ad Zeid Al-Hussein, Haut-Commissaire aux droits de l'Homme de l'ONU, dénonce par les autorités vénézuéliennes à l'égard des manifestants. Les ambassadeurs des de l’Union européenne (UE) ont donné leur feu vert le à l’adoption de sanctions, dont un embargo sur les livraisons d’armes, contre le Venezuela. Ces sanctions interdisent également aux entreprises européennes de livrer du matériel de surveillance électronique pouvant servir à réprimer l’opposition au régime du président Nicolas Maduro ; elles prévoient également la mise en place d’un cadre juridique permettant à l’Union européenne de placer ensuite sur sa liste noire des personnalités ou entités sanctionnées pour leur implication dans la répression. Plusieurs organisations internationales et de nombreux analystes attribuent partiellement la crise économique que vit le Venezuela aux sanctions économiques et diplomatiques imposées par les États-Unis et l'Union européenne. Selon Michelle Bachelet, Haute-Commissaire des Nations unies aux droits de l'homme, le volet de sanctions imposées en août 2019 par les États-Unis . Elle réitère ces inquiétudes dans un rapport déposé en décembre 2019 sur la situation des droits de l'homme au Venezuela. Selon les Nations unies, de personnes ont quitté le Venezuela en 2015. En , face à cet afflux, le Brésil déploie à sa frontière pour assurer la sécurité des résidents brésiliens et des migrants vénézuéliens. Le , Juan Guaidó, président du Parlement, s’autoproclame « Président en exercice » du Venezuela et prête serment au cours d'une manifestation organisée à Caracas. Guaidó obtient immédiatement la reconnaissance des États-Unis, du Canada, du Brésil, de la Colombie et du Pérou. La France, l'Allemagne, le Royaume-Uni, l'Espagne et l'Union européenne se disent prêts à reconnaître Juan Guaidó en tant que « Président en exercice » si Nicolas Maduro n'organise pas d'élections libres d'ici le . Luis Almagro, secrétaire général de l’OEA, apporte également son soutien à Guaidó. Cependant, Maduro se maintient au pouvoir grâce à l'appui des forces armées ; il continue également de bénéficier du soutien diplomatique de Cuba, de la Bolivie, de la Turquie et de la Russie. Géographie. Le territoire vénézuélien s'étend depuis les environs de l'équateur jusqu'au nord du onzième parallèle. Sa superficie est de . Sur le continent, le Venezuela possède des frontières avec le Guyana à l'est-sud-est, le Brésil au sud, la Colombie au sud-sud-ouest et à l'ouest, enfin à quelques dizaines de milles marins au large des côtes de la mer des Caraïbes au nord, se trouvent les Antilles néerlandaises (Aruba, Bonaire, Curaçao) et Trinité-et-Tobago (ex-GB). De manière très schématique, trois grandes régions géographiques composent ce pays : Le Venezuela possède également , dispersées dans la mer des Caraïbes et dans l'océan Atlantique, regroupées dans les Dépendances fédérales. Margarita est la plus grande et la plus peuplée. Biodiversité. Le Venezuela est l'un des « mégadivers » au monde, en raison de facteurs tels que sa situation géographique, entre le nord de l'Amérique du Sud et la mer des Caraïbes, facilitant ainsi la migration des espèces, en plus d'avoir un climat constant tout au long de l'année. Cela a favorisé, pendant des millénaires, en particulier dans les zones montagneuses et fraîches (comme la chaîne de montagnes côtières, la chaîne de montagnes Perijá, la chaîne de montagnes de Merida et le massif guyanais) l'adaptation, l'isolement et la préservation de la vie de nombreuses espèces animales et végétales, principalement endémiques. Il existe quelque protégées au Venezuela, qui couvrent environ 26 % de la surface continentale, marine et insulaire du pays. Le Venezuela se positionne dans le monde comme le sixième pays le plus riche en biodiversité en termes d'espèces animales et végétales accueillies. En raison du manque de biologistes et de spécialistes vénézuéliens et du tarissement des financements et de ressources pour la recherche, peu d'expéditions ont été effectuées dans les régions de l'intérieur, qui sont ainsi peu étudiées en profondeur, voire méconnues des botanistes et d'autres spécialistes. Pour cette raison, il existe encore de nombreuses espèces non découvertes ni comptabilisées. On estime ainsi que le nombre total de plantes vasculaires pourrait passer de (actuellement découvertes) à - ou même plus si cet espace était suffisamment étudié. Liste du nombre d'espèces selon leur genre : Grandes villes. La capitale du Venezuela, Caracas, s’étend d'est en ouest de l'autre côté de la cordillère côtière, à quelque d'altitude. Il faut compter environ une demi-heure pour parcourir la trentaine de kilomètres qui sépare l’aéroport, situé en bord de mer, de la ville. Près de cinq millions d'habitants résident dans la métropole. Les quartiers pauvres s'appellent les "". Des pluies diluviennes, suivies d'importants glissements de terrain dans des zones fortement peuplées proches de l'aéroport international Simon Bolivar (La Guaira - État de La Guaira) ont fait des milliers de morts en décembre 1999. Cette triste page de l'histoire vénézuélienne est couramment appelée « La tragédie » par les autochtones. Maracaibo, capitale de l'État de Zulia, est la deuxième métropole du pays. Parmi les villes les plus peuplées suivent : Valencia, Maracay et Barquisimeto. Frontières terrestres. Cependant, le Venezuela revendique le territoire correspondant au Guyana actuel, allant parfois à repousser ses frontières jusqu'au Suriname. Sur les cartes du Venezuela, le Guyana est indiqué en tant que zone en réclamation. Drapeau. Le , le Parlement du Venezuela adopte la modification du drapeau national afin de l’adapter à la « révolution socialiste » du président Hugo Chávez, à l’initiative du projet. Entièrement contrôlé par les partisans du chef de l’État à la suite du boycott des élections législatives par l’opposition en décembre, le Parlement a approuvé l’ajout d’une huitième étoile, pour rendre honneur à l'ancienne province de Guyane qui a lutté pour l'indépendance tout comme les sept autres. Les députés vénézuéliens ont également modifié le galop du cheval blanc figurant sur l’écusson national afin de le tourner, non plus vers la droite, mais vers la gauche, afin de symboliser l’orientation politique du gouvernement. Toutefois, en termes d'héraldique, le cheval se déplace vers la dextre, ce qui rend le message un peu confus. Le Parlement a également décidé certains ajouts sur l’écusson, tels qu’un kayak, un arc et une flèche représentant les armes des indigènes ou une machette de paysan, en hommage aux racines des descendants d’origine africaine. Économie. Le Venezuela est un pays en développement, classé pour le produit intérieur brut par habitant par le FMI. Son économie est essentiellement tournée autour du pétrole et du gaz naturel, secteur qui représente 95 % des exportations et 25 % du PIB. Le pays est un important producteur de pétrole et un membre fondateur de l’OPEP. Il est en sixième place au palmarès des producteurs de l’OPEP pendant la décennie 2010 derrière l'Arabie saoudite, l'Irak, l'Iran et les émirats mais aussi le Koweït. Cependant, la production pétrolière s'est effondrée à partir de 2016, à la suite du renforcement des sanctions américaines, à tel point qu'elle était en de par jour, soit un quart de ce qu'elle était en 2001. Les sanctions ont engendré de dollars de pertes financières pour la compagnie PDVSA entre 2015 et 2020. Une partie de l'économie vénézuélienne dépend des envois de fonds. Le Venezuela est entré dans le Mercosur, dont il est membre de plein droit. En 2016, sa production de pétrole était de de barils par jour ce qui ferait de lui selon ces données le onzième plus grand producteur au monde. Selon l’OPEP, les réserves prouvées de pétrole atteignaient de barils en 2011, ce qui le fit accéder à la première place mondiale devant l’Arabie saoudite. Le pays possède une économie de marché. Le Venezuela est la cinquième puissance économique latino-américaine en termes de produit intérieur brut, après le Brésil, le Mexique, l'Argentine et la Colombie avec un PIB estimé à de dollars en 2013 selon la Banque Mondiale. Son classement est identique lorsqu'exprimé en parité de pouvoir d'achat. Cependant, selon le FMI, en termes de PIB par habitant, le Venezuela se situe à la d'Amérique du Sud avec par habitant en 2009. Le RNB par habitant est de en 2013, soit au-dessus de la moyenne des pays d’Amérique latine et de la Caraïbes ( en 2013). Dans ce pays pétrolier, le carburant est fortement subventionné et coûte moins de d’euro le litre. Malgré les exportations d'or noir, les comptes de l'État accusent un déficit important financés par la monétisation de la dette et induisant une très forte inflation. Les prix de certaines denrées de base sont fixés par l'État, ce qui explique, selon l'opposition et la plupart des économistes, la grave pénurie de lait, de sucre et d'œufs. Selon le gouvernement, cette pénurie est due à un rachat de ces denrées par des multinationales. Caracas est le centre économique, financier et industriel du Venezuela. Le pays est faiblement industrialisé en dehors de la production pétrolière et importe la plupart de ses biens de consommation. L'industrie manufacturière est apparue dans le pays au cours du . Hormis le pétrole, le pays est un producteur d'acier, d'aluminium, de ciment et de pneus. L'industrie automobile est présente au Venezuela depuis les années 1960, avec l'usine d'assemblage de Valencia de la société américaine Ford qui y assemble entre autres la Ford Mustang. De plus, dans le secteur agricole, les terres sont exploitées seulement pour un peu plus de 40 % ce qui oblige le pays à importer environ 60 % de produits. Il existe de très fortes inégalités sociales au Venezuela. Ainsi, près de 60 % des habitants de Caracas s'entassent dans des barrios (quartiers pauvres), alors que de 10 % à 20 % des Vénézuéliens n'auraient pas accès à l'eau potable et que, dans le même temps, le Venezuela est le pays ayant le plus de millionnaires en Amérique latine. L'essence à la pompe est la moins chère du monde (au , d'euros le litre de super 95), largement subventionnée par l'État, en particulier depuis qu'une hausse importante des prix avait donné lieu à d'importantes émeutes au cours de ce qui fut nommé par la suite le Caracazo. Depuis 2003, un strict contrôle des changes opéré par l'organisme public fixe le taux de change à (bolivares) pour un dollar américain (USD). En 2008, la monnaie locale est renommée "bolivar fuerte" (VEF) au taux de 1 bolivar fuerte pour anciens bolivars. En 2010, une dévaluation augmente le taux de change à pour un USD afin de lutter contre le marché noir des devises. En parallèle, les conditions d'accès aux monnaies étrangères sont restreintes pour tous les acteurs de l'économie (étudiants, importateurs, voyageurs, etc.). Une nouvelle dévaluation a lieu en 2013 et en 2014, le président Maduro substitue au système existant un système d'accès aux devises sous formes d'enchères complexes qui ne suffit pas à satisfaire la demande croissante de la population pour les monnaies étrangères, stimulée par l'inflation galopante et le recours important aux importations pour tous types de produits. La difficulté d'accès aux devises rend difficile la sortie du territoire par les Vénézuéliens (qui ont droit d'échanger un maximum de par an), d'autant que les compagnies aériennes étrangères, dans l'impossibilité de recouvrer leur créance vis-à-vis du gouvernement vénézuélien, réduisent leurs vols dans ce pays. En , le site Dolar Today (dont l'accès est interdit par le gouvernement vénézuélien) annonce un taux de change de pour un USD sur le marché noir, ce qui correspondrait à une dépréciation de près de 98 % de la valeur de la monnaie locale en douze ans. Le secteur privé détient 70 % de l’économie. En dépit de ses nombreuses richesses naturelles, les Vénézuéliens doivent faire la queue pour obtenir la plupart des produits de base de consommation (sucre, huile, médicaments, papier toilette…) et l’État doit pratiquer le rationnement. Le gel des prix a engendré un important marché noir au sein du pays et avec les pays voisins comme la Colombie. En 2014, le pays avait la plus forte inflation mondiale (68 %). Avec l’effondrement des cours du pétrole la pauvreté augmente. L'inflation en 2018 a été de % selon la banque centrale du Venezuela BCV (contre % estimé par le FMI), après une inflation de 720 % en 2017 ; le PIB vénézuélien devrait baisser de 18 % en 2018 après une chute de 18 % en 2016. Selon les autorités colombiennes, ont fui leur pays pour se réfugier en Colombie, qui a un temps fermé sa frontière. D’autres ont choisi Manaus, au Brésil, pour sa commodité d’accès. Pas moins de sont parties chercher refuge au Chili. Le , le Mercosur décide de suspendre le Venezuela pour une durée indéterminée en raison de ce qu'il qualifie de « violation de l'ordre constitutionnel ». En effet, l'élection d'une Assemblée constituante le dans un contexte de contestation et de violence incite de nombreux pays à ne pas reconnaître le nouveau parlement. Les prévisions économiques mondiales de 2018 effectuées par "The Economist" font du Venezuela le pays dont le PIB a la plus faible croissance par rapport à l’année précédente avec une baisse de 11,9 %, ceci résultant de la mauvaise gestion du pays et de l’hyperinflation ainsi que de la dette publique qui en découlent. Le , le bolivar souverain (VES) remplace le bolivar fort (VEF) au taux de 1 bolivar souverain pour forts. L'inflation dépassait 1000000 % fin 2018 et le FMI la prévoit à dix fois plus fin 2019, alors qu'elle atteignait « seulement » 700 % fin 2017. Un dixième des d'habitants ont fui le pays depuis l'avènement de Nicolás Maduro en 2013. Depuis sa création en , le bolivar souverain s'est déprécié de 90 %, ce qui fait que le salaire minimum est officiellement équivalent à trois dollars par mois. Le système public d'éducation et de santé, qui employait jadis cubains, s'est effondré, au point que la mortalité infantile est repartie à la hausse, cas quasi unique au monde. La production de pétrole de PDVSA, le monopole d'État fournissant la quasi-totalité des recettes en devises du pays, s'est effondrée à par jour contre en 2015. Le PIB a reculé de 40 % en quatre ans. La banque centrale du Venezuela publie en , pour la première fois depuis trois ans, des données qui confirment l'effondrement de l'économie : inflation de % en 2018 après 274 % en 2016 et 863 % en 2017, baisse de 47,6 % du PIB entre 2013 et 2018, chute des exportations pétrolières de de dollars en 2013 à de dollars en 2018, chute de la production de pétrole de de barils par jour en 2009 à de barils par jour en . Démographie. Depuis l’accession d’Hugo Chávez au pouvoir en 1998, deux millions de personnes ont quitté le pays selon le quotidien espagnol "El País". L’émigration est en augmentation depuis l’arrivée au pouvoir de Nicolás Maduro. En 2015, plus de cinq millions d'immigrants colombiens vivaient au Venezuela, le plus souvent pour fuir la violence du conflit armé dans leur pays. Selon le Haut Commissariat des Nations Unies pour les réfugiés, le Venezuela était alors le deuxième pays à accueillir le plus grand nombre de réfugiés dans le monde. En 2017, près d'un million de Vénézuéliens ont quitté le pays en un an, fuyant la famine, la violence, la répression. On compte vers la Colombie, vers le Chili, en Argentine, au Brésil et au Pérou. En , le Pérou a décrété l'état d'urgence dans trois de ses provinces, après un nombre d'arrivées qui a atteint près de par jour. Criminalité. En 2011, le Venezuela détenait le troisième taux de criminalité d'Amérique du Sud. Celle-ci s’est considérablement accrue depuis l’arrivée du pouvoir de Hugo Chávez (en 1999, « seulement ("sic") avaient été tuées ») en comparaison de en 2011. Ce fort accroissement de la criminalité résulterait également de l’augmentation de la population, qui passa de près de vingt-quatre millions de personnes en 1999 à près de trente millions en 2011. Pour faire face à cette situation, le gouvernement encouragea la formation de milices civiles armées chargées d’assister la police dans la lutte contre la criminalité. Selon les chiffres publiés par le ministère de l'Intérieur en 2013, le nombre de meurtres commis en 2012 serait de (92 % avec des armes à feu), ce qui représente un taux de pour . Le Venezuela se placerait ainsi au troisième rang mondial pour la criminalité après le Honduras et le Guatemala. Ces chiffres très élevés sont néanmoins contestés par l'organisation non gouvernementale "Observatoire vénézuélien de la violence" qui donne une estimation encore plus haute pour 2012 de meurtres commis, soit un taux de pour . En 2011, Caracas serait la capitale la plus dangereuse dans le monde, avec pour . Politique. Historiquement, la politique vénézuélienne suit une tendance présidentielle et caudilliste. Le président définit et exécute les politiques intérieure et extérieure. Cette forme politique remonte au , caractérisée par les différents régimes militaires du général José Antonio Páez, les frères Monagas, Juan Crisóstomo Falcón et Antonio Guzmán Blanco, président à plusieurs reprises. L'organisation du pays est souvent fragilisée par des conflits internes et des luttes de pouvoir. Le début du est marqué par le régime militaire du général Juan Vicente Gómez qui gouverne directement ou non pendant . Ce régime est suivi des deux quinquennats de transition républicaine à une forme de gouvernement plus démocratique avec Rómulo Betancourt et l'élection universelle de l'illustre Rómulo Gallegos, le plus grand romancier et représentant de la littérature vénézuélienne. À la suite d'un coup d'État qu'il subit après neuf mois au pouvoir, les militaires Carlos Delgado Chalbaud et Marcos Pérez Jiménez gouvernent entre 1948-1958 avec des politiques progressistes et répressives. Un bouleversement civil et militaire le redémarre la transition démocratique qui finit en bipartisme jusqu'au élection du président Rafael Caldera. Chavez voulait conclure la transformation de son pays en 2021. En 2007, il propose une réforme de la constitution, qui prévoit notamment d'instaurer un État socialiste, de collectiviser l'économie, de censurer la presse en période de crise et de se présenter indéfiniment à l'élection présidentielle. En 2009, il réussit toutefois à faire adopter un amendement à la constitution. L’actuelle constitution vénézuélienne est amplement inspirée par les principes et idées de Simón Bolívar. Elle a été approuvée par référendum le malgré une importante abstention (celle-ci étant sans doute expliquée par la plus grande catastrophe naturelle de l'histoire du pays, la tragédie de Vargas du , au bilan très lourd). La république, étant à la fois un État fédéral, est constituée en politiques. Chaque État du Venezuela est dirigé par un gouverneur élu lors d'élections au suffrage universel, tous les quatre ans, à la différence du président qui lui l'est tous les six ans. La « Révolution bolivarienne » impulsée par Hugo Chávez et poursuivie par Nicolás Maduro a conduit certains critiques à qualifier le Venezuela de dictature ou de régime autoritaire à parti unique. Le caractère souvent conflictuel des relations entre le gouvernement et l'opposition culmine avec une tentative de coup d’État en avril 2002 et à des manifestations de masse dans les . Médias et liberté de la presse. En 2008, le Venezuela était classé sur 173, par Reporters sans frontières (RSF), en matière de liberté de la presse. L'ONG Espacio Público a recensé l'année 2006, à la liberté d'expression sans en indiquer la ou les origines. RSF pointe l'adoption de nouvelles lois en 2004 et 2005 contre différents types d'« offenses », notamment à la personne du président, et contre les appels à la violence, les jugeant « très restrictive[s] en matière de liberté d’expression » et affirmant qu'elles créent « un climat d’autocensure au sein des médias ». En 2008, le ministre de la Communication déclare que toutes les communications doivent dépendre de l’État en tant que bien public. Le , une minute avant minuit, la Radio Caracas Televisión a cessé d'émettre sur le réseau hertzien, la commission nationale des télécommunications ayant décidé de ne pas renouveler la concession hertzienne de cette chaîne en partie à cause de son soutien et de sa couverture du coup d'État de Pedro Carmona en 2002. Cependant, RCTV a continué d'émettre sur le réseau câblé et par satellite avec une audience potentielle restreinte au cinquième de la population jusqu'au , date à laquelle elle a été retirée de la grille des programmes de l'opérateur pour non-respect de la loi sur la production nationale. L'espace qu'occupait RCTV a été attribué à une nouvelle chaîne publique, TVes (Televisora Venezolana Social), dont, selon une étude de l'institut de recherches en communication (ininco) dirigé par le sociologue d'opposition favorable au coup d'État Oscar Lucien, 74 % des contenus relèveraient de la diffusion et de l'information socialiste. Depuis ce non-renouvellement, des manifestations, notamment étudiantes, ont eu lieu pour soutenir ou protester au sujet de cette décision. Hugo Chavez a été accusé par "Le Monde" d'attaquer Globovisión, « dernière chaîne de télévision d'opposition » selon le journal, lorsque le président vénézuélien a accusé la chaîne d'inciter à son assassinat. Cette chaine fait partie des médias privés qui ont explicitement soutenu le coup d'État de 2002. La couverture médiatique occidentale sur l'affaire RCTV a été critiquée et qualifiée de « désinformation » par l'association de critique des médias Acrimed et "Le Monde diplomatique" en France ainsi qu'aux États-Unis par le FAIR rappelant notamment qu'une télévision occidentale ayant soutenu un coup d'État et ses instigateurs aurait sans doute dû faire face à des sanctions plus importantes que celles infligées à RCTV. D'autre part Salim Lamrani considère que l'affirmation d'une volonté d'hégémonie médiatique de la part de Chávez est discutable puisque entre 2000 et 2006 le nombre de chaînes privées a augmenté de 16 tandis que le nombre de chaînes publiques n'a augmenté que de 4. Toutefois, entre 2010 et 2015, une grande partie des médias sont devenus la propriété de proches du chavisme. En 2018, le syndicat national des travailleurs de la presse dénonce la « persécution permanente » des médias, dans un pays où l’État contrôle l'unique société d'importation de papier, et le blocage de sites web par l'entreprise publique CANTV, principal fournisseur d'accès internet du pays. Selon l'association nationale des journalistes, les trois-quarts des journaux papiers ont disparu à cause du manque de papier en cinq ans et radios ont fermé en 2017. À partir de , le réseau Tor est bloqué, dont la popularité allait croissante du fait de la censure de sites d'information comme et . Corruption. En 2022, Transparency International (TNI) classe le Venezuela au sur pris en compte. Environnement. La Constitution de 1999 promulguée par Hugo Chávez prévoit la protection des espaces naturels et des cultures ancestrales. Théoriquement, les ethnies indigènes disposent d'un droit de regard sur les activités envisagées sur leurs territoires ; cela n'est pourtant que symbolique. En 2016, le président Nicolás Maduro signe ainsi un décret controversé créant une zone spéciale située au sud de l'Orénoque, permettant l'exploitation minière de l'or, afin de compenser la chute des revenus pétroliers du fait de la vétusté des installations d'extraction et des sanctions économiques américaines. Il crée l’Arco Minero de Orinoco (AMO) sans l’approbation de l’Assemblée nationale, en lui attribuant 12 % du territoire du pays – une superficie plus grande que le Portugal. L'augmentation de ces surfaces d'exploitation minière conduit à la déforestation de ces territoires, l'installation de mines illégales dans des parcs nationaux (notamment celui de Canaima, inscrit au patrimoine mondial de l'UNESCO) ou encore au développement des eaux stagnantes, qui favorisent la propagation des maladies (malaria, diphtérie, rougeole et tuberculose). Ces zones sont également les territoires ancestraux de divers peuples autochtones, dont les Pemóns, les Yanomami et les Yecuana. Cette décision du président Maduro est analysée comme un moyen de s'assurer la fidélité des forces armées, à qui a été confiée la zone, alors que son régime est confronté à une crise politique qui dure. L'ONG SOSOrinoco a révélé, par exemple, un énorme complexe d’exploitation minière illégale dans le parc national de Yapacana, qui est devenu un bastion de la guérilla colombienne. Yapacana est la plus grande zone d’exploitation minière illégale de tout le biome amazonien. En 2022, le Venezuela a le taux de déforestation le plus rapide de l'écozone néotropique et le cinquième taux le plus rapide au monde, avec un total de 1,4 million d’hectares perdus entre 2016 et 2021. Culture. Musique. La musique du Venezuela est influencée par ses origines espagnoles, amérindiennes et africaines. La culture autochtone est aujourd'hui présente dans la musique à travers certains instruments, entre autres le cameo, un tambour, et le fotuto, une sorte de trompette. La culture espagnole a permis l'introduction des instruments comme la guitare, les instruments à cordes, les vents et différents types de percussions (différents des tambours indiens) et de nombreux genres populaires, dont le , le corrido et la guaracha. La musique de la région des Llanos (música llanera), que l'on retrouve dans d'autres pays hispano-américains est un exemple de musique née à l'époque de la colonie espagnole. Le merengue venezolano est aussi de grande transcendance nationale. La musique populaire dite d'origine afro-antillaise (basée sur la musique populaire espagnole de la Renaissance et des rythmes comme les sevillanas) est reine dans le cœur de la plupart des Vénézuéliens. La salsa en général, le merengue dominicain, la bachata, la cumbia et la gaïta (typique de l'époque de noël) font danser et vibrer les gens de tous les âges dans l'ensemble du pays. Oscar D'León est sans contestation le plus reconnu des salseros vénézuéliens dans le monde. L'instrument national par excellence est le « cuatro », similaire à la guitare, mais plus petit et doté de quatre cordes ; d'une très particulière sonorité, il est la base musicale de tous les « conjuntos criollos », petits orchestres créoles (du pays), appelés aussi « conjuntos de harpa, cuatro y maracas », qui accompagnent les chanteurs de joropo, de valses criollos, de jotas margariteñas, de gaïtas maracuchas (de Maracaibo) Depuis quelques années, le Venezuela a obtenu une notoriété mondiale grâce au système national d’orchestres symphoniques pour jeunes, avec plus de deux cent mille participants de tous les coins du pays et des quartiers les plus démunis ; ce système ("El Sistema"), fondé par Abreu, a démocratisé et popularisé l'amour pour la musique classique de tous les temps. Contrairement à une idée reçue, le système existe depuis la présidence de Carlos Andrés Pérez dans les années 1970 et non pas depuis l'époque d'Hugo Chavez. Au départ, le mouvement était un pur mouvement musical et n'était pas le fruit d'une récupération nationaliste et politisée comme à l'heure actuelle par le parti officiel. Aujourd’hui, un grand nombre de très jeunes virtuoses, chefs d’orchestre et musiciens sont très prisés dans les meilleures salles de concert du monde. Gustavo Dudamel est aujourd'hui le plus grand chef d'orchestre vénézuélien, reconnu dans tout le monde. El Sistema se répand peu à peu, par exemple aux États-Unis dans la ville d'Atlanta où le bassoniste Dantès Rameau a lancé avec un succès fulgurant l'Atlanta Music Project, soutenu par la Municipalité, mais aussi par beaucoup de sponsors individuels et industriels (Coca Cola, AOL). Il est question également d'un essaimage en France(Toulouse). Le célèbre violoniste français Jean-Luc Ponty a composé un morceau intitulé "Caracas". Alimentation. La céréale la plus consommée est le riz. Vient ensuite le blé, utilisé pour le pain (y compris la baguette à la française, appelée "canilla"). La farine de maïs est particulièrement utilisée dans la arepa qui accompagne les plats (comme le pain) ou qui peut être fourrée. La Hallaca, est incontournable durant la période de Noël : il s'agit d'une pâte de maïs mélangée à de la viande en sauce avec des légumes cuite dans une feuille de bananier, dans le genre des tamales mexicains. Le "pan de jamón" est également un plat typique de Noël. Ce pain au jambon est préparé, cette fois-ci, avec de la farine de blé. Le plat le plus courant est le "pabellón criollo" fait de viande de bœuf en lanières, de riz, de haricots noirs et de bananes frites. Les desserts sont d'origine espagnole et dérivent de ceux préparés par les nonnes dans les couvents, comme le riz au lait ou le bienmesabe. Ce dernier a été adapté au pays en devenant un gâteau à la noix de coco. Sport. Le sport national est le baseball, historiquement très populaire au Venezuela. Cependant le football connaît un gros gain de popularité d'années en années, notamment grâce aux progrès de l'équipe nationale, qui était traditionnellement le parent pauvre du football sud-américain (seul pays du continent à ne s'être jamais qualifié pour une phase finale de Coupe du Monde). L'organisation de la Copa América 2007 par le pays a également contribué à ce regain d'intêret pour le football. Il y a d'autres sports populaires d'origine autochtone tels que les "bolas criollas" ou le "coleo". En 2012, le Venezuela obtient la deuxième médaille d'or de son histoire aux Jeux olympiques d'été de 2012 avec Rubén Limardo, vainqueur en escrime du tournoi d'épée. Il succède à Francisco Rodríguez, titré en 1968 en boxe, catégorie poids mouche. La même année, Pastor Maldonado est le premier pilote de Formule 1 vénézuélien à remporter une course. Johnny Cecotto fut Champion du monde de vitesse moto des catégories (1975) et (1978), et Vice-champion du monde en 1976 et troisième du championnat du monde en 1978. Il remporta également des courses automobile remportant cinq victoires en ETCC, et neuf en DTM. Il est le père de Johnny Cecotto Jr., également pilote automobile vénézuélien. Concours de beauté. Au Venezuela, les concours de beauté sont une véritable institution et un motif de fierté nationale. Les "miss" du pays ont remporté de nombreux titres internationaux dont le plus connu, celui de "Miss Univers", à sept reprises ( les États-Unis). Le Venezuela a gagné un tournoi du « "" » ("Miss Univers", "Miss Monde", "Miss International" et "Miss Terre") , un record absolu (plus que les Philippines et le Brésil ensemble, les deux suivants). C'est également le seul pays à avoir remporté le Miss Univers deux fois de suite, en 2008 et en 2009. Les Vénézuéliennes se font inculquer, dès leur plus tendre enfance, l’idée que la beauté féminine est essentielle à la réussite sociale. Un titre de "miss" permet d’entamer une carrière de comédienne, de mannequin ; il permet d'avoir une importante notoriété dans le pays. Des "miss" ont pu entrer en politique ou dans le monde des affaires. Codes. Le Venezuela a pour codes : |
Valentigney Valentigney () est une commune française située dans le département du Doubs en région Bourgogne-Franche-Comté. Valentigney est la ville de Bourgogne-Franche-Comté, la cinquième du Doubs et la troisième de l'Agglomération de Montbéliard. La ville est un haut-lieu de l'aventure automobile française (berceau de la famille Peugeot) et de l'aéronef (avec Étienne Oehmichen). Géographie. Description. Valentigney se situe sur la rive gauche du Doubs dans le pays de Montbéliard. Elle jouxte au sud Montbéliard et est située à une vingtaine de kilomètres au sud de Belfort, au nord-est de Besançon et à à l'ouest de Bâle. La frontière franco-suisse est à une douzaine de kilomètres à l'est de la ville. Une partie de la ville est située sur la rive droite, dont le quartier des Cités blanches qui jouxte Mandeure. Valentigney est desservie par la Compagnie de transports du Pays de Montbéliard : la ligne 1 traverse la plupart des quartiers de la ville jusqu'à son terminus dans le quartier résidentiel des Bruyères. La ligne Diam B longe le Doubs puis part en direction de Mandeure ou Audincourt. À horizon 2016 la ville sera desservie par le bus à haut niveau de service de l'agglomération : Cadencité qui reprendra le parcours de la ligne 1. La ville est aisément accessible par l'autoroute A36 Hydrographie. Le territoire communal est limité au nord, à l'est, au sud et en partie à l'ouest par un méandre du Doubs, un sous-affluent du Rhône par la Saône. Urbanisme. Typologie. Valentigney est une commune urbaine, car elle fait partie des communes denses ou de densité intermédiaire, au sens de la grille communale de densité de l'Insee. Elle appartient à l'unité urbaine de Montbéliard, une agglomération inter-départementale regroupant et en 2017, dont elle est une commune de la banlieue. Par ailleurs la commune fait partie de l'aire d'attraction de Montbéliard, dont elle est une commune du pôle principal. Cette aire, qui regroupe , est catégorisée dans les aires de à moins de . Occupation des sols. L'occupation des sols de la commune, telle qu'elle ressort de la base de données européenne d’occupation biophysique des sols Corine Land Cover (CLC), est marquée par l'importance des territoires artificialisés (54 % en 2018), en augmentation par rapport à 1990 (49,7 %). La répartition détaillée en 2018 est la suivante : forêts (36,8 %), zones urbanisées (34,7 %), zones industrielles ou commerciales et réseaux de communication (19,3 %), zones agricoles hétérogènes (6,3 %), cultures permanentes (2,9 %). L'IGN met par ailleurs à disposition un outil en ligne permettant de comparer l’évolution dans le temps de l’occupation des sols de la commune (ou de territoires à des échelles différentes). Plusieurs époques sont accessibles sous forme de cartes ou photos aériennes : la carte de Cassini (), la carte d'état-major (1820-1866) et la période actuelle (1950 à aujourd'hui). Histoire. Valentigney appartenait au comté de Montbéliard, rattaché à la France en 1793. Valentigney a été desservie de 1888 à 1932 par la ligne Audincourt - Valentigney - Beaulieu-Mandeure du tramway de la Vallée d'Hérimoncourt, qui suivait l'actuelle RD 437 et facilitait le déplacement des ouvriers des usines Peugeot ainsi que des marchandises le long de la ligne Politique et administration. Tendances politiques et résultats. Au second tour des élections municipales de 2020 dans le Doubs, la liste DVD menée par le maire sortant Philippe Gautier obtient la majorité absolue des suffrages exprimés, avec (53,54 %, 26 conseillers municipaux élus dont 5 communautaires), battant de 183 voix celle DVG menée par Claude Françoise Saumier (, 46,45 %, 7 conseillers municipaux élus dont 1 communautaire), lors d'un scrutin marqué par la pandémie de Covid-19 en France où 59,91 % des électeurs se sont abstenus. Liste des maires. Économie. Entreprises. Le sous-traitant Peugeot-Japy y est installé et, en 2020, emploie 245 personnes. En , la société est placée en redressement judiciaire. Données INSEE 2017.. Emploi total (salarié et non salarié) : Taux de chômage 15 à 64 ans : 21,7 % Part des ménages imposés à l'impôt sur le revenu : 43 % Taux de pauvreté : 19 % |
Voltmètre Le voltmètre est un appareil qui permet de mesurer la tension (ou différence de potentiel électrique) entre deux points, grandeur dont l'unité de mesure est le volt (V). Le plus souvent, il peut mesurer des tensions continues et alternatives. La grande majorité des appareils de mesure actuels est construite autour d'un voltmètre numérique, la grandeur physique à mesurer étant convertie en tension à l'aide d'un capteur approprié. C'est le cas du multimètre numérique qui, en plus d'offrir la fonction voltmètre, comporte au moins un convertisseur courant tension permettant de le faire fonctionner en ampèremètre et un générateur de courant constant pour fonctionner en ohmmètre. Les différents types de voltmètre. Voltmètres analogiques. Ils sont en voie de disparition, bien qu'encore utilisés comme indicateurs rapides de l'ordre de grandeur ou de la variation de la tension mesurée. Ils sont généralement constitués d'un milliampèremètre en série avec une résistance élevée. Toutefois cette résistance, de l'ordre de quelques kΩ, est nettement inférieure à la résistance interne des voltmètres numériques, habituellement égale à . Pour cette raison, les voltmètres analogiques introduisent une perturbation plus importante dans les circuits dans lesquels ils sont introduits que les voltmètres numériques. Pour limiter cette perturbation, on est allé jusqu'à utiliser des galvanomètres d'une sensibilité de pour la pleine échelle sur des contrôleurs universels (combinaison voltmètre-microampèremètre-ohmmètre-capacimètre) de haut de gamme. ( par exemple) Voltmètres magnétoélectriques. Un voltmètre magnétoélectrique est constitué d'un galvanomètre, donc un milliampèremètre magnétoélectrique très sensible, en série avec une résistance additionnelle de valeur élevée (de quelques kΩ à quelques centaines de kΩ). On réalise un voltmètre à plusieurs calibres de mesure en changeant la valeur de la résistance additionnelle. Pour les mesures en courant alternatif, un pont redresseur à diodes est intercalé mais ce procédé ne permet de mesurer que des tensions sinusoïdales. Ils ont toutefois un certain nombre d'avantages : ils ne nécessitent pas de pile pour fonctionner. Par ailleurs, à prix équivalent, leur bande passante est beaucoup plus large, autorisant ainsi des mesures en AC sur plusieurs centaines de kilohertz là où un modèle numérique standard se cantonne à quelques centaines de hertz. C'est pour cette raison qu'ils sont encore très utilisés en test sur du matériel électronique fonctionnant à des fréquences élevées (HI-FI) Voltmètres ferroélectriques. Un voltmètre ferroélectrique est constitué d'un milliampèremètre ferroélectrique en série avec une résistance additionnelle de valeur élevée (de quelques centaines d'Ω à quelques centaines de kΩ). Comme les ampèremètres du même type le font pour les courants, ils permettent de mesurer la valeur efficace de tensions de forme quelconque (mais de fréquence faible < 1 kHz). Voltmètres numériques. Ils sont généralement constitués d'un convertisseur analogique-numérique double rampe, d'un système de traitement et d'un système d'affichage. Mesure des valeurs moyennes de tensions continues. La tension à mesurer est appliquée à l'entrée du convertisseur analogique-numérique à travers une résistance dont la valeur dépend du calibre choisi, puis l'organe de traitement, tenant compte de ce calibre, permet d'afficher la valeur moyenne de cette tension. Mesure des valeurs efficaces des tensions alternatives. Voltmètre « bas de gamme ». Il n'est utilisable que pour la mesure des tensions sinusoïdales dans le domaine de fréquence des réseaux de distribution électrique. La tension à mesurer est redressée par un pont de diodes puis traitée comme une tension continue. Le voltmètre affiche ensuite une valeur égale à 1,11 fois la valeur moyenne de la tension redressée. Si la tension est sinusoïdale, le résultat affiché est la valeur efficace de la tension ; si elle ne l'est pas, il n'a aucun sens. Voltmètre « efficace vrai ». La majorité des appareils commercialisés effectuent cette mesure en trois étapes : Le multiplieur analogique de précision étant un composant coûteux, ces voltmètres sont trois à quatre fois plus chers que les précédents. La numérisation quasi totale du calcul permet de réduire le coût tout en améliorant la précision. D'autres méthodes de mesure sont également utilisées, par exemple : On distingue deux types de voltmètres « efficace vrai » : Historique. Le premier voltmètre numérique a été conçu et construit par en 1953 Résistance interne. La mesure avec un voltmètre s'effectue en le branchant en parallèle sur la portion de circuit dont on désire connaître la différence de potentiel. Ainsi en théorie, pour que la présence de l'appareil ne modifie pas la répartition des potentiels et des courants au sein du circuit, aucun courant ne devrait circuler dans son capteur. Ce qui implique que la résistance interne dudit capteur soit infinie, ou du moins soit la plus grande possible par rapport à la résistance du circuit à mesurer. |
Vicente Fox Vicente Fox, né le à Mexico, est un dirigeant d'entreprise et homme d'État mexicain, président de la République du au . Avant son entrée en politique, il a travaillé de 1965 à 1979 pour la branche mexicaine de la Coca-Cola Company, dont il a successivement été directeur national des opérations, directeur marketing et président. Il a ensuite dirigé le groupe agroalimentaire détenu par sa famille. Situation personnelle. Naissance et famille. Fils de José Luis Fox Pont (1912-1995) et de Mercedes Quesada Etxaide (1919-2006), née à Saint-Sébastien dans le Pays basque espagnol, Vicente Fox Quesada est le deuxième d’une famille de neuf enfants. Il est marié à Marta Sahagún, depuis 2001 Études et parcours professionnel. Après des études au Mexique et aux États-Unis, il entre en 1964 dans la filiale mexicaine de la compagnie Coca-Cola au poste de contrôleur des transports. Il devient en 1974 président de la compagnie pour le Mexique. Il est ensuite "Conseiller de la Chambre de Commerce des États unis mexicains", puis directeur du groupe Fox. Carrière politique. Gouverneur de Guanajuato. Il rejoint en 1980 le Parti action nationale (PAN). En 1988, il est élu député fédéral du troisième district de l'État de Guanajuato. En 1995, il devient gouverneur de l'État de Guanajuato. Élection présidentielle de 2000. Le , lors des élections fédérales, celui que l'on appelle le plus souvent Vicente Fox ou simplement « Fox » est élu président du Mexique pour six ans avec 44 % des voix. Il devance Francisco Labastida, le candidat du Parti révolutionnaire institutionnel (PRI) qui obtient 34 % des voix et celui du Parti de la révolution démocratique (PRD), Cuauhtémoc Cárdenas, qui recueille 16 % des suffrages. Il succède ainsi à Ernesto Zedillo et met fin à une longue période de 71 ans pendant laquelle le PRI occupa sans interruption la présidence. Président du Mexique. Vicente Fox a beaucoup de mal à mettre en œuvre ses réformes économiques, le Congrès étant dominé par une coalition formée du PRD et du PRI. Sa politique contre la corruption eut des résultats ambivalents. Il s'attaque aux réseaux de financements occultes du PRI, poussant à l'incarcération de cadres de Pemex, mais les contrats frauduleux du groupe pétrolier s’accumulent durant son mandat. Par ailleurs, l’association "Amigos de Fox", constituée pour soutenir sa candidature présidentielle, est également accusée d'avoir eu recours à des réseaux de financements occultes. L’Agence fédérale d'investigation, parfois considérée comme le FBI mexicain, fait aussi l'objet de fréquentes controverses durant le mandat présidentiel de Vicente Fox, plusieurs de ses cadres étant soupçonnés de corruption et de complicité avec le narcotrafic. Son directeur, Genaro García Luna, sera arrêté en 2019, accusé d'avoir reçu des millions de dollars en pots-de-vin pour protéger le cartel de Sinaloa. Proche du président américain George W. Bush, il soutient en 2002 l’établissement de l'US Northern Command, un commandement militaire chargé de superviser la partie septentrionale du continent. En , Fox rappelle son ambassadeur au Venezuela après avoir été traité de « toutou de l’Empire » par Hugo Chávez, qui critiquait alors son soutien à l"'Accord de libre-échange des Amériques" proposé par les États-Unis. Il fait l'objet de critiques en pour avoir déclaré que les migrants mexicains aux États-Unis étaient contraints de faire le travail dont « même les Noirs ne veulent pas ». L'homme politique afro-américain Jesse Jackson dénonce des propos à connotations racistes et demande à Vicente Fox de s'excuser. Le , le président mexicain s'effondre lors d'une cérémonie d'adieu célébrée dans son ranch de Guanajuato, à cinq jours de la fin de son mandat. Âgé de 64 ans, il est évacué par ambulance vers un hôpital où il suit des examens médicaux. Il regagne ensuite la cérémonie, qui s'est poursuivie normalement. La veille, il avait été victime d'une chute et s'était fait mal au dos (il avait été opéré du dos en 2003). Après la présidence. L’accroissement présumé de son patrimoine fait peser sur lui des soupçons d’enrichissement illégal. Il est exclu du Parti action nationale en 2013. |
Vizir Le mot persan vizir (وزیر en persan et en arabe, parfois transcrit "vizir", "vazir", "wasîr", "wesir" ou encore "wezir"), désigne un fonctionnaire de haut rang, ayant un rôle de conseiller ou de ministre auprès des dirigeants musulmans (califes, émirs, maliks, padichah ou sultans). Par analogie, mais de façon anachronique, ce terme est aussi utilisé par les historiens pour désigner, dans l'Égypte antique, le second personnage après le pharaon, le "tjaty" en égyptien. Historique. Origine du mot. Ce mot provient du moyen perse "wcyl" (vičīr, wizīr) et de l'avestique 𐬬𐬍𐬗𐬌𐬭𐬀 (vīcira) qui signifient « arbitre, juge », voire « décision « et « jugement ». Ce même mot contient une racine commune avec les mots arménien վճիռ ("včiṙ") et persan وچر ("vačar"). Pourtant, selon une étymologie populaire présentée dans le "Lisân al-'Arab", le mot "wazîr" a la même racine que le verbe arabe "wazara/yaziru", qui signifie « porter ce qui alourdit son dos ». On appelle le vizir du sultan "vazîr", parce qu’il porte pour le sultan les charges qui lui ont été assignées dans la gestion du Royaume. Mais la raison pour laquelle on nomme un ministre "Vazîr" n'est absolument pas pour « porter, à sa place, les charges assignées au sultan dans la gestion du Royaume », mais pour le sens originel du mot : « arbitre, juge, qui aide le roi dans ses décisions ». Califats. Ce terme est utilisé de deux manières, désignant soit une sorte de premier ministre (souvent appelé "grand vizir"), soit un fonctionnaire de rang ministériel. Dans les pays arabes, aux échecs, « vizir » désigne la pièce appelée « dame » ou « reine » en français. |
Véhicule spatial Un véhicule spatial (rarement utilisé "astronef" ou "spationef") est un véhicule conçu pour fonctionner dans l'espace. Les particularités de ce milieu déterminent la conception des véhicules spatiaux : la nécessité de sortir du puits gravitationnel terrestre qui limite la masse emportée, l'absence d'atmosphère, la nécessité d'une autonomie complète dans tous les domaines (énergie, propulsion, atmosphère et ravitaillement pour les engins emportant des équipages), les contraintes thermiques, les importantes distances à parcourir éventuellement, le bombardement par des particules énergétiques. Plusieurs types de véhicules spatiaux sont conçus, selon les fonctions qu'ils remplissent. Les principales catégories sont le lanceur, qui a pour rôle de placer un autre engin spatial (sa charge utile) dans l'espace, la station spatiale, qui permet à un équipage de séjourner dans l'espace, le satellite d'application, qui collecte des données sur la Terre (satellite d'observation de la Terre, satellite météorologique, satellite de reconnaissance, satellite scientifique...) ou assure une fonction de support pour les activités terrestres (satellite de télécommunications, satellite de navigation...), et la sonde spatiale, qui explore le Système solaire. Le terme « vaisseau spatial » est souvent utilisé dans la littérature pour désigner un véhicule spatial. Type de véhicule spatial. Les véhicules spatiaux remplissent des missions très différentes et relèvent de catégories aux caractéristiques spécifiques. Lanceur. Un lanceur est une fusée capable de placer une charge utile en orbite autour de la Terre ou de l'envoyer dans l'espace interplanétaire. La charge utile peut être par exemple un satellite artificiel, placé en orbite terrestre basse ou en orbite géostationnaire, ou une sonde spatiale qui quitte l’attraction terrestre pour explorer le système solaire. Pour y parvenir un lanceur doit pouvoir imprimer à sa charge utile une vitesse horizontale d'environ et l'élever au-dessus des couches denses de l'atmosphère terrestre (environ 200 km). Pour répondre aux différents besoins des lanceurs de toute taille ont été construits depuis le lanceur SS-520 de capable de placer en orbite basse jusqu'à la fusée "" de pouvant placer sur la même orbite. Satellite d'application. Un satellite d'application est un satellite artificiel placé en orbite autour de la Terre et qui apporte une contribution pratique au fonctionnement de la société dans des domaines comme la météorologie, les télécommunications, la navigation, la gestion des ressources naturelles, la sécurité maritime, la prévention et le suivi des risques naturels. Depuis l'apparition des satellites à la fin des années 1950, les domaines d'application tendent à se multiplier et à se banaliser en influençant en profondeur la société et en donnant naissance à un nouveau secteur commercial. Le développement des satellites reste néanmoins concentré entre les mains de quelques puissances spatiales. Les satellites d'applications constituent le plus gros du volume des véhicules spatiaux. Exemples de satellites d'application : "Météosat", "Spot 1". Satellite scientifique/sonde spatiale. Un satellite scientifique est un véhicule spatial qui a pour objectif de remplir des objectifs scientifiques. Il regroupe des engins aux caractéristiques très différentes qui partagent toutefois une caractéristique commune à savoir l'emport d'instruments collectant des données à usage scientifiques : Station spatiale. Une station spatiale est un véhicule spatial placé en orbite capable d'héberger un équipage pendant une période prolongée. Une de ses caractéristiques les plus importantes est la présence d'un ou plusieurs ports d'amarrage permettant le renouvellement des équipages et le ravitaillement par des d'autres véhicules spatiaux. Il ne dispose généralement que de moyens de propulsion réduits et n'est pas capable de revenir sur Terre. Lorsqu'elle est de grande taille la station spatiale résulte de l'assemblage de plusieurs modules lancés séparément. Les seules des stations spatiales construites jusqu'ici ont été placées en orbite terrestre basse. Exemples de station spatiale : Station spatiale internationale, Mir, Saliout, Skylab, Station spatiale chinoise. Capsule spatiale. Une capsule spatiale est un véhicule spatial conçu pour permettre à un équipage de séjourner dans l'espace et qui permet de ramener celui-ci sur Terre. Il se distingue notamment par l'existence d'un habitacle pressurisé dans lequel l'équipage peut survivre comportant un système de support de vie. L'équipage dispose d'équipements lui permettant de contrôler et d'intervenir sur le fonctionnement du véhicule. Plusieurs dispositifs (bouclier thermique, parachutes, rétrofusées, système de flottaison...) permettent à la capsule spatiale de revenir sur Terre. Exemples de capsule spatiale : Vostok, Mercury, Gemini, Voskhod, vaisseau Apollo, vaisseau Soyouz, Shenzhou, Crew Dragon, CST-100 Starliner. Navette spatiale. Une navette spatiale est un véhicule spatial pouvant revenir sur Terre en effectuant un atterrissage contrôlé à la manière d'un avion ou d'un planeur et pouvant être réutilisé pour une mission ultérieure. Ce concept s'oppose à celui des capsules spatiales, tels que Soyouz, Shenzhou ou Apollo effectuant une rentrée quasi balistique et atterrissant grâce à des parachutes et des rétrofusées. Exemples de navette spatiale : navette spatiale américaine, Bourane. Cargo spatial. Un cargo spatial est un type de véhicule spatial dépourvu d'équipage qui permet de transporter du fret à destination par exemple d'une station spatiale en orbite. Les vaisseaux cargo développés jusqu'à présent ont été utilisés pour transporter des consommables, des pièces détachées jusqu'à une station spatiale, rehausser l'orbite d'une station spatiale et ramener du fret sur Terre. Exemples de vaisseau cargo : Progress, HTV, ATV, SpaceX Dragon, Cygnus, Tianzhou. Sous-systèmes. Un véhicule spatial comporte divers sous-ensembles, dépendants du profil de la mission. Les sous-ensembles des véhicules spatiaux peuvent inclure : la commande et la détermination d'attitude (différemment appelées ADAC, CDA ou l'ACS), guidage, navigation, et commande (GNC ou GN&C), communications (COMS), traitement de commande et de données (CDH ou C&DH), puissance (EPS), commande thermique (CT), propulsion, structures, et charge utile. Les véhicules spatiaux peuvent être équipés pour subvenir aux besoins d'un équipage. Propulsion. Le véhicule spatial peut ou non comprendre un sous-ensemble de propulsion, selon que le profil de la mission nécessite, ou non, un besoin de propulsion. Le véhicule spatial "Swift" est un exemple de vaisseau spatial qui n'a pas de sous-ensemble de propulsion. En général, les véhicules spatiaux en orbite basse (LEO, par exemple le satellite "Terra" : "EOS AM-1"), comprennent un sous-ensemble de propulsion pour des ajustements d'altitude (appelées "drag make-up maneuvers", soit « Manœuvre de constitution de résistance ») et des manœuvres d'ajustement d'inclinaison. Un système de propulsion est nécessaire également pour le véhicule spatial qui exécute des manœuvres de gestion à l'élan. Les composants d'un sous-ensemble conventionnel de propulsion incluent le carburant, le tankage, les valves, les conduits, et les éjecteurs. Le contrôle thermique (voir ci-dessus) se connecte par interface au sous-ensemble de propulsion en surveillant la température de ces composants, et par préchauffage des réservoirs et des éjecteurs en vue d'une manœuvre du véhicule spatial. Production d'énergie. Le véhicule spatial requiert un sous-ensemble de production et de distribution du courant électrique permettant d'alimenter les divers sous-ensembles du véhicule spatial. Pour le véhicule spatial proche du Soleil, des panneaux solaires photovoltaïques sont fréquemment employés pour une alimentation électrique. Le vaisseau spatial conçu pour fonctionner dans des endroits plus éloignés, comme Jupiter, pourrait utiliser un générateur thermoélectrique de radio-isotope RTG afin de produire de l'électricité. L'énergie électrique est envoyée dans une unité de contrôle avant d'être redistribuée, grâce à une unité de redistribution, par un bus électrique vers les autres composants du véhicule spatial. Des batteries sont normalement reliées au bus par l'intermédiaire d'un régulateur de charge de batterie, et sont utilisées pour fournir le courant électrique pendant des périodes où la puissance primaire n'est pas disponible, par exemple pour un véhicule spatial à basse orbite (LEO - Low Earth Orbit) est éclipsé par la Terre. Régulation thermique. Le véhicule spatial doit être construit pour pouvoir résister au passage dans l'atmosphère et à l'environnement spatial. Il doit fonctionner sous vide avec des températures s'étendant sur une large gamme (des centaines de degrés Celsius, positifs et négatifs). Selon le profil de mission, le vaisseau spatial peut également opérer à la surface d'un autre corps planétaire. Le sous-ensemble thermique de commande peut être passif, dépendant du choix des matériaux avec des propriétés rayonnantes spécifiques. La commande thermique active se sert de réchauffeurs électriques et de certains déclencheurs tels que des auvents pour commander des températures ambiantes spécifiques aux limites des équipements. Commande d'attitude. Un véhicule spatial requiert un sous-ensemble de commande d'attitude pour qu'il puisse être correctement orienté dans l'espace et répondre aux torsions et aux forces externes correctement. Le sous-ensemble de commande d'attitude se compose de sondes et de déclencheurs, ainsi que d'algorithmes de contrôle. Le sous-ensemble de commande d'attitude permet le pointage approprié dans l'intérêt de la mission (mesure scientifique ou intervention extérieure), vers le Soleil pour capter l'énergie ou pour présenter une face donnée (navette spatiale), vers la Terre ou un satellite pour les communications. Guidage, navigation, commande (GNC). Le « guidage » se rapporte aux calculs des commandes (habituellement faits par le sous-ensemble CDH) nécessaires à l'orientation du véhicule spatial pour être à l'emplacement désiré. La « navigation » réside en la détermination des éléments orbitaux du véhicule spatial ou sa position. Le « contrôle » est l'ajustement du chemin du vaisseau spatial pour que s'allient les conditions de la mission. Sur quelques missions, les commandes de GNC et d'attitude sont combinées dans un sous-ensemble du vaisseau spatial. Traitement de commande et de données (CDH). Le sous-ensemble de traitement de commande et de données (, CDH) reçoit des commandes du sous-ensemble de communications, exécute la validation et le décodage des commandes, et distribue les commandes aux sous-ensembles et aux composants appropriés du véhicule spatial. Le CDH reçoit également des données de ménage et des données scientifiques d'autres sous-ensembles et composants du véhicule spatial, et assemble les données pour le stockage sur un enregistreur à semi-conducteurs ou pour la transmission vers la terre par l'intermédiaire du sous-ensemble de communications. L'autre fonction du CDH inclut de maintenir une surveillance sur l'horloge et le bon état du véhicule spatial. Structure. Le vaisseau spatial doit être construit pour résister à des charges de lancement données par le véhicule de lancement, et doit avoir un point d'attachement pour tous autres sous-ensembles. En fonction du profil de mission, le sous-ensemble structurel pourrait devoir résister à des charges données par l'entrée dans l'atmosphère d'un autre corps planétaire, et du débarquement sur la surface d'un autre corps planétaire. Charge utile. La charge utile dépend de la mission du véhicule spatial, et est typiquement considérée comme pièce du véhicule spatial « qui paye les factures ». Les charges utiles typiques pourraient inclure les instruments scientifiques (appareils photo, télescopes, ou détecteurs de particules, par exemple), cargaison, ou un humain servant d'équipage. Système au sol. Le système au sol, qui ne fait pas vraiment partie du véhicule, est essentiel au fonctionnement du véhicule spatial. Les composants habituels d'un système au sol pendant des opérations comprennent : une équipe opérationnelle qui permet la direction des opérations du véhicule spatial, un stockage et un traitement des données, des stations terrestres qui permettent l'envoi et la réception de signaux du véhicule spatial, et enfin, un réseau de communication voix et données pour rendre compte des éléments de la mission. Lancement. Le lanceur est utilisé pour propulser le vaisseau spatial de la surface de la Terre, à travers l'atmosphère, jusqu'à l'orbite souhaitée, dépendante de la configuration de la mission. Le véhicule de lancement peut être réutilisable ou non. Lanceur réutilisable. Traditionnellement les véhicules spatiaux ne sont utilisés qu'une seule fois. Les étages des lanceurs sont détruits en revenant au sol ou restent en orbite tandis que les vaisseaux avec équipage sont fortement dégradés au moment de leur rentrée atmosphérique et de leur atterrissage. Le cout de leur remise en état était supérieur à celui de la construction d'un nouveau véhicule. À la fin des années 1960 la NASA tente d'abaisser les couts de mise en orbite par l'utilisation d'engins spatiaux réutilisables. La navette spatiale américaine est initialement développée dans cette optique. Mais face au cout croissant d'un tel engin, l'agence spatiale américaine doit se contenter d'une réutilisation limitée à l'orbiteur et aux propulseurs d'appoint. La navette spatiale est lancée le . Six navettes spatiales ont été construites dont cinq ont volé dans l'espace. La navette a été employée seulement pour des essais d'approche et d'atterrissage, lancée du dos d'un Boeing 747 et atterrissant dans l' en Californie. La première navette spatiale à voler dans l'espace était Columbia, suivie par , , Atlantis, et . a été construite afin de remplacer quand il a été perdu en . Columbia a explosé lors de son entrée dans l'atmosphère en 2003. La navette spatiale soviétique "Bourane" (« tempête de neige »), lancée par l'URSS le , est également un véhicule réutilisable. Sa ressemblance avec la navette spatiale américaine (due uniquement à des impératifs aérodynamiques), n'était qu'apparente, puisque ses propulseurs d’appoint utilisaient des ergols liquides, et que la navette elle-même n'était que la charge utile de la fusée Energia (les moteurs principaux ont été placés à la base de ce qui serait le réservoir externe de la navette américaine). Le manque de financement, aggravé par la dissolution de l'URSS, a empêché tout autre vol de Bourane. À la suite du retrait de la navette spatiale américaine, l'agence spatiale américaine a lancé le développement d'une nouvelle génération de véhicules spatiaux avec équipage pour la desserte de la station spatiale internationale. Parmi les candidats, la navette Dream Chaser et le vaisseau spatial habité Crew Dragon, étaient des projets de véhicules réutilisables. Le choix s'est finalement porté sur le véhicule spatial Orion, une capsule analogue à Apollo. |
Liste de villes du Mexique Les entités fédératives mexicaines se divisent en "municipios" (communes). Certains états comme l'Oaxaca sont divisés d'abord en "distritos" (arrondissements) qui regroupent un certain nombre de municipios, il n'y a pas de critère pour octroyer à une population le statut de "municipio" (c'est-à-dire., son propre gouvernement municipal élu) : un village de dans le Veracruz peut avoir sa propre mairie, tandis que des villes comme Juan José Ríos ou Ruiz Cortines (qui ont plus de ) dans le Sinaloa, ont le statut de "ciudad" mais elles dépendent politiquement d'autres villes plus grandes. Bien que figurant dans la liste, Mexico, n'a pas le statut politique, administratif et constitutionnel de "ville", mais celui d'entité fédérative. Nombreuses sont les villes du Mexique qui ont été fondées par les Espagnols, leur "vieille ville" reçoit le nom de "Centro Histórico". |
Vent de trahison Vent de trahison (titre original : ') est un roman de science-fiction écrit par James Luceno. Publié aux États-Unis par Del Rey Books en 2001, il a été traduit en français et publié par les éditions Presses de la Cité en 2002. Ce roman, se déroulant dans l'univers étendu de "Star Wars", est la deuxième préquelle officielle du film '. Résumé. La déchéance d'un seul homme pourrait sonne le glas de la République ! Le Chancelier Valorum est le maître suprême de la galaxie Pauvre pouvoir que le sien, ligoté qu'il est par des milliers de lois, des millions de privilèges et des milliards de complots. Dans cette république, le destin du chef est d'être détesté, contesté, voué à perdre ses fonctions et à basculer dans la mort symbolique de l'anonymat. Partout grondent les opposants au régime ; mais des forces mystérieuses agissent dans l'ombre, guettant l'instant fatal où elles apparaîtront pour tirer le meilleur parti de la crise. Valorum convoque sur la planète Eriadu une conférence de la dernière chance ; des Jedi vont sur place pour organiser la sécurité des délégués. Mais les dés sont pipés ; les terroristes sont prêts. Commentaires. Il fait partie des 28 livres "Star Wars" à avoir été publié en grand format par les éditions Presses de la Cité. Il existe également en poche chez Fleuve noir où il porte le numéro 52. |
Vision du Futur |
Voie Lactée |
Voyelle En phonétique, on appelle voyelle un son du langage humain dont le mode de production est caractérisé par le libre passage de l'air dans les cavités situées au-dessus de la glotte, à savoir la cavité buccale et/ou les fosses nasales. Ces cavités servent de filtres dont la forme et la contribution relative à l'écoulement de l'air influent sur la qualité du son obtenu. L'essentiel des voyelles utilisées dans les langues sont « sonores », c'est-à-dire qu'elles sont prononcées avec une vibration des cordes vocales, le chuchotement utilise – par définition – des voyelles sourdes. Les voyelles sont opposées aux consonnes, car ces dernières se caractérisent par une obstruction au passage de l'air. D'un point de vue perceptif, les voyelles se manifestent par des sons « clairs » tandis que les consonnes se caractérisent par des bruits tels qu'un chuintement, un sifflement, un roulement, un claquement, etc. Par ailleurs, la voyelle sert généralement de sommet à la syllabe tandis que les consonnes ne jouent généralement pas ce rôle. On notera cependant que certaines consonnes ne produisent pas de bruit caractéristiques d'une consonne et présentent une faible obstruction au passage de l'air : ce sont les spirantes centrales, appelées semi-voyelles (par exemple : [w] dans "oui" qui se rapproche de [y] dans "hue"). Certaines consonnes liquides telles que le [r] roulé ou le [l] peuvent servir de sommet d'une syllabe ; elles sont dites alors vocalisées. L'alphabet français compte six voyelles graphiques, à savoir : A, E, I, O, U et Y. Le système vocalique du français standard compte seize voyelles phonétiques, ou vocoïdes, à savoir : . Phonétique. En phonétique, les voyelles sont étudiées d'un point de vue articulatoire, acoustique et (ou) auditif. Approche articulatoire. Les voyelles peuvent être définies par la façon dont elles sont produites articulatoirement. La classification des voyelles des langues naturelles dans l'Alphabet Phonétique International s'appuie sur une description articulatoire. Une voyelle est produite par l'action coordonnée des cordes vocales et de différents articulateurs qui se situent entre le larynx et les lèvres : la langue, le voile du palais, les dents, les lèvres. Plis vocaux. Le son caractéristique des voyelles est généré par la vibration des plis vocaux (anciennement appelés « cordes vocales »). Pour vibrer, ceux-ci doivent être assez proches l'un de l'autre pour que la pression de l'air sous le larynx augmente. Les plis vocaux s'écartent l'un de l'autre sous l'effet de la pression subglottale, la partie inférieure de chaque pli entraînant la partie supérieure. Dans certaines conditions, l'oscillation des plis vocaux va se maintenir. Trois types majeurs de phonation sont attestés dans la production des voyelles. Il s'agit de la voix modale, la voix craquée et la voix soufflée. Le type de phonation est en grande partie déterminé par la proportion du cycle glottal pendant laquelle les plis vocaux sont ouverts. En voix modale, les plis vocaux sont ouverts pendant la moitié du cycle glottal et fermés pendant l'autre moitié. En voix craquée, les plis vocaux sont plus rapprochées et l'air se fraye plus difficilement un chemin. Il en résulte une phase de fermeture des plis vocaux plus longue, et une phase d'ouverture plus courte d'autant. En voix soufflée, les plis vocaux vibrent mais avec peu de contact, et par conséquent la glotte est ouverte pendant une portion relativement longue de chaque cycle glottal. Ces différents degrés d'ouverture se situent sur un continuum de types de phonation, qui va de la voix dévoisée (en anglais, "voiceless"), où l'ouverture est maximale, à la fermeture glottale (en anglais, "glottal closure"). Dans l'Alphabet phonétique international, un "a" prononcé en voix modale est noté , un "a" prononcé en voix soufflée , un "a" prononcé en voix craquée , un "a" dévoisé . Autres articulateurs. Le timbre des voyelles dépend : 1 du nombre ; 2 de la forme ; 3 du volume des filtres traversés par l'air expiré. Le tableau à droite représente les voyelles les plus courantes (transcrites dans l'alphabet phonétique international) classées selon les trois caractéristiques susdites selon un schéma appelé triangle vocalique. Approche acoustique. L'acoustique étudie les émissions vocales et pratique l'analyse spectrale des enregistrements, en utilisant, souvent un sonagraphe pour identifier les formants. Approche auditive. Les études psychoacoustiques ont abordé la question de l'identification des voyelles, tentant de cerner, avec des stimulus synthétiques, les relations entre la répartition des partiels et l'identification de la voyelle. Phonologie. La phonologie différencie les sons dans la mesure où cette différence porte un sens dans la langue. Certaines langues, comme le grec ancien, le japonais ou l'anglais distinguent les voyelles longues et brèves. Cette distinction influe sur la prosodie et le rythme en poésie. Les voyelles portent l'accent tonique. En français, celui-ci est fixé sur la dernière voyelle sonore ; l'écriture des langues où il est irrégulier peut noter l'accent par un signe diacritique. Voyelles sonores et sourdes. Certaines langues comme le cheyenne et le japonais emploient des voyelles "sourdes", sans vibration des cordes vocales, comme dans le chuchotement. Par nécessité, les tons d'une langue à tons portent sur des voyelles sonores. Annexes. Étymologie. Le substantif féminin "voyelle" est une réfection, d'après le genre de "consonne", de l'ancien français ' (), substantif masculin issu, sous l'influence du pluriel ', d'un *' (), lui-même issu du latin ', adjectif dérivé de "" (), signifiant et, substantivé . |
Vol spatial Le vol spatial est le mouvement d'un astronef dans et à travers l'espace. Le vol spatial est utilisé dans le cadre de l'exploration spatiale, et dans les activités commerciales liées telles que le tourisme spatial et les satellites de télécommunication. D'autres usages non commerciaux sont également recensés, tels que les télescopes spatiaux et les satellites espions ou ceux d'observation de la planète. Un vol spatial débute par un lancement, procurant la poussée initiale permettant d'outrepasser la force de gravitation et d'arracher le vaisseau de la surface terrestre. Une fois dans l'espace, le mouvement du vaisseau, qu'il soit propulsé ou non, est déterminé par les lois de la mécanique spatiale. Certains engins spatiaux restent dans l'espace indéfiniment, certains se désintègrent pendant leur rentrée atmosphérique et d'autres atteignent la surface pour un atterrissage ou un impact. Histoire. La première proposition théorique de voyage spatial à l'aide de fusées a été publiée par l'astronome et mathématicien écossais William Leitch, dans un essai de 1861 intitulé "A Journey Through Space". Mais l'ouvrage le plus connu sur ce sujet reste le travail Konstantin Tsiolkovsky, "Исследование мировых пространств реактивными реактивными приборами". (The Exploration of Cosmic Space by Means of Reaction Devices en anglais), publié en 1903. En 1919, le vol spatial devient théoriquement possible car l'ingénieur américain Robert H. Goddard publie "A Method of Reaching Extreme Altitudes" (Une méthode pour atteindre des altitudes extrêmes), dans lequel il explique l'utilisation de tuyères de de Laval dans le cadre de fusées à propergols liquides, afin de produire la puissance nécessaire à un voyage interplanétaire. Cet ouvrage influença grandement les ingénieurs allemands Hermann Oberth et Wernher von Braun, futurs acteurs clés de l'astronautique moderne. Le , ce dernier fait décoller la première fusée à atteindre l'espace : il s'agit d'une fusée A4, plus connue sous la désignation de V2. Cet évènement marque le lancement de la première production industrielle de fusées, le V2 étant l'ancêtre commun des ICBM actuels et des lanceurs spatiaux modernes. Le pas en avant que constitue la réussite technologique du V2 a ouvert la voie à la conquête de l'espace. Quinze ans plus tard, le , une fusée R-7 Semiorka soviétique place le premier satellite artificiel, Spoutnik 1, en orbite autour de la Terre et le premier vol spatial habité est effectué par le cosmonaute soviétique Youri Gagarine, le à bord de Vostok 1. À l'heure actuelle, la fusée reste le seul moyen utilisé pour s'affranchir de la gravité terrestre. Le vol spatial privé, c'est-à-dire non financé par des états, mais par des entreprises, a commencé à apparaître avec l'envoi de satellites. Rapidement après les premières réussites de vol spatial, des espoirs de voyages ou de vie dans l'espace à des fins de tourisme sont apparus. Ces espoirs restent en attente faute de technologie et de financements, mais le projet SpaceShipTwo a pour but de permettre des vols privés après 2010. Généralités. On peut distinguer plusieurs types de vols spatiaux selon les orbites décrites : De nombreuses missions spatiales sont composées de différentes phases relevant de ces catégories. Par exemple, certaines missions martiennes visent à placer un objet en orbite autour de Mars et sont donc composées d'une phase interplanétaire puis d'une phase orbitale. Dans certains cas, on se dirige vers d'autres lieux encore, comme les points de Lagrange, mais les techniques restent identiques. Vol spatial au départ de la Terre. Atteindre l'espace. La définition généralement acceptée de la limite entre l'atmosphère terrestre et l'espace est appelée ligne de Kármán, du nom du physicien hongro-américain, Theodore von Kármán, qui calcula l'altitude à partir de laquelle l'atmosphère devient trop ténue pour des applications aéronautiques. Cette ligne se situe à d'altitude, mais il existe des références américaines fixant la ligne de Kármán à d'altitude, soit , pour des raisons mnémotechniques. Le vol suborbital. Lors d'un vol spatial suborbital, l'astronef atteint l'espace mais ne se met pas en orbite. De ce fait, sa trajectoire le ramène vers la surface de la Terre. Les vols suborbitaux peuvent durer plusieurs heures, et Pioneer 1, la première sonde envoyée par la NASA dans le but d'atteindre la Lune en est l'exemple. Une avarie partielle fit prendre à la sonde une trajectoire suborbitale d'une altitude de avant de rentrer dans l'atmosphère 43 heures après son lancement. Le , la a lancé la fusée GoFast pour le premier vol amateur spatial suborbital. Le , SpaceShipOne fut utilisé pour le premier vol spatial habité à financement privé. Le vol orbital. Un vol orbital minimal nécessite une vitesse beaucoup plus importante qu'un vol suborbital minimal, et, par conséquent, est technologiquement plus difficile à réaliser. Pour parvenir à un vol orbital, la vitesse tangentielle autour de la Terre est aussi importante que l'altitude atteinte. Dans l'optique de réaliser un vol stable et durable, la vitesse de l'astronef doit rendre possible une orbite fermée. L'ascension directe. Pour les voyages interplanétaires, il n'est pas absolument nécessaire d'atteindre une orbite fermée à condition que le vaisseau atteigne la vitesse d'échappement. Cette vitesse est de sur Terre. C'est de cette manière que les tout premiers véhicules spatiaux soviétiques ont atteint de très hautes altitudes sans mise sur orbite. La NASA étudia également l'ascension directe au début du programme Apollo, notamment avec la fusée Nova, mais abandonna l'idée à la suite de considérations de masse. Plusieurs sondes spatiales inhabitées ont été envoyées en employant l'ascension directe, c'est-à-dire qu'elles n'effectuèrent pas d'orbite autour de la Terre avant de traverser l'espace. Actuellement, les plans pour les futurs vols spatiaux habités comprennent souvent l'assemblage de l'astronef en orbite autour de la Terre, excluant de fait ce type de lancement. Pas de tirs et astroport. Un pas de tir est une infrastructure fixe conçue pour permettre le décollage de véhicules aérospatiaux. Cela consiste généralement en une tour de lancement autorisant l'accès aux différents étages du lanceur, ainsi que d'une fosse destinée à accueillir en partie la flamme du blast-off. L'ensemble est entouré d'équipement permettant d'ériger les lanceurs, de les maintenir et d'en faire le plein. Un astroport peut englober plusieurs pas de tirs. Ces deux types d'infrastructures sont généralement placées à l'écart des habitations, pour des raisons de sécurité et de pollution sonore. Un lancement ne peut se faire que dans une fenêtre de temps bien précise, définie par la position des corps célestes et de leur orbite relativement au site de lancement. L'influence principale est celle de la Terre elle-même. Rentrée dans l'atmosphère et atterrissage/amerrissage. Rentrée atmosphérique. Les véhicules en orbite possèdent une grande énergie cinétique qu'ils doivent dissiper afin de pouvoir atterrir sans se sublimer dans l'atmosphère. Cette dissipation requiert des méthodes spéciales de protection contre l'échauffement aérodynamique. La théorie sur laquelle repose l'approche scientifique de la rentrée atmosphérique est due à Harry Julian Allen. Se basant sur cette théorie, les véhicules spatiaux présentent, au moment de leur rentrée dans l'atmosphère, une forme arrondie permettant de faire en sorte que moins de 1 % de l'énergie cinétique convertie en chaleur n'atteigne l'astronef. Atterrissage et amerrissage. Les capsules des projets Mercury, Gemini et Apollo ont toutes amerri. Elles étaient conçues pour atterrir à des vitesses faibles. Les capsules russes Soyouz sont conçues pour atterrir sur la terre ferme et utilisent des rétrofusées pour le freinage. Les navettes spatiales planent et touchent leur piste d'atterrissage de façon tangentielle et à haute vitesse. Récupération. Après un atterrissage réussi, l'astronef, ses occupants et sa cargaison peuvent être récupérés. Il arrive parfois que cette récupération se fasse en vol, donc avant l'atterrissage, pendant que l'astronef descend en parachute. Un avion spécialement équipé l'attrape alors au vol. Cette méthode est utilisée notamment pour récupérer les films provenant des satellites espions Corona. Lanceurs astronautiques à usage unique. Actuellement, tous les astronefs, excepté la navette spatiale américaine et le Falcon 1 de SpaceX, utilisent une fusée multi-étages pour atteindre l'espace. Lanceurs astronautiques réutilisables. Le premier astronef réutilisable, le X-15, fut lancé depuis les airs sur une trajectoire suborbitale le . Le premier astronef partiellement réutilisable et susceptible d'être mis en orbite, la navette spatiale, fut lancée par les États-Unis pour le vingtième anniversaire du vol de Youri Gagarine, le . Six navettes de ce type furent construites, toutes ayant volé dans l'atmosphère terrestre et cinq d'entre elles ayant volé dans l'espace. La navette prototype, l"'Enterprise" ne fut utilisée que dans le cadre d'essais de manœuvre d'approche et d'atterrissage, lancée depuis le dos d'un Boeing 747 et atterrissant en planant sur la base aérienne d'Edwards. La première navette à atteindre l'espace fut "Columbia", suivie par "Challenger", "Discovery", "Atlantis" et "Endeavour". Cette dernière fut construite pour remplacer "Challenger" qui explosa en . "Columbia", quant à elle, se désagrégea lors de sa rentrée dans l'atmosphère en . Le premier astronef partiellement réutilisable automatique fut la navette soviétique Bourane, lancé le , et n'ayant réalisé qu'un seul vol. Cet avion spatial avait été conçu pour emmener un équipage humain et ressemblait fortement à son homologue américain, bien que la navette soviétique ne disposait pas de propulseur principal propre. Le manque de fonds, aggravé par la dissolution de l'URSS, mit fin prématurément au programme. Conformément à la Vision pour l'exploration spatiale, la navette spatiale a été retirée du service en 2011 en raison principalement de son âge avancé et du coût élevé du programme, qui a atteint plus d'un milliard de dollars par vol. Le rôle de la navette en matière de transport des personnes doit être remplacé par le véhicule d'exploration des équipages (CEV) partiellement réutilisable au plus tard en 2021. Le rôle de la navette dans le transport de marchandises lourdes doit être remplacé par des fusées non réutilisables telles que le lanceur Evolved Expendable Launch Vehicle (EELV) ou un lanceur dérivé de navette. Scaled Composites SpaceShipOne était un avion spatial suborbital réutilisable qui a transporté les pilotes Mike Melvill et Brian Binnie sur des vols consécutifs en 2004 pour gagner le Prix Ansari X. La société SpaceShip Company construira son successeur SpaceShipTwo. Une flotte de SpaceShipTwos exploitée par Virgin Galactic prévoyait de commencer des vols spatiaux privés réutilisables transportant des passagers payants (touristes de l'espace) en 2008, mais cela a été retardé en raison d'un accident dans le développement de la propulsion Technologies. L'un des aspects majeurs du vol spatial réside dans les moyens de propulsion. Les technologies de propulsion spatiale utilisées sont nombreuses, mais la plus courante reste la propulsion chimique, tandis que la propulsion électrique commence à se répandre. Enjeu des satellites. Les satellites sont un enjeu puisqu'ils permettent l'observation de la Terre. Ils interviennent également dans les communications téléphoniques, les prévisions météo et dans le GPS. Par conséquent, ils sont importants pour l'armée puisque de nombreux matériels militaires dépendent du GPS. Ils fournissent également de nombreux renseignements aux armées (identification, localisation, photos) et permettent la retransmission de signaux. C'est aussi un enjeu économique. Par exemple, en 2017 en Indonésie, un accident de satellite a causé une panne de 1500 distributeurs de billets pendant plusieurs semaines. |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.