text stringlengths 1 572k |
|---|
Littérature russe La littérature en langue russe proprement dite naît au cours du , tout d'abord avec la poésie et le théâtre, mais très tôt naît une très riche tradition romanesque. De grands auteurs russes apparaissent au d'abord avec le romantisme, au début du siècle qui voit l'éclosion d'une génération talentueuse avec surtout Alexandre Pouchkine, Mikhaïl Lermontov. La suite du « siècle d'or de la littérature russe » produit de grands romanciers comme Nicolas Gogol, Fiodor Dostoïevski, Ivan Tourgueniev, Léon Tolstoï ; la fin du siècle est marquée par la figure du dramaturge Anton Tchekhov. Au tournant du , un nouvel élan littéraire est porté par la poésie symboliste puis futuriste, associé à une intense activité théorique mais il se heurte vite à la persécution soviétique. Le siècle est cependant riche de poètes comme Sergueï Essénine et Vladimir Maïakovski et de romanciers comme Maxime Gorki, Boris Pasternak, Mikhaïl Cholokhov ou Mikhaïl Boulgakov. La répression stalinienne frappe particulièrement de nombreux écrivains, comme Vassili Grossman, Varlam Chalamov ou Alexandre Soljenitsyne, qui dénoncent le système totalitaire soviétique. Depuis la chute de l'Empire soviétique et la disparition du régime communiste, une nouvelle littérature russe naît progressivement dans les années 1990. Les origines. Immense différence avec l’Occident, il n’existe en Russie aucun document écrit avant le : le Codex de Novgorod semble le plus ancien document littéraire. Par ailleurs, le pays ne connaît pas de chevalerie en raison du joug tatar. La Russie ne connaît aucun texte non religieux avant le hormis des récits populaires, et pas d’université avant celle de Mikhaïl Lomonossov, créée au . Après le schisme de 1054, l'opposition théologique et idéologique à l’Occident se traduit par le rejet de l’influence de Rome puis de l’Allemagne. La Russie se réfère plus volontiers à Byzance, dont Moscou récupère l'héritage après la chute de Constantinople prise par les Turcs en 1453. Moscou se voit comme la « troisième Rome » et reprend l’aigle bicéphale comme symbole. Le mot "Littérature". Selon Stépan Chévyriov (1806-1864), si le mot actuel "Literatura" ("Литература") désigne la « littérature », il s'agit d'un emprunt du . "Slovesnost" ("Словесность") était l’ancien mot, qui signifie « art du mot ». Un art écrit, et surtout, un art oral. Ainsi, la « Литература » caractérise ce qui relève de l’écrit et « Словесность » ce qui relève du mot. Littérature vieux-russe. La littérature vieux-russe se constitue de rares ouvrages écrits en vieux-russe (à ne pas confondre avec le slavon d'Église) comme l'anonyme "Dit de la campagne d'Igor" (Слово о Полку Игореве). Les bylines, épopées orales, ont mélangé les traditions païennes et chrétiennes, dans lesquelles l'influence de la littérature byzantine se fait sentir. La littérature médiévale russe est écrite en slavon avec une très forte thématique religieuse. Le premier ouvrage en russe courant, l'autobiographie de l'archevêque Avvakoum, ne voit le jour que vers le milieu du . Après un long joug mongol, le territoire russe est unifié autour de la Moscovie sous le règne d'Ivan le Terrible (1530-1584), premier « tsar de toutes les Russies ». À sa mort, il n’y a pas de successeur légitime. Le pouvoir échoit finalement à Boris Godounov. Son court règne ouvre le Temps des troubles (смутное время), pendant lesquels des boyards se succèdent au Kremlin. Le désordre politique s'accompagne d’une famine et d’une crise économique sans précédent, mais du point de vue culturel, ce temps chaotique est riche. Sous l'impulsion de la République des Deux Nations (Pologne et Lituanie), la Russie s'ouvre au monde extérieur. L'incertitude s'achève en 1615, après l'élection d'un tsar en 1613 : Michel III Romanov, premier représentant de la longue dynastie Romanov. À la fin du , son fils Alexis, Алексей Михайлович « le très paisible », lui succède. Son règne est marqué par de nombreuses réformes et l'apparition du "Raskol". Sa deuxième femme, Natalia Narychkina (mère de Pierre le Grand) s’intéresse beaucoup à ce qui se passe en Europe et exerce une grande influence sur son mari. Elle introduit en particulier le théâtre occidental et met en place une troupe permanente. Le. La modernisation de la Russie. Avec le règne de Pierre le Grand (1682-1725), la culture russe se sécularise et arrive progressivement à une littérature, une peinture et une musique russes au début du . Amorcé à la fin du , le changement prend corps au début , avec la création de Saint-Pétersbourg en 1703. Dans un pays en grande partie analphabète, Pierre le Grand fonde le premier journal russe (gratuit), « Ведомости » ("Les Nouvelles"). Une réforme de l’alphabet simplifie les caractères cyrilliques, en s'inspirant de l'alphabet latin. En outre, de nombreuses écoles et institutions sont créées : l’Académie de Marine, l’École du Génie, l’École de Médecine de Moscou, l’Académie des Sciences, ainsi que le premier musée de Russie : la "Kunstkamera", située à côté du palais d'Hiver. Cependant, Pierre le Grand ne nourrit pas un intérêt profond pour la littérature et l’art. C’est avant tout quelqu’un de pratique, comme l’attestent ses réformes sur les académies ou l’administration en général. De même, les premiers livres imprimés en caractères cybiles sont des guides pratiques concernant l’art militaire, ou encore un manuel de correspondance. Les genres littéraires. Sous Pierre le Grand, les chansons d’amour sont tolérées, ce qui est un changement essentiel. En effet, l’amour devient « autorisé », victime autrefois des désignations les plus dures. Ses chansons reprennent la tradition orale avec son système stylistique, ses images, et la poétique nouvelle du lyrisme européen. On autorise également la littérature narrative : apparition de récits d’aventure, qui ne sont autres que des imitations de romans de chevalerie. Les « Повести » sont le plus souvent des adaptations au contexte russe de récits étrangers. On retrouve même des caractéristiques du conte populaire. Le héros traditionnel de ces ouvrages est généralement un noble russe entreprenant, courageux, audacieux, et attiré par l’Occident: idéal de l’homme nouveau, pour l’élite. Un exemple en est l’"Histoire du marin russe Vassili Kariotsky et de la belle reine Iraklia de la terre Florentine". L’aventure se passe à l’étranger, dans le ton du merveilleux (il devient roi de la terre florentine et épouse la reine). Le choix d'un marin comme héros dénote une certaine modernité (la flotte russe existe depuis très peu). Cependant, tout le est marqué par l’hégémonie de la poésie. Des auteurs comme Antioch Kantemir, Vassili Trediakovski, et Mikhaïl Lomonossov au début du forment la première vague littéraire russe. En poésie Gavrila Derjavine, en prose Nikolaï Karamzine et Alexandre Radichtchev, au théâtre Alexandre Soumarokov et Denis Fonvizine défrichent des genres littéraires pour l'instant inexistants. Vers l’élaboration d’une langue littéraire. Le est une période déterminante marquée par une grande querelle concernant l'utilisation du vieux russe (ou slavon) ou du russe populaire comme langue littéraire. En 1743, Mikhaïl Lomonossov, futur fondateur de la première université à Moscou, écrit un traité de rhétorique en posant le dilemme du slavon. En 1745, le poète Vassili Trediakovski envisage la création d’une langue littéraire, mélange de la langue populaire et du slavon. C'est finalement cette solution qu'adopte Lomonossov en 1755 avec la première "Grammaire russe". Il s’agit là de la première normalisation de la langue. La langue russe écrite emprunte par ailleurs à l'étranger de nombreux termes techniques. Le vocabulaire de la marine est ainsi emprunté au néerlandais, le vocabulaire militaire à l'allemand, et les termes conceptuels proviennent souvent du français. Naissance du roman russe. On traduit par ailleurs de plus en plus de romans occidentaux qui suscitent réflexion, comme les romans de l’abbé Prévost (à l’origine du premier débat littéraire en Russie), Madame de Scudéry, Scarron ou Lesage. Le débat prend une dimension importante. Différentes sensibilités s'affirment : Les conservateurs : ils emportent dans un premier temps le débat. Le poète Alexandre Soumarokov ("Cyмapоков") explique que « lire des romans est une inutile et regrettable perte de temps ». Mikhaïl Kheraskov ("Xepaсков") ajoute qu'« on ne tire pas profit de la lecture des romans ». Les opposants : Porochine (traducteur de l’abbé Prévost entre autres) argumente que les romans à l’européenne jouent un rôle social. Le succès grandissant des traductions entraîne l'apparition de romans russes qui auront beaucoup de succès. (1735-1770) est le premier romancier en langue russe, bien que d'origine étrangère. Il combine les modèles d’intrigues les plus répandus en les russifiant, et use d'un style médiocre. Mais ses romans comblent l'attente du public russe naissant et rencontrent un réel succès. Dans ses romans, dont le plus connu est « "La fortune inconstante" » (1763), on trouve une sorte de mélange fantastique/réel, des amours difficiles, les poncifs du roman d’aventure, mais aussi des tableaux réalistes des mœurs de l’époques. Le fait que ces romans aient été écrits directement en russe explique pour une part leur succès. L’auteur affirme également que certaines aventures lui sont arrivées personnellement, rendant le lecteur enthousiaste. Mais l’exemple de l'écrivain (1744-1792) reflète bien un certain paradoxe : plutôt conservateur, il considère l’écriture de roman comme une activité insignifiante. Il est cependant intéressé par le fait que la langue d’Emine soit familière. Et il écrira lui-même dans le parler contemporain de Moscou. Ce fait révèle le besoin d'élaborer une langue écrite adaptée à la réalité de la Russie contemporaine. Le. Le romantisme, au début du voit l'éclosion d'une génération talentueuse avec Vassili Joukovski mais surtout Alexandre Pouchkine, Mikhaïl Lermontov et Fiodor Tiouttchev. Ce siècle sera le siècle d'or de la littérature russe et plus particulièrement du roman avec Fiodor Dostoïevski, Nicolas Gogol, Ivan Gontcharov, Nicolaï Leskov, Mikhaïl Saltykov-Chtchédrine, Léon Tolstoï, Ivan Tourgueniev... La littérature russe est beaucoup influencée dès cette époque par la littérature occidentale, comme le démontre Stefan Zweig dans son essai : "Trois maîtres, Dostoïevski, Balzac, Dickens" ainsi que Michel Cadot dans "La Russie entre Orient et Occident". Parallèlement, les autres domaines littéraires se développent aussi avec le fabuliste Ivan Krylov, les poètes Evguéni Baratynski, Constantin Batiouchkov, Nikolaï Nekrassov, Alexis Tolstoï, Fiodor Tiouttchev et Afanassi Fet, le collectif satirique Kozma Proutkov. Anton Tchekhov développe à la fois une œuvre théâtrale essentielle, mais aussi tout un registre d'histoires très courtes qui en fait un des auteurs russophone les plus marquants. Le. Symbolisme et futurisme. Le début du voit une vive activité dans le champ poétique avec l'éclosion de beaucoup de tendances telles le symbolisme puis l'acméisme et le futurisme russe. De nombreux poètes participent à ce nouvel âge d'or : Anna Akhmatova, Innocent Annenski, Andreï Biély, Alexandre Blok, Valéry Brioussov, Marina Tsvetaïeva, Sergueï Essénine, Nikolaï Goumilev, Daniil Harms, Vélimir Khlebnikov, Ossip Mandelstam, Vladimir Maïakovski, Boris Pasternak, Fiodor Sologoub ou Maximilian Volochine. C'est également une période d'intense activité critique et théorique, avec le développement du formalisme russe. La période soviétique. Après la révolution d'Octobre, de nombreux écrivains russes s'exilent, notamment à Berlin, puis à Paris, où de nombreuses revues littéraires en russe sont éditées ("La Pensée russe"). En 1921, Nikolaï Goumilev, mari d'Akhmatova, est exécuté pour activités pro-impériales. Mais avec le démarrage de la NEP, une relative liberté est accordée aux écrivains, et certains exilés choisissent de revenir en Russie (Victor Chklovski, Andreï Biély, et plus tard, Maxime Gorki). La vie littéraire reprend tant bien que mal, malgré les tracasseries du pouvoir et la précarité de l'économie. Des groupes tels que les Frères Sérapion ou le mouvement de l'Oberiou essaient de renouveler l'esthétique du roman ou de la poésie. Une certaine critique de la société trouve même droit de cité, comme dans les romans satiriques de Ilf et Petrov ou "L’Envie" de Iouri Olecha (1927). Mikhaïl Cholokhov publie "Le Don paisible" qui lui vaudra le prix Nobel de littérature en 1965. L'arrivée au pouvoir suprême de Joseph Staline en 1930 marque la fin de la relative liberté accordée aux écrivains russes par le pouvoir bolchévique. Une esthétique officielle se met en place : le réalisme socialiste. Cette doctrine littéraire est simple, il s'agit d'utiliser le talent des écrivains pour vanter les mérites et les réussites du régime ainsi que pour expliquer la propagande officielle. Le régime s'occupe d'organiser la vie littéraire et l'orientation des thèmes via l'Union des écrivains soviétiques qui relève directement du commissaire politique Andreï Jdanov. Toutefois la "Literatournaïa gazeta" (Gazette littéraire) garde une relative indépendance d'esprit. Très rapidement, les écrivains réfractaires sont contraints à l'exil, à la prison, au camp de travail. Les poètes futuristes Vladimir Maïakovski et Marina Tsvetaïeva choisissent le suicide. Cette répression, associée à des conditions matérielles très dures dues à la Seconde Guerre mondiale conduisent à la disparition de la quasi-totalité du milieu littéraire russe. Dans le même temps, l'école de critique et de théorie littéraire russe est mise au pas. Roman Jakobson s'installe aux États-Unis, Victor Chklovski et Mikhaïl Bakhtine sont réduits au silence. Certains auteurs, pour contourner la censure, s'abritent derrière le genre du conte pour enfants (Daniil Harms) ou de la bibliographie historique (Iouri Tynianov). Mais la plupart des auteurs (Mikhaïl Boulgakov, Boris Pasternak, Andreï Platonov, Ossip Mandelstam, Iouri Olecha, Isaac Babel ou Vassili Grossman) continuent leur travail littéraire de manière parfois clandestine, en espérant être publiés de manière posthume ou à travers le régime des samizdat (publications artisanales clandestines). Les auteurs en exil comme le prix Nobel Ivan Bounine, Alexandre Kouprine, Boris Zaïtsev, Ivan Chmeliov réussissent à vivre de leur travail, gardent leur liberté créatrice mais ne peuvent atteindre leur public que par samizdat. Dans l'URSS d'après Staline, le socialisme réel reste le seul style littéraire autorisé mais les auteurs publiant sous samizdat ont plus de libertés. Surtout les auteurs peuvent vivre de leur travail et craignent moins la répression et l'internement. Les premiers récits concernant le goulag commencent à circuler en samizdat, tels ceux du prix Nobel Alexandre Soljenitsyne ou de Varlam Chalamov. Vénédict Erofeiev continue son travail de publication par samizdat. Dans la période de déclin de l'Union soviétique, les Russes émigrés reçoivent en Occident une reconnaissance assez forte tels le prix Nobel Joseph Brodsky ou le nouvelliste Sergueï Dovlatov. Leur œuvre n'est alors connue en URSS que par samizdat. Il faut attendre la politique de perestroïka entamée à la fin du des années 1980 pour que des écrivains dissidents soient officiellement publiés en Russie. L'écrivain Vladimir Nabokov représente un cas à part : Russe de Saint-Pétersbourg, il devient Américain par la suite. Il commence sa carrière en exil à Berlin et écrit en russe, puis en anglais. Littérature russe contemporaine. À la fin du , la littérature russe doit passer une phase délicate : celle de la renaissance, par-delà le sel semé par des décennies de socialisme soviétique. Les besoins de cette période sont de deux types : former et découvrir de nouveaux talents et créer une économie de l'édition en Russie. Les maisons d'édition trouvent de l'argent pour se développer en vendant des romans de piètre qualité littéraire. Peu d'écrivains, comme Viktor Pelevine (1962-) ou Vladimir Sorokine sortent du lot. Les maisons d'édition publient peu des œuvres étouffées sous la période communiste ou connues par samizdat. La poule aux œufs d'or de l'édition russe est, comme partout ailleurs, la littérature policière. Les polars empreints d'ironie de Daria Dontsova connaissent un grand succès. Les 50 romans policiers qu'elle a pour l'instant écrits se sont vendus à des millions d'exemplaires et sont traduits dans plusieurs pays européens. Au début du , la demande du public russe s'est fortement accrue, en qualité comme en quantité. En conséquence, l'économie de l'édition russe est obligée de fournir ses clients en cherchant et rémunérant de nouveaux talents littéraires. Le nombre de maisons d'édition et les tirages augmentent. Un certain nombre d'écrivains russes sont désormais populaires en Europe occidentale et en Amérique du Nord, telles Tatiana Tolstaïa ou Lïoudmila Oulitskaïa. Les polars de Boris Akounine avec son personnage fétiche Eraste Fandorine sont publiés en Europe et en Amérique du Nord. Alexandra Marinina, la plus grande écrivain de romans policiers en Russie a réussi à exporter ses livres en Europe et a bénéficié d'un grand succès en Allemagne. La littérature plus traditionnelle trouve aussi un nouvel essor avec des auteurs venus de régions éloignées comme Nina Gorlanova de Perm avec ses histoires sur les difficultés quotidiennes et les joies de l'intelligentsia provinciale ou encore Youri Rytkhéou de la Tchoukotka qui raconte les problèmes identitaires des Tchouktches. Des auteurs tels que Dmitri Gloukhovski ou Sergueï Loukianenko connaissent un succès avec leurs romans de science-fiction qui ont même été adaptés en films ou jeux vidéo. Au cours des années 2000-2020, : Mikhaïl Elizarov, , , Tim Skorenko, , . |
Lettonie La Lettonie, en forme longue la république de Lettonie ( et ""), est un pays d'Europe du Nord faisant partie des pays baltes. Située sur la rive orientale de la mer Baltique, elle possède des frontières terrestres avec la Lituanie au sud, l'Estonie au nord, la Russie à l'est, la Biélorussie au sud-est et une frontière maritime avec la Suède à l'ouest. La Lettonie est un État membre de l'Union européenne depuis le et de la zone euro depuis le . Entre 1991 et 2011, la Lettonie a perdu plus de 23 % de sa population en raison d'un taux de fécondité (nombre d'enfants par femme) extrêmement faible et surtout d'un solde migratoire négatif. Histoire. À partir du jusqu'au , la Lettonie, qui s'étendait en Livonie et en Courlande, était la possession des chevaliers teutoniques de l'ordre de Livonie. Au , elle faisait partie de la Pologne et de la Suède depuis 1625. Le roi suédois fonda, en 1632, l'université de Tartu (en allemand : Dorpat) ainsi qu'une cour d'appel à Tartu, tandis que le journal officiel du gouvernement suédois publiait l'une de ses éditions à Riga en letton. Au début de 1655, le roi suédois réclama des barons balto-allemands l'allégeance à la couronne suédoise. Au , la Livonie et la Courlande font partie de l'Empire russe par le traité de Nystad : la Lettonie est composée du gouvernement de Courlande et d'une partie du gouvernement de Livonie. La domination traditionnelle des grands propriétaires germano-baltes et la langue allemande (langue administrative avec le russe jusqu'en 1917) ont cependant été conservées dans le pays. Au cours de la guerre civile en Russie (1917-1922), la plupart des divisions militaires lettonnes (créées pendant la Première Guerre mondiale) combattirent contre l'Allemagne aux côtés des bolcheviks. Toutefois par la signature du traité de Brest-Litovsk le , la Russie soviétique cède les États baltes à l'Empire allemand. Selon ce traité, la Lettonie aurait dû être annexée par le Reich, mais la défaite allemande du lui permet de déclarer pour la première fois son indépendance qui est reconnue internationalement en 1919 (République de Lettonie, 1918-1940). En , durant la Seconde Guerre mondiale, elle est d'abord envahie, comme le prévoyaient les clauses secrètes du Pacte germano-soviétique (en même temps que les deux autres pays baltes), par l'URSS après un « plébiscite » organisé pour donner à l'annexion de la Lettonie une apparence de légitimité. Les États-Unis et la plupart des pays non-communistes membres de l'ONU, ainsi que, par la suite, le Parlement européen, la CEDH et le Conseil des droits de l'homme de l'ONU n'ont pas reconnu l'incorporation de la Lettonie parmi les quinze républiques socialistes soviétiques et ont continué à la reconnaître ' comme État souverain. Quelque furent déportés par les Soviétiques et seule une minorité survécut au goulag ; ils furent remplacés après la guerre par des colons russes. Beaucoup de Lettons se réfugièrent dans la campagne ou en formant un « maquis » letton. L'Allemagne nazie envahit la Lettonie en 1941. Les maquisards lettons sont alors organisés en milices paysannes pour lutter contre les partisans des Soviétiques. Accusés en bloc d'avoir soutenu les Soviétiques, environ lettons furent assassinés en Lettonie durant la Seconde Guerre mondiale, par des Einsatzgruppen allemands mais aussi par des unités paramilitaires et les forces de police auxiliaires lettones. D'autres Lettons ont choisi de rejoindre l'Armée rouge ( ). L'Armée rouge a réoccupé à partir de 1944 la Lettonie, que l' annexa sous le statut de république socialiste soviétique. À la fin de la guerre, un grand nombre de familles lettones trouvèrent refuge en Suède puis en Allemagne, aux États-Unis, au Canada et en Australie. Pendant l'occupation soviétique, la lutte armée par les maquisards lettons continua jusqu'à la mort de Joseph Staline en . Pour priver la résistance lettone de ses approvisionnements, les Soviétiques lancèrent un programme de collectivisation forcée des fermes. En 1949, une seconde vague de déportations eut lieu : furent déportées à Krasnoïarsk, Amur, Irkoutsk, Omsk, Tomsk et Novossibirsk en Sibérie (soit 2 % de la population lettone avant la guerre). En même temps, les autorités soviétiques transférèrent des milliers de Russes en Lettonie, dans le cadre d'un programme de russification du pays. À la suite de la répression soviétique, la culture lettone fut plus diffusée après-guerre en dehors de Lettonie qu'en Lettonie-même. Redevenue indépendante en 1991, comme la Lituanie et l'Estonie avant même l'effondrement total de l'Union soviétique, la Lettonie n'adhère pas à la CEI. La Lettonie accorde la nationalité et des passeports à la minorité russophone, qui constitue alors un tiers de la population, selon des lois qui furent examinées par une délégation du Conseil européen. Les conditions de naturalisation sont assez draconiennes et un nombre important de Russes sont privés de la citoyenneté et bénéficient d'un simple titre de séjour permanent. Ainsi, le pourcentage de Russes restant sans droits civiques s'établit à près de 11,23 % de la population totale en 2017. Du fait de la non-reconnaissance internationale de leur annexion par l' (voir plus haut), les trois pays baltes ont pu, contrairement aux douze autres républiques ex-soviétiques, quitter la sphère d'influence russe, opter pour une politique euro-atlantique et finalement adhérer à l'OTAN en , puis à l'Union européenne le . Le , Raimonds Vējonis, ancien ministre de l'environnement (2002-2011) puis de la défense (2014-2015), est élu président de la Lettonie pour un mandat de quatre ans, faisant de lui le premier chef d'État d’un parti écologiste dans l'Union européenne. Politique. Organisation des pouvoirs. La Constitution date de 1922 et est restaurée en 1993, instaurant une république parlementaire. Le Parlement letton, la ", est unicaméral et comporte cent sièges : il est élu au suffrage universel direct tous les quatre ans. Le président de la république est élu par les députés de la " pour un mandat de quatre ans. Le vote se déroule à bulletin secret et à la majorité absolue (soit cinquante et une voix minimum sur cent). Son mandat est renouvelable une fois. Le président nomme le Premier ministre, qui forme avec son cabinet le pouvoir exécutif du gouvernement. Enfin depuis 1996 une chargée de contrôler la constitutionnalité des lois a été mise en place. Relations avec l'Union européenne. La Lettonie compte parmi les États membres de l'Union européenne depuis le . Le pays dépose officiellement sa candidature pour l'adhésion aux Communautés européennes le et les négociations débutent en janvier 2000 à la suite du feu vert donné par le Conseil européen de Helsinki de . Riga signe à Athènes le le traité d'adhésion aux côtés des autres pays candidats à l'adhésion (Chypre, l'Estonie, la Hongrie, la Lituanie, Malte, la Pologne, la Tchéquie, la Slovaquie et la Slovénie). Le , un référendum sur la ratification par la Lettonie du traité d'adhésion à l'Union européenne donne 67 % de votes favorables contre 32,3 % d'opinions négatives, avec un taux de participation de 72,53 %. Le , la Lettonie entre dans l'Union. L'entrée de la Lettonie dans la zone euro était prévue pour l'année 2008, mais n'a pas été possible en raison de l'importante crise financière de 2008 . C'est seulement le que le pays y adhère à la suite d'un vote le par la . Divisions administratives. La Lettonie est divisée en quatre régions historiques qui ont aussi une valeur administrative secondaire : À compter du , la Lettonie est divisée en (' en letton) et neuf villes au statut spécial de la ville républicaine (en letton : '). Les "novadi" peuvent être composées de villes et d'une ou plusieurs communes ("pagasti"). Jusqu'à cette réforme, la Lettonie était divisée en sept villes républicaines et 26 districts (en letton : '), lesquels étaient subdivisés en '. Chaque subdivision a une sphère d'influence sur les différents aspects du service public et perçoit une partie des impôts sur le revenu payés par les personnes enregistrées dans la subdivision. Démographie. La Lettonie comptait au , dont environ 60 % de Lettons, une forte minorité russe (25 %) et plusieurs autres minorités (15 %). Comme celle de la plupart des pays de l'Europe du Nord membres de l'ex-Union soviétique, la population de la Lettonie est en déclin depuis le début des . Entre le début des années 2000 et 2021, la population de Lettonie a chuté de 13 %. Il n'est pas rare de trouver dans le pays des villages déserts, des quartiers abandonnés, des écoles vides… Économie. Les pays baltes, dont l'Estonie, sont réputés être ou avoir été (de 2000 à 2006) le . La monnaie officielle du pays est l'euro depuis le . Son ancienne devise, le lats, fut liée à l'euro dans le cadre du mécanisme de taux de change européen () à partir du jusqu'à son remplacement au cours de pour . En 2009, la prévision de récession économique causée par la crise financière de 2008 est de 12 à 15 %. En , l'Union européenne et le FMI lui ont apporté une aide de d'euros, répartie sur trois ans et conditionnée à une réduction drastique des dépenses de l'État. L'entrée dans la zone euro était prévue pour l'année 2008, mais n'a pas été possible en raison de la crise financière de 2008 et de la trop forte inflation. Un nouvel objectif a été fixé pour 2014. Ce dernier a été atteint : la Lettonie a réussi à remplir les cinq critères du traité de Maastricht pour entrer le dans la zone euro et ainsi devenir son . La Lettonie investit tout particulièrement le secteur bancaire pour trouver sa place dans la mondialisation. Le ratio de transactions bancaires et financières est évalué par les banques centrales européennes dans un rapport à par habitant, un niveau qualifié d’« hallucinant » au regard du salaire moyen des habitants ( par mois). Certaines banques lettonnes, y compris la banque centrale, ont été mêlées à des scandales de blanchiment d'argent. En , date de fin du plan d'aide financière sur trois ans au pays, la Lettonie n'a emprunté que d'euros sur les 7,5 prévus. En , remonte la note financière de la Lettonie de BB+ à BBB-. En 2022, la Lettonie est classée en pour l'indice mondial de l'innovation. Culture. Langues. Les langues couramment utilisées en Lettonie sont le letton (officiel) et le russe. La langue live a officiellement disparu en 2013. En , la a approuvé le projet de loi visant à faire adhérer le pays à l'Organisation internationale de la francophonie. Seul 1 % de la population maîtrise déjà le français, mais les personnes haut placées (dont l'ancienne présidente, longtemps professeur à l'université de Montréal au Canada, Vaira Vīķe-Freiberga) l'utilisent fréquemment, et une évolution grâce à l'enseignement reste donc prévue. La Lettonie est donc devenue observateur de l'organisme en 2008 lors du sommet qui se tint à Québec (Canada). En 2012, un référendum a proposé plusieurs amendements à la constitution de la Lettonie pour faire du russe la deuxième langue officielle du pays, mais il a été refusé à 74,8 %. Religion. La Lettonie est un pays de tradition luthérienne (70 % de la population en 1945). Mais par des récents sondages, il semblerait que la majorité de la population lettone ne pratique plus. Cependant, par les registres de naissance, il apparaît qu'à peu près les trois quarts de la population s'affilieraient à part équivalente (entre 20 et 25 %) aux trois religions chrétiennes suivantes : le protestantisme (église luthérienne), le catholicisme et l'orthodoxie. Musique. Environ la moitié des Lettons soit a suivi les cours d'une école de musique, soit chante dans un chœur, soit sait jouer d'un instrument. L'Opéra national et l'Orchestre symphonique national sont fréquentés par une grande partie de la population. Les premiers opéras ont été organisés à Riga au — la première représentation en letton eut lieu en 1883. Les festivals nationaux lettons du Chant et de la Danse ("") sont d'importants événements dans la vie culturelle de la Lettonie et ont lieu tous les cinq ans depuis 1873. Les célébrations des chants et danses baltes organisés en Lettonie, en Lituanie et en Estonie ont été primés dans la liste des chefs-d’œuvre du patrimoine oral et immatériel de l’humanité par l'UNESCO. En 2014, Riga a été la capitale européenne de la culture conjointement avec Umeå (Suède) et a accueilli de nombreuses festivités culturelles. Littérature. Rainis est un écrivain et poète letton surnommé le « Goethe letton » en raison de l'ampleur de son œuvre. Vizma Belševica est une poétesse et écrivaine lettone du . Ses premiers ouvrages lui attirent les remontrances des autorités de l'époque, qui lui reprochent de ne pas respecter les thèmes officiels de l'Union soviétique. La fiction "La Fabrique des salauds" de l'écrivain allemand Chris Kraus, inspirée par son histoire familiale, dépeint l’univers formé par les minorités allemandes peuplant les pays baltes (le Baltikum")" et en particulier la saga d'une famille à Riga dans les années précédant la seconde Guerre Mondiale. Cinéma, théâtre. Le festival de cinéma Arsenāls s'est déroulé à Riga au mois de septembre de 1986 à 2012. Le festival letton de drame contemporain « », en mars, célèbre les acteurs montants du drame contemporain. Le festival cinématographique bisannuel Lielais Kristaps a été fondé en 1977. Le festival cinématographique bisannuel a été fondé en 1996. Fêtes et jours fériés. Les noms de et sont originaires de la mythologie lettone et repris par les missionnaires allemands lors de la christianisation. Autres jours importants : Codes. La Lettonie a pour codes : |
Langue agglutinante En typologie morphologique, une langue agglutinante est une langue dont les traits grammaticaux sont marqués par l'assemblage d'éléments basiques appelés morphèmes, un morphème désignant ainsi le plus petit élément porteur d'un trait grammatical précis. Dans une langue agglutinante les mots sont formés par assemblage de ces morphèmes, qui sont hors exception invariables. Les langues agglutinantes forment un sous-groupe des langues flexionnelles. Le terme de "langue agglutinante" a été créé en 1836 par le linguiste allemand Wilhelm von Humboldt. Il est formé à partir du verbe latin , signifiant « coller ensemble ». L'autre groupe des langues flexionnelles est celui des langues synthétiques. Comptent parmi les langues agglutinantes les langues dravidiennes (tamoul), les langues austronésiennes (indonésien, tagalog), les langues altaïques (turc, mongol), les langues ouraliennes (estonien, finnois, hongrois), le coréen, le japonais, le basque, le nahuatl, le géorgien, l'abkhaze, le swahili, le somali, le zoulou, le quechua, l'aymara. L'arménien est la seule langue des langues indo-européennes à être plus agglutinante que flexionnelle. L'inuktitut est aussi une langue agglutinante mais appartient à un type de langue agglutinante particulier : les langues polysynthétiques. Certaines langues construites à visée internationale, comme l’espéranto ou le pandunia, possèdent également des mécanismes d'agglutination, bien que très sommaires. Certaines langues de fiction, comme le klingon, le noir parler et le novlangue, sont fondées sur une syntaxe agglutinante. Exemples. Il faut noter qu'une langue agglutinante est une langue dont la "flexion" est agglutinante (la déclinaison ou/et la conjugaison), mais ce caractère ne doit pas être confondu avec une grande capacité à créer des "mots composés". Ainsi, l'allemand, malgré une forte capacité de composition ( = Société de navigation à vapeur du Danube), ne fait pas partie des langues agglutinantes. Le principe de la composition (nominale, verbale ou autre) se trouve dans de nombreuses langues qui peuvent avoir un fonctionnement grammatical global très différent. |
Langues par zone géographique Cette liste présente les langues naturelles classées en fonction de leur région d'origine ou des endroits où elles sont parlées (ou ont été parlées dans le cas des langues mortes). Asie. Sous-continent indien. "Article détaillé" : Langues en Inde Asie du Sud-Est. "Article détaillé" : Langues aux Philippines Europe. Europe de l'Ouest. France (métropolitaine). Voir l'article langues régionales de France |
Langues finno-ougriennes Les langues finno-ougriennes sont une famille de langues parlées en Europe, par les peuples finno-ougriens, sur une vaste aire géographique qui va de la mer Baltique et du nord de la Scandinavie jusqu'à l'Oural et au Don. Le nombre total de locuteurs de ces langues est estimé à 25 millions de personnes. Toutefois, le nombre de locuteurs varie très fortement selon les langues, allant de 14 millions pour le hongrois jusqu'à quelques locuteurs isolés pour le vote. Un certain nombre de langues finno-ougriennes ont disparu au cours du et plusieurs autres sont menacées d'extinction. Les langues finno-ougriennes sont habituellement considérées comme formant l'une des deux grandes branches de la famille des langues ouraliennes, l'autre branche étant celle des langues samoyèdes. Cette dichotomie a été fortement remise en question ces dernières années, la branche samoyède étant désormais placée par certains au même niveau de ramification que les autres sous-familles. Avec l'effacement de cette dichotomie, le sens du terme « finno-ougrien » s'est élargi et le mot est de plus en plus souvent utilisé pour désigner l'ensemble de la famille ouralienne, y compris les langues samoyèdes. Depuis leur création dans les années 1960, les congrès mondiaux rassemblant tous les cinq ans les spécialistes des langues ouraliennes ont pour nom officiel « Congrès mondial des finno-ougristes ». Origines. Selon la théorie la plus communément admise par les spécialistes, les langues ouraliennes sont issues d'une langue mère commune, le proto-ouralien, qui aurait été parlée il y a au moins . L'une des grandes tâches de la linguistique finno-ougrienne a été pendant longtemps de reconstituer cette proto-langue et les diverses étapes de son évolution qui ont donné naissance aux langues actuelles. Les finno-ougristes ont également tenté de déterminer, en croisant différentes approches (linguistique, archéologie, paléobotanique, génétique des populations), le territoire où résidaient ses locuteurs. Cette théorie de la proto-langue est contestée depuis la fin des années 1980 par quelques linguistes (Ago Künnap, , János Pusztay), qui ont tenté de la remplacer par l'idée que les langues finno-ougriennes actuelles seraient issues d'une ancienne "lingua franca". Morphologie. La plupart des langues finno-ougriennes sont agglutinantes et recourent aux suffixes plutôt qu'aux prépositions. Elles sont généralement dépourvues de genre grammatical. Les adjectifs et pronoms possessifs sont rarement employés et la possession est exprimée au moyen des déclinaisons. Les langues qui ont évolué vers une forme flexionnelle emploient le génitif du pronom personnel, d'autres utilisent un suffixe pronominal, parfois combiné au génitif d'un pronom. Vocabulaire commun. Les nombres. Le tableau ci-dessous indique les noms des nombres de "1" à "10" dans les principales langues finno-ougriennes et leur reconstitution en proto-finno-ougrien. Une reconstruction possible pour les nombres "8" et "9" est *"kak+teksa", soit « dix moins deux » et *"yk+teksa" « dix moins un », où *"teksa" (cf. "deka") serait un emprunt indo-européen ; la différence entre /t/ et /d/ n'est pas phonémique, contrairement à l'indo-européen. Classification. De façon générale, les langues ouraliennes se répartissent actuellement en sous-groupes bien caractérisés, mais les relations plus anciennes de ces sous-groupes sont peu claires, peu étudiées, et rendent difficile de les rassembler en branches plus larges. La classification interne traditionnelle des langues finno-ougriennes est la suivante : Les langues mordves sont plus proches des langues finno-sames que du mari. |
Langues samoyèdes Les langues samoyèdes (parfois écrit samoïèdes) sont une famille de langues, en usage des deux côtés de l'Oural par moins de quarante mille personnes. Caractéristiques. Elles constituent traditionnellement une des deux branches de l'ensemble de langues ouraliennes, l'autre étant celle des langues finno-ougriennes. Toutefois, cette dichotomie primitive a été récemment remise en cause par certains linguistes, qui tiennent les langues samoyèdes pour une branche de même niveau que les subdivisions du finno-ougrien. De façon générale, les langues ouraliennes se répartissent actuellement en sous-groupes bien caractérisés, mais les relations plus anciennes de ces sous-groupes sont peu claires, peu étudiées, et rendent difficile de les rassembler en branches plus larges. À un niveau taxinomique supérieur, on rapproche souvent des langues ouraliennes le youkaguir de l'est de la Sibérie. Le terme de "samoyède" vient du russe , traduit par l'étymologie populaire comme signifiant « qui se mange soi-même » (, "sam" → soi-même ; , "ed" → manger), mais qui serait plutôt à rapprocher de l'auto-ethnonyme des sames : "saamit". Le nénètse de la toundra demeure la langue la plus répandue, et est même une langue officielle dans plusieurs régions autonomes (okrougs) de Russie. La science qui étudie les langues samoyèdes s'appelle la samoyèdistique, et fut créée au , par entre autres les Finlandais Matthias Alexander Castrén et Kai Donner ainsi que le germano-balte Franz Anton Schiefner. Elle ne peut généralement pas être étudiée séparément de l'ouralistique. Les langues samoyèdes se transmettent le long des côtes arctiques de Russie, de la mer Blanche à la mer de Laptev, en passant par la Nouvelle-Zemble, la péninsule de Yamal, les embouchures des fleuves Ob et Ienisseï, et la péninsule de Taïmyr. Elles sont contiguës avec les langues ougriennes trans-ouraliennes et les langues permiennes cis-ouraliennes, mais sont séparées des langues fenniques par les Russes, à l'ouest, et du youkaguire par le peuple turc des Yakoutes, à l'est. Au , une ville importante de Samoyèdes se constitua à Mangazeïa, qui fut détruite au . Tableau comparatif des différentes langues samoyèdes. Notes : l'énètse et le yourak ne sont pas présentés par manque d'information. |
Liste d'avions civils Avions de ligne. Bristol. Société disparue Comac. Chine Convair. Société disparue De Havilland. Société disparue Douglas. Société disparue Embraer. "Avions actuels" : Fairchild. Société disparue Fokker. Société disparue Hawker Siddeley. Société disparue Keystone. Société disparue Martin. Société disparue Stinson. Société disparue Avions de transport. LAPCAT. financement Avions légers. Pour les avions actuellement en cours de production, voir aussi : aviation légère. APEX Aviation. Anciennement Centre-Est Aéronautique et Avions Pierre Robin Voir Robin Jodel. Les Jodels sont des avions qui ont été construits soit par des amateurs, soit par diverses sociétés. Ils sont tous regroupés ici : Piel. Site des avions Piel Avions légers de construction amateur ou en kit. Piel. Site des avions Piel Rutan. FERRASOFIAN WINGS F200 F10 F1400 Voir Rutan Aircraft Factory |
Locatif En linguistique, le locatif est un cas grammatical exprimant la localisation dans l'espace (sans mouvement), le lieu où se déroule l'action exprimée par le verbe. Dans certaines langues, il peut se subdiviser en plusieurs cas spécifiques, selon que le lieu est fermé (inessif) ou ouvert (adessif, superessif). Le locatif est un des huit cas indo-européens, présent en sanskrit. Langues indo-européennes. En latin. Le locatif n'a pas totalement disparu en latin. Par exemple, "domi", « à la maison », et "humi", « à terre » sont d'anciens locatifs. Cependant, généralement c'est l'ablatif précédé de la préposition "in" qui prend en charge la valeur de locatif, sauf pour les villes et les petites îles, qui appartiennent à la première ou la deuxième déclinaisons : "Lutetiae habitas" (Tu habites à Paris). Dans ce contexte, une petite île est une île qui prend le nom de sa ville principale. Le locatif se caractérise par une terminaison en -ae pour les noms de la première déclinaison et par une terminaison en -i pour les autres noms. Langues slaves. En russe. En russe ancien, il existait un locatif qui fonctionnait seul (sans préposition) et s’employait pour préciser la situation d'un procès, aussi bien dans le temps que dans l'espace. Cependant, il s'est assez tôt transformé en prépositionnel (), qui ne fonctionne plus qu'associé à certaines prépositions : "Ты живёшь в Париже" (Tu habites à Paris). Néanmoins, il existe pour un nombre restreint de noms une forme particulière du prépositionnel utilisée avec les prépositions в ("v", « dans ») et на ("na", « sur ») appelée locatif (). Par exemple : En slovaque. Le locatif (') est l’un des six cas de la grammaire slovaque. Il est utilisé uniquement après certaines prépositions : "v" (« dans »), "na" (« sur »), "o" (« à propos de »), "po" (« après »), "pri" (« auprès de »), "popri" (« le long de »). Par exemple : "v Bratislave (« à Bratislava »), "na zemi (« sur terre »), "o ôsmej" (« à huit heures »). En polonais. Le locatif (') est l’un des sept cas de la grammaire polonaise. Son usage est très similaire au slovaque, on ne le trouve qu’après certaines prépositions : "w Warszawie (« à Varsovie »), "na miejscu (« sur place »), "o pierwszej" (« à une heure »). Langues baltes. Contrairement à l’usage des langues slaves, le locatif en lituanien et en letton s’utilise exclusivement sans préposition : |
Équations de Maxwell Les équations de Maxwell, aussi appelées équations de Maxwell-Lorentz, sont des lois fondamentales de la physique. Elles constituent, avec l'expression de la force électromagnétique de Lorentz, les postulats de base de l'électromagnétisme. Ces équations traduisent sous forme locale différents théorèmes (Gauss, Ampère, Faraday) qui régissaient l'électromagnétisme avant que Maxwell ne les réunisse sous forme d'équations intégrales. Elles donnent ainsi un cadre mathématique précis au concept fondamental de champ introduit en physique par Michael Faraday dans les années 1830. Ces équations montrent notamment qu'en régime stationnaire, les champs électrique et magnétique sont indépendants l'un de l'autre, alors qu'ils ne le sont pas en régime variable. Dans le cas le plus général, il faut donc parler du champ électromagnétique, la dichotomie électrique-magnétique étant une vue de l'esprit. Elles mettent également en évidence les équations d'ondes qui gèrent la propagation des ondes électromagnétiques. Dans leur forme moderne, le champ électromagnétique est représenté par un objet mathématique unique, le tenseur électromagnétique dont certaines composantes s'identifient à celles du champ électrique et d'autres à celles du champ magnétique. Principes généraux. Dans leur forme traditionnelle, les équations de Maxwell sont un ensemble de quatre équations aux dérivées partielles du premier ordre et couplées : Cette « correction » de Maxwell du théorème d'Ampère est particulièrement importante : elle signifie que la variation d'un champ magnétique crée un champ électrique, et que la variation d'un champ électrique crée un champ magnétique. Par conséquent, ces équations permettent la circulation d'ondes électromagnétiques autoentretenues, ou « rayonnement électromagnétique ». Les équations de Maxwell font intervenir les grandeurs suivantes : La vitesse de propagation calculée pour les ondes électromagnétiques, qui pourrait être prédite par des expériences sur les charges et les courants, est exactement la vitesse de la lumière. En effet, la lumière est une forme de rayonnement électromagnétique (tout comme les rayons X, les ondes radio, etc.). Maxwell avait compris la relation entre le rayonnement électromagnétique et la lumière en 1864, unifiant ainsi deux domaines jusqu'ici disjoints : celui de l'électromagnétisme et celui de l'optique. Aspects historiques. L'apport de Maxwell. Vers 1865, Maxwell a réalisé une synthèse harmonieuse des diverses lois expérimentales découvertes par ses prédécesseurs (lois de l'électrostatique, du magnétisme, de l'induction…). Mais cette synthèse n'a été possible que parce que Maxwell a su dépasser les travaux de ses devanciers, en introduisant dans une équation un « chaînon manquant », appelé le courant de déplacement, dont la présence assure la cohérence de l'édifice unifié. Maxwell a d'abord publié en 1865 sa théorie sous la forme de vingt équations à vingt inconnues, écrites à l'aide de quaternions. En 1873, dans l'ouvrage en deux volumes "", Maxwell a déjà réécrit sa théorie sous la forme de huit équations. Ce n'est que plus tard, en 1884, qu'Oliver Heaviside réécrivit ces équations sous la forme des quatre équations vectorielles et scalaires aux dérivées partielles que l'on connaît maintenant. Mathématiques modernes. Aujourd'hui, les quatre équations (vectorielles) de Maxwell se réduisent à seulement deux équations tensorielles, ou même à une seule équation multivectorielle en algèbre géométrique. Les héritiers de Maxwell. La synthèse de Maxwell a permis ultérieurement les deux plus grandes avancées de la physique moderne : Théorie de Maxwell-Lorentz dans le vide. On présente ci-dessous la théorie microscopique fondamentale qui donne les équations de Maxwell-Lorentz dans le vide en présence de sources, qui peuvent être des charges ponctuelles et/ou leurs courants électriques microscopiques associés si ces charges sont en mouvement dans le référentiel d'étude. La théorie "macroscopique" nécessitant l'introduction des champs "D" et "H" (et les équations de Maxwell associées) est discutée en détail dans Électrodynamique des milieux continus. On note : Équation de Maxwell-Gauss. L'équation locale de Maxwell. Dans cette équation, on utilisera l'opérateur nabla, noté : formula_15, dont on peut écrire l'expression en coordonnées cartésiennes avec formula_16Cette équation locale donne la divergence du champ électrique en fonction de la densité de la charge électrique :formula_17Cette équation correspond à un «terme de source» : la densité de charge électrique formula_3 est une source du champ électrique. Par exemple, pour une charge ponctuelle formula_19 fixée à l'origine formula_20, la loi de Coulomb donnant le champ électrostatique en un point formula_21 de l'espace, point repéré par le vecteur position formula_22 où formula_23 est le vecteur unitaire radial, et qui s'écrit :formula_24Ce champ électrostatique vérifie l'équation de Maxwell-Gauss pour la source statique, soitformula_25où formula_26 est la distribution de Dirac dans l'espace à trois dimensions. Le théorème de Gauss. Le théorème de Gauss est la forme intégrale de l'équation de Maxwell-Gauss. Il affirme que le flux du champ électrique permanent à travers une surface de Gauss fermée formula_27, orientée selon la normale sortante, est égale au rapport de la charge formula_28 contenue dans le volume formula_29 délimité par la surface formula_27 et de la permittivité du vide :formula_31On remarquera que l'équation de Maxwell-Gauss se retrouve facilement en appliquant le théorème d'Ostrogradski au théorème de Gauss et en prenant un volume infinitésimal. Équation de Maxwell-Thomson. Cette équation est aussi appelée équation de Maxwell-flux ; elle exprime que le flux du champ magnétique à travers une surface formula_32 "fermée" est toujours nul :formula_33Cette équation est la forme intégrale de l'équation locale de Maxwell, et on passe de l'une à l'autre en appliquant le théorème d'Ostrogradski. L'équation locale de Maxwell. Cette équation locale est au champ magnétique ce que l'équation de Maxwell-Gauss est au champ électrique, à savoir une équation avec « terme de source », ici identiquement nul :formula_34Elle traduit le fait expérimental suivant : il n'existe pas de monopôle magnétique. Un monopôle magnétique serait une source ponctuelle de champ magnétique, analogue de la charge électrique ponctuelle pour le champ électrique. Or, l'objet de base source d'un champ magnétique est l'aimant, qui se comporte comme un dipôle magnétique : un aimant possède en effet un pôle nord et un pôle sud. L'expérience fondamentale consistant à tenter de couper un aimant en deux donne naissance à deux aimants, et non un pôle nord et un pôle sud séparément. Introduction du potentiel-vecteur. L'analyse vectorielle montre que la divergence d'un rotationnel est toujours identiquement nulle pour tout champ quelconque formula_35, c'est-à-direformula_36. Réciproquement, tout champ de vecteurs dont la divergence est identiquement nulle peut localement être exprimé sous la forme d'un rotationnel. L'équation locale de conservation du flux magnétique permet donc de définir au moins localement un potentiel-vecteur formula_37 tel que :formula_38Le problème important de l'unicité du potentiel-vecteur est discuté dans l'article "Invariance de jauge de la théorie". Équation de Maxwell-Faraday. Cette équation locale traduit le phénomène fondamental d'induction électromagnétique découvert par Faraday. L'équation locale. Elle donne le rotationnel du champ électrique en fonction de la dérivée temporelle du champ magnétique : formula_39Cette équation indique que la variation du champ magnétique crée un champ électrique. Forme intégrale : loi de Faraday. La forme intégrale de l'équation locale est donnée, d'après le théorème de Stokes, par : formula_40Il s'agit de la loi de Faraday, qui s'écrit aussi : formula_41où : Introduction du potentiel électrique. L'analyse vectorielle montre que le rotationnel d'un gradient est toujours identiquement nul. Pour un champ scalaire quelconque formula_44:formula_45L'équation de Maxwell-Faraday couplée à l'existence locale d'un potentiel-vecteur formula_37 permettent de définir (au moins localement) le potentiel électrique formula_29 (scalaire) tel que :formula_48Le problème important de l'unicité du potentiel électrique est discuté dans "Invariance de jauge de la théorie". Équation de Maxwell-Ampère. L'équation locale de Maxwell. Cette équation est héritée du théorème d'Ampère. Sous forme locale, elle s'écrit en termes du vecteur densité de courant formula_49 :formula_50 Introduction du courant de déplacement. L'équation précédente peut se réécrire formula_51en introduisant le courant de déplacement de Maxwell formula_52La forme intégrale lie la circulation du champ magnétique sur un contour formula_53 fermé, et les courants qui traversent une surface formula_54 s'appuyant sur ce contour. C'est une conséquence directe du théorème de Stokes :formula_55 Équation de conservation de la charge. Prenons la divergence de l'équation de Maxwell-Ampère :formula_56Les dérivées spatiales et temporelles étant indépendantes, le théorème de Schwarz assure que l'on peut permuter l'opérateur nabla et la dérivée partielle temporelle. Puis en utilisant l'équation de Maxwell-Gauss, il vient : formula_57On obtient finalement l'équation locale de conservation de la charge électrique : formula_58La présence du terme de courant de déplacement, introduit par Maxwell, est essentielle à l'obtention de cette équation. Caractère ondulatoire des champs électriques. Prenons le rotationnel de l'équation de Maxwell-Faraday, compte tenu de Maxwell-Gauss et de Maxwell-Ampère : formula_59, soit, en utilisant le fait que les dérivées spatiales et temporelle sont indépendantes formula_60, ou, en réorganisant : formula_61. Ceci montre que le champ électrique suit l'équation des ondes. En prenant le rotationnel de l'équation de Maxwell-Ampère, compte tenu de Maxwell-Thomson et de Maxwell-Faraday, on retrouve le résultat équivalent : formula_62. Ceci montre que le champ magnétique suit également l'équation des ondes. La vitesse de propagation de l'onde électro-magnétique formula_63 est donnée par : formula_64. Invariance de jauge de la théorie. L'analyse vectorielle montre que la divergence d'un rotationnel est toujours identiquement nulle : formula_65. L'équation locale de conservation du flux magnétique permet donc de définir au moins localement un "potentiel-vecteur" formula_66 tel que : L'analyse vectorielle nous dit également que formula_67. Alors le potentiel-vecteur n'est pas défini de manière unique puisque la transformation suivante, avec formula_68 une fonction quelconque formula_69 ne modifie pas la valeur du champ formula_70. Ceci est un exemple de transformation de jauge. Il faut donc imposer des conditions supplémentaires pour définir formula_66 de façon non-ambiguë. On appelle cela des conditions de jauge, par exemple la condition de jauge de Coulomb ou plus généralement la condition de jauge de Lorenz (voir ci-dessous). On peut remarquer qu'en physique classique, le potentiel-vecteur semble n'être qu'un outil mathématique commode pour analyser les solutions des équations de Maxwell, mais ne semble pas être une grandeur physique directement "mesurable". En 1959, dans le cadre de la physique quantique, Aharonov et Bohm ont démontré que le potentiel-vecteur avait un effet observable en mécanique quantique : c'est l'effet Aharonov-Bohm. L'équation de Maxwell-Faraday couplée à l'existence locale d'un potentiel-vecteur formula_37 permettent de définir (au moins localement) le potentiel électrique formula_29 (scalaire) tel que : Le potentiel formula_29 lui non plus n'est pas défini de façon unique mais la transformation de jauge associée et liée à celle de formula_37 est la suivante (on rappelle celle de formula_37 par souci de clarté) et l'on a formula_77. Ces deux équations donnent l'invariance de jauge complète des équations de Maxwell. Condition de jauge de Lorentz. On pose la condition de jauge de Lorenz (qui couple les deux potentiels) : formula_78. Prenons l'équation de Maxwell-Ampère, compte tenu de la condition de jauge de Lorenz et de l'expression de formula_1 en fonction des potentiels formula_29 et formula_37 : formula_82, formula_83. On obtient l'équation de propagation du potentiel-vecteur : en utilisant formula_84. Idem pour le potentiel scalaire : formula_85,soit On remarque que la jauge de Lorenz permet de découpler les équations de propagation des champs formula_29 et formula_87 : elles ne dépendent respectivement que des sources formula_3 et formula_49. C'est pourquoi la jauge de Lorenz est souvent utilisée pour l'étude de phénomènes ondulatoires. Solutions des équations du champ électromagnétique. Résolution à partir des charges ponctuelles. Les expressions des champs électriques et magnétiques peuvent être obtenues en intégrant sur tout l'espace les équations de Liénard-Wiechert ou celles de Heaviside-Feynman. Solutions mathématiques des équations de Maxwell dans le vide.. Résolvons les équations de Maxwell dans l'espace . Représentons des solutions par des lettres formula_90 (ensembles des 6-vecteurs formés des six composantes du champ en tout point de coordonnées formula_91). Comme dans le vide les équations sont linéaires, formula_92, où formula_93 sont des constantes réelles, est aussi une solution. En conséquence, l'ensemble des solutions des équations de Maxwell est un espace vectoriel réel. Conformément à la définition introduite en acoustique, un "mode" est une direction de cet espace. Un système complet de solutions constitue une base dans cet espace nommé tantôt espace des solutions, tantôt espace des modes. Une solution particulière dans un mode est obtenue en multipliant un champ de ce mode posé comme champ d'amplitude unité, par une constante réelle, l'amplitude. Avec un système d'unités convenable, l'énergie (à un moment donné) formula_94 d'une solution formula_95 est l'intégrale étendue à tout l'espace, du carré de la norme du vecteur formula_95 par rapport au produit scalaire usuel. Il faut faire attention au fait que l'énergie ne dépend pas linéairement de formula_95. L'énergie de la somme de plusieurs solutions n'est donc pas, "a priori", la somme des énergies des différentes solutions prises séparément. Néanmoins, le procédé de Gram-Schmidt permet d'obtenir, à partir d'un système complet de solutions, un système complet de solutions orthogonales, ou encore système complet de modes orthogonaux. Dans de tels systèmes, les énergies sont indépendantes, c'est-à-dire que l'énergie d'une solution est égale à la somme des énergies de ses différentes composantes dans le système. Planck a posé que l'énergie dans un mode monochromatique de fréquence formula_98 se propageant dans un corps noir à la température formula_99 est formula_100. La valeur erronée de formula_101 donnée par Planck a été corrigée par Nernst en 1916 ; la valeur formula_102 est facilement retrouvée car la thermodynamique impose que formula_103 tende vers formula_104 lorsque formula_99 tend vers l'infini. Cette formule définit la température d'un mode. Cependant l'interprétation de cette formule est physiquement délicate car la définition d'une fréquence pure suppose une expérience de durée infinie. Introduction des charges électriques. On sait calculer les champs émis par des charges, par exemple le champ émis par un dipôle électrostatique oscillant. Pour se ramener au problème précédent, on utilise l'« astuce de Schwarzschild et Fokker ». Le champ émis par une source est nommé « champ retardé » formula_106. Dépouillé de la source, ce champ n'est "pas" solution des équations de Maxwell. Pour obtenir une solution identique dans le futur, il faut lui ajouter un « champ avancé » formula_107. Par cette définition, formula_108 est solution des équations de Maxwell. Ainsi, en substituant le champ avancé à la source, on est ramené au problème linéaire d'un champ dans le vide et on peut définir des modes. Solutions générales et causales des équations de Maxwell. Les solutions générales et causales des équations de Maxwell sont données par les équations de Jefimenko. Les équations de Jefimenko donnent le champ électrique et le champ magnétique dus à une distribution de charges électriques et de courant électrique dans l'espace. Elles prennent en compte le retard dû à la propagation (temps retardé) des champs en raison de la limite finie de la vitesse de la lumière et des effets relativistes. Elles peuvent donc être utilisées pour des charges et des courants en déplacement. Elles sont les solutions générales des équations de Maxwell pour n'importe quelle distribution arbitraire de charges et de courants. Ces équations sont la généralisation, dépendant du temps (électrodynamique), de la loi de Coulomb et de la loi de Biot-Savart, qui étaient à l'origine vraies uniquement pour les champs en électrostatique et en magnétostatique ainsi que pour les courants continus. Une des caractéristiques essentielles des équations de Jefimenko se voit dans la partie droite ou apparaît le temps retardé ce qui reflète la causalité de ces équations. En d'autres mots, la partie gauche des équations sont en réalité causées par la partie droite, contrairement aux équations différentielles de Maxwell où les deux côtés ont lieu en même temps. Quantification en électrodynamique classique. Un système physique possède, en général, des minimums d'énergie relatifs. En régime non évolutif (stationnaire), le système, excité par un champ électromagnétique de l'ordre de formula_109 dans chaque mode qu'il est susceptible d'émettre (donc d'absorber), reste au voisinage d'un minimum d'énergie ; pour chaque mode monochromatique, son excitation l'amène à rayonner un champ en quadrature avec le champ incident, ce qui ne produit aucun échange d'énergie permanent, mais introduit un retard, la réfraction. Pour un champ plus intense, en particulier en raison d'une fluctuation favorable du champ, le système peut franchir un col de son diagramme d'énergie et absorber une énergie formula_110 cette absorption peut conduire à un niveau peu stable d'où le système peut évoluer rapidement vers d'autres niveaux, en une cascade plus ou moins radiative qui l'amène à un état stationnaire, stable. Dans une théorie classique, aucun paradoxe ne peut être admis, en particulier le paradoxe d'Einstein, Podolsky et Rosen n'existe pas : supposons qu'un atome perde une énergie de résonance formula_110, par exemple par le rayonnement d'un dipôle. Le mode d'émission de ce dipôle n'est pas orthogonal aux modes d'émission (donc d'absorption) d'autres atomes dont l'amplitude peut être accrue ; 0, 1, 2, … atomes peuvent alors absorber formula_110, même si, en moyenne, un seul atome est excité ; les champs résiduels jouent le rôle d'un bain thermodynamique. Quelques erreurs habituelles. Il a été écrit que l'électron d'un atome d'hydrogène suivant une orbite de Bohr émet un champ, donc rayonne de l'énergie et devrait tomber sur le noyau. L'électron émet bien un champ, mais d'énergie très faible en raison de l'interférence du champ émis avec le champ résiduel ; cette énergie tombe à zéro si l'orbite est légèrement corrigée, de sorte que l'énergie de l'état stationnaire subit le décalage de Lamb. L'étude de l'amorçage d'un laser semble indiquer que le champ du point zéro induit une émission deux fois plus intense qu'un champ d'intensité plus grande. Pour tenir compte de ce résultat, on peut introduire une « radiation de réaction », "ad hoc". La véritable explication est très simple : un atome est excité par un champ dans le mode qu'il peut émettre, dit sphérique ; au démarrage du laser, il existe dans ce mode une amplitude correspondant à formula_109 ; le laser fonctionne sur un mode d'onde plane dont il faut prendre la composante sphérique pour exciter l'atome, ce qui divise l'énergie par deux. Il n'existe pas de système électromagnétique isolé ; oublier que le champ minimum est le champ du point zéro conduit à des erreurs lorsqu'on détecte des champs faibles. Formulation covariante. NB Cette partie suit les conventions de signe classiques de MTW Cette partie adopte également la convention de sommation d'Einstein. Géométrie de l'espace-temps de Minkowski. L'espace-temps de Minkowski (1908) est une variété différentielle "M" plate munie d'une métrique lorentzienne. Soit un système de coordonnées quelconque formula_114 autour d'un évènement (point) formula_115 de l'espace-temps, et soient formula_116 une base locale de formula_117, espace tangent à la variété au point formula_118. Un vecteur tangent formula_119 s'écrit alors comme la combinaison linéaire : Les formula_120 sont appelée les composantes "contravariantes" du vecteur formula_121. Le tenseur métrique formula_122 est la forme bilinéaire symétrique : Dans une base orthonormée d'un "référentiel inertiel", ses composantes covariantes formula_123 sont : Ses composantes contravariantes formula_124 vérifient : On obtient explicitement : On utilisera ci-dessous les conventions usuelles suivantes : Par exemple, les composantes contravariantes du 4-vecteur position s'écrivent dans un système de coordonnées orthonormales : Le tenseur métrique définit pour chaque point formula_118 de l'espace-temps un pseudo-produit scalaire ("pseudo" au sens où l'hypothèse de positivité est retirée) dans l'espace formula_117 euclidien tangent à "M" au point formula_127. Si formula_128 et formula_129 sont deux vecteurs de formula_117, leur produit scalaire s'écrit : En particulier, en prenant deux vecteurs de base, on obtient les composantes : formula_120 désignant les composantes "contravariantes" du vecteur w, on peut définir de même ses composantes "covariantes" par : Par exemple, les composantes covariantes du 4-vecteur position s'écrivent dans un système de coordonnées orthonormales : Quadrigradient. On introduit l'opérateur différentiel "quadrigradient" pour généraliser l'opérateur nabla. Ses composantes covariantes s'écrivent : Ses composantes contravariantes s'écrivent : L'opérateur invariant d'Alembertien s'écrit par exemple : Quadripotentiel. On introduit le quadrivecteur potentiel électromagnétique par ses composantes contravariantes : où formula_29 est le scalaire potentiel électrique, et formula_133 le potentiel-vecteur magnétique. Ses composantes covariantes s'écrivent : Les lois de transformation de jauge écrites précédemment sont donc résumées dans cette notation sous la forme formula_134. La condition de jauge de Lorenz s'écrit par exemple de façon covariante : Quadricourant. On introduit le "quadricourant" électromagnétique par ses composantes contravariantes : où formula_3 est le scalaire densité électrique de charge, et formula_49 le vecteur densité de courant. Ses composantes covariantes s'écrivent : Tenseur de Maxwell. Le tenseur électromagnétique est le tenseur antisymétrique de rang deux défini à partir du quadripotentiel par : Ses composantes covariantes s'écrivent explicitement : On obtient ses composantes contravariantes en écrivant : La métrique étant diagonale dans un référentiel inertiel, on obtient alors les formules suivantes, "sans sommation sur les indices répétés" : soit explicitement : Équations de Maxwell sous forme covariante. Les équations de Maxwell se mettent sous forme relativiste covariante. Puisque le tenseur de Maxwell est antisymétrique, cette dernière relation entraîne en particulier que "le quadricourant est conservé" : Équation de propagation pour le quadripotentiel en jauge de Lorenz. En écrivant explicitement le tenseur de Maxwell en termes du quadripotentiel dans l'équation covariante avec terme de sources, on obtient pour le membre de gauche : Dans la jauge de Lorenz formula_140, le second terme disparaît, et l'équation de Maxwell avec terme de sources se réduit à une équation de propagation pour le quadripotentiel : La solution de cette équation s'écrit de façon simple si l'on connaît une fonction de Green de l'équation de propagation, c'est-à-dire une fonction "G(x)" solution de l'équation aux dérivées partielles : où formula_141 est la distribution de Dirac. On obtient alors le quadripotentiel sous la forme d'un produit de convolution : Exemple : les potentiels retardés. En électrodynamique classique, on utilise le plus souvent la fonction de Green "retardée" qui satisfait à l'hypothèse de causalité : Voir aussi. Bibliographie. Cours. Ouvrages d'introduction. Accessible au niveau du premier cycle universitaire. |
Littérature grecque La littérature grecque comprend l'ensemble des œuvres écrites et orales reconnues comme esthétiques, produites en langue grecque. Elle se caractérise par une remarquable continuité, commençant avec Homère (probablement ), et se prolongeant jusqu'à nos jours. Si, en vingt-huit siècles, l'évolution de la langue grecque a largement pesé sur sa littérature, il demeure pertinent de la considérer comme faisant partie d'un seul et même ensemble. La littérature grecque antique, d'abord orale, est attestée par écrit à partir des deux épopées que sont l’"Iliade" et l’"Odyssée," et se développe rapidement. Les ouvrages composés pendant la période classique, aux et siècles avant J.-C., ont exercé une forte influence sur la littérature des siècles ultérieurs, ainsi que sur la littérature latine. Après l'Antiquité, la littérature grecque se prolonge dans la littérature de l'Empire byzantin. Puis la domination ottomane ne permet bien souvent de recueillir des œuvres anonymes et populaires. Un renouveau littéraire est marqué par la révolution de 1821, datant l'avènement de la littérature grecque contemporaine. Au siècle, Georges Séféris et Odysséas Elýtis sont particulièrement célèbres : tous deux ont été récompensés par le Prix Nobel de littérature. Classification usuelle par période. On distingue habituellement plusieurs périodes. Littérature grecque antique. La littérature grecque antique est considérée comme l'une des plus importantes et des plus florissantes. Elle s'étend conventionnellement du jusqu'au de notre ère. Ce vaste ensemble, au départ constitué d'une multitude de dialectes, voit s'imposer l'ionien-attique, langue d'Athènes, à la période classique. Période archaïque. On ne possède pas d'œuvres grecques plus anciennes que l’"Iliade" (quelquefois datée du ou du ), mais il semble nécessaire qu'il y ait eu une longue évolution littéraire pré-homérique tant cette œuvre est achevée. D'un point de vue linguistique, l'"Iliade" comme l"'Odyssée" forment un patchwork dialectal artificiel, dont le fond est ionien, mais dont les influences doriennes et surtout éoliennes se font sentir. Ainsi compte-t-on, jusqu'au début du , Homère, Hésiode, surtout, et les poètes lyriques tels qu'Alcée, Sappho, Pindare, Anacréon, Archiloque de Paros, Tyrtée, Alcman, Sémonide d'Amorgos, etc. Période classique. Aux et , celle des grands poètes tragiques (Eschyle, Sophocle, Euripide), d'Aristophane, de Platon, mais aussi des sophistes et de certains « présocratiques » comme Leucippe et Démocrite), d'Aristote, des "orateurs attiques" (Lysias, Isocrate, Démosthène, etc.), d'Hérodote, de Thucydide, de Xénophon. Période hellénistique. De la mort d'Alexandre le Grand au , marquée par la naissance de la critique philologique, le développement de l'épicurisme et du stoïcisme, et un goût prononcé pour la poésie (Callimaque de Cyrène, Apollonios de Rhodes, Théocrite). C'est aussi la période de rédaction de la Septante. Période romaine. Du au , marquée par le déclin de la poésie, l'essor de l'histoire et de la géographie (Strabon, Denys d'Halicarnasse, Pausanias, Dion Cassius, Arrien, etc.) et l'enseignement institutionnalisé de la philosophie. Le voit aussi les débuts de la "Seconde Sophistique" et l'épanouissement du roman grec. Les deux auteurs emblématiques de la période sont Plutarque et Lucien. Période tardive. Du au La conversion de l'empereur Constantin sonne le début d'une ère de profondes mutations, marquée par l'essor de la littérature chrétienne (œuvres patristiques d'Eusèbe de Césarée, Ignace d'Antioche, Clément d'Alexandrie) et le déclin de l'hellénisme païen (Julien, Libanios). Période byzantine. Jusqu'en 1453, date de la prise de Constantinople par les Turcs. On peut citer de cette période Procope de Césarée, Jean Zonaras, Constantin Porphyrogénète, Photios de Constantinople, Planude, Anne Comnène, Gemiste Pléthon. Domination turque. Depuis la bataille de Manzikert (1071), et surtout depuis le siège de Constantinople (1204) (quatrième croisade) et jusqu'à la Chute de Constantinople (1453), les guerres turco-byzantines affaiblissent l'Empire byzantin, dont la Grèce, durablement, et jusqu'au début du . Les œuvres de cette période sont souvent anonymes (chants et poèmes populaires). Période contemporaine. Après la révolution de 1821, la littérature grecque connaît un renouveau. Parmi les principaux auteurs de cette période (jusqu'au début ): Dionýsios Solomós, Andréas Kálvos, Kostís Palamás, Emmanuel Roïdis, Alexandros Papadiamandis, Ángelos Sikelianós, Kóstas Karyotákis. Au , les noms de Constantin Cavafy, Níkos Kazantzákis, Stratis Tsirkas, Dimitris P. Kraniotis, Yánnis Rítsos, Georges Séféris et Odysséas Elýtis sont particulièrement célèbres, ces deux derniers ayant été récompensés par le Prix Nobel de littérature. Parmi les auteurs contemporains, Dimitris Lyacos a consolidé sa réputation dans le récent contexte postmoderne. Mais aussi Yerásimos Dendrinós (1955-), Sóti Triantafýllou (1957-), Chrístos Chryssópoulos (1978-), Panos Karnezis (1967-)... |
Les Thanatonautes Les Thanatonautes est un roman de Bernard Werber, mêlant science et fantastique, publié en 1994 aux Éditions Albin Michel. Le mot "Thanatonaute" est une combinaison des racines grecques "Thanato" signifiant « la mort » et "naute" signifiant « navigateur » soit, littéralement, « navigateur de la mort » ou « explorateur de la mort. » Le romancier a déclaré avoir produit quelques chapitres de son livre "Les Thanatonautes" par écriture automatique : Résumé. Michael Pinson découvre la mort par son boucher monsieur Dupont, écrasé par une carcasse de bœuf charolais qui s'était inopinément décrochée. Autour des questions maladroites qu'il pose à sa mère, se développe une certaine curiosité à ce sujet. À la mort de son arrière-grand-mère Aglaé, une suggestion impromptue formulée par celui-ci provoque la colère de son aïeul, qui le gifle afin qu'il comprenne la gravité de la mort. Michael décide alors de se forcer à pleurer. La troisième expérience de Michael au sujet de la mort, concerne la sienne, touché par un accident de voiture, il s'envole rapidement pour retomber ; il a alors sept ans. À huit ans, c'est au tour de l'oncle Norbert de décéder, à l'enterrement Michael a bien appris sa leçon, et pleure à chaudes larmes en pensant aux épinards en branche bouillies.. Là, il rencontre et fait la connaissance de Raoul Razorbak, qui deviendra son ami. Le cimetière du père Lachaise devient alors leur lieu de rendez-vous privilégié. Celui-ci raconte la passion de son père suicidé pour la mort : Francis Razorbak au travers de sa thèse, " la mort, cette inconnue". Toutefois Raoul est asocial, et se trouve être la bête noire de sa classe. Il lui fait visiter le service des mourants de l'hôpital Saint Louis afin de mieux comprendre la mort, dont ils découvrent un aspect peu ragoutant. Les deux amis se séparent, et Michael décide de faire des études de médecine, dans la branche anesthésie et réanimation. Les deux amis se retrouvent à l'âge de trente-deux ans. Michael est alors anesthésiste-réanimateur et Raoul, chercheur en biologie au CNRS et fait des recherches sur l'hibernation des marmottes. Un autre thanatonaute fait son apparition dans l'histoire : le président français Lucinder, qui meurt un moment, après qu'une personne dans la foule lui a tiré dessus. Il vit alors une EMI, et est réanimé de justesse grâce à l'acharnement thérapeutique. À la suite de cette expérience, il décide de lancer un grand projet de recherche dans le domaine des NDE. Michael (après quelques hésitations) et Raoul, avec l'aide de l'infirmière Amandine, s'adonnent alors des expériences sur les volontaires du centre pénitentiaire de Fleury-Merogis. Après de nombreux échecs, ils finissent par tomber sur le bon candidat : Felix Kerboz. Mais le scandale médiatique de la thanatonautique éclate : on découvre tous les morts sacrifiés pour en arriver là. Afin d'évaluer la bonne foi de Lucinder, une expérience médiatisée est organisée en direct, il s'agit de faire revenir Felix Kerboz à la vie. Elle réussit de justesse, mais cela a permis au président de jouir d'une nouvelle renommée. La course pour la thanatonautique débute, il s'agit de repousser au plus loin l'exploration du continent décrit par Felix. Qu'y a-t-il derrière l'entonnoir? La carte et l'exploration du continent des morts deviennent alors une priorité, dans le monde entier. Un autre candidat est engagé, Jean Bresson, un cascadeur au sang froid, qui remplace rapidement Felix après sa mort, faisant la course avec l'anglais Bill Graham, un ex-trapéziste, puis d'autres venus le remplacer. Jean Bresson réussit alors à dépasser le premier mur somatique ; ce qu'il y découvre est terrible, après le territoire bleu, il y a le territoire noir, celui des ténèbres. Du temps passe avant que la course ne reprenne, face à la peur que représente ce territoire. Stefania Chichelli la bouddhiste italienne fait son apparition. Elle n'utilise pas de produits chimiques pour voyager, mais la technique de la méditation. Finalement elle réussit à franchir la deuxième barrière comatique pour atteindre le troisième mur, de couleur rouge, c'est la zone des plaisirs sexuels. Ce qui provoque un conflit entre les modernes et les conservateurs. À la suite d'une attaque ectoplasmique de fanatiques religieux que Michael arrive à repousser de justesse, il décide de se marier avec Rose tandis que Raoul se marie à Stefania. Une découverte technique radiophonique permet alors de mesurer l'avancée des thanatonautes dans l'espace et de situer le paradis dans les environs de sagittarius A, un trou noir. L'exploration du continent des morts continue, c'est un rabbin aveugle Freddy Meyer qui découvre ce qu'il y a derrière le troisième mur comatique, une plaine s'étendant sur plusieurs kilomètres, où des milliards d'ectoplasmes attendent. Tandis qu'ils explorent le continent des morts un attentat est perpétré par la secte des haschischins, des ectoplasmes pirates qui ont tenté de couper le cordon ombilical qui le reliait à son corps. Se déclare alors une véritable guerre des religions sur le continent des morts. Freddy s'allie à des asiatiques pour former sa petite armée ectoplasmique qu'il nomme armée de l'alliance, tandis que les haschischins forment la coalition ; à la suite de la grande bataille du paradis qui profite à l'alliance, se mettent en place une paix durable entre les deux camps, et l'établissement de règles régissant le paradis. L'exploration continue ; après la zone d'attente, il y a la zone jaune, la connaissance absolue. Freddy met en place une nouvelle technique d'exploration qui consiste à attacher les cordons ombilicaux les uns aux autres afin d'en obtenir de plus solides. Après Moch 5, vient le sixième mur comatique, le vert, celui de la beauté idéale. À ce moment, la course pour la mort s'atténue tandis que s'accentuent les luttes intestines entre les partisans de la thanatonautique et les contradicteurs, qui agressent Rose, que Michael décide de sauver en expérimentant la NDE. Il finit par la rejoindre dans la montagne de la pesée où il rencontre les juges (des archanges), elle revient mais Freedy est assassiné par un haschischins. Michael retourne au où il discute avec un ange, Saint Jérome, qui lui apprend qu'il est un grand initié, dont la tache est de déceler la vérité, d’aider les âmes à s’élever spirituellement et de leur donner les informations concernant l'organisation du paradis. Il en profite pour discuter avec d'autres anges, qui lui apprennent la vérité sur son existence: la mère de Raoul a assassiné son père, et Michael n'est qu'un fils adoptif. Arrive alors le temps du show biz, et du spectacle ; des conférences sont organisées et un reporter ectoplasmique est envoyé au-delà afin de faire une interview de la pesée d'une âme. Suit alors une époque de gentillesse généralisée, de peur d'être mal noté à la pesée des âmes, rendant la société apathique et fataliste. Le commerce lié à la thanatonautique prend une allure disproportionnée, avec des comportements tels que des gens se suicident pour un oui ou un non, et une vague de vols de corps (par la multiplication des âmes errantes). Pour lutter contre cela, Stefania met en place une brigade du mal afin de contrebalancer la mièvrerie ambiante. Elle détruit le laboratoire des Buttes Chaumont avec son équipe et tue Raoul Razorbak, qui une fois arrivé à la montagne du jugement, demande à être réincarné en un pied de vigne Les anges décident finalement d'intervenir dans notre monde en provoquant par le biais d'un accident d'avion, la mort des pionniers thanatonautes, et d'effacer la mémoire du grand public. À la fin de l'histoire, Michael Pinson et ses amis, considérés comme grands initiés, sont toutefois condamnés à être jugés et à suivre le cours traditionnel des réincarnations. Personnages. Michael Pinson. Tandis que les amis se séparent pour un long terme, la mère de Michael découvre son journal intime que son frère Conrad va montrer à son école ce qui lui vaut moqueries et railleries. Par la suite, après quelques réticences il rejoint l'équipe des thanatonautes et s'adonne à des expériences sur des détenus ; après quelques sacrifices, sa première réussite, Felix Kerboz lui permet d'accéder au succès. Amoureux d'Amandine, il finit par se marier à la scientifique Rose Solal, qu'il doit récupérer dans le royaume des morts à la suite de son assassinat, qui est aussi sa première expérience thanatonautique. Il est alors considéré au même titre que ses amis comme grand initié ; son ami lui apprend alors qu'il est orphelin et qu'une autre femme l'attend ailleurs. Michael décide néanmoins de ne pas tenir compte de ces informations. L'expérience thanatonautique finit alors par dégénérer, les anges décident d'y mettre fin en provoquant un accident de Boeing 747 et en effaçant la mémoire de tous à ce sujet. Ses amis et lui meurent dans l'accident. Raoul Razorbak. Enfant, Raoul rencontre Michael Pinson au cimetière du Père-Lachaise à l'enterrement de son oncle Norbert alors qu'il est lui-même en train de se recueillir sur la tombe de son défunt père Francis Razorbak. Très cultivé, il lui fait découvrir la mythologie égyptienne ainsi que les joies de la lecture. Ils affrontent ensemble une secte de satanistes fréquentant le cimetière et décident d'explorer la mort en enquêtant au service gériatrique d'un hôpital. Son originalité lui vaut d'être le mouton noir de ses camarades. Par la suite, les deux amis se séparent alors une vingtaine d'années avant de se retrouver. Raoul est alors chercheur en biologie et pratique des expériences sur l'hibernation des marmottes. À la suite de la tentative d'assassinat du président Lucinder, il est engagé par celui-ci afin de mener des expériences sur les EMI sur les détenus de la prison de Fleury-Merogis. Il va sacrifier beaucoup de vies humaines avant de réussir, avec l'aide réticente de son ami Michael, et de la belle infirmière Amandine. Il a tout d'abord une liaison avec Amandine puis se marie avec Stefania lors d'une double cérémonie avec son ami Michael. Par des confidences de Satan, il découvre la raison du suicide de son père ainsi que des informations douloureuses sur le passé de Michael. Ne supportant pas ces confidences, il plonge profondément dans l'alcool. Stefania finit par le quitter pour ensuite rejoindre un mouvement sataniste. Il est finalement tué à coup de hache par Martinez, un ex-détenu revanchard lors de l'attaque du thanatodrome parisien. Arrivé à la pesée de l'âme, il demande aux archanges de le réincarner en vigne alors que par son statut de grand initié il aurait pu obtenir une meilleure réincarnation. Amandine Ballus. Elle rencontre les deux héros au pénitencier de Fleury-Merogis afin de pratiquer des expériences d'EMI sur les détenus. Elle ressemble à Grace Kelly, et aime le sexe, elle a une attirance pour les thanatonautes qui prennent des risques, notamment Felix Kerboz, Raoul Razorbak et Freddy Meyer avec lequel elle finit par se marier. Michael l'aime secrètement, ce qui n'est pas réciproque. Elle meurt dans l'accident du Boeing 747. Rose Solal. Scientifique travaillant sur le Projet Eden, elle rejoint l'équipe des thanatonautes à mi chemin, et met au point un récepteur d'ondes qui lui permet de repérer les ondes émises par les ectoplasmes des thanatonautes. Rose et Michael terminent ensemble ; ce dernier ira la récupérer au paradis, à la montagne du jugement, elle donne par la suite naissance à Freddy junior au départ considéré comme sa réincarnation (à tort). Elle meurt dans l'accident du Boeing 747. Freddy Meyer. Ancien chorégraphe qui est devenu juif et rabbin à la suite d'un accident de deltaplane qui l'a rendu aveugle, Freddy Meyer a un grand sens de l'humour, justifié par la fin de son cycle de réincarnation, et met en place la technique des cordons tressés, qui permettra à nos héros d'arriver au bout du royaume des morts. C'est aussi un courageux aventurier et un stratège hors pair dans la bataille du paradis. Marié à Amandine, Il finit par être tué par le vieux de la montagne, à la suite de la mission de sauvetage de Rose Solal. Le vieux de la montagne. Chef de la secte des haschischins, et principal rival de Freddy Meyer, il organise un conflit d'ectoplasmes au paradis, il tue Freddy à la suite d'une embuscade fixée lors d'une opération de sauvetage (Rose), et finit lui-même tué par Amandine qui lui coupe le cordon ombilical. Stefania Chichelli. Italienne de Montpellier, de confession bouddhiste, elle est la première à réussir à traverser le mur des plaisirs grâce à sa technique de méditation. De forte corpulence (qu'elle a su dépasser par son intelligence et la méditation) elle sait lire dans les âmes, et a une certaine connaissance du royaume des morts, qu'elle tire du Bardo Thodol. Elle s'amourache de Raoul Razorbak qui finit par quitter Amandine, puis finit elle-même par le quitter pour rejoindre un mouvement sataniste, considérant que le monde est devenu trop mièvre ; son attitude la conduira à assassiner son ex-compagnon. C'est la seule à avoir été épargnée de l'accident du Boeing, les anges considérant qu'elle s'est repentie. Conrad Pinson. Frère adoptif de Michael, il est aussi le petit chouchou de sa maman, et passe son temps à taquiner son frère et réussit dans la vie. À la suite de l'essor de la thanatonautique, il s'occupe plutôt de l'aspect mercantile et spéculatif de l'affaire. Il perd son fils, qui se suicide en espérant une meilleure réincarnation, mais cela ne semble pas beaucoup l'affecter. Felix Kerboz. Détenu de la prison de Fleury Merogis, plus malin et solide que les autres, il est le premier rescapé des expériences, et le premier thanatonaute en herbe, et se met en couple avec Amandine. Mais mal dans sa peau, et alcoolique chronique il décide de quitter ce monde en lui demandant de lui pardonner. Francis Razorbak. C'est le père de Raoul, à la base de son goût pour l'univers des morts, à cause de son mystérieux suicide alors qu'il rédigeait « La mort, cette inconnue », dont on retrouve des articles régulièrement disséminés au travers de l'ouvrage un peu comme "L'Encyclopédie du savoir relatif et absolu" d'Edmond Wells. C'est en discutant avec Satan que Raoul découvre qu'en réalité, le suicide de son père a été provoqué par sa mère. Maxime Villain. Reporter du petit thanatonaute illustré, doté d'une mémoire phénoménale, il est connu notamment pour avoir retranscrit la bataille du paradis, et avoir fait une interview d'une pesée d'une âme (l’interview de l’ectoplasme Donahue) dans la montagne du jugement. Il est aussi considéré comme un traitre par les archanges-juges et termine dans l'accident du Boeing. Jean Lucinder. Président de la République française dans les années 2060, victime d'une tentative d'assassinat à l'âge de 58 ans alors qu'il faisait un bain de foule à Versailles. Cette tentative lui permet de faire l'expérience d'une EMI, qui le décide à s'aventurer dans le domaine du paranormal en faisant pratiquer des expériences au sein de la prison de Fleury-Merogis par Raoul Razorbak, Michael Pinson, et Amandine Ballus. Ce n'est pas un explorateur, seul son mandat l'intéresse, il utilise d'ailleurs l'argument du paradis pour être réélu (un mensonge bien évidemment). Il finit par se suicider, las de son existence. Benoit Mercassier. Ministre de la recherche, Lucinder vient prendre conseil auprès de lui après sa tentative d'assassinat afin de réaliser des expériences sur les détenus du pénitencier de Fleury-Merogis. Il finit par démissionner et s'enfuit après la révélation des morts de la prison. Commentaires. Procédé récurrent chez Bernard Werber, le livre alterne les passages consacrés au fil conducteur de l'histoire et ceux composés de textes sacrés extraits des mythologies, religions et cosmogonies du monde entier, regroupés sous le nom d'« Extrait de la thèse "La mort cette inconnue" de Francis Razorbak ». Le livre est le premier volume du cycle des anges faisant lui même partie de la pentalogie du ciel. "L'Empire des anges" vient compléter le cycle. "Le Cycle des Dieux" clôt la trilogie et est lui-même publié en trois parties : "Nous les dieux", "Le Souffle des dieux" et "Le Mystère des dieux". Le roman s'intéresse au même thème que le film américain "L'Expérience interdite", sorti quatre ans plus tôt. Bande dessinée. Le roman est adapté en bande dessinée, dont trois tomes sont sortis : |
Libanios Libanios (en / ; en latin Libanius) est un rhéteur syrien de culture grecque de l'Antiquité tardive (314-v. 393). Il occupe une place de premier plan dans la littérature grecque du , et il fut un grand défenseur de l'hellénisme. Biographie. Libanios est né en 314 à Antioche de Syrie, une des plus importantes métropoles de l'Empire romain. Il est issu d’une influente famille curiale, mais qui s'était appauvrie. Il perd son père vers l’âge de onze ans, et ce sont sa mère et ses deux oncles Panolbios et Phasganiois qui veillent sur études. Ses origines lui permettent de bénéficier d'une bonne formation. Vers l'âge de quinze ans, il décide de se consacrer entièrement à la rhétorique. Il se lance pour cela seul dans l'étude de la rhétorique classique avant de se rendre à Athènes, où il parfait sa formation auprès de Diophantus. Il y reste de 336 à 340. Entretemps, il avait rejeté l'enseignement de Zenobios d'Elusa (auquel il devait succéder comme sophiste d'Antioche après 354) parce qu'il le trouve de piètre qualité, il suit un parcours d'études atypique en se formant par lui-même tout en continuant de travailler chez un bon grammairien, qui pourrait être Didymus Chalcenterus. En 340, Nicoklès, un grammatiste de Sparte, lui offre un poste de professeur (sophiste) à Constantinople, mais ce poste lui échappe et il doit s'installer à son compte. Professeur libre, il vit des revenus de ses cours (il a eu jusqu'à quatre-vingts élèves). Mais sa renommée grandissante pousse l'empereur à le garder à Constantinople, et à lui offrir une nomination à un titre surnuméraire. Néanmoins ses rivaux profitent des émeutes entre ariens et nicéens et de la répression de 342 pour le chasser de la ville. Après un bref passage par Nicée, Libanios se réfugie à Nicomédie, ville de Bithynie, où son art de la rhétorique lui attire la célébrité. Il vit alors une période heureuse et très productive. C'est à cette époque qu'il aurait pu avoir dans son auditoire Basile de Césarée, et que le futur empereur Julien se fit remettre en secret ses cours. Rappelé à Constantinople par l'empereur vers 347/348, Libanios ne s'y plaît pas. Il refuse une chaire de rhétorique en 354 à Athènes, mais en accepte une à Antioche, où il resta jusqu'à sa mort. Peu après son retour, il prend une concubine d’origine servile avec laquelle il a un fils, Arabios (renommé Cimon). Il acquiert rapidement une grande réputation de rhéteur dans la ville. De plus, il développe de très bons contacts avec les dirigeants municipaux ainsi qu'avec les fonctionnaires de la cour de l'empereur . Son successeur, Julien, installe un temps son palais à Antioche pour préparer une expédition contre la Perse. Mais son paganisme affiché et sa rigueur morale provoquent un conflit avec la population de la ville, ce qui n'est pas pour déplaire à Libanios qui entretient avec ce dernier une relation amicale. La mort de l'empereur, à la suite de la bataille de Ctésiphon, a la double conséquence d'affecter personnellement Libianos et d'éloigner pour toujours l'idée d'un retour à l'empire païen d'Auguste, Trajan et Marc Aurèle. C'est vers cette époque qu'il dut avoir pour élève le futur évêque Amphiloque d'Iconium ; les auteurs chrétiens ultérieurs lui ajoutent Jean Chrysostome vers cette époque. L'époque qui suit la mort de Julien, est plus difficile pour Libanios. La tentative de coup d'État menée par Procope contre le nouvel empereur Valens vers 365, à laquelle bon nombre de cités de Syrie se sont associées, et surtout la conspiration menée par Théodore d'Antioche alors que Valens venait d'y établir sa capitale dans le cadre d'opérations militaires (371/372) ont entraîné des représailles sévères à l'égard des cités d'Orient et la persécution de beaucoup d'intellectuels païens. Même si, en raison de l'influence qu'il conservait à la cour, il ne fut pas directement touché par les persécutions, cette affaire le marqua, bien que ses écrits ne manifestent pas d'hostilité particulière à l'égard de cet empereur. Après la catastrophe de la bataille d'Andrinople et la mort de Valens en 378, Libanios put de nouveau obtenir les faveurs de la cour de . Il interpelle ce dernier en faveur des sanctuaires païens et pour dénoncer divers abus des puissants. Vers 383/384, il reçoit le titre de questeur honoraire. On admet communément qu'il est mort vers 393. Bien qu'il fût païen et grand admirateur et ami de l'empereur Julien, les auteurs chrétiens du siècle suivant (Socrate de Constantinople, Sozomène) lui ont attribué pour élèves Jean Chrysostome, Basile le Grand, Grégoire de Naziance et Grégoire de Nysse. Libanios, le rhéteur, le sophiste. Libanios exerce le métier de professeur, dispensateur de la "Paideia" et de la tradition culturelle grecque classique, seule culture noble à ses yeux. En particulier face à la perte d'importance de cette tradition dans la romanité, surtout dans l'empire occidental où la latinité s'affirme tant avec le christianisme et l'Église. La Grèce vaincue, a conquis à son tour, son sauvage vainqueur et a apporté la civilisation au barbare latin. Pour Libanios l'éloquence rhétorique n'est pas qu'une profession où il veut exceller; c'est un art de vivre, un élément fondamental de l'homme bien fait. En cela, il s'inscrit dans la tradition isocratique, cette tradition pédagogique de la rhétorique où, selon le mot d'Isocrate, « l'art oratoire apprend à bien penser, à bien agir en même temps qu'à bien écrire ». De la même manière, on peut aussi y trouver les racines de sa pensée réactionnaire et de son « nationalisme » hellénique : Nous appelons Grecs ceux qui ont en commun avec nous la culture, plutôt que ceux qui ont le même sang. Conscient de l'évolution de son siècle, il combat tous ceux qui, à ses yeux, sont des adversaires de la culture grecque et de ses traditions païennes, comme les empereurs Constantin et surtout Constance II, à qui l'on doit une politique de répression contre le paganisme. Il soutient les hommes favorables à la réaction païenne, tel l'empereur Julien. Il combat aussi l'évolution centralisatrice du pouvoir et l'interventionnisme croissant des empereurs dans la cité en ce , qui s'opposent à l'idéal libéral de la civilisation hellénique. Œuvre. Il est l'auteur d'une œuvre immense, qui fit l'admiration de ses contemporains et servit de modèle pendant toute l'histoire de Byzance. Sa notoriété fut grande aussi en Europe pendant la Renaissance. Après avoir été plutôt oublié, il est à nouveau lu et étudié depuis une quarantaine d'années. . Elle représente onze volumes dans l'édition de Richard Forster. On a d'une part cinquante-et-une déclamations portant essentiellement sur des sujets historiques et mythologiques et plus de mille cinq cents lettres adressées aux empereurs, aux préfets, à des rhéteurs, des philosophes ou des évêques; d'autre part, soixante-quatre discours sur des thèmes tels que l’art oratoire, la justice ou les problèmes relatifs à la vie des écoles et des grandes cités d’Orient. On peut citer : |
Tirage photographique noir et blanc Le tirage photographique est une étape dans le processus de restitution d'une image présente sur une pellicule. Le but de cette étape est de transférer l'image (à partir d'une pellicule développée) sur du papier, de l'agrandir, de la recadrer et de l'améliorer. Le tirage contact est une autre forme de tirage qui ne permet pas d'agrandissement. Le tirage est assuré soit par le photographe lui-même, soit par un tireur, artisan ou salarié d'un laboratoire photographique Sur le plan professionnel, le tirage est assuré par un tireur dont le plus célèbre reste Pierre Gassmann, fondateur de Picto, tireur d'Henri Cartier-Bresson, qui a formé Georges Fèvre, François Duffort, Voja Mitrovic, etc. ; Claudine Sudre (Labo Nicole), etc. Aujourd'hui : Thomas Consani (Central-Dupon), tireur attitré de Marc Riboud , Diamantino Quintas (Diamantino Labo photo), Payram (Picto Bastille), Stéphane Cormier, etc. Cet article développe particulièrement le processus de tirage dans le cas d'une pellicule noir et blanc (N&B). Les différents genres de tirage. On doit distinguer les tirages par contact des tirages par agrandisseur ; les tirages petits et moyens formats des tirages grands formats ; les tirages noir et blanc des tirages couleurs ; les tirages argentiques des tirages numériques ; etc. Le processus de tirage argentique en noir et blanc. Les étapes de l'exposition au fixage se déroulent en chambre noire sous lumière inactinique. C'est seulement après l'étape du fixage que le tirage peut être exposé à la lumière. L'exposition. C'est l'étape où l'image présente sur le film est projetée sur le papier. C'est aussi l'étape où tout le sens artistique du photographe s'exprime : choix du cadrage, des masquages, des papiers, etc. Il ne faut surtout pas la réduire à une simple opération technique. Pour qu'une exposition soit réussie, il faut considérer (entre autres) plusieurs facteurs : Révéler l'image (développement). Le révélateur est une solution liquide qui révèle l'image du papier photosensible. Pour de bons résultats reproductibles, la durée de cette opération doit être fixe (60 à généralement pour les papiers dits à « contraste variable »). En fonction du rendu général désiré, on fera varier l'exposition en jouant sur le temps d'exposition et sur le diaphragme de l'objectif de l'agrandisseur ainsi que sur le grade du papier, mais en aucun cas le temps de développement. Un temps trop court dans le révélateur entraînera une image grisaillante et sans force (si l'image « monte » trop vite, elle est surexposée : on ne la sauvera pas en la sortant plus tôt du bain sauf si le filtre était suffisant). Avec une exposition correcte, une prolongation du temps est moins dévastatrice : une révélation trop longue aura tendance à rendre les blancs gris et ainsi gâcher le travail des grades, en perdant le contraste. On peut aussi jouer sur la température du révélateur pour obtenir des images plus fortes. On peut aller jusqu'à sans problème. Enfin, il ne faut pas trop se fier à ce qu'on voit sous la lampe de laboratoire. Souvent le rendu y est plus flatteur qu'en réalité. Ceci est particulièrement vrai avec une lampe rouge qui ne permet même pas de juger les contrastes. Selon le couple papier/révélateur, la tonalité de l'image peut varier des tons froids (bleutés) à chauds (tirant sur le brun). Les papiers "bromures" sont des papiers neutres. Les "chlorobromures" sont plus chauds (développés dans un révélateur approprié). Le bain d'arrêt. Sortie du révélateur, l'image passe dans un bain d'arrêt acide (eau + acide acétique ou vinaigre). Il s'agit simplement d'arrêter la réaction de développement et d'économiser le bain de fixage. Le bain d'arrêt est court et dure généralement quelques dizaines de secondes. La fixation de l'image. Cette étape permet d'éliminer les grains d'argent encore sensibles (non développés) qui seraient toujours présents sur le papier. Le fixage dans un fixateur « rapide » (hyposulfite d'ammonium) dure entre 30 et . L'usage d'un fixateur rapide présente l'avantage, lors de l'utilisation du papier baryté surtout, de réduire l'imprégnation de fixateur dans le support papier. Des résidus de fixateur entraîneraient une moins bonne conservation dans le temps (jaunissement de la photo). Certains tireurs, préfèrent cependant l'utilisation de fixateurs traditionnels à l'hyposulfite de sodium, nécessitant un temps de fixage plus long (entre 3 et 5 min) mais qui apporteraient une meilleure conservation dans le temps. Il est important que les feuilles ne se collent pas les unes aux autres et que le produit circule bien entre les images. Des photos qui jaunissent sont souvent le signe d'un mauvais fixage (toutefois ce jaunissement n'apparaît pas immédiatement mais plusieurs jours ou semaines après le traitement). En cours de fixage, il est possible d'éclaircir certaines parties de l'image, pour renforcer "très localement" les hautes lumières. On utilise pour cela le "faiblisseur de Farmer" appliqué très rapidement au pinceau, et rincé immédiatement. Cette technique ne doit être appliquée qu'aux hautes lumières, pas dans les ombres. Elle donne de très bons résultats mais nécessite une bonne dextérité sous peine d'effacer totalement la partie travaillée. Les virages. Il est possible de modifier le rendu de l'image, tout en améliorant sa conservation, par le procédé de "virage" au cours duquel on substitue aux sels d'argent, des sels de métaux différents comme le sélénium, l'or voire le platine. Le virage le plus courant étant le virage au "monosulfure" qui donne à l'image un ton sépia. Ce produit (monosulfure de sodium) a le défaut de sentir l'œuf pourri. Il est possible par virage d'obtenir des images de toutes les tonalités. On peut aussi choisir de ne virer qu'une partie de l'image, en protégeant les autres par un vernis. Lavage final. Le lavage est important et doit être soigneux (surtout s'il s'agit de papiers barytés). Il peut se faire en cuvette (lavage par vidange) ou en cuve verticale (lavage continu). Les papiers dits à contraste variable (ou encore résinés, plastifiés ou encore RC pour "" en anglais) sont lavés en en eau courante à plus de et en en eau courante à moins de . Les papiers barytés nécessitent un temps de lavage plus long. Plus d'une heure pour un lavage sans auxiliaire. L'emploi d'un auxiliaire réduit le temps de lavage par 2. Un lavage insuffisant provoquera une dégradation lente et progressive de la photo. Essorage et séchage. Avant d'être séchés, les tirages doivent être essorés. La méthode la plus simple est celle d'étendre le tirage sur une plaque de verre ou de "Plexiglas" et de passer sur ses deux faces une raclette, un rouleau-essoreur, un gant ou autre. En fonction du papier utilisé, les techniques de séchage diffèrent. La méthode la plus rapide est l'utilisation d'une sécheuse électrique, mais ce type d'équipement est assez onéreux. Repique. La repique est l'action qui consiste à corriger les défauts mineurs d'un inversible, d'un négatif ou d'un tirage : poussières, fils… Cette opération s'effectue à l'aide d'un pinceau très fin chargé d'une encre adaptée (appelée gris film), à l'aide de gouache ou encore, sur les papiers barytés, au crayon noir. Retouche. Cette opération, surtout réalisée par les professionnels, tendent à se populariser sur support numérique grâce à des logiciels d'édition et de retouche d'image (tels que GIMP et Photoshop). La retouche traditionnelles tendent à disparaître mais existent toujours dans des domaines tels que la restauration d'images photographiques. Le tirage platine-palladium. Le tirage platine-palladium est un tirage par contact utilisant des sels de platine et de palladium. |
Virage (photographie) Le virage est un traitement chimique supplémentaire intervenant lors du développement d'un tirage photographique noir et blanc sur papier, dans le but de donner une couleur dominante à l'épreuve. Le procédé consiste à remplacer partiellement l'argent de l'image par un composé de préférence métallique (plus stable). Généralités. On distingue les « virages directs » des « virages indirects » : les virages indirects nécessitent un premier bain de blanchiment, avant le virage proprement dit. Aujourd'hui, avec les techniques de retouche numérique, l'effet de « virage » est à la portée de tout un chacun, dans les menus « Teinte » ou « Effets » des logiciels de traitement d'images, parfois même directement dans les réglages de l'appareil au moment de la prise de vue (cas du sépia). Procédés. Dans les formules indiquées, l'abréviation « q.s.p. » signifie « quantité suffisante pour ». En pratique, vu les mélanges utilisés, commencer avec les ¾ de la quantité de solvant (ici toujours de l'eau). Une fois la dissolution complète, ajouter de l'eau pour obtenir le volume de liquide indiqué. Virage sépia. Ce type de virage permet de retrouver la tonalité des épreuves sépia de la première moitié du . Il existe des papiers permettant un tirage sépia direct (Ilford XP2 et Kodak Select 1). En partant d'un tirage argentique noir et blanc, ce procédé nécessite deux solutions successives vendues dans le commerce. Il est possible de les préparer soi-même. Virage à l'or. Ce procédé, relativement onéreux (utilisation du chlorure d'or), donne une teinte du noir pourpre au rouge sang aux parties de l'image. Originellement, ce procédé visait également à améliorer la conservation des tirages. Le choix des proportions des solutions A et B mélangées dans le bain de virage permet d'obtenir la coloration désirée. Laver soigneusement à l'eau puis fixer (fixateur classique) et relaver. Virage bleu. Ce virage en un seul bain permet d'obtenir des tonalités bleues, du bleu foncé au bleu-vert en fonction de la durée du traitement et du type de papier. Il faut toujours "ajouter l'acide dans l'eau" (jamais l'inverse : risque de projections) puis dissoudre le citrate de fer dans la solution obtenue. Mélanger les solutions A et B en parties égales au moment de l'emploi (ce bain ne se conserve pas). Virage à l'argent colloïdal. L'image est blanchie avec un bain de blanchiment auquel est ajouté du chlorure cuivrique qui formera du chlorure d'argent durant le blanchiment. On lave l'image puis on l'expose à la lumière du jour. Elle est ensuite réduite par une des solutions ci-dessous suivant la coloration désirée. Virage au sulfate de cuivre. Ce virage donne des tonalités du brun chaud au rouge clair selon la durée du traitement. Remarques : Virage au sélénium. Le virage au sélénium renforce le contraste et donne une tonalité violacée selon la durée du traitement et le type de papier. La tonalité peut aussi être brunâtre voire jaunâtre, ce qui donne aux photographies un côté archiviste et vieillot (pour ce genre de tonalité, la dilution doit être assez forte et le papier doit être du papier fibre). Le procédé est assez simple. C'est le même procédé que pour le développement d'une photographie noir et blanc, c'est-à-dire à pour le révélateur, ensuite le virage et le temps varient selon l'effet voulu ainsi que la dilution du produit, puis pour le bain d'arrêt, dans le fixateur ensuite, un deuxième fixateur peut être employé si le type de papier est du papier fibre. Note : le temps de tous les produits utilisés peut varier selon la dilution des produits et parfois même selon la température de l'eau. Attention, les produits contenant du sélénium sont toxiques. Les gants sont de mise pour éviter, entre autres, une coloration brune des mains. Les vapeurs peuvent causer des nausées, des étourdissements ainsi que des maux de tête. Voir aussi Sélénium (maladie professionnelle). |
Glossaire de la cryptologie Comme toute science, la cryptologie possède son propre langage. Étant donné la relative jeunesse de cette science, et le fait qu'une très grande partie des publications dans ce domaine sont en langue anglaise, le problème de la terminologie francophone se pose, parfois par manque de traduction, parfois par manque de traduction univoque ou élégante. Chiffrement ou cryptage. Heureusement, certains termes, de par l'utilisation systématique dont ils font l'objet, ne souffrent pas de discussion. Ainsi, on parle de "chiffrement" et non de cryptage. Ici, la raison est simple : "décryptage" a une signification et elle est totalement différente de "déchiffrement". Le "déchiffrement" est une opération effectuée par le destinataire légitime, pour retrouver le message qu'on lui a envoyé — que l'on appelle le "texte clair", le message chiffré étant parfois appelé "cryptogramme". Cette opération nécessite une donnée secrète que l'on appelle la "clé". Le "décryptage" consiste également à essayer de retrouver le texte clair, mais "sans connaître cette clé" : c'est donc l'opération d'un adversaire cherchant à prendre connaissance de la communication sans y avoir droit. Algorithmes, protocoles et autres schémas. Mis à part les problèmes de terminologie, il y a des définitions qui peuvent sembler plus ou moins précises. Par exemple, on parle de l'algorithme de chiffrement RSA mais aussi du protocole d'échange de clés Diffie-Hellman ou encore de schéma de signature. La différence entre un "algorithme" et un "protocole" est une question d'interactivité : pour un algorithme, une seule personne est impliquée, celle qui fait les calculs ; pour un protocole, plusieurs entités interviennent, il y a échange d'informations. La notion de "schéma" est quant à elle moins précise, ce terme est généralement utilisé lorsque l'on souhaite mettre en évidence le fait que l'algorithme ou le protocole repose sur un algorithme plus élémentaire. Autrement dit on essaie de faire ressortir le caractère composé. Alice, Bob et Ève. Le folklore des cryptologues veut que l'on utilise fréquemment les mêmes prénoms dans les explications des protocoles ou des attaques. Généralement, "Alice" et "Bob" (on trouve également "Bernard" en français) sont les deux personnes cherchant à communiquer de manière sûre (quand "Carole" ne se joint pas à eux) alors que "Ève" est l'espionne. Voir l'article Alice Oscar Bob Eve. Définitions multiples. Pour finir, on se trouve parfois face à des définitions portant plusieurs noms mais recouvrant le même concept. Ainsi les preuves sans divulgation sont aussi désignées par les expressions "à apport de connaissance nulle" ou "sans apport de connaissance", la cryptographie à clé publique est également appelée "asymétrique", de par l'asymétrie existant entre la possibilité de chiffrer — accessible à tout le monde — et de déchiffrer — restreinte au seul destinataire. Sur le même principe, la cryptographie à clé secrète est dite symétrique. |
Lutte intégrée Selon l'Organisation des Nations unies pour l'alimentation et l'agriculture (FAO) et l'Organisation internationale de lutte biologique (OILB), la lutte intégrée ou protection intégrée est définie comme étant la « conception de la protection des cultures dont l'application fait intervenir un ensemble de méthodes satisfaisant les exigences à la fois écologiques, économiques et toxicologiques en réservant la priorité à la mise en œuvre délibérée des éléments naturels de limitation et en respectant les seuils de tolérance ». Définitions. Dans l'Union européenne, la lutte intégrée est définie par la directive communautaire 91/414/CEE du , comme suit : La définition de la lutte biologique par l’Organisation internationale de lutte biologique (OILB) est la suivante : « L’utilisation d’organismes vivants ou de leurs produits pour prévenir ou réduire les dégâts causés par les ravageurs aux productions végétales ». Outils. Le biocontrôle est un ensemble d’outils utilisables pour la protection intégrée. Il met en œuvre les mécanismes régissant les interactions entre les espèces dans le milieu naturel tels que : Le biocontrôle et la lutte biologique sont parfois utilisés comme des synonymes car les deux font appel à des auxiliaires naturels pour combattre un bioagresseur. Cependant contrairement au biocontrôle, la lutte biologique n’inclut pas l’utilisation des phéromones de synthèse ou de substances naturelles d’origine minérale et, de son côté, le biocontrôle n’intègre pas les vertébrés considérés comme un outil pour la lutte biologique. La protection biologique intégrée résulte de la combinaison de la lutte biologique et de la protection intégrée. La protection biologique intégrée est donc une démarche de protection combinant toutes les techniques disponibles issues de méthodes de contrôle, si possible biologique. Elle comprend : la prophylaxie, l'observation et suivi des cultures, la lutte biologique, le biocontrôle, la lutte mécanique, l'aménagement de l’environnement, les pratiques culturales, les choix variétaux, les traitements chimiques compatibles, etc. L'Institut national de la recherche agronomique a mené pendant 10 ans un programme d’essai de systèmes de culture en protection intégrée, qui a montré que la flore adventice est maîtrisable par les techniques alternatives aux herbicides. L’expérimentation systémique de longue durée de Dijon Epoisses a été initiée en 2000. Les résultats obtenus au cours des 10 années d’essais indiquent que les leviers testés permettent de maîtriser de façon satisfaisante les infestations tout en réduisant de façon importante la dépendance aux herbicides et les impacts environnementaux associés. |
Langue isolante En linguistique, l’une des catégories prises en compte par la typologie morphologique des langues est celle des langues isolantes, qui présentent le plus haut degré d’analytisme. Dans ces langues, les rapports syntaxiques s’expriment en général à l’aide de mots-outils indépendants (particules, prépositions, etc.) et de l’ordre des mots, les mots à sens lexical étant invariables du point de vue grammatical, donc sans affixes grammaticaux. Les langues isolantes s’opposent aux langues synthétiques, dont les rapports syntaxiques sont indiqués typiquement par des affixes grammaticaux. Caractéristiques. L’une des langues isolantes est le mandarin. L’exemple de phrase ci-dessous montre la caractéristique principale de ces langues, à savoir que chaque mot coïncide avec un seul morphème : Un autre trait des langues isolantes est d’avoir des constructions verbales sérielles. Dans celles-ci, les verbes et leurs compléments sont juxtaposés, certains verbes ayant un sens plus abstrait ou plus grammaticalisé. Voici un exemple en yoruba, parlé en Afrique Occidentale : Les langues isolantes se caractérisent également par : On trouve des langues isolantes surtout en Asie de l’Est et du Sud-Est. À côté du chinois, tels sont, entre autres, le vietnamien, le thaï et le khmer. D’autres régions où on parle des langues isolantes sont l’Afrique Occidentale (ex. le yoruba et l’ewe), ainsi que l’Afrique du Sud, ex. le juǀʼhoan. Les langues créoles également présentent des tendances au caractère isolant. Relativité du caractère isolant. Aucune langue n’est purement analytique ou purement synthétique, mais toutes présentent ces caractères dans une plus ou moins grande mesure. Dans une langue idéalement isolante, chaque mot d'une phrase coïncide avec un seul morphème. Par contre, dans une langue idéalement synthétique, dont se rapprochent les langues appelées polysynthétiques, une phrase est constituée d’un seul mot qui englobe tous les morphèmes nécessaires. Entre elles se situent les langues prépondérément synthétiques, dans lesquelles la plupart des mots, également en phrase, sont constitués de plus d’un morphème. Pour mesurer le caractère des langues de ce point de vue, le linguiste américain Joseph Greenberg a calculé le rapport entre le nombre de morphèmes et le nombre de mots sur des échantillons de cent mots de huit langues, rapport qu’il a appelé « degré de synthèse ». Plus l’indice de ce rapport est petit, plus la langue en cause est analytique. Par exemple le vietnamien, ayant un degré de synthèse de 1,06, est une langue nettement isolante, le sanskrit, avec un degré de synthèse de 2,59, est une langue synthétique, et l’une des langues eskimo-aléoutes, dont le degré de synthèse est de 3,72, est polysynthétique. Les langues considérées comme isolantes ne possèdent pas ce caractère dans la même mesure. Le chinois classique, par exemple, est plus isolant que le mandarin, qui a aussi des mots dérivés et composés : "fù-mǔ" « parents » (littéralement « père-mère »), "zhěn-tóu" « oreiller » (littéralement « repos-tête »), ce qui élève son degré de synthèse à 1,54 et en fait une langue modérément isolante. Dans certaines langues, le caractère analytique, respectivement synthétique peuvent être différents d’une classe de mots à une autre, comme le domaine du verbe peut être isolant, et celui du nom ne l’est pas. |
Frise chronologique Une frise chronologique ou ligne du temps est une représentation linéaire d'évènements positionnés sur la flèche du temps ; elle associe des événements à leurs positions dans le temps le long d'une échelle graduée, ce en quoi elle se rapproche d'une chronologie. On parle, par exemple, de la ligne du temps d'une civilisation ou de l'histoire des techniques pour représenter ses grands événements de part et d'autre d'une flèche qui part des temps les plus reculés et qui va vers le futur. La ligne du temps présente un seul événement sur une période de temps, tandis que la frise chronologique permet de travailler la simultanéité des phénomènes. En d’autres mots, elle superpose graphiquement plusieurs événements d’une même période. Cinq grandes périodes de l'Histoire humaine. Ces périodes concernent avant tout l'Europe voire l'Occident et perdent leur utilité à mesure qu'on s'en éloigne. Types d'échelles temporelles. Un calendrier de l'évolution compte en millions d'années, alors que l'émission de particules dans un collisionneur est presque instantanée calendrier logarithmique utilisent une échelle logarithmique pour représenter le temps. Types d'échelles du temps. Il existe de nombreuses méthodes de visualisation pour les délais. Historiquement, elles ont d'abord été des représentations statiques et généralement dessinées ou imprimées sur papier, plus ou moins bien mises en valeur par le design et la capacité de l'artiste ou illustrateur à rendre visible des données. La carte de Minard (1861) de l'invasion de la Russie par Napoléon est un exemple d'un calendrier non standard qui utilise également la géographie dans le cadre de la visualisation. Grâce à l'informatique, les échelles ne sont plus limitées par l'espace ni par d'autres limitations fonctionnelles antérieures. Les échelles de temps sont devenues numériques et interactives, généralement créées avec des logiciels pouvant intégrer images, films, liens et hypertexte. Éléments d'une frise chronologique. Une ligne du temps facile à lire doit contenir certains éléments indispensables. Logiciels. Pour construire, coconstruire ou animer des flèches du temps, il existe maintenant de nombreux logiciels : |
Le Droit à la paresse Le Droit à la paresse, ouvrage de Paul Lafargue paru en 1880, puis en 1883 en nouvelle édition, est un manifeste social qui centre son propos sur la « valeur travail » et l'idée que les humains s'en font. Texte classique, très riche historiquement , "Le Droit à la paresse" démythifie le travail et son statut de valeur. Publication. Lafargue se lie d'amitié durable avec Jules Guesde à partir de 1873. Jules Guesde vient de lancer un journal, "L’Égalité". "Le Droit à la paresse" y est publié en feuilleton. Résumé. Dans l'introduction de son ouvrage, Paul Lafargue cite Adolphe Thiers : Pour lui, ce sont donc qui sont à l'origine de cet amour absurde du travail. « Un dogme désastreux ». Dans ce premier chapitre, Lafargue s'étonne de « l'étrange folie » qu'est l'amour que la classe ouvrière porte au travail alors qu'il décrit celui-ci comme « la cause de toute dégénérescence intellectuelle, de toute déformation organique ». Pourtant cet amour n'est pas universel : les sociétés primitives « que les missionnaires du commerce et les commerçants de la religion n'ont pas encore corrompues avec le christianisme, la syphilis et le dogme du travail » y échappent ainsi que les civilisations antiques dans lesquelles les philosophes considéraient le travail comme une « dégradation de l'homme libre ». « Bénédictions du travail ». Dans ce chapitre, Lafargue s'attache à décrire les conditions de travail particulièrement difficiles de la classe ouvrière dans l'Europe capitaliste du . Il dénonce l'influence néfaste du progrès technique qui pourrait être bénéfique. Le machinisme selon lui devrait faire aboutir à une diminution du temps de travail, jusqu'à même des journées de travail de trois heures. Lafargue dénonce le fait qu'on fasse travailler plus de douze heures par jour de jeunes enfants en plus des femmes et des hommes. Il juge que le travail, dans les sociétés dites primitives ou en France sous l'Ancien Régime, était mieux organisé car on y prévoyait des jours fériés, chômés, bien plus que dans la société industrielle. Lafargue observe que les travailleurs s'appauvrissent alors qu'ils travaillent de plus en plus. Il juge que la Révolution de 1789 avec ses idéaux bourgeois de droits de l'Homme n'a pas arrangé grand chose, les bourgeois chrétiens, les propriétaires, se montrant par la suite propices à montrer leur charité chrétienne, mais ne défendant aucunement les , primordiaux selon Lafargue. Il pense que les esclaves et les forçats travaillaient moins d'heures par jour que les ouvriers. « Ce qui suit la surproduction ». Dans ce contexte de révolution industrielle et de progrès technique, la machine, au lieu de libérer l'humain du travail le plus pénible, entre en concurrence avec lui : Il en résulte une augmentation du temps de travail par la suppression des jours fériés et l'allongement des journées de travail, ce qui provoque une augmentation de la production. Lafargue explique ironiquement que les bourgeois sont alors « contraints » d'arrêter de travailler et de surconsommer. Ils soustraient pour ce faire une quantité d'Hommes au travail productif pour les employer à leur service. La bourgeoisie « s'accommode » de ce mode de vie et ne peut plus envisager un retour en arrière. C'est alors que les prolétaires avec des mots d'ordres comme « Qui ne travaille pas, ne mange pas » se mirent en devoir d'imposer le travail à cette bourgeoisie oisive. Afin de mater ces soulèvements, les capitalistes « s'entourent de prétoriens, de policiers, de magistrats, de geôliers entretenus dans une improductivité laborieuse ». Cette masse d'humains soustraits au travail productif ne suffit pas à écouler la surproduction, les capitalistes doivent donc chercher de nouveaux débouchés dans les colonies, diminuer la qualité des produits afin d'accélérer leur renouvellement () et créer de nouveaux besoins factices. Ces mesures ne suffisant toujours pas à écouler toute la surproduction, le recours au chômage est inévitable. Il convient donc de réduire le temps de travail et d'augmenter les salaires car c'est lorsqu'ils sont élevés que, pour les économiser, le capitaliste est contraint de développer le travail mécanique. « À nouvel air, chanson nouvelle ». Pour sortir de la crise, il faut forcer les ouvriers à consommer leurs produits. À la suite de cet afflux d'improductifs sur le marché du travail, celui-ci deviendra « débordant » et la seule solution serait de réduire drastiquement le temps de travail. Paul Lafargue propose trois heures par jour. Les hommes pourraient alors se consacrer aux loisirs. Bibliographie et adaptation. Colloque international. À l'occasion du centenaire de la mort de Laura Marx et Paul Lafargue, à l'Université libre de Bruxelles, le : « Le droit à la paresse, nécessaire, urgent ?! ». Sur le même thème. En 1974, Georges Moustaki écrit une chanson intitulée "Le Droit à la paresse". En 2022, la femme politique Sandrine Rousseau cite le droit à la paresse qui provoque un débat à gauche. |
L'Abolition du travail L'Abolition du travail (ou "Travailler, moi ? Jamais !") de Bob Black, écrit en 1985, est un livre se présentant comme une manifeste pour une révolution ludique, ainsi qu'un pamphlet contre le travail, la misère et les nuisances du salariat. Argument. Bob Black analyse et décrypte le temps travaillé comme un temps de servitude, de résignation qui tue le temps du plaisir et de la connaissance. Il revendique la critique du travail de penseurs qu'il cite : Bob Clarke souligne notamment chez Daniel Bell l'étude de l'ouvrage "La Richesse des Nations" d'Adam Smith, qui bien que partisan du marché et de la division du travail, constate les méfaits d'abrutissement provoqués par le travail sur les salariés. Il soutient également Le Droit à la paresse tel que prôné par Paul Lafargue. Il préconise une , laissant davantage de repos, de fêtes et de loisirs aux travailleurs. Voir aussi. Colloque international. À l'occasion du centenaire de la mort de Laura Marx et Paul Lafargue, à l'Université libre de Bruxelles, le : « Le droit à la paresse, nécessaire, urgent ?! ». Publication des actes de ce colloque en PDF |
Groupe des Six (musique) Le groupe des Six, aussi nommé Les Six, est un groupe de compositeurs réunissant, entre 1916 et 1923 : Georges Auric (1899-1983), Louis Durey (1888-1979), Arthur Honegger (1892-1955), Darius Milhaud (1892-1974), Francis Poulenc (1899-1963), et Germaine Tailleferre (1892-1983). Leur musique néoclassique réagissait essentiellement contre l'impressionnisme et le wagnérisme. Ils étaient très influencés par les idées d'Erik Satie et de Jean Cocteau. Bien qu'ils aient écrit collectivement, chacun a conservé son style personnel du fait de la nature même des œuvres (mouvements ou morceaux séparés). Histoire. Le groupe se constitue, selon Jean Cocteau, vers 1916. Tout juste sortis du conservatoire, ils prennent l'habitude pendant la guerre de se réunir le samedi, le plus souvent chez Darius Milhaud, autour de Jean Cocteau. Après la guerre, les réunions continuent avec le renfort de quelques autres artistes, les pianistes Marcelle Meyer et Juliette Meerovitch, le chanteur russe Koubitsky, les peintres Émile Lejeune, Marie Laurencin, Irène Lagut et Valentine Gross, les écrivains Lucien Daudet et Raymond Radiguet. Leur nom leur est donné par le critique et compositeur Henri Collet qui s'était invité, en référence au groupe des Cinq, dans deux articles parus dans la revue "Comœdia" les et intitulés "Un livre de Rimsky et un livre de Cocteau - Les Cinq Russes, les Six Français et Erik Satie" et "Les "Six" Français : Darius Milhaud, Louis Durey, Georges Auric, Arthur Honegger, Francis Poulenc et Germaine Tailleferre". Les musiciens se produisent régulièrement ensemble jusqu'en Belgique. En 1921, une certaine notoriété finit par peser sur le groupe réuni désormais au "Bœuf sur le toit" et Louis Durey s'en sépare. Le jeune compositeur américain Virgil Thomson était un habitué du "Boeuf sur le toit" dans les années 1920. Ses compositions musicales ont été influencées par les membres du groupe des Six au cours des années suivantes. La mort de l'écrivain Raymond Radiguet à l'âge de met fin aux réunions des « samedistes » en 1923. Œuvres. Le groupe des Six a créé seulement deux œuvres collectives, un recueil pour le piano "Album des Six", et un ballet, "Les Mariés de la tour Eiffel" : Quelques autres compositions non collectives des Six : |
La Flamme et la Cendre La Flamme et la Cendre est un livre de Dominique Strauss-Kahn, publié en 2002 aux éditions Grasset. Ce livre retrace sa vision des racines du socialisme et son envie de le développer de manière moderne. |
Lab Sigle. LAB peut faire référence à : |
Louis Malle Louis Malle, né le à Thumeries (Nord) et mort le à Beverly Hills (Californie, États-Unis), est un cinéaste français récompensé par la Palme d'or (1956), par l'Oscar du meilleur film documentaire (1957), par trois César (1988), de multiples autres prix et nominations. Entre 1953 et 1994, il réalise trente-quatre films. Biographie. Débuts. Né à Thumeries dans le Nord le au milieu d'une fratrie de trois frères et deux sœurs, Louis Malle est issu d'une grande famille d'industriels du sucre : son père, Pierre Malle (1897-1990), ancien officier de marine, est l'époux de la sœur de Ferdinand Béghin, Françoise (1900-1982). Les deux hommes sont directeurs de l'usine Béghin-Say de Thumeries. Il grandit dans le milieu de la grande bourgeoisie et traverse l'Occupation dans différents internats catholiques dont celui qu'il évoque plus tard dans "Au revoir les enfants". Dès l'âge de , il s'initie à la réalisation de films avec la caméra de son père. Il est élève à l'IEP de Paris de 1950 à 1952, mais c'est à ce moment que germe sa carrière de cinéaste. Il est reçu au concours de l'IDHEC en 1953. Jacques-Yves Cousteau recherche alors un jeune assistant pour réaliser avec lui un documentaire sur les fonds marins. Parmi les jeunes étudiants que la direction de l'IDHEC lui propose, il choisit Malle. Plusieurs mois de travail sur la Calypso aboutissent au "Monde du Silence" (1955), récompensé par la Palme d'or à Cannes en 1956 (premier film documentaire à en être lauréat, avant "Fahrenheit 9/11" de Michael Moore) et l'Oscar du meilleur film documentaire en 1957. Sur le tournage, Louis Malle a les tympans crevés lors d'une plongée et ne peut plus désormais réaliser des travaux de ce type. Les projets qui suivent, films et documentaires, sont moins consensuels et volontiers provocateurs, optant pour des sujets plus critiques ou polémiques. Louis Malle travaille par la suite avec Robert Bresson à la préparation d"'Un condamné à mort s'est échappé" et assiste à une partie du tournage. Il est profondément marqué par le travail de Bresson avec les « non-acteurs » et l'importance qu'il accorde à la bande-son. C'est alors l'essor de la Nouvelle Vague. Le cinéma des débuts de Malle partage avec la Nouvelle Vague plusieurs caractéristiques mais le réalisateur suit ensuite son chemin seul, guidé par ses propres motivations. Louis Malle réalise son premier long métrage de fiction à , "Ascenseur pour l'échafaud" (1957), histoire d'assassinat avec Jeanne Moreau et Maurice Ronet qui joue sur les codes du film noir et remet en cause la dramaturgie du cinéma classique. Passionné par le jazz depuis l'adolescence, Malle en confie la musique originale à Miles Davis. Le film remporte le Prix Louis-Delluc en 1957. Dans "Les Amants", également avec Jeanne Moreau, qui s'inspire lointainement de "Point de lendemain" de Vivant Denon, il s'attaque à l'hypocrisie de la société bourgeoise à travers le récit d'une relation adultère. Suivent l'adaptation légère, ludique et enthousiaste d'un roman de Raymond Queneau, "Zazie dans le métro" (1960), "Vie privée" avec Brigitte Bardot et, sur la suggestion de Roger Nimier, celle d'un récit de Pierre Drieu la Rochelle, "Le Feu follet" (1963), qui traite de la dépression et du suicide. En 1965, il tourne la comédie western "Viva Maria !" avec Brigitte Bardot et Jeanne Moreau. "Le Voleur" porte un regard cynique sur la bourgeoisie et les élites politiques, qui restent les cibles favorites de Louis Malle. Le voleur du titre personnifie l'homme libre, extérieur à ce système empli de préjugés et sournois. Une acerbe critique sociale sourd dans la peinture psychologique des personnages. Malle tourne par ailleurs plusieurs documentaires dont "Calcutta, l'Inde fantôme" en 1969. Polémique et exil. De retour d'Inde, Malle tourne un film vaguement inspiré de "Ma mère" de Georges Bataille, qui provoque un tollé : "Le Souffle au cœur". Il y évoque la relation incestueuse et romantique entre une mère et son fils. Ce thème est traité sans aucun jugement moral, ce qui sera une constante chez le réalisateur pour qui la vie s'apparente à une série de situations complexes. Il n'y a ni innocents ni coupables ou représentants du bien d'un côté et du mal de l'autre. Pour Malle, le spectateur doit être capable de se faire une opinion, sans condamner d'avance. Trois ans plus tard, en 1974, "Lacombe Lucien" provoque une autre controverse. Le film décrit le progressif engagement d'un jeune homme désœuvré dans la collaboration après une tentative avortée d'entrer dans la Résistance. Là encore, Malle ne porte aucun jugement, et montre un individu dont l'engagement est essentiellement dû au hasard des circonstances. Même si une partie de la critique salue le film comme un chef-d'œuvre, une autre reproche au réalisateur de ne pas avoir vécu assez durement la guerre et juge son travail comme un affront à la mémoire des Résistants. Cette polémique décide Malle à s'expatrier aux États-Unis. Il y tourne notamment à La Nouvelle-Orléans un drame sur la prostitution enfantine, "La Petite" (1978), avec la jeune Brooke Shields, puis part pour Hollywood réaliser "Atlantic City" (1980), avec Burt Lancaster, Susan Sarandon et Michel Piccoli, qui raconte les mésaventures d'un truand à la retraite et de sa voisine dans la ville des casinos de la côte est des États-Unis. Consécration. Lorsqu'il revient en France en 1987, c'est pour s'attacher au thème qui l'avait fait partir : l'Occupation. C'est alors la consécration de sa carrière avec "Au revoir les enfants". Dans un collège catholique, un garçon issu de la bourgeoisie découvre qu'un de ses camarades est juif. Une amitié, qui se construit entre les deux adolescents, ne peut empêcher une fin tragique. Dans ce film, Louis Malle montre ce dont il se souvient de la guerre. L'histoire est en partie autobiographique, il a été témoin d'une situation similaire lors de son enfance, un jeune Juif avait été caché dans son internat puis découvert par la Gestapo et déporté. Il dira d'ailleurs que ce thème le hantait depuis toujours et que c'est cette histoire tragique qui l'avait amené au cinéma. Le film reprend aussi certains éléments de ses précédents films polémiques : de "Lacombe Lucien" il reprend le collabo « malgré lui », du "Souffle au cœur" il reprend la relation fusionnelle entre la mère et le fils. Là encore il ne juge personne, il n'y a ni bons ni méchants mais une certaine fatalité. Cette œuvre, marquée par la fluidité de son récit et la sobriété de sa mise en scène, est considérée comme la plus émouvante et la plus personnelle de sa carrière. Elle reçoit un triomphe critique et public et obtient plusieurs récompenses en 1987 et 1988 : le Lion d'or à Venise, le Prix Louis-Delluc et sept Césars dont ceux du meilleur film et du meilleur réalisateur. Suivent la comédie "Milou en mai" puis "Fatale" et l'adaptation de la pièce d'Anton Tchekhov "Vanya," (1994). Il meurt d'un lymphome le à Los Angeles. Vie privée. On lui connaît plusieurs aventures, dont Jeanne Moreau qu'il filme dans "Les Amants" à la fin de leur histoire, ainsi que Mijanou Bardot et Marie Laforêt. Au début des années 1960, il a une liaison avec le mannequin brésilien Vera Valdez. Marié de 1965 à 1967 à Anne-Marie Deschodt, en 1970, il aura une aventure avec Nathalie Delon à laquelle il fera découvrir l'héroïne. Louis Malle se lie ensuite à l'actrice allemande Gila von Weitershausen dont il a, en 1971, un fils, Manuel Cuotemoc, à l'actrice franco-canadienne Alexandra Stewart qui lui donne, en 1974, une fille Justine Malle, puis, entre autres, à Susan Sarandon à la fin des années 1970. Il épouse l'actrice Candice Bergen en 1980. Leur fille, Chloé Malle, naît en 1985. Ils sont restés mariés jusqu'à sa mort en Californie, en 1995. Sa cousine, Françoise Béghin (née en 1938), fille benjamine de son oncle maternel Ferdinand Béghin, est l'épouse de l'écrivain et académicien Jean d'Ormesson. L'un de ses frères, Vincent Malle, a été producteur de cinéma. Documentaires. Au cours de sa carrière, le réalisateur a alterné films de fiction pure et documentaires. Son documentaire le plus connu est "Le Monde du silence", le premier vrai film sur la faune sous-marine. Co-réalisé avec Jacques-Yves Cousteau, ce long métrage remporte la Palme d'or au Festival de Cannes. Malle reste à ce jour le plus jeune lauréat. Ce film marque aussi sa première grande expérience professionnelle pour laquelle il devient scaphandrier. Quinze ans plus tard, suivant l'exemple de Jean Renoir et Roberto Rossellini, Malle filme la vie des Indiens dans une série de documentaires tels que "L'Inde fantôme, réflexion sur un voyage" et "Calcutta", qui reçoit le Prix de la fraternité 1969. Il décide ensuite de filmer les ouvriers français précaires de l'usine Citroën de Rennes dans "Humain trop humain", qui sort en 1973. Dans "Place de la République" en 1974 il donne la parole aux Parisiens. Il filme également la population pauvre des États-Unis dans "God's Country" (1985) et "La Poursuite du bonheur" ("And the Pursuit of Happiness", 1986). Il y retrace le parcours d'individus qu'il avait suivis une décennie plus tôt. |
Chiffre de Vigenère Le chiffre de Vigenère est un système de chiffrement par substitution polyalphabétique dans lequel une même lettre du message clair peut, suivant sa position dans celui-ci, être remplacée par des lettres différentes, contrairement à un système de chiffrement mono alphabétique comme le chiffre de César (qu'il utilise cependant comme composant). Cette méthode résiste ainsi à l'analyse de fréquences, ce qui est un avantage décisif sur les chiffrements mono alphabétiques. Cependant le chiffre de Vigenère a été percé par le major prussien Friedrich Kasiski qui a publié sa méthode en 1863. Depuis cette époque, il n‘offre plus aucune sécurité. Il est nommé ainsi au en référence au diplomate du Blaise de Vigenère, qui le décrit (intégré à un chiffrement plus complexe) dans son "traité des chiffres" paru en 1586. On trouve en fait déjà une méthode de chiffrement analogue dans un court traité de Giovan Battista Bellaso paru en 1553. Historique. Dans son traité des chiffres paru en 1586 figure déjà une méthode de déchiffrement analogue en hébreu, le Tserouf. Le Tserouf (« combinaison », en hébreu) est une méthode d’interprétation de la kabbale qui consiste à associer ou permuter des lettres pour révéler d’autres sens cachés d’un mot ou locution. La table du tserouf retrouvée chez de Vigenère dans son traité est similaire à celle d’Abraham Aboulafia (1240-1291 ou 1292). Principe du chiffrement. Ce chiffrement introduit la notion de clé. Une clé se présente généralement sous la forme d'un mot ou d'une phrase. Pour pouvoir chiffrer notre texte, à chaque caractère nous utilisons une lettre de la clé pour effectuer la substitution. Évidemment, plus la clé sera longue et variée et mieux le texte sera chiffré. Il faut savoir qu'il y a eu une période où des passages entiers d'œuvres littéraires étaient utilisés pour chiffrer les plus grands secrets. Les deux correspondants n'avaient plus qu'à avoir en leurs mains un exemplaire du même livre pour s'assurer de la bonne compréhension des messages. La table de Vigenère. L'outil indispensable du chiffrement de Vigenère est la « table de Vigenère ». Table de Vigenère. Chiffrement. Pour chaque lettre en clair, on sélectionne la colonne correspondante et pour une lettre de la clé on sélectionne la ligne adéquate, puis au croisement de la ligne et de la colonne on trouve la lettre chiffrée. La lettre de la clé est à prendre dans l'ordre dans laquelle elle se présente et on répète la clé en boucle autant que nécessaire. Texte en clair : j'adore ecouter la radio toute la journee Clé répétée : M USIQU EMUSIQU EM USIQU EMUSI QU EMUSIQU | ||Colonne O, ligne I : on obtient la lettre W. | |Colonne D, ligne S : on obtient la lettre V. | Colonne A, ligne U : on obtient la lettre U. Colonne J, ligne M : on obtient la lettre V. Le texte chiffré est alors : Si on veut déchiffrer ce texte, on regarde pour chaque lettre de la clé répétée la ligne correspondante et on y cherche la lettre chiffrée. La première lettre de la colonne que l'on trouve ainsi est la lettre déchiffrée. Texte chiffré : V'UVWHY IOIMBUL PM LSLYI XAOLM BU NAOJVUY Clé répétée : M USIQU EMUSIQU EM USIQU EMUSI QU EMUSIQU | ||Ligne I, on cherche W : on trouve la colonne O. | |Ligne S, on cherche V : on trouve la colonne D. | Ligne U, on cherche U : on trouve la colonne A. Ligne M, on cherche V : on trouve la colonne J. Principe mathématique. Mathématiquement, on identifie les lettres de l'alphabet aux nombres de 0 à 25 (A=0, B=1...). Les opérations de chiffrement et de déchiffrement sont, pour chaque lettre, celles du chiffre de César. En désignant la i lettre du texte clair par Texte[i], la i du chiffré par Chiffré[i], et la i lettre de la clé, répétée suffisamment de fois, par Clés[i], elle se formalise par : où x modulo 26 désigne le reste de la division entière de x par 26. Pour le chiffrement il suffit d'effectuer l'addition des deux lettres puis de soustraire 26 si le résultat dépasse 26. Pour le déchiffrement il suffit d'effectuer la soustraction et d'additionner 26 si le résultat est négatif. Le déchiffrement est aussi une opération identique à celle du chiffrement pour la clé obtenue par Clé'[i] = 26 - Clé[i]. Un , qui utilise une représentation circulaire de l'alphabet (après Z on a A), permet de réaliser directement cette opération. Le chiffré d'un texte suffisamment long constitué uniquement de A donne la clé ( 0 + "x" = "x", soit A + Clés[i] = Clés[i] ). Cryptanalyse. Si l'on connait le nombre de symboles que comporte la clé, il devient possible de procéder par analyse de fréquences sur chacun des sous-textes déterminés en sélectionnant des lettres du message clair à intervalle la longueur de la clef (autant de sous-textes que la longueur de la clef). C'est l'attaque bien connue sur les chiffrements mono-alphabétiques. Friedrich Kasiski publie en 1863 une méthode efficace pour déterminer la taille de la clef, le test de Kasiski, en repérant la répétition de certains motifs dans le message chiffré. Charles Babbage s'est intéressé au chiffrement de Vigenère une dizaine d'années auparavant. Il avait déchiffré dans des cas particuliers des messages chiffrés par la méthode de Vigenère. Il n'a rien publié à ce sujet, mais on dispose de ses notes. On ne sait pas quelle méthode il a utilisée, il a pu exploiter des faiblesses de l'utilisation du chiffrement. Certains historiens pensent qu'il a pu découvrir la méthode de Kasiski, bien qu'il n'en ait pas laissé de trace écrite. Des techniques statistiques fondées sur l'indice de coïncidence, découvertes au , s'avèrent encore plus efficaces pour casser le chiffre. Variantes. Le chiffre de Vigenère a été réinventé de nombreuses fois au cours des siècles et il a existé plusieurs variantes. Il n'est pas indispensable d'utiliser un décalage comme substitution alphabétique, n'importe quelle permutation des lettres de l'alphabet convient. L'avantage du chiffre de César est d'être entièrement déterminé par la lettre qui donne le décalage. Mais, avant Vigenère, Giovan Battista Bellaso avait proposé un tel système (repris par le physicien Giambattista della Porta qui s'en inspire sans citer Beloso), où chacun des correspondants dispose d'une même grille qui donne une suite de permutations de l'alphabet chacune associée à une ou plusieurs lettres. Chiffrement et déchiffrement demandent la grille et un mot clef. Les lettres du mot clef sont utilisées de la même façon que pour le chiffrement de Vigenère, mais indiquent l'une des permutations de la grille et non un décalage. "A priori", la connaissance de la grille ne permet pas à elle seule de déchiffrer le message, puisqu'il faut le mot clef. Cependant le chiffrement est susceptible des mêmes attaques que celui de Vigenère. Le système a connu d'autres variantes comme le chiffre de Beaufort. Il y a aussi la possibilité d'utiliser plusieurs clefs de chiffrement. En effet, il est possible de chiffrer un message une première fois avec une clef, puis de chiffrer à nouveau le message chiffré avec une autre clef. Ainsi le principe mathématique serait : TexteChiffré1 = (TexteClair[i]+Clef1[i])mod(26) TexteChiffréFinal = (TexteChiffré1[i]+Clef2[i])mod(26) Si on remplace on a : TexteChiffréFinal = ((TexteClair[i]+Clef1[i])mod(26)+Clef2[i])mod(26) Qui est aussi égal à : TexteChiffréFinal = (TexteClair[i]+Clef1[i]+Clef2[i])mod(26) Et si on pose : ClefSomme = Clef1 + Clef2 On se retrouve donc avec : TexteChiffréFinal = (TexteClair[i]+ClefSomme[i])mod(26) Ce qui revient donc à chiffrer notre message en utilisant une clef ClefSomme qui est le chiffré des deux différentes clefs, Clef1 et Clef2, utilisées pour chiffrer le message par Vigenère. Cette méthode marche pour deux clefs, mais aussi pour un nombre n de clefs. Il suffit de trouver la clef qui est le chiffré des n clefs une à une par Vigenère, puis de chiffrer le message clair par Vigenère avec la clef créée. Cette méthode est tout aussi efficace pour déchiffrer le message. Le destinataire n'a qu'à attendre l'arrivée de toutes les clefs, de les chiffrer une à une par Vigenère puis de déchiffrer le message reçu avec la clef nouvellement conçue. |
Lune La Lune, ou , est l'unique satellite naturel permanent de la planète Terre. Il s'agit du cinquième plus grand satellite naturel du Système solaire, et du plus grand des satellites planétaires par rapport à la taille de la planète autour de laquelle il orbite. Elle est le deuxième satellite le plus dense du Système solaire après Io, un satellite de Jupiter. La Lune est en rotation synchrone avec la Terre, lui montrant donc constamment la même face. Celle-ci, appelée face visible, est marquée par des mers lunaires volcaniques sombres qui remplissent les espaces entre les hautes terres claires et ses cratères d'impact proéminents. Réciproquement, elle possède une face cachée, qui présente moins de mers mais beaucoup plus de cratères, dont le bassin Pôle Sud-Aitken, le plus grand du satellite et l'un des plus grands du Système solaire par son diamètre de . Elle est dépourvue d'atmosphère dense et de champ magnétique. Son influence gravitationnelle sur la Terre produit les marées océaniques, les marées terrestres, un léger allongement de la durée du jour et la stabilisation de l'inclinaison de l'axe terrestre. La distance orbitale moyenne de la Lune est de , soit environ trente fois le diamètre terrestre, et sa période de révolution vaut . La taille apparente de la Lune dans le ciel est approximativement la même que celle du Soleil, puisque le diamètre de l'étoile est environ celui du satellite, mais qu'elle est également plus éloignée. Par conséquent, la Lune peut couvrir presque exactement le Soleil dans le ciel, permettant l'apparition d'éclipses solaires totales. Cette correspondance de taille apparente disparaîtra dans un avenir lointain du fait de l'augmentation de la distance lunaire d'environ par an. La formation de la Lune remonterait à il y a environ d'années, peu de temps après celle de la Terre. L'explication la plus largement acceptée est que la Lune s'est formée à partir des débris restants après un impact géant entre une proto-Terre et une protoplanète de la taille de Mars, appelée Théia. La Lune est survolée pour la première fois par la sonde spatiale en 1959. Durant plus d'une décennie, elle est notamment étudiée par les programmes "Luna" et "Apollo", respectivement soviétique et américain. Cette course à l'espace culmine en 1969 avec les premiers humains posant le pied sur la Lune lors de la mission "" emportant Neil Armstrong et Buzz Aldrin. Dix autres astronautes de la NASA foulent ensuite le sol lunaire jusqu'à "Apollo 17" en 1972. Ces missions permettent de ramener sur Terre des roches lunaires qui, avec les observations effectuées sur place, permettent de développer la connaissance géologique de la Lune, de sa structure interne et de l'histoire de sa formation. Délaissée à partir de 1974 par les puissances spatiales, l'astre connaît un nouvel intérêt dans les années 1990, deux missions de la NASA découvrant des indices de la présence de glace d'eau, notamment au pôle Sud. À compter de la fin des années 1990, la Lune est la destination principale des sondes spatiales des nouvelles nations spatiales, notamment la Chine, le Japon et l'Inde. De nouvelles missions habitées vers la Lune, voire une colonisation, sont envisagées dans les . En sa qualité de deuxième objet céleste dans le ciel terrestre par sa magnitude apparente, après le Soleil, et du fait de son cycle régulier de phases correspondant à sa période synodique de , la Lune sert de référence et d'influence culturelle aux sociétés humaines depuis des temps immémoriaux. Celles-ci se retrouvent dans la langue, les calendriers, l'art et la mythologie. Caractéristiques physiques. Dimensions et masse. La Lune est un sphéroïde en raison de l'étirement créé par les forces de marée, son grand axe étant déplacé de 30° par rapport à la Terre en raison d'anomalies gravitationnelles causées par ses bassins d'impact. Sa forme est plus allongée que ce que les forces de marée actuelles peuvent expliquer. Ce « renflement fossile » suggère que la Lune s'est solidifiée lorsqu'elle orbitait à une distance moitié moindre de celle actuelle avec la Terre et qu'elle serait à présent trop froide pour que sa forme ne s'adapte à ce changement d'orbite. Son rayon équatorial est de et son rayon polaire de , ce qui lui confère un aplatissement de , trois fois plus faible que celui de la Terre. Son rayon moyen est de , ce qui correspond à 27 % du rayon terrestre environ. Sa masse étant de , soit un peu plus d'un pour cent de la masse terrestre, la gravité de surface subie sur la Lune est bien plus faible que celle sur Terre : avec , elle est six fois plus petite. Ainsi, même si sa masse reste constante, un être humain sur la Lune voit son poids divisé par six ; de même, porter une combinaison spatiale de est équivalent à la sensation de porter une combinaison de sur Terre. Par ailleurs, la vitesse de libération sur la Lune est plus faible que celle de la Terre, à contre . Le champ gravitationnel de la Lune est mesuré en suivant l'effet Doppler des signaux radio émis par les appareils en orbite. Les principales caractéristiques de la gravité lunaire sont les réplétions (ou mascons), de grandes anomalies gravitationnelles positives associées à certains des bassins d'impact géants, en partie causées par les coulées de lave basaltique dense qui remplissent les mers lunaires. Ces anomalies influencent grandement l'orbite des engins spatiaux autour de la Lune. Cependant, les coulées de lave ne peuvent à elles seules expliquer toute la signature gravitationnelle ; des concentrations de masse indépendantes du volcanisme des mers ont été identifiées. Structure interne et composition. La Lune est un corps différencié, structuré en une croûte, un manteau et un noyau distincts. Il s'agit du deuxième satellite naturel le plus dense du Système solaire après Io, un des satellites de Jupiter. Cependant, son noyau (probablement constitué de fer métallique allié à une petite quantité de soufre et de nickel) ne fait qu'environ de rayon au plus, soit 20 % du rayon de la Lune. Les analyses des variations de la rotation de la Lune indiquent qu'il est au moins partiellement fondu et qu'il serait ainsi solide jusqu'à du centre puis liquide jusqu'à un peu plus de . Autour du noyau se trouve une couche limite de roches partiellement fondues jusqu'à environ du centre. Au-delà de cette couche se trouvent le manteau et la croûte, tous deux formés de roches solides mais de compositions chimiques et minéralogiques différentes. La croûte, épaisse d'environ en moyenne, affleure dans les « terres » ; elle est présente aussi dans les « mers », mais recouverte par d'épaisses couches de lave. L'origine de cette structure interne serait la cristallisation fractionnée d'un océan magmatique lunaire peu après la formation de la Lune, il y a d'années. Le refroidissement de cet océan magmatique aurait d'abord produit la précipitation et la sédimentation de cristaux d'olivine, de clinopyroxène et d'orthopyroxène formant un manteau mafique puis, après qu'environ les trois quarts de l'océan magmatique se sont cristallisés, la formation et la flottation de cristaux de plagioclase sont à l'origine de la croûte. Les derniers liquides à cristalliser, pris entre la croûte et le manteau, auraient été fortement enrichis en éléments incompatibles, parmi lesquels des éléments radioactifs KREEP producteurs de chaleur. Cependant, ce modèle n'explique pas complètement les caractéristiques observées de la composition de la surface, notamment des dissymétries de la répartition du thorium entre les faces visibles et cachées. La cartographie géochimique de la surface lunaire, réalisée à partir des orbiteurs, est en accord avec cette perspective : la surface des hauts plateaux (« terres »), représentative de la croûte, est principalement constituée d'anorthosites, des roches ignées principalement composées de plagioclase ; celle des « mers », comme celle des échantillons de roches lunaires recueillis sur place, sont des laves de composition mafique, plus riches en fer que les basaltes terrestres. Champ magnétique. Champ magnétique actuel. Le magnétomètre MAG et le réflectomètre d’électrons du "Lunar Prospector" permettent en 2008 d'obtenir la première carte complète des champs magnétiques lunaires. Elle révèle que les bassins d'impacts dominent la distribution de ces champs, les plus faibles (inférieurs à ) se trouvant dans les bassins les plus grands et les plus récents, Mare Orientale et Mare Imbrium, tandis que les champs les plus forts (supérieurs à ) sont mesurés au-dessus des surfaces diamétralement opposées à ces mêmes bassins. Les plus forts champs relevés correspondent à moins d'un centième du champ magnétique terrestre. Le champ magnétique lunaire est entièrement dû à la magnétisation des roches crustales, et aujourd'hui la Lune ne possède pas de champ magnétique planétaire dipolaire. Une partie de la magnétisation peut provenir de champs magnétiques transitoires générés lors d'impacts importants. Ces impacts créent l'expansion d'un nuage de plasma lors de l'impact, générant un champ magnétique ambiant. Ceci est confirmé par l'emplacement apparent des plus grandes magnétisations de la croûte près des antipodes des bassins d'impact géants. Cependant, la majeure partie de la magnétisation est héritée d'une époque où la Lune possédait un champ magnétique global, à l'instar de la Terre et d'autres planètes. Histoire du champ magnétique lunaire. La présence d'un champ magnétique global peu après la formation de la Lune est attestée par l'aimantation rémanente de ses roches les plus anciennes. L'étude détaillée d'un échantillon de troctolite vieux de ramené lors des missions "Apollo" démontre l'existence d'un paléo-champ d'une intensité de qui aurait progressivement décliné et qui se serait terminé au moins après il y a . Ce résultat confirme la présence d'un effet dynamo à cette époque, mais ne permet pas d'en connaître précisément le mécanisme (convection thermique ou solutale, notamment). Les études paléomagnétiques menées de 2009 à 2014 montrent qu'une dynamo lunaire a fonctionné entre au moins et qu'une période de champ élevé (avec une intensité moyenne du champ d'environ en surface) a perduré entre , suivie d'une baisse de l'intensité de surface jusqu'en dessous de vers . Deux études ultérieures, en 2017 et 2020, montrent que la baisse d'un ordre de grandeur des paléointensités lunaires entre a été suivie d'une période de champ bas (intensités du champ de surface de l'ordre de ) puis d'une seconde et dernière période de déclin entre , qui s'est terminée par l'arrêt de la dynamo lunaire, signe d'une cristallisation complète du noyau lunaire. Deux hypothèses sont proposées pour expliquer la succession de deux périodes stables, l'une à champ haut et la suivante à champ bas : (1) deux mécanismes de dynamo distincts ont pu fonctionner, le premier générant un champ fort jusqu'à son effondrement et le second maintenant un champ faible, ou bien (2) un unique mécanisme de dynamo était bistable, passant d'un état de champ élevé à un état de champ bas. Sélénographie. La topographie de la Lune, aussi appelée sélénographie, est mesurée par altimétrie laser et stéréoscopie. Son relief le plus visible est le bassin Pôle Sud-Aitken, d'un diamètre d'environ , le plus grand cratère de la Lune et un des plus grands cratères d'impact du Système solaire, dont le choc aurait fait basculer l'axe de rotation de l'astre de 15°. D'une profondeur de , son plancher est le point le plus bas de la surface de la Lune. Les altitudes les plus élevées de la surface sont situées directement au nord-est, et il est suggéré que ces reliefs pourraient avoir été épaissis par l'impact légèrement oblique ayant formé le bassin. D'autres grands bassins d'impact, tels que les mers des Pluies, de la Sérénité, des Crises, Smythii et Orientale, possèdent également des élévations régionales basses et des bords surélevés. La surface de la face cachée de la Lune est en moyenne environ plus haute que celle de la face visible. La découverte d'escarpements de failles par le "Lunar Reconnaissance Orbiter" suggère que la Lune s'est rétrécie d'environ au cours du dernier milliard d'années. Des caractéristiques de contraction similaires existent sur Mercure. Une étude menée en 2019 sur plus de prises par l'orbiteur montre que la Mare Frigoris, un vaste bassin près du Pôle Nord lunaire et supposé géologiquement mort, se craquelle et se déplace. Comme la Lune ne possède pas de plaques tectoniques, son activité tectonique est lente et des fissures se développent au fur et à mesure qu'elle perd de la chaleur interne. Système de coordonnées. Le point de référence des coordonnées sélénographiques est le petit cratère Mösting A, défini comme ayant les coordonnées (). D'une façon générale, le premier méridien de la Lune correspond au centre du disque lunaire vu depuis la Terre, l'UAI recommandant comme axe la direction moyenne du centre de la Lune au centre de la Terre. « Mers » lunaires. Les plaines lunaires sombres et relativement dénuées de caractéristiques, clairement visibles à l'œil nu depuis la Terre, sont appelées , car on croyait autrefois qu'elles étaient remplies d'eau. Elles sont maintenant connues comme de vastes bassins solidifiés de lave basaltique ancienne. Bien que semblables aux basaltes terrestres, les basaltes lunaires contiennent plus de fer et aucun minéral altéré par l'eau. La majorité de ces laves a fait éruption ou s'est écoulée dans des dépressions associées à des bassins d'impact. Plusieurs provinces géologiques contenant des volcans boucliers et des dômes lunaires volcaniques se trouvent à l'intérieur des de la face visible. Presque toutes les mers se trouvent sur la face visible de la Lune et couvrent 31 % de la surface sur cette face, contre 2 % de la face cachée. D'après les cartes géochimiques obtenues par le spectromètre gamma de "Lunar Prospector", il est estimé que cela est dû à une concentration d'éléments produisant de la chaleur sous la croûte de la face visible qui auraient causé le réchauffement, la fonte partielle, la remontée à la surface et l'éruption du manteau sous-jacent. La plupart des basaltes des mers lunaires ont fait éruption pendant l'Imbrien supérieur, il y a 3,0 à d'années, même si certains échantillons datés par radiométrie pourraient être aussi vieux que d'années. Datées par le dénombrement des cratères, les éruptions les plus récentes sur la Lune ont longtemps été évaluées à il y a environ d'années. Cependant, en 2006, une étude du cratère Ina montre des caractéristiques déchiquetées et relativement exemptes de poussière qui, en raison de l'absence d'érosion par les retombées de débris, semblaient n'avoir que quelques millions d'années, même si cette datation ne fait pas consensus. Les tremblements de lune et les rejets de gaz indiquent également une certaine activité lunaire continue. En 2014, la NASA annonce avoir découvert dans irrégulières de mers identifiées par le "", dont certaines datent de moins de d'années. Cela soulève la possibilité que le manteau lunaire soit beaucoup plus chaud que pensé auparavant, notamment en ce qui concerne la face visible où la croûte profonde est beaucoup plus chaude à cause de la plus grande concentration d'éléments radioactifs. Peu auparavant, des preuves de volcanisme basaltique vieux de 2 à d'années à l'intérieur du cratère Lowell sont rapportées. Un manteau initialement plus chaud potentiellement associé à un enrichissement local d'éléments KREEP dans le manteau pourrait être responsable d'activités volcaniques prolongées également de l'autre côté du bassin oriental. Les régions plus claires de la Lune sont appelées "terrae", ou plus communément hautes terres parce qu'elles ont une altitude plus élevée que la plupart des mers. Elles sont datées, par radiométrie, comme ayant été formées il y a d'années et pourraient représenter des cumulats de plagioclases de l'océan magmatique lunaire. Contrairement à la Terre, aucune montagne lunaire majeure ne se serait formée à la suite d'événements tectoniques. La concentration de mers sur la face visible reflète probablement une croûte beaucoup plus épaisse des hautes terres de la face cachée, qui pourrait s'être formée lors de l'impact à faible vitesse d'une seconde lune de la Terre quelques dizaines de millions d'années après la formation de la Lune. Cratères d'impact. La surface lunaire présente également de nombreux cratères d'impact. L'absence d'atmosphère, d'écoulements liquides en surface, de conditions météorologiques et de processus géologiques récents pour créer de l'érosion font que beaucoup de ces cratères sont bien préservés. Les cratères se forment lorsque des astéroïdes et des comètes entrent en collision avec le satellite. On en dénombre environ d'une largeur d'au moins un kilomètre sur la face visible seule. Les périodes de l'échelle des temps géologique lunaire sont nommées d'après les événements d'impact les plus importants s'y étant déroulés, comme le Nectarien d'après la Mare Nectaris ou l'Imbrium d'après la '. Comme la ', ces structures sont caractérisées par de multiples anneaux de matériaux soulevés sur un diamètre de plusieurs centaines voire milliers de kilomètres et associés à un large tablier de dépôts d'éjectas qui forment une stratigraphie régionale. D'autres cratères plus petits comme Ératosthène et Copernic sont caractéristiques de périodes ultérieures et ont ainsi donné leur nom à l'Ératosthénien et au Copernicien. Bien que seuls quelques bassins aient été datés avec certitude, ils sont utiles pour attribuer des âges relatifs. Comme les cratères d'impact s'accumulent à un rythme presque constant, le comptage du nombre de cratères par unité de surface est utilisé pour estimer l'âge de la surface. Par ailleurs, les âges radiométriques des roches fondues à l'impact recueillies lors des missions "Apollo" se situent entre 3,8 et d'années : elles sont un des principaux arguments de l'existence d'un grand bombardement tardif. La croûte lunaire est recouverte d'une couche en surface très fragmentée et labourée par les impacts, appelée régolithe, formée par les processus d'impact. Le régolithe le plus fin, constituant le sol lunaire en verre de dioxyde de silicium, possède une texture ressemblant à de la neige et un parfum ressemblant à de la poudre noire. Le régolithe des surfaces plus anciennes est en général plus épais que celui des surfaces plus jeunes : son épaisseur varie de 10 à dans les hautes terres et de 3 à dans les mers. Sous la couche de régolithe finement hachée se trouve le mégarégolithe, une couche de substrat rocheux très fracturé épaisse de plusieurs kilomètres. La comparaison des images haute résolution obtenues par le "Lunar Reconnaissance Orbiter" montre un taux d'apparition des cratères significativement plus élevé que précédemment estimé. Ainsi, il est supposé qu'un processus de cratérisation secondaire causé par des éjectas projetés à chaque impact remuent les deux premiers centimètres du régolithe cent fois plus rapidement que les modèles précédents le suggéraient, avec une échelle de temps de l'ordre de . Tourbillons lunaires. Les tourbillons lunaires sont des formations brillantes énigmatiques observées à la surface de la Lune. Ils possèdent un albédo élevé, des caractéristiques optiques similaires à celles d'un régolithe relativement jeune et en majorité une forme sinueuse. Cette forme est souvent accentuée par des régions de faible albédo qui serpentent entre les tourbillons brillants. Présence d'eau. L'eau liquide ne peut pas persister à la surface de la Lune. Lorsqu'elle est exposée au rayonnement solaire, l'eau se dissocie rapidement par photolyse puis est emportée dans l'espace. Cependant, depuis les années 1960, les scientifiques émettent l'hypothèse que de la glace d'eau pourrait être déposée par des comètes voire être produite par la réaction de roches lunaires riches en oxygène et d'hydrogène provenant du vent solaire, laissant des traces d'eau pouvant éventuellement persister dans les cratères d'obscurité éternelle au niveau des deux pôles lunaires. Des simulations numériques suggèrent que jusqu'à de la surface du satellite seraient constamment dans l'ombre. La présence de quantités d'eau utilisables sur le satellite est un facteur important afin d'envisager une colonisation de la Lune de façon rentable. En effet, l'alternative consistant à transporter de l'eau depuis la Terre serait d'un coût prohibitif. En 1994, l'expérience radar réalisée à bord de l'orbiteur "Clementine" rapporte l'existence de petites poches d'eau gelée près de la surface. Cependant, des observations radar ultérieures depuis le radiotélescope d'Arecibo suggèrent que ces découvertes seraient plutôt des roches éjectées lors de la formation de jeunes cratères d'impact. En 1998, le spectromètre à neutrons de "Lunar Prospector" révèle la présence de fortes concentrations d'hydrogène dans le premier mètre de profondeur du régolithe près des régions polaires. Des perles de lave volcaniques, ramenées sur Terre lors de la mission "Apollo 15", présentent après recherches de petites quantités d'eau en leur intérieur. La sonde "Chandrayaan-1", lancée en 2008, confirme l'existence de glace d'eau à la surface grâce à son module embarqué "Moon Mineralogy Mapper". Le spectromètre observe des raies d'absorption correspondant à l'hydroxyle dans la lumière solaire réfléchie, indiquant la présence de grandes quantités de glace d'eau à la surface lunaire. Les données indiquent des concentrations de l'ordre de . En 2009, le "LCROSS" envoie un impacteur de dans un cratère d'obscurité éternelle et détecte au moins d'eau dans un panache de matériaux éjectés. Un autre examen des données du "LCROSS" révèle que la quantité d'eau détectée est plus proche de . En mai 2011, la détection de d'eau dans les inclusions magmatiques de l'échantillon lunaire est annoncée. Il s'agit du à haute teneur en titane d'origine volcanique recueilli lors de la mission "Apollo 17" en 1972. Cette concentration est comparable à celle du magma dans le manteau supérieur de la Terre. L'analyse des résultats du "Moon Mineralogy Mapper" (M3) apporte en août 2018 pour la première fois la confirmation de la présence de glace d'eau à la surface de la Lune. Les données révèlent les signatures réfléchissantes distinctes de la glace d'eau, par opposition à celles de la poussière et d'autres substances réfléchissantes. Les dépôts de glace se trouvent. sur les pôles Nord et Sud, bien qu'ils soient plus abondants au Sud, où les cratères d'obscurité éternelle sont plus répandus. En octobre 2020, des astronomes signalent avoir détecté de l'eau sur la surface éclairée par le Soleil de la Lune par plusieurs engins spatiaux indépendants, dont l'Observatoire stratosphérique pour l'astronomie infrarouge (SOFIA). Le volume d'eau présent sur la Lune est estimé en 2018 par Paul Spudis à entre 100 millions et un milliard de mètres cubes à chaque pôle. Température de surface. L'inclinaison de l'axe de la Lune par rapport à l'écliptique n'est que de 1,5424°, soit beaucoup moins que les 23,44° de la Terre. Pour cette raison, l'éclairement solaire de la première varie beaucoup moins selon les saisons, et les détails topographiques jouent un rôle crucial dans les effets saisonniers. D'après les images prises par "Clementine" en 1994, quatre régions montagneuses au bord du cratère Peary, près du pôle Nord de la Lune, pourraient rester illuminées pendant toute la journée lunaire, créant ainsi des pics de lumière éternelle. De telles régions n'existent pas au pôle Sud. De même, il y existe des endroits qui restent dans l'ombre permanente au fond de nombreux cratères polaires, impliquant que ces « cratères d'obscurité éternelle » sont extrêmement froids. Le "Lunar Reconnaissance Orbiter" mesure les températures estivales les plus basses dans les cratères du pôle Sud à et seulement vers le solstice d'hiver dans le cratère Hermite au pôle Nord. C'est la température la plus basse du Système solaire jamais mesurée par un engin spatial, inférieure même à celle de la surface de Pluton. Les températures moyennes de la surface de la Lune diffèrent grandement en fonction du moment de la journée pour les régions considérées : jusqu'à environ lorsqu'elles sont exposées aux rayons solaires à l'équateur et jusqu'à lorsqu'elles sont à l'ombre. Atmosphère. Composition actuelle. L'atmosphère de la Lune est si ténue que sa masse totale est inférieure à , soit une densité correspondant presque à du vide : la pression superficielle de cette petite masse est d'environ (), celle-ci variant avec le jour lunaire. Ses sources sont notamment le dégazage et la pulvérisation cathodique, un produit du bombardement du sol par les ions du vent solaire. On trouve parmi les éléments détectés le sodium et le potassium, produits par pulvérisation cathodique et également présents dans les atmosphères de Mercure et de Io ; l'hélium 4 et le néon provenant du vent solaire ; et l'argon 40, le radon 222 et le polonium 210, dégazés après leur création par désintégration radioactive dans la croûte et le manteau. L'absence d'espèces neutres (atomes ou molécules) comme l'oxygène, l'azote, le carbone, l'hydrogène et le magnésium, qui sont pourtant présentes dans le régolithe n'est pas expliquée. De la vapeur d'eau est présente en quantités variables en fonction de la latitude, avec un maximum à environ 60-70°. Elle est probablement produite par la sublimation de la glace d'eau du régolithe. Ces gaz retournent vers la surface en raison de la gravité de la Lune ou sont perdus dans l'espace, soit par la pression du rayonnement solaire, soit en étant emportés par le champ magnétique du vent solaire. Poussières. Un nuage de poussière lunaire asymétrique permanent existe autour de la Lune, créé par de petites particules de comètes. Il est estimé que de ces dernières frappent la surface toutes les et éjectent cette poussière. Celle-ci reste en suspension pendant environ , prenant 5 minutes pour se lever et pour tomber. En moyenne, de poussière sont présents en permanence au-dessus de la Lune, s'élevant jusqu'à de la surface. Les mesures de la poussière sont effectuées par l'expérience LDEX ("Lunar Dust EXperiment") du "LADEE", à entre 20 et de la surface pendant une période de six mois. Le LDEX détecte en moyenne une particule de poussière lunaire de par minute. Le comptage des particules de poussière culmine pendant les pluies de météores des Géminides, des Quadrantides et des Taurides notamment, lorsque la Terre et la Lune traversent des débris de comètes. Les nuages sont asymétriques, plus denses près de la limite entre le côté jour et le côté nuit de la Lune. Atmosphère épaisse passée. En octobre 2017, des scientifiques du Centre de vol spatial Marshall et du Lunar and Planetary Institute de Houston annoncent avoir découvert à partir d'études d'échantillons de magma de la Lune, prélevés lors des missions "Apollo", que la Lune aurait possédé une atmosphère relativement épaisse pendant une période de d'années il y a trois ou quatre milliards d'années. Cette atmosphère, provenant de gaz éjectés lors d'éruptions volcaniques lunaires, était deux fois plus épaisse que celle trouvée actuellement sur la planète Mars. L'ancienne atmosphère lunaire aurait progressivement été dépouillée par le vent solaire puis dissipée dans l'espace. Formation. La Lune commence à se former il y a d'années, de 30 à d'années après la formation du Système solaire. Plusieurs mécanismes de formation sont proposés, parmi lesquels la séparation de la Lune à partir de la croûte terrestre par la force centrifuge (ce qui exigerait une vitesse de rotation initiale de la Terre trop élevée), la capture gravitationnelle d'une Lune préformée (ce qui nécessiterait cependant une atmosphère terrestre étendue irréaliste pour dissiper l'énergie de la Lune de passage) et la co-formation de la Terre et de la Lune dans le disque d'accrétion primordial (ce qui ne peut pas expliquer la disparition des métaux dans la Lune). Ces hypothèses ne peuvent pas non plus expliquer le moment cinétique élevé du système Terre-Lune. Pour l'hypothèse dominante, le système Terre-Lune s'est formé après l'impact d'une protoplanète ayant une taille similaire à celle de Mars (nommée Théia, la mère de Séléné dans la mythologie grecque) avec la proto-Terre ; elle est appelée l'hypothèse de l'impact géant. L'impacteur, la croûte et une partie du manteau terrestre se disloquent et projettent une grande quantité de débris en orbite autour de la Terre. La Lune se forme ensuite par accrétion d'une partie de ce nuage de débris en un temps très court, de l'ordre d'un siècle. L'impact aurait libéré beaucoup d'énergie, faisant fondre la couche externe de la Terre, et a ainsi formé un océan de magma. De même, la Lune nouvellement formée aurait possédé un océan magmatique lunaire d'une profondeur estimée à au moins plusieurs centaines de kilomètres. Bien que l'hypothèse de l'impact géant puisse expliquer de nombreux paramètres, certains éléments ne sont pas expliqués, notamment en ce qui concerne les compositions isotopiques proches de la Lune et de la Terre, son volcanisme relativement récent, ou l'existence passée d'un champ magnétique planétaire. En effet, la mesure en 2001 des signatures isotopiques des roches lunaires du programme "Apollo" révèle qu'elles présentent la même signature isotopique que les roches terrestres, les distinguant donc de presque tous les autres corps du Système solaire. Cette observation est inattendue car on supposait alors que la plupart des matériaux qui ont formé la Lune provenaient de Théia ; or il est ensuite annoncé en 2007 qu'il y a moins d'un pour cent de chances que Théia et la Terre aient des signatures isotopiques identiques par ce biais. D'autres échantillons lunaires d"Apollo" étudiés en 2012 comportent la même composition en isotopes de titane que la Terre, ce qui est en conflit avec ce qui est attendu si la Lune s'était formée loin de la Terre ou était issue de Théia. Ces écarts peuvent s'expliquer par des variations de l'hypothèse de l'impact géant. Des modèles alternatifs ont notamment proposé une série d'impacts moins cataclysmiques ou la formation d'une synestia . Système Terre-Lune et système Soleil-Terre-Lune. Orbite. La Lune effectue une orbite complète autour de la Terre par rapport aux étoiles fixes environ une fois tous les . Cependant, comme la Terre se déplace simultanément sur son orbite autour du Soleil, il faut environ deux jours de plus avant que la Lune ne montre la même phase à la Terre, soit . Contrairement à la plupart des satellites naturels des autres planètes, elle orbite plus près du plan de l'écliptique que du plan équatorial de la planète. Son orbite est subtilement perturbée par le Soleil et la Terre en de nombreuses différentes façons. Par exemple, le plan de l'orbite de la Lune tourne graduellement tous les , ce qui affecte d'autres aspects du mouvement lunaire. Ces effets consécutifs sont mathématiquement décrits par les lois de Cassini. Par ailleurs, la Lune est le seul satellite naturel permanent de la Terre. Il existe un certain nombre d'objets géocroiseurs comme (3753) Cruithne qui coorbitent avec la Terre : leurs orbites les rapprochent de la Terre à un intervalle régulier, mais s'altèrent sur le long terme. Ce sont des quasi-satellites et non des satellites naturels car ils n'orbitent pas autour de la Terre mais autour du Soleil, l'existence d'autres lunes de la Terre n'étant pas confirmée. Cependant, certains de ces astéroïdes peuvent devenir parfois pendant quelques mois des satellites temporaires de la Terre. Seul est connu pour avoir été dans ce cas, entre 2006 et 2007. Trajectoire héliocentrique. La trajectoire de la Lune dans un repère lié au Soleil a la particularité d'être entièrement concave, sans boucles ni points d'inflexion. C'est le seul cas parmi tous les satellites connus, naturels ou artificiels. Rotation. La Lune est en rotation synchrone autour de la Terre : sa période de rotation est égale à sa période de révolution. Elle présente donc toujours le même hémisphère nommé « face visible de la Lune » à un observateur terrestre, l'hémisphère opposé étant en conséquence appelé « face cachée de la Lune ». Cependant, en raison de l'effet de la libration, environ 59 % de la surface de la Lune peut en pratique être vue depuis la Terre. La face cachée est parfois appelée à tort le « côté obscur », mais elle est totalement éclairée aussi souvent que le côté visible : une fois tous les terrestres, à la nouvelle lune. Cette rotation synchrone résulte des frottements créés par les forces de marée de la Terre sur la Lune, l'énergie de rotation s'étant dissipée sous forme de chaleur. Auparavant, la Lune avait une vitesse de rotation plus rapide mais, assez vite dans son histoire, celle-ci ralentit progressivement jusqu’à ce que la période de ce mouvement coïncide avec celle de la révolution du satellite autour de la Terre. En 2016, en utilisant des données collectées lors de la mission "Lunar Prospector", des planétologues détectent deux zones riches en hydrogène (probablement une ancienne glace d'eau) à deux points opposés de la Lune. Il est supposé que ces zones étaient il y a des milliards d'années les pôles lunaires avant qu'elle ne soit verrouillée avec la Terre. Tailles relatives. La Lune est un satellite naturel exceptionnellement grand par rapport à la Terre : elle fait plus du quart du diamètre et 1/ de la masse de la planète. Il s'agit d'ailleurs de la plus grande lune du Système solaire par rapport à la taille de sa planète, bien que Charon soit plus grande par rapport à la planète naine Pluton, faisant 50 % de son diamètre et 1/ de sa masse. La superficie de la Lune est légèrement inférieure à celle de l'Asie. Le barycentre du système Terre-Lune, leur centre de masse commun, est situé à environ (environ un quart du rayon de la Terre) sous la surface de la Terre. La Terre tourne autour de ce barycentre une fois par mois sidéral, à 1/ de la vitesse de la Lune, soit environ par heure. Ce mouvement se superpose à la révolution beaucoup plus rapide de la Terre autour du Soleil et est donc généralement négligeable. Effets de marée. L'attraction gravitationnelle entre les corps célestes diminue inversement au carré de la distance de ces masses les unes par rapport aux autres. En conséquence, l'attraction exercée par la Lune est légèrement plus grande pour le côté de la Terre le plus proche d'elle que pour le côté opposé. Cela entraîne une force de marée qui affecte à la fois les océans et la croûte terrestre. L'effet le plus évident des forces de marée est de provoquer deux renflements dans les océans de la Terre, l'un du côté faisant face à la Lune et l'autre du côté opposé. Il en résulte des variations du niveau des mers, appelés marées océaniques. Lorsque la Terre tourne sur son axe, l'un des renflements de l'océan (marée haute) est localement maintenu en place « sous » la Lune, tandis qu'une autre marée de ce type est opposée. En conséquence, il y a environ deux marées hautes et deux marées basses en une journée. Puisque la Lune est en orbite autour de la Terre dans le même sens que la rotation de la Terre sur elle-même, les marées hautes se produisent environ toutes les et , les étant dues au temps que met la Lune pour orbiter autour de la Terre. Le Soleil produit également des marées mais d'amplitude plus faible, 40 % de celle due à la Lune. Lors de la syzygie, quand la Lune et le Soleil sont alignés avec la Terre, la somme des interactions Lune-Terre et Soleil-Terre est responsable des grandes marées au moment des équinoxes de printemps et d'automne. Si la Terre ne possédait pas de continents, la marée produite serait d'une amplitude d'un mètre seulement et serait très prévisible. En réalité, les marées océaniques sont grandement affectées par d'autres facteurs : la friction de l'eau au niveau des fonds océaniques, l'inertie du mouvement de l'eau ou encore le ballottement de l'eau entre les différents bassins océaniques. Alors que la gravitation provoque l'accélération et le mouvement des océans fluides de la Terre, le couplage gravitationnel entre la Lune et le corps solide de la Terre est principalement élastique et plastique. Le résultat est un autre effet de marée de la Lune sur la Terre qui provoque un renflement de la partie solide de la Terre la plus proche de la Lune qui agit comme un moment en opposition à la rotation de la Terre : une marée solide, ou terrestre. Cela « draine » le moment cinétique et l'énergie cinétique de la rotation de la Terre, la ralentissant progressivement. Cet élan angulaire, perdu de la Terre, est transféré à la Lune dans un processus connu sous le nom d'accélération par effet de marée qui élève la Lune sur une orbite plus élevée. Ainsi, la distance entre la Terre et la Lune augmente et la rotation de la Terre ralentit en réaction. Les mesures des réflecteurs lunaires laissés pendant les missions "Apollo" révèlent que la distance Terre-Lune augmente d'en moyenne par an (). Les horloges atomiques montrent également l'effet inverse, à savoir que le jour sur Terre s'allonge d'environ chaque année, forçant le temps universel coordonné à être ajusté avec des secondes intercalaires. Dût-elle suivre son cours, cette traînée de marée continuerait jusqu'à ce que la rotation de la Terre et la période orbitale de la Lune correspondent, créant un verrouillage mutuel par les forces de marées entre les deux astres. En conséquence, la Lune serait suspendue dans le ciel au-dessus d'un méridien, comme c'est par exemple le cas entre Pluton et sa lune Charon. Cependant, le Soleil deviendra une géante rouge et engloutira le système Terre-Lune bien avant cet événement. De la même manière, la surface lunaire subit des marées d'une amplitude d'environ tous les , avec deux composantes : une fixe due à la Terre parce qu'en rotation synchrone, et une variable due au Soleil. La composante induite par la Terre provient de la libration, résultat de l'excentricité orbitale de la Lune . Les effets cumulés de ces contraintes de marée produisent des séismes lunaires. Ces phénomènes restent beaucoup moins courants et moins intenses que les tremblements de terre, bien qu'ils puissent se dérouler pendant jusqu'à une heure du fait de l'absence d'eau pour amortir les vibrations sismiques. L'existence de ces séismes est une découverte inattendue des sismographes placés sur la Lune lors des missions "Apollo" de 1969 à 1972. Par ailleurs, ces forces de marées ont un impact décelable sur le climat dans le cadre de marées atmosphériques. Lors des différentes phases de la Lune, la force de marée attire plus ou moins l’atmosphère et participe ainsi, à hauteur de quelques pourcents, aux phénomènes de surpression et de dépression. Finalement, la présence de la Lune a une influence sur la stabilisation de l'inclinaison de l'axe terrestre. En effet, l’obliquité de la Terre varie entre 21 et 24° environ par rapport au plan de l’écliptique tandis que Mars, qui n'a pas de satellite naturel aussi massif, voit son obliquité varier de 20 à 60° sur des millions d'années. De même, avant la formation de la Lune, l'axe de rotation terrestre oscillait de façon chaotique, ce qui aurait rendu impossible l'apparition de la vie à sa surface du fait des dérèglements climatiques causés ; ceci a disparu une fois le verrouillage gravitationnel par effet de marée entre la Terre et son satellite naturel mis en place. Influence lunaire. L'influence lunaire est la croyance pseudo-scientifique d'une corrélation entre des étapes spécifiques du cycle lunaire et des changements physiologiques chez les êtres vivants sur Terre, y compris les humains. La Lune a longtemps été particulièrement associée à la folie et à l'irrationalité, des mots comme lunatique étant dérivés du nom latin de la Lune, "Luna". Les philosophes Aristote et Pline l'Ancien font valoir que la pleine lune cause la folie chez les individus sensibles, estimant que le cerveau, qui est principalement composé d'eau, doit être affecté par la Lune et son pouvoir sur les marées. En réalité, le pouvoir de la gravité lunaire est trop faible pour que cela soit le cas. De façon contemporaine, l'existence d'une influence lunaire affirmant que les admissions dans les hôpitaux psychiatriques, les accidents de la route, les homicides ou encore les suicides augmenteraient lors des pleines lunes est parfois défendue, même si de nombreuses études infirment cela. De même, si une influence de la Lune sur l'agriculture ou les forêts est parfois supposée, aucun effet exploitable n'a jamais été démontré. En revanche, un sélénotropisme est démontré chez certaines espèces de vers palolo tels que l"Eunice fuscata" du Pacifique tropical ou chez des zooplancton en Arctique pendant la nuit polaire. Par ailleurs, la croissance de certains animaux comme le nautile serait influencée par la Lune et l'observation de leurs coquilles permet, avec des spécimens anciens fossiles, de confirmer de façon indépendante l'allongement du mois lunaire à l'échelle géologique en raison de l'augmentation de la distance Terre-Lune. Cependant, cette hypothèse reste contestée. Observation. Visibilité. La Lune possède un albédo géométrique exceptionnellement bas de 0,12, ce qui lui confère une réflectance légèrement supérieure à celle de l'asphalte. Cependant, avec une magnitude apparente de -12,6 pendant la pleine lune, la Lune est l'astre le plus visible dans le ciel terrestre, après le Soleil et devant Vénus, grâce à sa grande proximité avec la Terre. Elle est ainsi facilement observable à l’œil nu la nuit, voire en plein jour. Des jumelles permettent de distinguer les mers et les plus gros cratères d'impact. Par ailleurs, le satellite bénéficie d'une amélioration de la luminosité grâce à l'effet d'opposition : la pleine lune est douze fois plus lumineuse qu'un quartier de Lune, même si la surface angulaire éclairée est seulement deux fois plus élevée. De plus, la constance des couleurs du système visuel humain recalibre les relations entre les couleurs d'un objet et son environnement, ce qui explique que la lune éclairée par le soleil ressorte lorsque le ciel environnant est relativement sombre. Les bords de la pleine lune semblent aussi brillants que le centre, sans assombrissement centre-bord, en raison des propriétés réfléchissantes du sol lunaire, qui rétroréfléchit davantage la lumière vers le Soleil que dans d'autres directions. L'orientation de la Lune dans le ciel varie en fonction de la latitude de l'observateur terrestre. En effet, puisque la Lune orbite près de l'écliptique, quelqu'un la regardant depuis une latitude positive (au nord de l'équateur terrestre) verra par exemple le proéminent cratère Tycho plus proche de l'horizon tandis qu'un observateur depuis une latitude négative (au sud de l'équateur), la verra . Sur les deux photographies ci-contre, on observe le cratère en bas de l'image pour une pleine lune vue en Belgique tandis qu'il se trouve en haut de l'image pour une pleine lune vue en Australie. L'altitude atteinte par la lune dans le ciel lors de sa culmination varie en fonction de sa phase et de la période de l'année. La pleine lune est la plus élevée en hiver pour chaque hémisphère. La taille apparente de la pleine lune est en moyenne d'environ 0,52° d'arc dans le ciel (soit 31'2 d'arc), ce qui est à peu près la même taille apparente que le soleil. Cependant, elle semble plus grande lorsqu'elle est proche de l'horizon en raison d'un effet purement psychologique, connu sous le nom d'illusion lunaire, décrit pour la première fois au . Plusieurs explications sont proposées, comme le fait que le cerveau humain perçoive le ciel comme légèrement aplati ou encore que la taille relative des objets vus à l'horizon fasse apparaître la lune plus grande, comme pour l'illusion d'Ebbinghaus. L'apparence de la Lune, comme celle du Soleil, peut être affectée par l'atmosphère terrestre. Les effets optiques courants sont par exemple un anneau de halo de 22°, formé lorsque la lumière de la Lune est réfractée à travers les cristaux de glace des nuages de haut cirrostratus, ou des couronnes plus petites lorsque la Lune est vue à travers de minces nuages. Phases. Du fait de sa rotation synchrone, la Lune présente toujours la même partie de sa surface à la Terre : la face dite « visible ». Cependant, la moitié de la sphère éclairée par les rayons solaires varie au cours des de sa période synodique. Ce phénomène donne naissance à ce que l’on appelle les phases lunaires, qui se succèdent au cours d’un cycle appelé « lunaison ». Au fil du cycle lunaire, la déclinaison de la Lune varie : elle augmente pendant une moitié du cycle et elle décroît pendant l’autre moitié. La Lune présentant toujours la même face envers la Terre et son orbite étant peu inclinée, les phases lunaires présentent à peu près toujours les mêmes parties de la Lune d'un cycle à l'autre. On distingue principalement quatre points caractéristiques de l'apparence lunaire : la nouvelle lune quand la Lune et le Soleil sont en conjonction par rapport à la Terre, le premier quartier quand la Lune est en est, la pleine lune lorsque la Lune et le Soleil sont en opposition par rapport à la Terre et le dernier quartier quand la Lune est en quadrature ouest. Entre chacun de ces points caractéristiques, on parlera successivement de premier croissant, de lune gibbeuse croissante, de lune gibbeuse décroissante et enfin de dernier croissant. La partie éclairée de la Lune étant symétrique par rapport au plan formé par le Soleil, la Lune et l'observateur, la Lune présente à chaque instant la même phase à tout observateur terrestre quelle que soit sa latitude. Cependant, l'orientation de l'horizon de l'observateur terrestre varie par rapport à ce plan. Ainsi, pour de faibles latitudes , l'horizon est perpendiculaire au plan et un croissant de Lune apparaîtra horizontal, comme un . Pour des latitudes plus élevées, ce quartier apparaîtra plus vertical, comme un . La Lune est visible pendant deux semaines tous les aux pôles Nord et Sud. Super lune. Une super lune est une pleine lune qui coïncide avec une distance minimale du satellite à la Terre. Il ne s'agit pas d'un terme d'astronomie mais plutôt d'une expression usuelle employée pour désigner certains phénomènes astronomiques. Le 14 novembre 2016, la Lune est au plus proche en pleine lune depuis 1948 à du centre de la Terre. Cette pleine lune est alors 30 % plus lumineuse que lorsqu'elle est à son apogée, car son diamètre angulaire est 14 % plus grand et formula_1. Elle ne sera pas plus proche avant le 25 novembre 2034. Éclipses. Les éclipses ne se produisent que lorsque le Soleil, la Terre et la Lune sont alignés, phénomène appelé une « syzygie ». Les éclipses solaires se produisent à la nouvelle lune, lorsque la Lune se trouve entre le Soleil et la Terre. En revanche, les éclipses lunaires se produisent à la pleine lune, lorsque la Terre est entre le Soleil et la Lune. L'existence des premières est une conséquence du fait que la taille apparente de la Lune soit à peu près la même que celle du Soleil, les deux formant un angle d'environ 0,5° dans le ciel terrestre. En effet, si le Soleil a un diamètre plus grand que celui de la Lune, il est également plus loin de la Terre que ne l'est la Lune. Les variations de taille apparente, dues aux orbites non circulaires, sont également presque identiques, bien que se produisant dans des cycles différents. Cela permet ainsi d'avoir parfois des éclipses solaires totales et annulaires . Lors d'une éclipse totale, la Lune recouvre complètement le disque du Soleil et la couronne solaire devient visible à l'œil nu. Comme la distance entre la Lune et la Terre augmente très lentement avec le temps, le diamètre angulaire de la Lune diminue dans le ciel terrestre. De plus, au fur et à mesure qu'il évolue sur sa séquence principale pour devenir une géante rouge, la taille du Soleil et son diamètre apparent dans le ciel augmentent également. La combinaison de ces deux facteurs signifie qu'il y a des centaines de millions d'années, la Lune couvrait toujours complètement le Soleil lors des éclipses solaires, et qu'aucune éclipse annulaire n'était alors possible. De même, d'ici d'années, la Lune ne pourra plus couvrir complètement le Soleil et les éclipses solaires totales deviendront impossibles. Par ailleurs, l'orbite de la Lune autour de la Terre étant inclinée d'environ 5,145° par rapport au plan de l'écliptique, les éclipses ne se produisent pas à chaque pleine et nouvelle lune. Pour qu'une éclipse se produise, la Lune doit se trouver près de l'intersection des deux plans orbitaux. La périodicité et la récurrence des éclipses du Soleil par la Lune et de la Lune par la Terre sont décrites par le saros, dont la période est d'environ . Parce que la Lune bloque continuellement la vue d'une zone circulaire du ciel d'un demi-degré de large, un phénomène appelé l'occultation se produit lorsqu'une étoile ou une planète passe derrière la Lune et est alors cachée. Ainsi, une éclipse solaire est un cas particulier d'occultation du Soleil. Parce que la Lune est relativement proche de la Terre, les occultations des étoiles individuelles ne sont pas visibles partout sur la planète, ni en même temps. En raison de la précession de l'orbite lunaire, différentes étoiles sont occultées chaque année. Librations. La Lune présentant toujours le même hémisphère à la Terre, on appelle les phénomènes d'oscillation permettant à un observateur à la surface de la Terre de voir plus de 50 % de la surface de la Lune. Ces phénomènes peuvent prendre quatre formes : les librations en longitude, les librations en latitude, les librations parallactiques et les librations physiques. L’ensemble de ces phénomènes de libration au cours de lunaisons successives permet d’observer environ 59 % de la surface lunaire depuis la surface terrestre. Toutefois, les zones supplémentaires ainsi offertes à l’observation sont très déformées par l’effet de perspective et il est difficile de pouvoir distinguer les éléments de surface de ces régions depuis le sol. Phénomène lunaire transitoire. Il y existe une controverse historique quant au fait que les caractéristiques de la surface lunaire changent avec le temps. Aujourd'hui, beaucoup de ces affirmations sont considérées comme une conséquence d'illusions d'optique, résultant d'une observation dans différentes conditions d'éclairage, d'une mauvaise qualité de visibilité ou de dessins inadéquats. Cependant, un dégazage se produit occasionnellement et pourrait être responsable d'un pourcentage très mineur de ces observations, faisant partie des phénomènes lunaires transitoires signalés. En 2006, il est suggéré qu'une surface lunaire de de diamètre aurait été modifiée significativement par un événement de dégagement il y a environ un million d'années. Des phénomènes appelés de quelques dixièmes de milliseconde peuvent survenir. De magnitude généralement de 5 à 10 (mais pouvant aller jusqu'à 3), ils ne sont visibles qu'avec un télescope ou une lunette associés à une caméra et sur la partie non éclairée de la Lune. Le flash lunaire provient de la chute de corps (provenant essentiellement d'essaims de comètes) de percutant la Lune à des vitesses de , ce qui fait fondre la roche en surface au point d'impact et projette des gouttelettes de roches liquides. L'éclair lumineux est produit par l'énergie dégagée lors de cet impact. Depuis cinq siècles, des centaines de ces phénomènes ont été observés par de nombreux observateurs différents. Histoire des observations. Avant l'invention du télescope. L'une des premières représentations possibles de la Lune est une sculpture sur roche nommée "Orthostat 47", datée du troisième millénaire avant notre ère et découverte à Knowth, en Irlande. La première trace écrite de l'observation d'une éclipse solaire date de 1223 av. J.-C, retrouvée sur une tablette d'argile dans l'ancienne cité d'Ougarit. Une inscription sur un os datant de 2136 av. J.-C. est aussi suspectée d'être une trace de l'observation d'une éclipse. La compréhension des cycles lunaire est un développement précoce de l'astronomie : dès le , les astronomes babyloniens tiennent des archives systématiques des éclipses solaires et dès le , ils notent le saros, la période de régissant les éclipses lunaires. L'astronome chinois Shi Shen donne au des instructions pour prédire les éclipses solaires et lunaires. Archimède conçoit au un planétarium capable de calculer les mouvements de la Lune et d'autres objets du Système solaire. La forme physique de la Lune et la cause du clair de lune sont également comprises tôt dans l'histoire de l'astronomie. Le philosophe grec Anaxagore estime au que le Soleil et la Lune sont tous deux des roches sphériques et que cette dernière reflète la lumière du premier. Par ailleurs, Démocrite suppose que les marques observées sur la Lune sont la conséquence de l'existence de montagnes et de vallées. Bien que les Chinois de la dynastie Han associaient la Lune à une énergie assimilée au ch'i, leur théorie de reconnaît également que la lumière de la Lune est simplement le reflet du Soleil, et Jing Fang note la sphéricité de la Lune au . Cependant, Aristote théorise à l'inverse dans "Du ciel" que la Lune marque la frontière entre les sphères des éléments mutables (terre, eau, air et feu) et les étoiles impérissables de l'éther. Le monde supralunaire est parfait, et donc la Lune est une sphère lisse et inaltérable. Le disciple d'Aristote, Cléarque de Soles, explique les taches lunaires par le fait que la Lune est un miroir poli qui réfléchit le paysage terrestre. Cette théorie est néanmoins invalidée par l'observation que la surface de la Lune reste inchangée alors qu'elle se déplace devant la Terre, poussant d'autres savants à imaginer que les taches soient des vapeurs condensées d'un nuage ou émanent de la Terre. Cette conception aristotélicienne d'une Lune lisse subsiste en partie jusqu'à la fin du Moyen Âge, voire laisse des traces jusque dans la Perse du et dans le folklore européen du . Au , Séleucos de Séleucie avance à raison que les marées sont dues à l'attraction de la Lune et que leur hauteur dépend de la position de la Lune par rapport au Soleil. Auparavant, Aristarque de Samos avait calculé au dans "Sur les dimensions et les distances" la taille de la Lune et sa distance, obtenant une valeur d'environ vingt fois le rayon de la Terre pour la distance. Ces valeurs sont grandement améliorées par Hipparque au dans "Des grandeurs et des distances du Soleil et de la Lune". Ce texte est perdu mais ses résultats rapportés par Ptolémée au , évaluant la distance lunaire à le rayon de la Terre et son diamètre à celui de la planète. Ces estimations sont déjà très proches de la réalité, qui est de respectivement 60 et 0,273 environ. Également au , Plutarque écrit dans ses "Œuvres morales" que et que les zones sombres sont des dépressions remplies d’eau. Elles sont ainsi appelés "maria" (mot latin signifiant au pluriel), tandis que les hauts plateaux de couleur claire sont baptisés "terrae" (). Ces noms, bien qu'incorrects, demeurent dans la nomenclature actuelle. Au , l'astronome indien Aryabhata mentionne dans son "Aryabhatiya" que la cause de l'éclat de la Lune est la lumière du soleil réfléchie. Al-Marwazi, un astronome persan, estime le diamètre de la Lune à environ et sa distance à la Terre à environ au . L'astronome et physicien Alhazen du développe en avançant que la lumière du soleil n'est pas réfléchie par la Lune comme un miroir, mais que la lumière est émise depuis chaque partie de la surface ensoleillée de la Lune dans toutes les directions. Shen Kuo, de la dynastie Song, créé ensuite une allégorie assimilant la croissance et le déclin de la Lune à une boule ronde d'argent qui, une fois aspergée de poudre blanche et vue de côté, apparaîtrait comme un croissant. Après l'invention du télescope. La sélénographie précise ne débute qu'au cours du , les premiers dessins publiés étant ceux de William Gilbert en 1603, à partir d'observations à l'œil nu. En 1610, Galilée publie dans ' l'un des premiers dessins de la Lune réalisé grâce à un instrument et note que l'astre n'est pas lisse mais présente des montagnes et des cratères. Thomas Harriot réalise des dessins similaires avec une lunette quelques mois plus tôt mais ne les publie pas. La cartographie de la Lune suit au avec des premières tentatives, dont celle de Claude Mellan vers 1634, puis la première carte publiée par le cartographe hollandais Michael Florent van Langren en 1645 à partir d'observations télescopiques. Elle est la première à marquer distinctement les "maria", cratères et montagnes et adopte une première nomenclature catholique d'après des rois et des saints. Deux ans plus tard, Johannes Hevelius publie "Selenographia", le premier traité et atlas totalement consacré à la Lune. Celui-ci comprend une nouvelle carte plus détaillée de la surface lunaire et comprend une nouvelle nomenclature qui restera un temps populaire dans les pays protestants. Cependant, c'est la nomenclature proposée par Giovanni Battista Riccioli et son assistant Francesco Maria Grimaldi en 1651 dans l' qui reste dans la postérité. Une grande carte de la Lune en quatre feuilles nommée "Mappa Selenographica", établie par Guillaume Beer et Johann Heinrich von Mädler entre 1834 et 1836 puis publiée dans "Der Mond" en 1837, fournit la première étude trigonométriquement précise des caractéristiques lunaires. Elle comprend l'indication de l'altitude de plus d'un millier de montagnes avec des précisions similaires à celles des premières tentatives de géographie terrestre. Par ailleurs, les auteurs arrivent à la conclusion que la Lune ne possède ni d'étendue d'eau, ni d'atmosphère significative. Toutes les mesures sont réalisées par le biais d'observations directes jusqu'à ce que John William Draper crée l'astrophotographie en mars 1840 avec un daguerréotype de la Lune. La qualité des photographies de la Lune progresse rapidement ensuite jusqu'à ce que la photographie lunaire soit reconnue à la fin du comme une sous-discipline de l'astronomie. Les cratères lunaires, indiqués pour la première fois par Galilée, sont considérés comme d'origine volcanique jusqu'à la proposition pendant les années 1870 de Richard A. Proctor selon laquelle ils seraient en réalité des cratères d'impact créés par des collisions d'astéroïdes ou de comètes. Ce point de vue gagne le soutien en 1892 du géologue Grove Karl Gilbert qui retrouve ces résultats par l'expérimentation. Des études comparatives de ces cratères de 1920 aux années 1940 conduisent au développement de l'échelle des temps géologiques lunaires, qui devient dans les années 1950 une branche nouvelle et croissante de la géologie planétaire. Cependant, l'observation depuis la Terre reste limitée à la face visible et c'est notamment par l'exploration spatiale que les connaissances sur le satellite naturel augmentent, la première image de la face cachée de la Lune étant par exemple obtenue en 1959 grâce à la sonde spatiale soviétique "Luna 3". Exploration. La course à l'espace (1957-1976). Entre le début du programme soviétique "Luna" en 1959 et jusqu'aux années 1970 avec les dernières missions habitées du programme "Apollo" américain et la dernière mission "Luna" en 1976, la course spatiale inspirée par la guerre froide entre l'Union soviétique et les États-Unis conduit à une accélération de l'intérêt pour l'exploration de la Lune. Dès que leurs lanceurs parviennent à placer des engins en orbite, les deux pays commencent à envoyer des sondes vers le satellite naturel. Programme "Luna ( 1957-1972)". L'Union soviétique débute son programme spatial lunaire par une série de trois échecs de missions sans nom en 1958. Cependant, la quatrième est un succès et le premier survol de la Lune est réalisé par la sonde soviétique "Luna 1" le , qui est en outre le premier engin de l'histoire placé en orbite héliocentrique. Il est rapidement suivi par le premier objet fabriqué par l’homme à atteindre la Lune , la sonde "Luna 2" qui s’y écrase en . Les premières photos de la face cachée de la lune sont ensuite envoyées le par la sonde "Luna 3". Une première cartographie de la surface lunaire est produite grâce aux photographies prises par "" le , les images couvrant et contribuant au développement de la sélénographie. Les ingénieurs russes progressent ensuite au cours de la décennie 1960 depuis des engins seulement capables de survoler ou de s'écraser sur la Lune jusqu'à des atterrisseurs. "Luna 9" est ainsi la première sonde à parvenir à se poser sur la Lune plutôt que de s’y écraser le , retournant des photographies de la surface lunaire. La première sonde mise en orbite autour de la Lune est "Luna 10", le . Le , l'astromobile ', transporté par ', est le premier véhicule robotisé à explorer sa surface. Trois ans plus tard, le rover ', transporté par ', est le premier engin à parcourir la distance d'un marathon () sur un autre corps céleste. Finalement, l'URSS développe trois missions de retour d'échantillons vers la Lune ayant permis de rapporter de roches lunaires sur Terre : ' en 1970, ' en 1972 et "" en 1976. Cette dernière est l'ultime mission soviétique vers la Lune. Programme "Apollo". Le programme spatial américain est d'abord confié à l'armée avant d'être largement transféré à l'agence civile NASA. À la suite de l'engagement de 1961 du président John F. Kennedy puis son célèbre discours où il prononce "We choose to go to the Moon" en 1962, différents programmes spatiaux sont lancés avec la promesse qu'un américain marchera sur la Lune avant la fin de la décennie. Parmi eux, le programme "Ranger" produit les premières photos en gros plan du satellite, le programme "Lunar Orbiter" cartographie la Lune entière et le programme "Surveyor" aboutit à l'alunissage de "Surveyor 1" le 2 juin 1966, soit quatre mois après "Luna 9". L'utilisation du terme est cependant préférée, notamment par le CNRS et l'Académie des Sciences, même dans le cas de la Lune. Le programme "Apollo" est développé en parallèle, stimulé par un potentiel programme lunaire habité soviétique. Après une série de tests sans équipage et avec équipage en orbite terrestre, la première mission humaine en orbite lunaire est réalisée en décembre 1968 par ". Les membres de son équipages (Frank Borman, James Lovell, et William Anders) sont ainsi les premiers humains à apercevoir directement la face cachée de la Lune. L'atterrissage d" le est considéré comme le point culminant de la course spatiale engagée entre les États-Unis et l'URSS pendant la guerre froide. À 02h56 UTC, le premier humain à poser le pied la Lune est Neil Armstrong, commandant de la mission, suivi de Buzz Aldrin. Environ de personnes suivent l'événement en mondovision, la plus grande audience télévisée pour une émission en direct à l'époque. En 2020, les derniers humains à marcher sur le sol lunaire sont Harrison Schmitt et Eugene Cernan, lors de la mission "Apollo 17" en . Les missions "" à "17" (sauf "Apollo 13", qui annule son atterrissage en cours de mission) prélèvent de roche lunaire et de sol en . Des ensembles d'instruments scientifiques sont installés sur la surface lunaire lors du programme "Apollo", notamment le "Apollo Lunar Surface Experiments Package." Celui-ci comprend des instruments à longue durée de vie, comprenant des sondes de flux thermique, des sismomètres et des magnétomètres. La transmission directe des données vers la Terre prend fin à la fin de 1977 pour des raisons de budget. Des réflecteurs lunaires sont aussi déposés lors de ces missions afin de mesurer la distance Terre-Lune avec une précision de quelques centimètres grâce à un faisceau laser. Instruments passifs, ils sont quant à eux toujours utilisés. Les sondes soviétiques du programme "Lunokhod" en déposent également. Au total, au et jusqu'à nos jours, ont orbité autour de la Lune et 12 d'entre eux ont marché dessus, tous pendant le programme "Apollo". Depuis les années 1970. La Lune commence à partir de 1974 à être délaissée par les puissances spatiales au profit des autres corps célestes du Système solaire, notamment vers le Système solaire externe pour la NASA avec les programmes "Pioneer" et "Voyager", et de la construction de stations spatiales. Dans les années 1990, la Lune devient la destination principale des sondes des nouvelles nations spatiales qui développent des programmes d'exploration du Système solaire, principalement le Japon, la Chine et l'Inde. Ainsi, le Japon est en 1990 le troisième pays à placer un orbiteur en orbite lunaire, "Hagoromo" largué par la sonde "Hiten". L'intérêt pour la Lune renaît à la suite de deux petites missions de la NASA, "Clementine" et "Lunar Prospector" respectivement lancées en 1994 et 1998, qui permettent la réalisation de la première carte topographique quasi globale de la Lune ainsi que la découverte d'un excès d'hydrogène aux pôles lunaires, probablement dû à la présence de glace d'eau dans les cratères d'obscurité éternelle. Dans les années 2000, de nombreuses missions vers la Lune sont réalisées par différentes agences spatiales. L'Agence spatiale européenne lance "SMART-1" en afin de réaliser une étude des éléments chimiques de la surface lunaire jusqu'à son impact en . L'Agence japonaise d'exploration aérospatiale lance l'orbiteur "SELENE" (ou "KAGUYA") en , qui obtient des données de géophysique lunaire et prend le premier film haute définition au-delà de l'orbite terrestre avec une fin de mission en . L'Organisation indienne pour la recherche spatiale met sa première sonde en orbite lunaire, "Chandrayaan-1", de jusqu'à sa perte de contact en , celle-ci confirmant la présence d'eau sur la Lune. "Chandrayaan-2" est lancée en mais son atterrisseur "Vikram" échoue à se poser. L'ambitieux programme chinois d'exploration lunaire (CLEP) débute avec "Chang'e 1", qui se met en orbite autour de la Lune en jusqu'à son impact lunaire contrôlé en , renvoie une carte complète de la Lune. Sa doublure "Chang'e 2" atteint la Lune en puis devient le premier engin spatial à voyager de l'orbite lunaire au point en , avant de finalement aller réaliser un survol de l'astéroïde 4179 Toutatis en . L'atterrisseur "Chang'e 3" se pose en dans la mer des Pluies puis déploie un rover lunaire nommé "Yutu". C'est le premier atterrissage sur la Lune depuis "Luna 24" en et le premier rover lunaire depuis "Lunokhod 2" en . Sa doublure "Chang'e 4" devient la première mission à se poser sur la face cachée de la Lune dans le cratère Von Kármán en et déploie le rover "Yutu 2". La mission de retour d'échantillons "Chang'e 5" ramène en les premiers échantillons lunaires depuis "Luna 24" en , et accomplit le premier amarrage automatique en dehors de l'orbite terrestre. Dans les années 2010, la NASA met de nouveau en œuvre des missions vers la Lune. Le "Lunar Reconnaissance Orbiter" est notamment lancé en avec l'impacteur "LCROSS." Si ce dernier achève sa mission avec un impact planifié dans le cratère Cabeus en , le LRO est toujours en activité en fournissant régulièrement une altimétrie lunaire précise et des images haute résolution. Deux autres orbiteurs sont lancés par la NASA en puis en : "GRAIL" afin d'étudier la structure interne de la Lune et "LADEE" pour étudier l'exosphère lunaire, avec respectivement des fins de mission en décembre 2012 et avril 2014. D'autres satellites, comme le "Deep Space Climate Observatory" situé au point du système Terre-Soleil, fournissent périodiquement des images de la Lune. Présence humaine. Retour sur la Lune. La colonisation de la Lune est le projet consistant à installer une voire plusieurs bases permanentes habitées sur la Lune, bien que cela ne soit pas encore envisageable de manière rationnelle. Une présence humaine au moins temporaire sur un corps planétaire autre que la Terre est déjà un thème récurrent de science-fiction, mais aurait ici un intérêt pratique car la Lune constituerait alors une préparation en vue de voyages plus lointains. La NASA commence à planifier la reprise des missions humaines à la suite de l'appel du président américain George W. Bush en avec le programme de politique spatiale Vision for Space Exploration. Une mission humaine sur la Lune avant 2020 est alors prévue. Le programme "Constellation" est donc financé et des tests débutent sur un véhicule spatial avec équipage appelé Orion ainsi que pour une base lunaire. Le programme est finalement annulé en 2010 par le président Barack Obama pour cause de budget. Cependant, à l'instigation du président américain Donald Trump, le retour de l'Homme sur la Lune est remis en avant en , à travers le programme "Artemis". Programme spatial habité de la NASA, celui-ci prévoit de poser un équipage d'ici 2024. Il doit déboucher sur une exploration durable du satellite par l'organisation de missions régulières dont l’aboutissement serait l'installation d'un poste permanent sur la Lune. Le programme permettrait également de mettre au point les équipements et procédures nécessaires à d'hypothétiques missions habitées vers Mars. Le lanceur lourd (SLS) et le véhicule spatial "Orion", dont le développement ont déjà débuté, seront notamment employés. Par ailleurs, une future station spatiale, la "", placée en orbite autour de la Lune, doit servir de relais entre la Terre et la surface de la Lune. Les sites d'atterrissage retenus pour les différentes missions se situent au pôle Sud de la Lune, car les réserves de glace d'eau présentes dans les cratères d'obscurité éternelle présentent un intérêt stratégique dans la perspective de missions de longue durée. Statut légal. Bien que les atterrisseurs du programme "Luna" aient dispersé des fanions aux couleurs de l'URSS sur la Lune et que drapeaux américains et chinois aient symboliquement été plantés sur les sites d'atterrissage de leurs sondes, aucune nation ne revendique la propriété d'une partie de la surface de la Lune. La Russie, la Chine, l'Inde et les États-Unis sont signataires du traité de l'espace qui définit la Lune et tout l'espace extra-atmosphérique comme appartenant à l'ensemble de l'humanité. Ce traité limite également l'utilisation de la Lune à des fins pacifiques, interdisant explicitement les installations militaires et les armes de destruction massive, notamment les armes nucléaires. En 1979, le traité sur la Lune est créé afin de restreindre l'exploitation des ressources naturelles de la Lune par une seule nation. Il est cependant considéré comme un échec car aucune nation disposant de programmes ou de projets de vols spatiaux habités ne le signe. Bien que plusieurs personnes physiques aient revendiqué la Lune en tout ou en partie, aucune de ces revendications n'est considérée comme crédible. En , le gouvernement américain autorise la start-up américaine Moon Express à atterrir sur la Lune. C'est la première fois qu'une entreprise privée reçoit ce droit de le faire. La décision est considérée comme un précédent aidant à définir des normes réglementaires pour les activités commerciales dans l'espace lointain à l'avenir, car jusqu'à présent, les activités des entreprises étaient limitées à la Terre ou à ses alentours. En 2020, le président américain Donald Trump signe un décret intitulé « Encouragement au soutien international pour la récupération et l'utilisation des ressources spatiales » (). L'ordonnance souligne que les États-Unis ne considèrent pas l'espace comme un bien commun et réitère les critiques faites au traité sur la Lune. Un responsable du programme spatial chinois ayant notamment déclaré en 2013 que la Lune contient suffisamment d'hélium 3 pour subvenir aux besoins énergétiques de l'humanité pendant grâce à la fusion nucléaire, l'extraction de ressources naturelles sur la Lune pourrait soulever des problèmes géopolitiques. Astronomie depuis la Lune. La Lune est reconnue comme un excellent site pour les télescopes. En effet, elle est relativement proche et la qualité de la visibilité y est excellente en l'absence de pollution lumineuse et d'atmosphère. Aussi, certains cratères proches des pôles étant en permanence dans l'obscurité et dans le froid, ils sont donc particulièrement adaptés pour télescopes infrarouges. Par ailleurs, des radiotélescopes placés sur la face cachée seraient protégés des émissions radios provenant de la Terre. Le sol lunaire peut être mélangé avec des nanotubes de carbone et des polyépoxydes afin d'être utilisé dans la construction de miroirs d'un diamètre pouvant atteindre . Un télescope zénithal lunaire pourrait être fabriqué à bas prix avec un liquide ionique. Ces propriétés sont déjà mises à profit en , lors de la mission "Apollo 16", où diverses photos et spectres astronomiques sont réalisés depuis la surface lunaire. Impact humain. Outre les traces d'activité humaine sur la Lune d'expérimentations réalisées sur place, comme l"Apollo Lunar Surface Experiments Package", des installations permanentes comme des œuvres d'art se trouvent sur le sol lunaire, telles que le "Moon Museum", les Messages de bonne volonté d"Apollo 11", les plaques lunaires ou encore le "Fallen Astronaut". Restent aussi certains artefacts, comme les célèbres drapeaux des États-Unis plantés lors de chaque mission "Apollo". Des effets personnels laissés par les astronautes y sont également toujours présents, comme les balles de golf laissées par Alan Shepard lors de la mission "Apollo 14" ou une Bible déposée par David Scott lors d"Apollo 15". Au total, l'exploration spatiale a laissé près de de matière d'origine terrestre sur la Lune. Les objets les plus lourds sont notamment les troisièmes étages de plusieurs fusées utilisées lors des missions habitées. Mis à part le rover chinois "Yutu-2", les seuls objets toujours utilisés pour des expériences scientifiques sont les réflecteurs lunaires permettant de mesurer précisément la distance Terre-Lune. En , la NASA annonce que neuf sociétés commerciales seraient en concurrence pour remporter un contrat pour l'envoi de petites charges utiles sur la Lune dans le cadre des , de nouveaux instruments scientifiques destinés au sol lunaire. Dans la culture. Croyances et mythologies. Le contraste entre les plateaux clairs et les mers plus sombre à la surface de la Lune crée des motifs pour l'observateur humain par un phénomène psychologique appelé paréidolie. Ceux-ci sont notés et interprétés par de nombreuses cultures, parmi lesquelles les motifs de l'homme dans la Lune ou du lapin lunaire. Dans la mythologie chinoise, ce dernier est notamment le compagnon de la déesse de la Lune Chang'e et dans la mythologie aztèque, il sert de nourriture à Quetzalcoatl. Dans la religion proto-indo-européenne, la Lune est personnifiée comme le dieu masculin "*Meh1 non". Les anciens Sumériens associent la Lune au dieu Nanna, père d'Ishtar, la déesse de la planète Vénus et d'Utu, le dieu du Soleil. Nanna est plus tard connu sous le nom de Sîn. Dans la mythologie gréco-romaine, le Soleil et la Lune sont représentés respectivement par un homme et une femme (Hélios et Séléné pour les Grecs puis Sol et Luna pour les Romains). Il s'agit d'un développement unique à la Méditerranée orientale et les traces d'un dieu lunaire masculin antérieur dans la tradition grecque sont conservées dans la figure de Ménélas. Dans l'iconographie mésopotamienne, le croissant est le principal symbole de Nanna-Sîn. Dans l'art grec ancien, la déesse de la Lune Séléné est représentée portant un croissant en couvre-chef évoquant des cornes. L'arrangement d'étoile et de croissant remonte également à l'âge du bronze, représentant l'association soit du Soleil et la Lune, soit de la Lune et de la planète Vénus. Cet arrangement sert à représenter les déesses Artémis (Diane en mythologie romaine) et Hécate. Via le patronage d'Hécate, il est ensuite utilisé comme un symbole de Byzance, puis est ensuite repris par l'Empire ottoman. Dans la mythologie hindoue, la Lune est une entité masculine et se nomme Chandra. La Lune tient également un rôle prépondérant dans la culture religieuse musulmane. Non seulement elle est à la base de l'édification du calendrier lunaire musulman, elle est aussi évoquée dans les différentes biographies religieuses de Mahomet dans le cadre du miracle de la division de la lune (). Des légendes concernant la thérianthropie sont traditionnellement associée à la Lune. La plus célèbre est celle du lycanthrope, ou loup garou, tirant sa force de la Lune et capable de passer de sa forme humaine à sa forme bestiale pendant les nuits de pleine lune. Des phénomènes comme les éclipses solaires totales créent jusqu'au des mythes et des légendes associés à la disparition du soleil, bien que leur explication soit déjà connue par les érudits. Calendrier. Les phases régulières de la Lune en font un élément très pratique pour mesurer le temps ; les périodes de son ascension et de son déclin sont en conséquence à la base de nombreux calendriers parmi les plus anciens. Des archéologues estiment que les bâtons de comptage, des os dentelés datant d'il y a 20 à , marqueraient les phases de la Lune. En effet, l'étude des phases de la lune est facile et un cycle de saisons se réalise en environ douze lunaisons (). Historiquement, les calendriers lunaires sont donc utilisés par les premières civilisations, comme en Mésopotamie et en Égypte antique. Cependant, s'ils sont adaptés à des peuples nomades, ils sont problématiques pour des peuples pratiquant l'agriculture en raison du décalage graduel qu'ils présentent avec les saisons, forçant des ajustements réguliers. Par ailleurs, la définition moderne du mois d'environ suit cette tradition et est une approximation du cycle lunaire. Afin de prendre compte de ce décalage, de nombreux calendriers suivants sont luni-solaires avec, entre autres, les calendriers gaulois de Coligny, hébraïque ou chinois traditionnel. Ils ont pour objectif de faire correspondre le cycle des saisons avec celui des mois lunaires, l'astronome grec Méton ayant notamment remarqué au que solaires correspondent à lunaires, afin de les remettre en phase. Ils restent complexes et les civilisations suivantes leur préféreront rapidement des calendriers solaires. Le calendrier purement lunaire le plus célèbre est le calendrier hégirien, datant du . Les mois sont alors traditionnellement déterminés par l'observation visuelle du "hilal", le premier croissant de lune au-dessus de l'horizon. Le nom anglais ' () et ses apparentés dans d'autres langues germaniques proviennent du proto-germanique "*mǣnṓth-", indiquant l'utilisation d'un calendrier lunaire chez les Germains avant l'adoption d'un calendrier solaire. Cela dérive de la racine verbale en indo-européen commun *"meh 1" - « mesurer », permettant de remonter à une conception fonctionnelle de la Lune comme marqueur du mois et donc du temps. Cela fait écho à l'importance de la Lune dans de nombreuses cultures anciennes pour la mesure du temps comme le latin ' et grec ancien ' ("meis") ou ' ("mēn") signifiant ). En français, cette racine se trouve notamment dans les mots mois et menstruation (terme dérivé du latin "menstrues" qui signifie « mensuel »). En chinois et en japonais, le caractère utilisé pour noter le mois dans une date est celui de la Lune (月), celui du jour étant celui du Soleil (日). Nom et étymologie. Le substantif féminin "lune" provient du latin "", attesté depuis Ennius. Il est ensuite attesté en français dès le : sa première occurrence connue se trouve dans la "Chanson de Roland", datée d'environ . Un autre terme, "*louksnā" (« la lumineuse »), est une formation dérivée de "*loukís, lūx" (lumière) en latin (apparenté aussi au grec "leukos" ) décrit la lune comme un astre lumineux pour la clarté nocturne qu'elle apporte. Des auteurs tels Varron et Cicéron, faisaient déjà dériver "luna" du verbe intransitif "", signifiant . Les noms des déesses associées au satellite, Luna, Séléné et (nom poétique d'Artémis, son lieu mythique de naissance étant le mont Cynthe) se retrouvent par ailleurs dans des termes astronomiques liés à la Lune tels qu"apolune", "péricynthion" et orbite "sélénocentrique". Personnalisée par la déesse Luna en mythologie romaine, la Lune donne également son nom au lundi (de "lunis dies", en latin, pour « jour de la Lune »). Source d'inspiration. En vexillologie, la pleine lune figure sur des blasons et des drapeaux comme le drapeau du Laos, de la Mongolie ou des Palaos. Aussi, le symbole du croissant et surtout l'association de l'étoile et croissant étant devenus les emblèmes de l’Empire ottoman après avoir été ceux de Byzance, ces motifs figurent sur de multiples drapeaux de pays musulmans dont, entre autres, ceux de la Turquie, la Tunisie, l’Algérie ou le Pakistan. Le croissant est également utilisé indépendamment de l'islam, notamment sur le drapeau de Singapour. En musique, la Lune est une source d'inspiration de nombreuses créations. Des compositions de musique classique y font ainsi directement référence, comme la "Sonate au clair de lune" (1802) de Ludwig van Beethoven ou le mouvement "Clair de lune" (1905) de Claude Debussy. Suivent ensuite les ballades "Blue Moon" (1934) de Richard Rodgers et Lorenz Hart qui connaîtra le succès avec divers interprètes et "Fly Me to the Moon" qui sera surtout popularisée par Frank Sinatra (1964) Le satellite est ensuite le thème de nombreuses chansons rock, dont "Bad Moon Rising" (1969) de Creedence Clearwater Revival, "Walking on the Moon" (1979) de The Police et "Man on the Moon" (1992) de R.E.M. ou encore l'album "The Dark Side of the Moon" (1973) de Pink Floyd. En français, la chanson la plus célèbre est "J'ai demandé à la Lune" (2002) d'Indochine, avec dans un autre registre la comptine "Au clair de la lune". Le est également célébré par de nombreux poètes et écrivains, parmi lesquels Paul Verlaine, auteur de "Clair de lune" (1869), lui-même inspiré par l’œuvre de Claude Debussy, et Guy de Maupassant, qui en tire deux nouvelles (1882). Finalement, la représentation de la lune dans le ciel terrestre est commune en peinture, surtout chez les romantiques, car sa disparition peut évoquer le passage de la vie à la mort ou un destin malheureux. Science-fiction. Au , Lucien de Samosate écrit le récit de voyage satirique et imaginaire "Histoires vraies", dans lequel les héros se rendent sur la Lune et rencontrent ses habitants les Sélénites, nommés d'après Séléné. Ce récit est régulièrement cité comme un précurseur voire comme la première œuvre de science-fiction de l'histoire. À la Renaissance, d'autres écrits de voient le jour, parmi lesquels "Le Songe ou l'Astronomie lunaire" (1608) de Johannes Kepler ou "Histoire comique des États et Empires de la Lune" (vers 1650) de Cyrano de Bergerac, contant là encore les trajets d'hommes vers la Lune, le dernier évoquant même une sorte de fusée. Au , Edgar Allan Poe publie un canular journalistique d'un homme se rendant vers la Lune en ballon, "Aventure sans pareille d'un certain Hans Pfaall" (1835). Cependant, le romancier de science-fiction le plus célèbre du siècle est Jules Verne, notamment auteur de "De la Terre à la Lune" (1865) puis "Autour de la Lune" (1869). L'autre père fondateur du genre, H. G. Wells, publie quant à lui "Les Premiers Hommes dans la Lune" en 1901. À partir du , le sujet commence à atteindre une popularité considérable et de nombreux auteurs y font référence, entre autres dans "Une femme dans la Lune" (1928) de Thea von Harbou, "Lumière cendrée" (1955) d'Arthur C. Clarke, "Menace dans le ciel" (1960) d'Algis Budrys et "Révolte sur la Lune" (1966) de Robert A. Heinlein. En bande dessinée, Hergé marque le genre avec "Objectif Lune" (1953) puis "On a marché sur la Lune" (1954). Dans les comics américains, la lune est souvent un lieu de combats (c'est là que Jean Grey meurt et qu'ainsi se conclut l'un des récits les plus marquants des "X-Men") ou bien sert de base pour des personnages (dans l'univers Marvel, Uatu y observe la Terre). Par ailleurs, la Lune est un thème majeur au cinéma, et ce dès ses débuts. Ainsi, le premier film de science-fiction de l'histoire, "Le Voyage dans la Lune" (1902) de Georges Mélies est centré sur l'astre et aborde déjà le sujet d'une équipe d'explorateurs la visitant et rencontrant ses habitants mythiques, les mêmes Sélénites que ceux évoqués par Lucien de Samosate. Le roman de Thea von Harbou est également adapté en film muet par Fritz Lang dans "La Femme sur la Lune" (1929). Après la Seconde Guerre mondiale, alors que la réalité géopolitique développe l'intérêt pour l'astre, le nombre de films augmente ; ainsi sortent "Destination... Lune !" (1950) d'Irving Pichel et les adaptations "De la Terre à la Lune" (1958) de Byron Haskin, puis "Les Premiers Hommes dans la Lune" (1964) de Nathan Jura. L'exploration spatiale développe considérablement le genre des films liés à la Lune, souvent tirés de faits réels, comme "Apollo 13" (1995) de Ron Howard ou "" (2018) de Damien Chazelle, s'inspirant directement des missions de la NASA. Des films de pure science-fiction sont également réalisés, de façon centrée dans "Moon" (2009) de Duncan Jones ou en tant que décor dans "2001, l'Odyssée de l'espace" (1968) de Stanley Kubrick. |
Lee Scratch Perry Lee « Scratch » Perry, de son vrai nom Rainford Hugh Perry, est un producteur et musicien jamaïcain né en dans la paroisse de Hanover et mort le à Lucea. Perry est un précurseur du dub dans les années 1970 avec l'adoption du remixing et des effets de studio pour créer de nouvelles versions de titres reggae existants. Il a travaillé avec un nombre d'artistes, notamment comme producteur, dont Bob Marley et the Wailers, Junior Murvin, The Congos, Max Romeo, Adrian Sherwood, Beastie Boys, Ari Up, The Clash, The Orb, et beaucoup d'autres. Après avoir accueilli des musiciens blancs (notamment The Clash) dans son studio (Black Ark) et s'être fait tabasser en conséquence par des Jamaïcains conservateurs, il y allume un incendie destructeur en 1981. Il s'exile en Angleterre où il fait la connaissance d'un producteur anglais, Adrian Sherwood. Puis il part, à la fin des années 1980, vivre en Suisse où il épouse une zurichoise. Lee Perry se distingue dans le reggae international avec un son new roots plutôt numérique, et se fait connaître comme chanteur, par la scène. Il prend ses distances avec les studios et la culture jamaïcaine, d'où ses facéties en concert et son côté « décalé » à rebours de la reconnaissance des années 1970 pour son travail de studio et son influence sur la musique jamaïcaine. Biographie. Jeunesse à la fin des années 1950. Rainford Hugh Perry est né le 20 (ou 28) à Kendal, un village pauvre de fermiers de la paroisse de Hanover au nord ouest de la Jamaïque. Sa date de naissance exacte reste inconnue du fait de l'isolement de ce village où il grandit et commence à travailler très tôt dans les champs. Lee Perry gagne peu, connaît la misère et décide vers l'âge de de partir tenter sa chance ailleurs. Il erre pendant près de 10 ans, s'installe à divers endroits, alternant entre travaux manuels, danse et jeu de dominos (le domino est un jeu très courant en Jamaïque et on y joue de l'argent). C'est lorsque les gens commencent à le voir danser qu'il reçoit le surnom de « Neat Little man » ou « Little Perry » du fait de sa petite taille. Après maints exodes, un mariage qui ne dure pas longtemps, il arrive à Kingston à la fin des années 1950 avec l'ambition d'y faire une carrière de chanteur, voulant profiter du climat favorable à l'émergence d'une nouvelle musique jamaïcaine qui va secouer l'île, le ska, point de départ au début des années 1960 de la grande onde sismique jamaïcaine qui va déferler sur le monde. Ce climat d'émergence de la musique jamaïcaine est intimement lié à celui qui amènera la Jamaïque à son indépendance en 1962. Débuts à Kingston 1950-1969. Lee Perry traîne dans la capitale Kingston qui connaît alors une croissance urbaine exponentielle causée par l'exode rural, et qui est à l'origine de nombreux ghettos (comme Trenchtown) dont les sound systems vont profiter pour se créer un public. Beaucoup de gens comme Lee Perry rêvaient à l'époque de faire une carrière dans la musique. Lee Perry est présenté à Clement Seymour Dodd dit "Coxsone" dans l'espoir de devenir chanteur, cependant ce dernier, trouvant qu'il n'avait pas de voix, refuse de lui enregistrer un disque. Mais vraisemblablement pris par une certaine amitié pour lui, Coxsone accepte quand même que Lee Perry travaille pour lui en tant qu'homme à tout faire, assistant Coxsone pour toute tâche en rapport avec le studio ou non, comme Lee Perry en témoigna : « Coxsone avait des gens avec qui il aimait bien être, qui l'assistaient et dont il voulait la présence, j'étais l'un d'eux ». Il devient ainsi conducteur de session d'enregistrement, auditionneur, parolier et même compositeur de chansons. À l'époque, la rivalité entre sound systems était forte au point que certains sound clashes (« duels » entre deux sound systems face au public, les DJ passant des disques chacun leur tour) se terminaient souvent en pugilat, avec comme résultat final des blessés assez graves. Au-delà des sound clashes, la concurrence entre sound systems se faisait aussi par le vinyle en produisant des chansons dont le but était de dénoncer, d'attaquer l'autre. Lee Perry était la personne de Studio One qui écrivait ces chansons adressées aux concurrents comme Duke Reid. Il développe à cette époque ce talent de composer des attaques virulentes exprimées implicitement en musique, qui se retrouvera plus tard sur les chansons "Small Axe" des Wailers et "White Belly Rat" par exemple. À plusieurs reprises, il retente de s'imposer comme chanteur à Studio One mais Coxsone refuse obstinément de lui accorder son ticket, bien que Lee Perry compose désormais des chansons beaucoup plus osées et formellement intéressantes. Il commence même à être un porte-parole du ghetto, à faire des chroniques sociales en chanson, à dénoncer la violence des politiciens et des mafieux qui contrôlent l'île, sans pour autant abandonner les chansons légères sur l'amour, le sexe et les petites anecdotes de la vie quotidienne. Pendant cette période Studio One, il collabore avec Clancy Eccles avec qui il noue une relation durable. Il va aussi y faire la connaissance des Wailers avec qui il compose et chante à diverses occasions (la chanson "Pussy Galore" par exemple). Il assiste également aux débuts de Toots and the Maytals, Lord Tanamo, Max Romeo et bien d'autres... En 1965, il fait la connaissance de Pauline Morrisson avec qui il se mariera et qui jouera plus tard un rôle important dans la production des disques de Lee Perry (à leur rencontre, elle a 14 ans alors que lui en a 28). Cette même année, il enregistre à Studio One « "Chicken scratch" », où il figure enfin en tant que chanteur. C'est cette chanson qui rendit public son surnom qu'il portait bien avant et qui figure désormais sur tous ses disques. Cette chanson ainsi que quelques autres ont souvent été enregistrées discrètement en fin de session d'autres enregistrements considérés comme plus importants par Coxsone, qui ne voulait pas entendre Lee Perry chanter. Exploité par Coxsone (comme la plupart des musiciens qui travaillaient pour lui) qui pille ses chansons et ne le crédite pas pour celles qu'il écrit pour d'autres, il est aussi mal payé. Il quitte Studio One en 1966. Il se met alors à travailler avec et pour Prince Buster, chez qui il produira quelques 45 tours. Il travaille aussi chez Joe Gibbs, qui était le concurrent de Dodd, pour qui il produira en 1968 la chanson "I am the Upsetter" qui sera à l'origine du label qu'il va créer, « "Upsetter" » (chieur, emmerdeur, fouteur de merde), d'un nouveau surnom et quelques années plus tard du nom de son groupe : « The Upsetters ». Perry commence petit à petit à voler de ses propres ailes en produisant lui-même ses disques, bien qu'il ne possède pas encore son propre studio. C'est à cette époque qu'il produit et chante des chansons comme « "People Funny Boy" » ou « "You Crummy" » et collabore à certains titres avec Clancy Eccles. Petite anecdote à propos de la chanson "People Funny Boy ": les pleurs d'enfant dans la chanson sont ceux de celui de Lee Perry qui, pour obtenir l'effet désiré, lui a mis une fessée. Succès international 1969-1970. 1969 est l'année où Lee « Scratch » Perry apparaît réellement sur le devant de la scène. Il fait la connaissance des Hippy boys, parmi lesquels deux figures historiques du reggae et qui joueront un rôle crucial pour Lee Perry, les frères Barrett (Aston à la basse et Cartlon à la batterie). C'est avec eux et notamment Val Benett ou Alva Lewis à la guitare et des membres du Gladdy's all stars qu'il fonde son fameux groupe The Upsetters. Il y avait déjà eu deux groupes qui s'appelaient The Upsetters, le premier était un vieux groupe jamaïcain des années 1950, le deuxième était le Gladdy's all stars. Avec cet ensemble, il enregistre l'album instrumental Return of Django et signe un contrat chez Trojan Records. L'album se vend bien et le morceau éponyme "Return of Django" atteint le 5 des Charts anglais. Celui-ci, tout comme d'autres morceaux du même genre (le "Liquidator "des Harry J. All Stars), étaient fortement appréciés par les premiers skinheads anglais (on parle d'ailleurs de « skinhead reggae » pour cette période). On commence à l'époque à entendre le mot reggae, et l'origine du terme comme celle du genre est disputée ; Lee Perry fait partie de ces quelques protagonistes (avec notamment Frederick « Toots » Hibbert) que l'on crédite d'avoir « inventé » le reggae, du fait de l'avance qu'il avait prise au niveau musical par rapport à d'autres musiciens de l'île. Fort du succès de "Return of Django", le groupe est invité à tourner en Angleterre, avec Lee Perry en chanteur et notamment les frères Barrett, qui commencent à devenir la section rythmique principale des Upsetters alors qu'à l'origine ils n'étaient que des « roues de secours » parmi les Hippy Boys. Lee Perry va ensuite enregistrer avec le groupe les albums "Many Moods of the Upsetters", "Scratch the Upsetter again" et "Eastwood Rides again". Scratch montre progressivement son intérêt pour le cinéma en faisant de plus en plus souvent référence aux western italiens ou aux films de Kung-fu, et plus tard à des films engagés (comme "Blackboard Jungle"). Cet intérêt pour le cinéma se retrouvera aussi dans les samples qu'il fera plus tard de dialogues de film. Scratch commence aussi à planter quelques graines qui aboutiront au dub en commençant à expérimenter les subtilités de la table de mixage. Scratch et les Wailers 1970-1972. Fin 1969, désemparés et cherchant à enregistrer, les Wailers s'adressent à Lee Perry qu'ils connaissaient déjà. Ce dernier n'accepte pas tout de suite car il voulait à l'époque n'enregistrer que des instrumentaux et n'avait pas besoin de chanteurs. Il les auditionne quand même et comprend que quelqu'un les avait renvoyés car pendant l'audition Bob Marley était en train de chanter "My Cup" qui contenait une phrase qui résumait bien sa situation « Ma tasse est pleine et je ne sais pas quoi faire ». Perry les accepte donc et les Wailers commencent à enregistrer avec les frères Barrett qu'ils connaissaient, ayant déjà enregistré "Black Progress" ensemble. Ils commencent par enregistrer "My Cup", "Riding high", "Soul Rebel" et des anciens morceaux qu'ils avaient chantés à Studio One. Mais Lee sent que Bob Marley, qui devenait le personnage prédominant du trio, ne faisait pas de son mieux, que les chansons qu'il écrivait n'étaient pas encore des plus captivantes, qu'il n'était pas encore « grand », et en conclut qu'il était « possédé » par un mauvais esprit ("duppy" en jamaïcain). Lee Perry, qui commençait à devenir de plus en plus extravagant, raconta plus tard qu'il confina alors Bob Marley quelque temps dans une pièce de sa maison pour qu'il acquière son génie (de la même manière qu'Aladdin), mais surtout il écrit pour lui la chanson" Duppy Conqueror", censée chasser ce mauvais esprit qui le possédait. Quoi qu'il en soit de son effet réel, la chanson fut en quelque sorte une étape franchie par Bob Marley et les Wailers et ils purent continuer d'enregistrer avec Scratch. Leur collaboration durera jusqu'en 1971, s'avérant mutuellement enrichissante et particulièrement productive pour les Wailers, qui furent ainsi « prêts » pour conquérir le public mondial, Scratch les ayant aidés au maximum pour les faire progresser et leur permettre de donner leur meilleur. De son côté, Scratch profita de cette collaboration pour aller plus loin dans ses expérimentations sonores et musicales, remixant en dub tous les morceaux des Wailers qu'il pressait en 45 tours et s'adonnant à des arrangements beaucoup plus originaux. De nombreux connaisseurs du reggae considèrent cette période comme majeure dans l'histoire du genre ; selon eux, c'est non seulement celle pendant laquelle les Wailers offrirent leurs meilleures chansons, mais aussi celle qui permit d'élaborer et affiner le son « reggae », annonçant un âge d'or qui n'allait pas tarder à advenir pour Lee Perry, Bob Marley mais aussi la musique jamaïcaine dans son ensemble. Bob Marley confia quelques années plus tard que Lee Perry était selon lui un génie. Perry en fit de même pour Bob Marley en le considérant comme le « meilleur musicien qu'il ait jamais connu ». Pour beaucoup d’observateurs, c'est avec cette collaboration et ce qu'elle apporta à chacun que Bob Marley et Lee « Scratch » Perry sont devenus et resteront à jamais considérés comme des monuments du reggae. Mais cette collaboration devait toucher à sa fin à cause de conflits sur les droits d'auteur et des disques que Scratch a publiés sans le consentement des Wailers. Après avoir enregistré des œuvres majeures que sont les chansons compilées dans les albums Soul Rebels et Soul Revolution, les Wailers quittent Lee Perry en « s'emparant » au passage des frères Barrett, qui ne sont désormais plus membres des Upsetters et deviennent des membres permanents des Wailers. Cette collaboration, bien que majeure, a tendance à faire oublier les différents travaux que Lee Perry a produits pendant la période 1970-1972. Il enregistra ainsi d'autres artistes comme Junior Byles ou Max Romeo, ainsi que divers DJ, poursuivant ses expériences et enregistrant entre autres les chansons "Justice to the people", "Kentucky Skank "ou "Bathroom Skank", chansons de plus en plus constellées de « bidouillages », bruitages divers et sons fantaisistes, un peu de la même manière que les Beatles de la dernière période. Blackboard Jungle Dub 1972-1974. Durant cette période, Lee Perry s'affirme bien qu'il ne possède pas encore son propre studio. Le son qu'il produit se rapproche un peu plus du son qui est connu comme le son "reggae roots". En 1972, il enregistre des classiques du "reggae roots" comme "Fever" chanté par Junior Byles. Ce son "roots" consiste en une guitare rythmique très sèche, une batterie à l'inverse accentuée sur les sons graves et une basse plus présente, des percussions africaines, des harmonies vocales mises en valeur différemment. Lee Perry y enregistre beaucoup de disques qui resteront quasiment inconnus hors de Jamaïque jusqu'à ce qu'on les réédite vers la fin des années 1990. Ces enregistrements obscurs n'en sont pas moins intéressants ; Lee Perry, ses chanteurs et ses musiciens y accomplissent en effet plusieurs tours de force : en 1972, sort par exemple "Cow Thief Skank", un morceau de hip-hop avant l'heure, en avance de quelques années sur les DJ de hip-hop. Il s'agit là véritablement d'un "cut" de différents rythmes, c'est-à-dire une succession continue d'extraits de chansons de Lee Perry, comme ce que feront plus tard les Dj hip-hop avec des vinyles. De plus, Lee Perry a enregistré sur cette bande un toast (proto-rap) du DJ Charlie Ace, préfigurant ce que sera le genre une dizaine d'années plus tard. Suit "Cloak and Dagger" en 1973, tiré d'un titre d'un film de 1946, un album d'instrumentaux et de "versions" qui préfigure le dub, agrémenté de différents bruitages et effets sonores (klaxon, boîte à meuh), réalisé avec des musiciens comme le saxophoniste ténor Tommy McCook (Skatalites, Aggrovators, Revolutionnaries...) et les Upsetters (avec les frères Barrett). En dehors de cet album, on remarquera d'autres morceaux originaux, étranges, avant-gardistes, bizarres ou totalement « déjantés » : "Bucky Skank" (avec le jeu de batterie bancal du batteur Tin Legs qui, selon les dires de ceux qui l'ont connu, était inexpérimenté), "Jungle Lion", "Black Ipa"…. Entre-temps Lee Perry produit d'autres chansons peu diffusées mais néanmoins « cultes » du "roots reggae" comme "Curly Locks", chantée par Junior Byles, "To be a lover" (pastiche de "I forgot to be your lover" de William Bell) par George Faith et "Words" ("Words of my mouth") chanté par Sangie Davis. Cette dernière, chantée avec beaucoup de conviction et une rare puissance, connaîtra un long destin ; Lee Perry en fit un de ses classiques et la réutilisa une dizaine de fois en dub, instrumental, versions DJ…. Lee Perry reprend des morceaux, notamment ceux cités ci-dessus, les remixe, les retravaille, les distord, et produit ainsi l'album "Blackboard Jungle Dub". "Bucky Skank" devient selon David Katz « une cacophonie de cordes grinçantes, de bruits vocaux et de cuivres » avec des flûtes et des sirènes. "Fever", "Words" de Sangie Davis et "Dreamland", "Kaya et" "Keep on moving" des Wailers subissent aussi ces remixages. Scratch pousse ainsi les plaisanteries de "Cloak and Dagger" encore plus loin, augmente l'utilisation des effets et de la réverbération, et met encore plus en avant la basse et les percussions. Cet album a apparemment été réalisé avec l'aide de King Tubby, l'autre « inventeur » du dub, qui a toujours été généreux avec Scratch et l'a souvent aidé. Néanmoins, cet album – comme tant d'autres de ses productions de l'époque 1972-1974 – est longtemps resté rare (voire introuvable) et les informations le concernant sont souvent obscures. De nombreux doutes sont émis quant à la contribution de King Tubby à l'album : une version des faits relate que celui-ci est la grande et unique rencontre entre King Tubby et Lee Perry, l'autre voit en cet album le chef-d'œuvre du génie solitaire de Lee Perry. Ce qui n'arrange rien, "Blackboard Jungle Dub" est sorti avec différentes pochettes et sous différents labels, et ne fut pressé en 1973 qu'à , dont seulement 100 pour le Royaume-Uni. Il existe donc plusieurs éditions de l'album, plus ou moins fiables, dont celle qui semble la plus complète est l'édition intitulée "Upsetters 14 Dub Blackboard Jungle", qui contient 14 plages alors que les autres n'en contiennent que 12 ; c'est d'ailleurs celle-ci qui est reconnue par David Katz, biographe de Lee Perry. Les autres versions sont sorties sous le nom "Blackboard Jungle Dub" avec, sur la pochette, soit un lion fumant un joint, soit un tableau noir, et l'ordre et le nom des plages ont été changés. Ces « fausses versions » constituent aussi en partie la compilation "Scratch Attack". Lesquelles ont apparemment été sorties quelques années après (1975, 1980 ou 1990 pour la version CD), mais c'est bel et bien l'édition "Upsetter 14 Dub Blackboard Jungle" avec ses noms de plage et son ordre qui a été retenue par Trojan Records pour le coffret "Dub Triptych" qui réédite entre autres cet album. Autre preuve de la rareté de ces enregistrements, cette réédition CD a été faite à partir d'un des vinyles de la première édition et non avec les bandes originales, qui n'ont pas été retrouvées (elles n'existent sûrement plus, peut-être détruites dans l'incendie de Black Ark - cf. ci-dessous). On est certes encore loin du dub plus moderne qu'ont pu faire King Tubby ou Scientist plus tard, mais les bases sont bien là. Selon la critique actuelle, cet album est le premier véritable album de dub. Selon le magazine britannique The Wire, il y a dans cet album . Pour les admirateurs de Lee Perry, cet album est un des plus importants qu'il ait jamais réalisés ; c'est aussi une œuvre qui commence à être reconnue par d'autres et à se faire une place dans l'histoire de la musique expérimentale. Durant ces années, si Lee Perry s'est effacé de la scène internationale naissante du reggae, ses productions, que l'on pourrait qualifier avec du recul d"'Underground", sont magistrales. Avec les chansons qu'il a produites, Lee Perry fonde les bases de la musique des années qui suivent, posant en quelque sorte les bases de son studio qui va bientôt voir le jour. Tandis que ses expérimentations de plus en plus osées et affirmées sont autant de nouvelles pistes à explorer, des chefs-d'œuvre précurseurs de nouveaux genres (comme le dub et plus tard les musiques électroniques, le trip-hop ou le ragga qui en sont de lointains descendants) voient alors le jour. Black Ark 1974-1979. En 1973, Lee Perry commence à souffrir de l'obligation d'avoir à compter sur des studios commerciaux pour son travail. La majeure partie de son œuvre avait été enregistrée au studio Randy's, ou chez Dynamic Sounds. Quelques années plus tôt, il avait déménagé à Washington Gardens, une banlieue chic de Kingston. C'est ici qu'il a une sorte de révélation, dans un rêve qu'il fait lors d'une sieste dans son jardin. Il décide d'entreprendre la construction de son propre studio. Vers la fin de l'année 1973, il peint les mots « Black Ark » au-dessus de la porte, car il décide qu'il y établira les 10 commandements du reggae, en référence religieuse à l'Arche d'alliance où Moïse plaça les Tables de la Loi. La musique qu'il enregistre les cinq années suivantes marque un tournant dans l'histoire du reggae. Aux commandes de son propre studio, Perry porte ses compétences à un autre niveau, faisant de sa table de mixage un véritable instrument. Les expérimentations des années passées ont ouvert la voie à des nouveaux sons, plus complexes. Le spécialiste du reggae Steve Barrow dira plus tard que , soulignant l'originalité de ces sons. L'aura du Black Ark commence à attirer certains les plus grands artistes jamaïcains, des vétérans de Heptones jusqu'aux petits nouveaux comme Jah Lion. Travaillant avec passion, il donne souvent sa chance à des inconnus, leur offrant un premier essai, et enregistre également des « has-been » en mal de reconnaissance. Même le fils prodigue Bob Marley retourne au Black Ark et enregistre plusieurs morceaux. Alors que d'autres studios pensent « productivité », Perry est heureux de prendre tout le temps nécessaire pour arriver à la bonne "vibe". Une session d'enregistrement au Black Ark fait penser à une fête, Perry laissant les portes du studio en béton ouvertes, permettant aux curieux de venir y faire un tour, pendant qu'il danse, tape des mains, et crie son approbation lorsqu'il est satisfait du résultat. Perry utilise des méthodes excentriques, comme nettoyer les têtes des cassettes avec son t-shirt pour ensuite souffler de la fumée de ganja sur les bandes pendant qu'elles tournent, s'assurant que la musique enregistrée au Black Ark ait un son brut, une qualité magique qui ne pourrait être surpassée. Utilisant un équipement basique, Perry est capable d'utiliser un 4 pistes et de donner l'impression d'un 8 pistes ou plus, en mixant plusieurs pistes sur une seule et en répétant le processus. Avec un matériel loin du dernier cri, il se débrouille pour créer un certain nombre d'astuces qui étonnent encore les producteurs d'aujourd'hui. expliqua Lee Perry, . Paul Douglas a déclaré : Lee Perry et son studio ont été formateurs en créant le sous-genre de reggae appelé dub. Entre 1974 et 1979, beaucoup de pièces maîtresses de l'âge d'or du reggae sortent du Black Ark, comme "War In A Babylon" de Max Romeo, "Super Ape" des Upsetters, "Police and Thieves" de Junior Murvin, "Party Time" de The Heptones, ou encore "Heart Of The Congos" de The Congos. Pendant ce temps, le climat politique en Jamaïque commence à chauffer. Les deux principaux partis disposent d'hommes armés pour faire régner leur conception de l'ordre dans les rues de Kingston et asseoir leurs positions. De nombreuses chansons anti-violence voient alors le jour, décrivant une prochaine apocalypse, comme "War Ina Babylon" de Max Romeo, "Cross Over" de Junior Murvin, et "City Too Hot", l'appel à la raison lancé par Lee Perry. Durant cette période, les productions Black Ark reflètent assez fidèlement ce climat et cette confusion. Dans ce contexte tendu, le son du Black Ark commence à être internationalement reconnu. Perry signe un accord de distribution internationale avec Island Records, et attire bientôt l'attention du milieu rock, comme Paul McCartney, Robert Palmer, ou encore les Clash. Des journalistes commencent à voyager en Jamaïque pour rencontrer l'Upsetter, dont le studio devient célèbre au-delà de l'île. Fin du Black Ark. Vers la fin des années 1970, en dépit de la musique incroyable et des "vibes" magiques de l'Arche noire, tout n'allait pas bien au royaume de Perry. Pique-assiettes et vagabonds ont commencé à lui taper sur les nerfs, et faire de la musique est devenu de plus en plus difficile. L'impact des sessions-marathons d'enregistrement carburées à la ganja et à l'alcool a commencé à se faire sentir sur le travail. Island Records avait considéré certains de ses plus grands enregistrements comme insortables. Le Black Ark est également devenu la cible de bandits locaux qui ont commencé à faire pression pour obtenir de l'argent de protection. La relation de Perry avec sa femme a commencé à tomber en morceaux. Les demandes polies et moins polies n'ont pas réussi à faire sortir les « mauvaises herbes » de son jardin ; bientôt, Scratch s'est tourné vers des méthodes plus étranges pour se débarrasser des indésirables rude boys. Le Black Ark a bientôt atteint le point d'ébullition, et un point de non retour pour Perry. L'Arche noire a cessé de fonctionner dès 1979. Grillé physiquement, mentalement, et spirituellement, Lee Perry et son studio sont tombés en morceaux. Son épouse Pauline l'abandonne, prenant les enfants avec elle. Perry se retrouve sur une corde raide entre l'imagination et la réalité, et le départ de sa famille semble l'enfoncer un peu plus dans le chaos. Une nouvelle et inquiétante personne a émergé, et tandis que Perry déclarait que c'était une démarche volontaire pour nettoyer la maison de gens qu'il ne voulait plus autour de lui, l'humeur de l'Upsetter était clairement sujet d'inquiétudes. Les visiteurs et les journalistes sont arrivés chez Lee Perry pour le trouver vénérant des bananes, vandalisant le studio, et débitant de longues et violentes diatribes. Des bobines de bandes étaient répandues sur le plancher, et les appareils d'enregistrement étaient presque inutilisables en raison des dommages de l'eau qui passait à travers le toit troué. Le studio jadis puissant était maintenant plus ou moins un dépotoir. En , Perry reçoit une visite de Henk Targowski, un imprésario et le propriétaire du Black Star Liner, maison de production et de distribution basée en Hollande. Targowski veut distribuer la musique de Lee Perry, mais n'est pas préparé à la folie qu'il rencontre au Black Ark. Avec quelques associés, Targowski décide de tenter une opération de sauvetage du studio, essayant de le remettre en état de marche. Financé par la Black Star Liner, le travail de reconstruction progresse tout au long de l'année 1980, du nouvel équipement est commandé et installé. Au printemps 1980, cependant, le projet de restauration est abandonné, et l'équipe de la Black Star Liner quitte la Jamaïque pour de bon. Ce qui avait été soigneusement reconstruit fut vandalisé, démonté et détruit par Perry. En 1981, avec sa vie et son studio en ruines, l'Upsetter quitte la Jamaïque, passe son temps à New York, et joue dans des concerts de groupes locaux de reggae. Une série de grands concerts a lieu, notamment avec les Clash à New York en . Perry retourne alors en Jamaïque, et commence peu après à enregistrer un nouvel album, "Mystic Miracle Star". Il semble qu'après deux ans de confusion, Lee Perry a retrouvé la forme. Cependant, le désastre était proche. Un matin de 1983, le Black Ark Studio est détruit. L'incendie fait rage dans la structure en béton, la température à l'intérieur devient si intense que le toit est finalement soufflé. Le studio, source d'une partie de la musique , tombe progressivement en ruines. (La "Black Ark" était trop noire et trop effrayante), expliqua plus tard Perry. La destruction par le feu de l'Arche noire est devenue un point-clé dans la légende Lee Perry. Lee Perry clama plusieurs fois qu'il avait brûlé le studio lui-même dans un accès de frustration, mais il est probable que nous ne sachions jamais la cause exacte du feu ; quoi qu'il en soit la destruction du Black Ark Studio fut complète. Lee Perry en « exil ». Après avoir passé trois jours en prison, suspecté d'incendie, Perry n'a nulle part où aller. Sa vie en Jamaïque est en ruine, s'ensuit une période d'exil, en Angleterre majoritairement. Tournant le dos à la production, il se concentre alors sur l'expression de son œuvre, qui semble être un support infini. Pendant cette période, son travail est irrégulier, collaborations douteuses et faux départs sont au rendez-vous. Sa relation fragile avec Island Records se brise lorsqu'il traite le dirigeant et fondateur de la maison de disques, Chris Blackwell, de vampire et affirme qu'il est responsable de la mort de Bob Marley. Lee Perry travaille ensuite avec des groupes de Londres, et commence à se produire sur scène. Finalement, l'album "" voit le jour en 1986. L'opus, plein de surprises, sonne comme un témoignage de la situation de Perry : après des années de confusion, . L'année suivante, Perry fait équipe avec le producteur anglais Adrian Sherwood et donne naissance à "Time Boom X De Devil Dead". Travaillant avec le Dub Syndicate, « les Upsetters de Sherwood », "Time Boom" est un retour en arrière à l'époque des jours de gloire du Black Ark pour Perry. Le son insufflé par Sherwood correspondait parfaitement à l'Upsetter. Fort de deux nouveaux albums, Perry est remis sur pied pour de bon. Lee Perry en Suisse. En 1989, Lee Perry cesse d'errer à droite à gauche et part s'installer en Suisse avec sa nouvelle femme, Mireille Ruegg, une zurichoise qui devient le manager de Scratch. Loin de l'effervescence de la scène musicale jamaïcaine, Lee Perry devint un père de famille heureux. Il a deux enfants avec Mireille, un garçon (Gabriel), et une fille (Shiva). Vers le milieu des années 1990, il travailla sur un nouveau studio, basé dans la cave de sa propriété de Zurich: le « White Ark », son « laboratoire secret » où « aucun homme n'est entré avant ». Vingt ans après l'apogée du Black Ark, Lee Perry connaît une renaissance avec une nouvelle vague de fans de sa musique. Fans et critiques redécouvrent la musique de Perry, notamment avec les Beastie Boys en 1996, et l'Upsetter profite d'un regain de popularité. Les compagnies d'enregistrement ne tardent pas à réagir à l'engouement du public, et une grande variété de collections produites par Lee Perry sont rééditées, ainsi que de nombreux albums. Cette vague donna naissance à l'Arkology en 1997, anthologie du Black Ark en 3CD préparée par Steve Barrow et David Katz, deux fans de Perry. À la surprise générale, il se produit dans deux concerts à guichets fermés en à San Francisco, ses premiers spectacles depuis plus de aux États-Unis. Il apparaît également à New York, dans un concert pour le Tibet libre. Une grande tournée américaine et européenne s'ensuit, tout en sortant régulièrement des rééditions. En , David Katz publie une grande biographie de l'Upsetter : "People Funny Boy: The Genius Of Lee "Scratch" Perry". En 2012, sur la recommandation d'Adrian Sherwood, il rencontre le groupe français ERM (Easy Riddim Maker) avec qui il réalise un album, Humanicity, qui marque le début d'une collaboration encore actuelle (ERM est aujourd'hui son backing band officiel). Son parcours est retracé dans un film documentaire, "Vision of Paradise", produit par Volker Schaner. Lee prête aussi sa voix aux créateurs du jeu vidéo GTA V pour animer une radio, nommée Blue Ark, diffusant uniquement du reggae. Personnalité. Aventurier, bricoleur et expérimentateur qui créait de manière artisanale du son, une musique inédite, si bien que certains considèrent ses œuvres comme de l'art : « Cet homme est le Salvador Dalí jamaïcain ». Ses œuvres, ses techniques, le son qu'il a su obtenir de son studio (avec un simple 4 pistes au départ) ainsi que ses différentes collaborations avec tout le gotha de l'île ont fait de lui un pilier du son jamaïcain, du ska au reggae, un style qu'il a marqué de son empreinte. Lee Perry représente une figure de la musique expérimentale jamaïcaine et ses dérivés . Il innova, à travers une musique instrumentale et des dubs, tout en gardant les rythmes conventionnels du genre. Lee Perry a souvent été avant-gardiste et a découvert des univers musicaux, par le sample, qui ont eu du succès et une influence considérable. Lee Perry joua ainsi un rôle d'initiateur et de figure tutélaire pour le reggae et le dub, et de nouveaux styles qui en dérivent en partie comme le dubstep. |
Laurel Aitken Laurel Aitken est un chanteur jamaïcain, bien que né à Cuba le d'un père jamaïcain et d'une mère cubaine. Surnommé par les Anglais le "Godfather of Ska" (le parrain du Ska), Laurel Aitken était considéré comme l'un des grands noms de la scène ska et reggae. Il est mort d'une crise cardiaque à Leicester, le , à l'âge de 78 ans. Biographie. Alors qu'il n'a que 11 ans, Laurel, son frère (le futur chanteur Bobby Aitken) ainsi que toute sa famille, quittent Cuba pour émigrer en Jamaïque. Sa toute première expérience musicale est de chanter, entre autres, au sein d'un groupe de calypso qui accueille les touristes débarquant à Kingston de leur croisière en bateau. Il se fait rapidement remarquer et enregistre dès le milieu des années 1950 des morceaux de mento, de calypso et bientôt de ce qui va être appelé le ska. En 1959, la radio nationale de Jamaïque, la "Jamaican Braodcasting Company" qui ne passait jusqu'à présent que des artistes des États-Unis, diffuse la chanson de Laurel Aitken "Boogie Rock". Deux semaines plus tard, le titre grimpe à la première place du hit-parade. En , il sort un single : "Little Sheila" et "Boogie In My Bones" sur R&B, le premier label de Chris Blackwell (futur fondateur d'Island Records). La carrière de Laurel est lancée et, comme bon nombre d'artistes des studios jamaïcains, il quitte son île pour rejoindre la riche Angleterre. Carrière en Angleterre. Commence alors une période intense d'enregistrement : au cours des années 1960, Laurel Aitken va sortir dix-sept 45 tours sur Blue Beat, quatre sur Dice, sept sur Doctor Bird, dix-huit sur Rio, vingt-trois sur Nu Beat, trois sur Kalypso, trois sur Rainbow, etc. Son style musical évolue du ska vers le rocksteady et enfin vers le skinhead reggae à la fin des années 1960. C'est à cette époque que Laurel Aitken commence à toucher un public blanc (essentiellement les jeunes mods et skinheads, issus de la classe ouvrière) et non plus seulement les immigrés jamaïcains des ghettos londoniens. C'est aussi à cette période qu'il sort ses plus grands succès musicaux sur le label Pama Records : "Fire In My Wire", "Bartender", "Jesse James", "Landlords and Tenants", "Scandal In A Brixton Market" ou encore "Pussy Price". Période 2 tone. À la fin des années 1970, il profite du renouveau du ska, avec la vague 2 tone emmenée par Madness et The Specials, pour sortir ce qui sera son unique tube en Angleterre, "Rudy Got Married," qu'il enregistre avec son groupe The Unitones et sort sur le label I Spy Records. Après la retombée de la vague Two Tone, Laurel Aitken continue tranquillement sa carrière durant les années 1980, notamment en collaborant avec le groupe de ska traditionnel anglais The Potato 5. Il sort avec eux deux 45 tours, "Sally Brown "et "Sahara", puis un album intitulé "Floyd Lloyd & The Potato 5 Meet Laurel Aitken" qui sort sur Gaz's Rockin' Records, le label de Gary Mayall, fils du bluesman John Mayall et leader du groupe ska The Trojans. Reconnaissance tardive. En 1988, Laurel Aitken est une nouvelle fois porté par le renouveau de la scène ska (en particulier en Angleterre et en Allemagne), enchaînant les concerts avec sa propre formation The Pressure Tenants. Il apparait comme tête d'affiche aux côtés de groupes comme The Loafers ou The Bad Manners. En 1989 et 1990, en plus de ses concerts réguliers en Grande-Bretagne, Laurel entame une tournée avec les Bad Manners en France, aux Pays-Bas, en RFA, puis aux États-Unis et au Canada. Le label anglais Unicorn Records, en profite pour rééditer sur disque quelques-uns de ses meilleurs hits, mais sort également ses nouvelles compositions telles que le Maxi-45 tours "Sally Brown", l'album "Ringo The Gringo" et enfin la vidéo de son concert: "Live At Gaz's Rockin' Blues". Il continue à se produire en concert pratiquement jusqu'à sa mort, après avoir subi une crise cardiaque en 2004 et avant de succomber un an plus tard, à l'âge de 78 ans, d'une nouvelle attaque le à Leicester, Angleterre. |
Lewis Henry Morgan Lewis Henry Morgan ( – ) était un anthropologue américain. Il fut le premier à mettre en place une étude des systèmes de la parenté, qui est un domaine élémentaire de l'anthropologie sociale et culturelle contemporaine. Il vécut parmi les Indiens iroquois et observa leur vie sociale et culturelle, faisant de sa propre expérience le matériau brut de sa réflexion. Biographie. Né en 1818 dans l’État de New-York. Après des études d’avocat, il devient d'abord conseiller juridique d’une compagnie de chemin de fer. L.H. Morgan se reconvertit ensuite à la politique. Membre du Parti républicain, il est élu député puis sénateur. Il s'intéresse à l'anthropologie lorsqu'il rencontre un Indien Senca (peuple faisant partie de la Confédération iroquoise) dans un club littéraire. Adopté par le "clan Faucon" à l’issue de son enquête sur la « ligue des Iroquois », il publie ensuite un essai sur le Gouvernement constitutionnel de six nations indiennes. Il étudie ensuite le système de parenté iroquois, à partir de données recueillies chez les Indiens du Kansas, du Nebraska, du Missouri, et de la baie d'Hudson. Puis il tente une étude des systèmes de parenté à l'échelle de la planète, à l'aide d'un questionnaire envoyé dans les différentes ambassades, colonies, et missions évangéliques. Il en publie les résultats dans "Systems of Consanguinity and Affinity of the Human Family" (1871). Pour la première fois, une analyse scientifique de la parenté, une étude d'anthropologie sociale voyait le jour. C'est dans cette œuvre que Morgan entreprit de comparer les institutions sociales de l’antiquité occidentale classique et celles des peuples primitifs contemporains cherchant en celles-ci la clef de l’intelligibilité de celles-là. Dans "Ancient society (1877)", il développa la théorie évolutionniste dont il fut le plus fervent défenseur, en avançant l'idée que l'évolution de l'humanité suit un schéma unique, caractérisé par trois stades successifs : la sauvagerie, la barbarie et la civilisation. Ces théories furent reprises par Friedrich Engels, notamment dans son ouvrage "L'Origine de la famille, de la propriété privée et de l'État" publié en 1884. On peut également relever la note que Engels ajoute dans l'édition anglaise de 1888 du "Manifeste du parti communiste", qui limite la portée du principe selon lequel "l'histoire de toute société connue jusqu'ici a été l'histoire d'une lutte de classes": cela n'est vrai, écrit-il, "que de l'histoire "écrite"". Car "finalement, grâce à la découverte décisive de Morgan, qui a révélé la nature véritable de la "gens" et sa place dans la peuplade, la structure intérieure de cette société communiste primitive a été mise à nu dans sa forme typique. Avec la dissolution de ces communautés primitives, la société commence à se diviser en classes distinctes, et finalement antagonistes." ("Ibid".) Les rapports de production n'acquièrent donc une importance dominante (et finalement écrasante) dans l'infrastructure sociale qu'avec l'entrée dans l'histoire au sens strict, définie comme l'âge de l'écriture. Claude Lévi-Strauss s'appuie sur ces textes contre les marxistes trop orthodoxes qui s'irritent de voir l'ethnologie revaloriser les rapports de parenté contre les rapports de production ("Anthropologie structurale", chap. XVI, Paris, Plon, 1974, p. 396). L'œuvre de Morgan a donc joué un rôle majeur dans la théorie du communisme primitif comme première étape de la société humaine, ainsi que dans la transformation et la complexification de la théorie marxienne de l'histoire. En 1844, Lewis H. Morgan s'établit comme avocat à Rochester, où il mourut le . L'évolutionnisme de L.H. Morgan. Dans sa théorie, Morgan distingue trois stades principaux dans l'évolution de toute société humaine : Travaux sur les systèmes de parenté. Morgan accorda pour la première fois de l'importance aux études des relations de parenté pour une compréhension d'un système social complexe. Il montra la logique interne de ces rapports, et avança qu'ils constituaient les fondements des sociétés primitives, et par extension la source de l'histoire de l’humanité. Délaissant ses travaux sur les Indiens des plaines, à la fin des années 1850, Lewis H. Morgan se consacra quasi exclusivement aux études sur la parenté. Il entreprit une enquête à l'échelle planétaire dans l'espoir d'une analyse comparative. Le contexte de la colonisation lui permit d'envoyer des questionnaires dans le monde entier : administrations coloniales, consulats et ambassades américaines, scientifiques, missionnaires. Il ne récolta pas autant de données qu'il aurait souhaité, seules quelques régions du globe avaient répondu à son appel. Ce fut très positif par exemple pour l'Europe et l'Asie, mais très peu concluant pour des régions comme l'Afrique en général, l'Amérique centrale et latine, ainsi que pour la Polynésie. Il jugea cependant ces données suffisantes, et en s'appuyant sur les systèmes indiens bien connus de lui, il distingua l'existence de deux terminologies possibles sur la surface du globe : On voit ici que (quels que soient les défauts possibles de cette théorie), Morgan distingue les sociétés les unes des autres à partir de leur "propre" structuration de parenté. Il est ainsi le fondateur d'un nouveau domaine scientifique qui est aujourd'hui considéré comme le champ classique de l'anthropologie sociale : l'étude de la parenté . Il ajoutera ensuite l'hypothèse selon laquelle les sociétés primitives ont un mode d'organisation sociale fondé sur la parenté, à la différence des sociétés civilisées qui elles fonctionnent sur une base politique. Cependant, encore une fois, Morgan a le premier clairement posé une question essentielle, à savoir celle de la naissance du politique et de l'État. Cette question est ensuite reprise par Evans-Pritchard dans son ouvrage "Les Nuer". On considère ainsi Lewis Henri Morgan comme étant un des pionniers de l'anthropologie politique. Travaux en éthologie. Le livre de Morgan sur le castor du Canada, "The American Beaver and His Works" (1868, Philadelphie), est un ouvrage qui a été une référence et qui est souvent cité comme point de départ de l'éthologie aux États-Unis. Il est basé sur des années d'observations personnelles, complétés de témoignages d'Indiens, de coureurs des bois et de trappeurs (citant les auteurs de chaque témoignage important), et de photos faites par des photographes professionnels à la demande de Morgan. Ce dernier — lorsqu'il a vécu chez les Indiens — a rapidement été fasciné par cette espèce ingénieur et les relations complexes et parfois proches que les Amérindiens entretenaient avec lui (en particulier, comme il le raconte dans son journal "Indien", quand il rencontre à Fort Union une Amérindienne qui allaitait un castor d'environ six semaines). |
Lucien Tesnière Lucien Tesnière, né le à Mont-Saint-Aignan (Seine-Inférieure) et mort le à Montpellier (Hérault), est un linguiste français, considéré comme le fondateur de la grammaire de dépendance. Biographie. Professeur à Strasbourg (1924), puis à Montpellier (1937), il a publié des travaux sur les langues slaves, mais il est surtout connu pour sa théorie syntaxique originale, exposée dans son livre posthume "Éléments de syntaxe structurale" (1959), où il propose une formalisation des structures syntaxiques de la phrase, en s'appuyant sur des exemples tirés d'un grand nombre de langues. Les trois ordres de la phrase. Le modèle de Tesnière se base sur la distinction entre l'ordre linéaire et l'ordre structural de la phrase. L'ordre linéaire, monodimensionnel, est réalisé en discours et observable, alors que l'ordre structural est pluridimensionnel et caché. Dès les premières pages de son livre "Éléments de syntaxe structurale", il cite la notion de "innere Sprachform" (Wilhelm von Humboldt) pour postuler qu'il existe une structure non-matérielle sous-tendant la structure visible d'un énoncé. Les transformationistes y reconnaîtront l'opposition entre structure profonde et structure de surface dans la grammaire générative. Stemma. Pour représenter l'ordre structural, Tesnière utilise une représentation graphique qu'il appelle "stemma". Le stemma sert à visualiser des relations verticales et horizontales au sein des constructions syntaxiques. Les "stemmas" de Tesnière (on lit parfois le pluriel "stemmata") préfigurent les arbres syntaxiques de la grammaire générative, mais l'organisation des unités représentées correspond à des liens spécifiques qui ne figurent pas la structure de l'analyse en constituants immédiats. Un modèle dépendanciel. Relations fondamentales. La notion de dépendance n'est pas définie à proprement parler par Lucien Tesnière. On cite généralement la définition de Paul Garde: La notion de "nœud" recouvre la notion de connexion. Le régissant et ses subordonnés constituent un nœud. Structure générale de la phrase. La phrase exprime « un petit drame ». Selon Tesnière (1959: ch. 48), le verbe est le centre du «petit drame» qu'exprime la phrase. Selon cette conception, qui mêle sémantique et syntaxe, il est en relation avec des acteurs et des circonstances, qui sont exprimés respectivement par des "actants" et des "circonstants". On retiendra les définitions de Tesnière Le verbe comme "nœud des nœuds". Le verbe est l'élément de niveau hiérarchique le plus élevé, il régit des compléments, qui régissent eux-mêmes des éléments subordonnés, y compris le sujet. Son intuition que le sujet (grammaire) n'est qu'un actant parmi d'autres résonne avec l'hypothèse d'un sujet à l'intérieur du SV (syntagme verbal) des théories générativistes. Classes de mots et fonctions syntaxiques. Selon Tesnière, la nature de la dépendance liant les mots de la phrase est déterminée par la partie du discours à laquelle ils appartiennent. Il y aurait donc une sorte de déterminisme morphologique, les classes de mots gouvernant la syntaxe. Connexion et déterminisme morphologique. Tesnière décrit ainsi les mots qu'il dit «pleins», qui sont les seuls à pouvoir posséder des dépendants. Ces «espèces de mots» sont représentées par une lettre, qui correspond à leur terminaison en espéranto. Translation. Un mot peut assumer une fonction qui n'est pas prévue par sa nature en subissant une translation. Ainsi, un nom peut être transféré en adverbe et assumer la fonction de circonstant. La translation est une opération à deux termes: Par exemple dans la phrase "Il a plu pendant un an", le mot "an" (transférende) est un substantif qui est transféré en adverbe grâce au translatif "pendant". De ce fait, il peut assumer la fonction de circonstant. Il existe deux types de translation : |
Laurent Lafforgue Laurent Lafforgue est un mathématicien français, né le à Antony. Il a reçu la médaille Fields en 2002 pour avoir démontré une partie des conjectures de Langlands. Biographie. En 1984 et 1985, Laurent Lafforgue participe aux Olympiades internationales de mathématiques, et reçoit une médaille d'argent les deux années. Il est aussi lauréat du concours général. Ancien élève de l'École normale supérieure il effectue sa thèse sous la direction de Gérard Laumon dans l'équipe d'arithmétique et géométrie algébrique du laboratoire de mathématiques d'Orsay de l'université Paris-Sud (Paris XI). Dans ce même laboratoire, il travaille alors comme chargé de recherches, puis devient directeur de recherches au CNRS. En 2000, il devient professeur de mathématiques à l'Institut des hautes études scientifiques (IHÉS). En 2002, il reçoit, avec Vladimir Voevodsky, la médaille Fields au cours du international des mathématiciens qui se déroule cette année-là à Pékin. Il apporte une contribution exceptionnelle dans les domaines de la théorie des nombres et de la géométrie algébrique, en démontrant une partie des conjectures de Langlands. Le mathématicien ukrainien Vladimir Drinfeld a établi le cas du groupe linéaire en deux variables sur les corps de fonctions des courbes en caractéristique positive. Généralisant la méthode de Drinfeld, Laurent Lafforgue démontre le cas des groupes linéaires en un nombre quelconque de variables sur ces mêmes corps de fonctions. Laurent Lafforgue est membre de l'Académie des sciences, section mathématiques, depuis le . En 2004, il commence à s'intéresser au système éducatif français et se rapproche du collectif "Sauver les lettres". Il cosigne avec Alain Connes et d'autres scientifiques le texte "Les savoirs fondamentaux au service de l’avenir scientifique et technique : comment les réenseigner" où ils expriment leur point de vue sur l'enseignement des mathématiques et du français à l'école primaire. Nommé membre du Haut Conseil de l'éducation (HCE) par le président de la République de l’époque, Jacques Chirac, il en démissionne à la demande du président du HCE au lendemain de la première réunion de travail le . Selon Laurent Lafforgue, le motif invoqué aurait été le contenu virulent d'un courriel où il expose ses réticences concernant la qualification des experts du ministère de l'Éducation nationale nommés pour mener à bien le travail du HCE. Il est remplacé le par Antoine Compagnon, universitaire et historien de la littérature. Il écrit avec Liliane Lurçat un livre intitulé "La Débâcle de l'école" et donne de nombreuses interviews et conférences sur l'éducation. En 2016, il cofonde l'École professorale de Paris, établissement privé de formation des enseignants. Le 1er septembre 2021, il rejoint Huawei Technologies France. Fratrie. Fils de deux ingénieurs du CEA, Laurent Lafforgue a deux frères, Thomas (cadet) qui est professeur en deuxième année de classe préparatoire (PC*) aux grandes écoles au lycée Louis-le-Grand, et Vincent (benjamin), mathématicien, directeur de recherche CNRS à l'université de Grenoble. Engagements. Laurent Lafforgue s'est engagé vigoureusement pour la promotion d'un enseignement classique dans l'école républicaine. Il dénonce le « reniement par l'école de ses principes », et promeut l'enseignement laïc et républicain, qui est pour lui un héritier des écoles chrétiennes, et dont il est personnellement issu, ainsi que ses parents et frères. Récemment, il a contribué aux activités de la Fondation Lettres et Sciences, fondée en 2004 par Philippe Nemo et abritée par la Fondation pour l'école, qui a pour but de soutenir la formation des professeurs de lettres et de sciences . Dans ce cadre, il a cofondé l’École professorale de Paris, où il enseigne les mathématiques. |
Matrice Une (ou la) matrice (du latin (), lui-même dérivé de , qui signifie « mère ») est un élément qui fournit un appui ou une structure, et qui sert à entourer, à reproduire ou à construire. |
Mykonos Mykonos ou Myconos (en français usuel), (ou Mýkonos, translittération du / ) est une île de la mer Égée située dans le nord des Cyclades grecques, localisée entre Tinos au nord, Syros à l'ouest, Paros et Naxos au sud. En 2001, elle a accueilli touristes. Les villes les plus importantes sont Mýkonos (Chóra) et Áno Merá. Ses habitants sont appelés "Mykoniates" ou "Mykoniens". Géographie. Mykonos se trouve à (quatre heures de traversée en ferry) au sud-est du port du Pirée. L'île a une forme de triangle irrégulier brisé par de petites criques dont les plus importantes sont à Panormos (nord), Tourlos (ouest) et celle qui constitue le port de Mykonos Chora (capitale de l'île). Les principaux promontoires de l'île sont Aligomantra, Armenistis, et Evri en face de Dragonisi. À moins de au sud-ouest se trouvent les îles historiques de Délos et Rhénée. D'autres îlots dépendent administrativement de Mykonos : Ano Rematiaris - Kato Rematiaris - Kouneli - Prasso - Sfontili - Kromidi - Ag. Giorgos - Kavoura - Marmaronisi - Moles et Tragonísi. Localités. L'île comprend une dizaine de Localités : Géologie. Le sous-sol de l'île est principalement composé de granite, de roches sédimentaires (au nord-est) et de roches métamorphiques de type schiste bleu. Il existe de nombreux ruisseaux intermittents, mais aucun cours d'eau permanent, et une seule source, située près du monastère de la Panagia Tourliani ; la majeure partie de l'eau provient donc de puits. Relief. Il existe deux modestes massifs montagneux : l'Anomeritis (est) et le Vorniotis (nord-ouest), comprenant chacun deux sommets ; les deux plus hauts sommets de ces deux massifs sont appelés Profitis Ilias ("le prophète Élie"). Climat. Le climat de Mykonos est de type méditerranéen, tempéré chaud. Il se caractérise par une sécheresse estivale et des précipitations variables. Les températures moyennes sont de l'ordre de . Les deux caractéristiques du climat de l'île sont l'ensoleillement et le vent. Durant l'été, la température moyenne est de , tandis que l'hiver, elle est de . Le nombre de jours de précipitations annuelles est de 71. L'hiver, l'île subit les vents violents du sud qui apportent souvent avec eux les orages électriques. Le plus célèbre est le sirocco, qui chaque printemps apporte le sable des déserts et des pluies rouges. L'été, c'est le meltemi qui domine en juillet et août, soufflant tout au long de la journée et réduisant sa vitesse au cours de la nuit. Les vents de tempête ne sont pas rares. Flore et faune sauvage. L'île manque de forêts et présente peu de plantations ou cultures. Celles existantes sont du blé, de l'orge, du raisin et des figuiers. Auparavant, Mykonos était réputée pour la chasse aux cailles et aux tourterelles. Les résidents pratiquent la pêche, qui est loin de couvrir les besoins de l'île, et l'élevage. Administration et population. Mykonos fait partie de la périphérie (région administrative) de l'Égée-Méridionale (dont le siège est Ermoúpoli, sur l'île de Syros), et dont elle constitue un des districts régionaux. L'île forme un dème (municipalité) depuis 1997, à la suite de la fusion, dans le cadre du programme Kapodistrias, des deux circonscriptions préexistantes qui sont devenus des districts municipaux : La population de Mykonos a varié selon les époques, oscillant de et , et s'est accrue par les migrations de Crète ou des plus proches îles : Naxos, Folegandros, Sikinos, Kimolos, après les famines et les épidémies, puis les conflits jusqu'à la fin du . Mythologie. Selon la mythologie, l'île prend son nom du héros Mycon, fils du roi Aniou de Délos, lui-même fils du dieu Apollon et de la nymphe Rios (ou Royous), fille de Dionysos. Une autre légende veut que les géants qui ont été exterminés par Héraclès pendant la guerre des géants soient enterrés sous les imposantes roches de Mykonos. Histoire. Préhistoire. Le premier peuplement attesté de l’île remonte au Néolithique : il s’agit de tribus originaires de Carie. Puis les Phéniciens leur succèdent. Antiquité. Une tombe à tholos datant de la fin du IIe millénaire av. J.-C. appartenant probablement à un noble a été mise au jour sur l'île. Au début du , des Ioniens d'Athènes se sont installés et ont dominé l’île après en avoir expulsé les dominateurs précédents, des Achéens. Pendant les guerres médiques, Mykonos accueille le général perse Datis, de retour de la bataille de Marathon. Par la suite, Mykonos fait partie de la ligue de Délos, au sein de laquelle elle paie un tribut d’un talent et demi, réduit à un talent, par la suite. En raison de sa proximité avec Délos, l’île sert de base de ravitaillement à cette dernière. Le temple d’Apollon à Délos possède ainsi des terres au sud-ouest de Mykonos. L’île était plutôt pauvre bien qu’étant une île agricole. Les habitants étaient adorateurs de Dionysos, Déméter, Zeus, Apollon, Poséidon et Héraklès. Pline l'Ancien () précise à propos de l'île : « Mycone, avec le mont Dimaste, à de Délos ». Moyen Âge. À partir de 1204, à la suite de la Quatrième croisade et de la chute de Constantinople, les conquérants latins se partagent l'empire Byzantin. La souveraineté sur les Cyclades revient aux Vénitiens, qui annoncent qu'ils cèdent l'administration des îles à celui étant capable de les gérer en leur nom. De nombreux aventuriers arment des flottes à leurs propres frais et les frères Andrea et Geremia Ghisi deviennent maîtres de Tinos et Mykonos. L'île passe ensuite sous administration vénitienne directe, comme Tinos, en 1390. Époque moderne. En 1537, l'île est attaquée par le grand amiral de Soliman le Magnifique, Barberousse, et passe sous contrôle ottoman, étant rattachée au domaine du Kapudan Pacha. Pendant la période ottomane, l'île est pratiquement autonome, les impôts étant collectés par les autorités locales. De nombreux habitants de l'île sont actifs pendant la révolution d'Orloff (1770-1774), au cours de laquelle Mykonos est occupée par les Russes. L'économie de l'île profite ensuite du traité entre les Ottomans et l'Empire russe. Des entreprises de boulangerie et de meunerie s'y développent, grâce au blé d'Ukraine, transformé en pains et en biscuits, ensuite envoyés sur des navires. Pendant la Révolution française, une bataille navale le 17 juin 1794 oppose le Royaume-Uni et la France. L'île participe à la guerre d'indépendance grecque. Elle résiste à une expédition punitive ottomane en empêchant le débarquement d'un escadron de la flotte de l'Empire ottoman en 1822 grâce à son héroïne locale Manto Mavrogenous. Les Myconiens participent activement à la guerre, avec quatre navires armés, dont deux sont totalement équipés et fournis par Manto Mavrogenous : avant que la guerre soit finie, elle avait dépensé la quasi-totalité de sa considérable fortune familiale. Économie. Durant les années 1950 et en raison du développement du tourisme la popularité de l'île a augmenté ainsi que sa population. Aujourd'hui, on estime que Mykonos compte et qu'il y a étrangers. Pendant les mois d'été durant la saison touristique l'île accueille plus de , habitants et travailleurs à temps partiel. Plus de 80 % des emplois de l'île sont impliqués dans l'industrie du tourisme, le reste se répartit entre la pêche, l'agriculture et la construction. Selon le dernier recensement fait en Grèce (2001) la population de l'île s'élevait à . L'activité principale de l'île est le tourisme. En octobre 2010, l'île a été élue destination européenne favorite par lors d'une consultation pour le magazine Condé Nast Traveler. En 2010, un article paru dans la presse britannique révèle que le gouvernement Grec, pour faire face à la crise grecque, envisageait de vendre une partie de l'île. Agriculture. L'élevage est pratiqué sur l'île, ainsi que la pêche et la culture de céréales. Mines : manganèse, fer, cuivre et galène. Les mines de l'île sont à l'abandon, les gisements ne sont plus exploités. Transports. Transport maritime. La vie de l'île a toujours été liée au port de Mykonos. L'augmentation du tourisme a conduit l'île, en 1994, à lancer des travaux qui ont duré jusqu'en 2002 : le vieux port n'était pas suffisant pour accueillir les ferries et les navires de croisière. De plus le port n'était pas protégé contre les vents du nord, rendant l'ancrage des navires difficile. En 2011, un appel d'offres est lancé pour la rénovation du port. L'île de Mykonos est desservie par de nombreuses liaisons maritimes (ferry classiques et NGV) à partir des ports du Pirée, de Raffina ou Héraklion. Les liaisons au départ du Pirée sont quotidiennes et durent toute l’année et l’été ils se doublent ou se multiplient selon la période. Transport aérien. L'aéroport de Mykonos, construit en 1971, se trouve à quatre kilomètres au sud est de la ville de Mykonos et est desservi par des vols internationaux durant tout l'été. Hors saison estivale, cet aéroport est desservi par des vols nationaux. Il est doté d'une piste d'une longueur de . Transport routier. Le réseau routier de Mykonos est très correct. Des bus municipaux (KTEL) desservent pratiquement toutes les régions de l'île. Mykonos possède deux arrêts de bus centraux : le premier est localisé dans la partie sud de la ville de Mykonos (près de la place Fabrika) et il dessert principalement les plages du sud : Ornos, Agios Ioannis, Paranga, Psarou, Platis Gialos et Paradise. Le deuxième arrêt de bus est situé au nord de Hora (près du Musée archéologique) et dessert les plages de l'ouest, ainsi que les villages d'Ano Mera et de Tourlos. Par ailleurs, il existe un grand nombre de taxis. En complément de ces deux réseaux, il existe des navettes « caïques » converties l’été en « taxis ». Elles partent du vieux port et de Platis Gialos pour les plages suivantes : Super Paradise, Agrari, Elia, Paranga et Paradise. Tourisme. Principales attractions touristiques. L'église Panagias Paraportiani : il s'agit d'un assemblage de 5 chapelles différentes. Elle se situe dans le quartier du kastro (château) sur une colline fortifiée par les Vénitiens, dont il reste encore quelques vestiges des remparts. C'est la plus importante des quatre cents églises et chapelles présentes à travers l'île. Son architecture typique est un mélange d'éléments populaires byzantins et d'architecture cycladique locale. Elle a été construite par un artisan anonyme au ou . Elle est surmontée d'un clocher et d'une coupole, entièrement chaulés, qui se dressent face à la mer. Plages. Les plages sont nombreuses sur l'île : au sud de la marina, la petite plage de sable d'Agia Anna. Plus au sud à la sortie de Mykonos, s'étend la longue plage de sable de Magali Amnos. Au nord se trouvent les plages de Tourlos et d'Agios Stefanos. Pour rejoindre le sud de l'île, des caîques, permettent de se rendre à Paranga Beach, Paradise Beach, Super Paradise, les plages les plus célèbres de l'île. Tourisme pour la communauté homosexuelle. Depuis les années 1970, Mykonos est une destination réputée pour la communauté homosexuelle. Il existe ainsi de nombreux sites dédiés à la communauté gay (hôtels, restaurants, bars, plages et clubs). Personnalités. De nombreuses personnalités ont séjourné sur l'île, comme Aristote Onassis et Jackie Kennedy, Jean Seberg et Romain Gary, Richard Burton et Elizabeth Taylor, Jean-Paul Sartre et Simone de Beauvoir, Jean-Paul Gaultier ou encore Ana Beatriz Barros. Les districts de l'île. L'île de Mykonos se compose des districts suivants : Culture. Sports. Les activités sportives les plus pratiquées sur l'île sont les sports nautiques (ski nautique, voile, planche à voile et plongée sous-marine), mais aussi l'équitation. Mykonos a un grand nombre de clubs de sport. Spécialités culinaires. Outre l'ensemble de la cuisine grecque, les spécialités de l'île sont le Louza Loukaniko, une sorte de saucisse, et le Kopanisti, un fromage frais de chèvre au poivre. |
Ministère de l'Économie, du Commerce et de l'Industrie Le , plus connu sous son acronyme anglais METI () est le , du Commerce extérieur et de l’Industrie du Japon, institué en 2001. Depuis le 10 août 2022, le ministre est Yasutoshi Nishimura. Histoire. Il s’appelait initialement MITI (, «ministère du Commerce extérieur et de l'Industrie»), qui avait été fondé en 1949. Ses principales missions: Il est notamment le ministère de tutelle de: |
Mécanique analytique La mécanique analytique est une branche de la mécanique classique, dont elle constitue une formulation très mathématisée et de portée très générale. La mécanique analytique s'est avérée un outil très important en physique théorique. En particulier, la mécanique quantique emprunte énormément au formalisme de la mécanique analytique. Contrairement à la mécanique d'Isaac Newton qui s'appuie sur le concept de point matériel, la mécanique analytique se penche sur les systèmes arbitrairement complexes, et étudie l'évolution de leurs degrés de libertés dans ce qu'on appelle un espace de configuration. Les lois du mouvement sont quant à elles déduites d'un principe variationnel qui, appliqué à une grandeur appelée action, donne le principe de moindre action. En substance, le principe de moindre action énonce que parmi toutes les trajectoires possibles pour relier deux points de l'espace de configuration, celle qui est effectivement parcourue par le système est celle qui donne une valeur minimale à l'action. Mécanique lagrangienne. Étant donnés deux points A et B de l'espace de configuration, et une trajectoire formula_1 effectivement parcourue, la donnée d'un point C sur cette trajectoire fait apparaître deux trajectoires intermédiaires formula_2 et formula_3. Ces deux trajectoires étant effectivement parcourues, elles doivent nécessairement donner une valeur extrémale à l'action pour leurs points de départ et d'arrivée respectifs. La somme de ces deux actions sera alors extrémale par rapport à toutes les trajectoires possibles entre A et B passant par C, ce qui suggère que la somme de l'action entre A et C d'une part, et C et B d'autre part, est égale à l'action de la trajectoire correspondante entre A et B passant par C : En appliquant ce raisonnement à une infinité de points répartis sur une trajectoire reliant les points A et B, on peut écrire l'action ainsi : où "s" est la position du système dans l'espace de configuration, et d"s" est un élément infinitésimal de déplacement sur la trajectoire considérée. formula_6 est ce qu'on appelle le lagrangien, du nom du physicien français Joseph-Louis Lagrange. Il ne dépend pas de la trajectoire mais uniquement de la position dans l'espace de configuration. En mécanique classique non relativiste, l'espace de configuration est constitué par les degrés de libertés du système et leurs dérivées par rapport au temps, de telle sorte que l'expression de l'action s'écrit le plus souvent : où formula_7 la position du système dans l'espace de configuration, et formula_8 la dérivée de formula_7 par rapport au temps. Le fait que l'intégrale est calculée pour une trajectoire donnée entre deux points est ici implicite. L’expression exacte du lagrangien est quant à elle obtenue en général à l'aide de considérations sur les symétries observées par le système. Les lois du mouvement sont ensuite obtenues à partir de ce qu'on appelle le calcul variationnel, qui permet de calculer un élément formula_10 infinitésimal de variation de l'action entre deux trajectoires infiniment proches. formula_11. Une intégration par parties permet alors de réécrire cette expression ainsi : formula_12, ce qui, dans le cas où par application du principe de moindre action on a formula_13, aboutit aux équations du mouvement dites d'Euler-Lagrange : </math>. Ces équations constituent la base de la mécanique lagrangienne. Le principe de d'Alembert est parfois utilisé pour parvenir au même résultat, avec comme avantage qu'il permet d'obtenir une expression du Lagrangien : où formula_14 et formula_15 sont respectivement l'énergie cinétique et l'énergie potentielle du système. Une manière intuitive pour retrouver l'expression du Lagrangien consiste à considérer les écritures de l'impulsion et du champ de force dans l'espace cartésien : formula_16. Comme l'impulsion ne dépend pas de la position et le champ de force ne dépend pas de la vitesse, l'expression formula_17 permet de retrouver l'un et l'autre en dérivant respectivement par la vitesse et la position. formula_18. L'équation d'Euler-Lagrange s'avère alors être l'exact équivalent de la deuxième loi de Newton : Le principal avantage de l'équation d'Euler-Lagrange par rapport à la loi de Newton est qu'elle reste valable dans le système de coordonnées généralisées formula_19 et non uniquement dans le système de coordonnées cartésiennes formula_20. Mécanique hamiltonienne. L'expression formula_21 est appelée "impulsion généralisée". On doit à Joseph-Louis Lagrange d'avoir introduit cette notion puis à William Rowan Hamilton qui a approfondi le travail de Lagrange, utilisant la transformée de Legendre du lagrangien, appelée Hamiltonien et notée formula_22 , satisfaisant la relation : En utilisant l'hamiltonien, les équations du mouvement deviennent : formula_23 que l'on peut noter de façon plus compacte : Ces équations, qui forment la base de la mécanique hamiltonienne, ont une interprétation géométrique immédiate : elles montrent que dans l'espace des phases (et non plus maintenant dans l'espace de configuration), la trajectoire suivie est tangente aux surfaces égalisant l'hamiltonien. Autrement dit, l'hamiltonien est une "constante du mouvement", ce qui conforte son assimilation avec le concept d'énergie. Crochet de Poisson. Les équations du mouvement de la mécanique hamiltonienne permettent d'exprimer la dérivée temporelle de n'importe quelle fonction formula_24 de formula_7 et formula_26 : formula_27 Cette expression a amené le physicien français Siméon Denis Poisson à introduire l'opération dite crochet de Poisson, qui se calcule entre deux fonctions quelconques dans l'espace de phase : ce qui permet de réécrire les lois du mouvement, pour n'importe quelle fonction A de l'espace de phase : Il s'avère que le crochet de Poisson permet de donner une structure algébrique à la mécanique analytique. Cette structure, non commutative, est profondément analogue à l'algèbre des observables de la mécanique quantique. L'équation précédente est par exemple l'exacte analogue du théorème d'Ehrenfest. Voir aussi. Les outils permettant de traiter ces problèmes sont, entre autres : |
Mécanique quantique La mécanique quantique est la branche de la physique théorique qui a succédé à la théorie des quanta et à la mécanique ondulatoire pour étudier et décrire les phénomènes fondamentaux à l'œuvre dans les systèmes physiques, plus particulièrement à l'échelle atomique et subatomique. Elle fut développée dans les années 1920 par une dizaine de physiciens européens, pour résoudre des problèmes que la physique classique échouait à expliquer, comme le rayonnement du corps noir, l'effet photo-électrique, ou l'existence des raies spectrales. Elle se montra féconde en résultats et en applications diverses : elle permit notamment d'élucider le mystère de la structure de l'atome et, plus globalement, elle s'avéra être le cadre général de description du comportement des particules élémentaires, jusqu'à constituer le socle de la physique moderne. La mécanique quantique comporte de profondes difficultés conceptuelles. Si son formalisme mathématique est d'une efficacité inégalée, son interprétation ne fait pas l'unanimité dans la communauté scientifique. Parmi ses concepts, on peut citer la dualité onde corpuscule, la superposition quantique, l'intrication quantique ou encore la non-localité. L'expression physique quantique désigne le corpus théorique plus étendu qui s'appuie sur la mécanique quantique pour décrire un ensemble plus vaste de phénomènes, dont les interactions fondamentales dans le modèle standard. Un quantomécanicien est un spécialiste de mécanique quantique et un quantochimiste un spécialiste de chimie quantique. Panorama général. Globalement, la mécanique quantique se démarque de la physique classique par deux aspects : des règles différentes quant à l'additivité des probabilités, et l'existence de grandeurs physiques ne pouvant se manifester que par multiples de quantités fixes, appelés quanta, qui donnent leur nom à la théorie. Lois de probabilités. Dans la conception classique des lois de probabilité, lorsqu'un événement peut se produire de deux façons différentes incompatibles l'une avec l'autre, les probabilités s'additionnent. Tel n'est pas le cas en mécanique quantique, où la probabilité d'un évènement est liée à une amplitude de probabilité susceptible d'interférer, y compris de façon destructive. Cette propriété est illustrée par l'expérience des fentes de Young, considérée notamment par Richard Feynman comme la plus emblématique du comportement quantique de la matière. Dans son cours de mécanique quantique, Feynman consacre un long chapitre à son analyse détaillée. Cette expérience illustre aussi le concept de dualité onde-corpuscule, à la base de l'interprétation standard de la théorie. On considère actuellement qu'aux échelles macroscopiques, l'apparente non-observation de ce comportement probabiliste s'explique par un phénomène appelé décohérence. Cependant d'autres explications existent, mais aucune ne fait l'unanimité : elles relèvent essentiellement de différences dans l'interprétation de la mécanique quantique. Existence des quanta. La mécanique quantique tire son nom de l'existence de grandeurs ne pouvant se manifester que par multiples de quantités fixes, souvent liées à la constante découverte par Max Planck. Ces grandeurs sont par exemple l'énergie ou le moment cinétique des particules. L'illustration la plus manifeste et la plus riche en conséquences de ce phénomène se trouve probablement dans la structure de l'atome et plus précisément dans l'organisation des électrons autour du noyau. En effet, les électrons se répartissent en occupant les places laissées libres par les valeurs possibles des nombres quantiques liés à leur énergie et leur moment cinétique. Cette organisation permet d'expliquer le comportement chimique et spectroscopique des éléments naturels. L'existence des quanta n'est pas une propriété fondamentale de la mécanique quantique, car elle peut être démontrée à partir d'autres considérations, notamment relatives à la règle sur l'additivité des probabilités mentionnée plus haut. Cependant, elle constitue certainement l'un des aspects les plus caractéristiques de la mécanique quantique, car c'est elle qui se manifeste le plus aisément dans les équations, et c'est historiquement par cet aspect que la mécanique quantique fut découverte. Histoire. C'est incontestablement la résolution du problème du rayonnement du corps noir qui a marqué le début de la théorie quantique. Au début du , Max Planck résout en effet ce problème en prenant l'hypothèse que l'énergie formula_1 des atomes ne peut s'échanger que par multiples d'une quantité particulière, proportionnelle à la fréquence formula_2 du rayonnement et à une nouvelle constante formula_3 appelée depuis constante de Planck et reconnue par la suite comme l'une des quatre constantes fondamentales : Cette idée de grandeurs énergétiques ne pouvant s'échanger que de façon discrète inspirera alors de nombreux physiciens, comme Niels Bohr, qui s'en serviront notamment pour développer un modèle de la structure de l'atome. Plus généralement, ce fut le début de ce qu'on appela la théorie des quanta. Peu de temps après la découverte de Planck, Albert Einstein, à la suite notamment de son analyse de l'effet photo-électrique, suggère que la quantité "h"ν est l'énergie d'une particule électromagnétique qui sera plus tard appelée photon. Cette réintroduction d'une conception corpusculaire de la lumière va inciter Louis de Broglie à proposer une relation analogue à celle de Planck, mais pour la quantité de mouvement : où formula_6 est un vecteur d'onde. formula_7 est la constante de Planck dite réduite. Ce faisant, il est l'instigateur de la dualité onde corpuscule qui incitera certains physiciens à rechercher une description ondulatoire de la matière. Parmi ceux-ci, Erwin Schrödinger y parvient et obtient une équation différentielle, portant désormais son nom, qui permet de décrire précisément l'évolution quantique d'une particule. Cette équation prouva rapidement sa pertinence dans sa description du modèle de l'atome d'hydrogène. Parallèlement, Werner Heisenberg avait développé une approche radicalement différente, qui s'appuyait sur des calculs matriciels directement inspirés de la mécanique analytique classique. Ces deux approches, ainsi que la confusion concernant le concept de dualité onde corpuscule, donnaient à la mécanique quantique naissante un besoin de clarification. Cette clarification intervint grâce aux travaux d'un physicien britannique, Paul Adrien Dirac. Dans un livre publié en 1930, intitulé "Principes de la mécanique quantique", Dirac montre que les deux approches, celles de Schrödinger et d'Heisenberg, ne sont en fait que deux représentations d'une même algèbre linéaire. Dans cet ouvrage fondateur, Dirac extrait les lois proprement quantiques, en faisant abstraction des lois déjà imposées par la physique classique. Dirac donne alors une représentation axiomatique de la mécanique quantique, probablement inspirée des développements mathématiques de l'époque, notamment en ce qui concerne la géométrie projective. Le travail de Dirac avait été précédé quelques années auparavant par celui de John Von Neumann, mais l'ouvrage de Von Neumann était beaucoup plus rigoureux sur le plan mathématique, de telle sorte qu'il plaisait surtout aux mathématiciens. Les physiciens lui ont préféré celui de Dirac et c'est donc essentiellement l'ouvrage de Dirac qui a laissé une postérité. Dans la préface d'une ré-édition de son livre, Von Neumann mentionne l'ouvrage de Dirac et le décrit comme , mais ajoute tout de même dans le paragraphe suivant que sa méthode . Quelques exemples de succès. Historiquement, la théorie a d'abord permis de décrire correctement les structures électroniques des atomes et des molécules, ainsi que leurs interactions avec un champ électromagnétique. Elle explique aussi le comportement de la matière condensée, dont : La mécanique quantique a aussi résolu le paradoxe de Gibbs : en physique statistique classique, des particules identiques sont considérées comme discernables, et l'entropie n'est alors pas une grandeur extensive. L'accord entre la théorie et l'expérience fut rétabli en tenant compte du fait que des particules identiques sont "indiscernables" en mécanique quantique. La théorie quantique des champs, généralisation relativiste de la mécanique quantique, permet quant à elle de décrire les phénomènes où le nombre total de particules n'est pas conservé : radioactivité, fission nucléaire (c'est-à-dire la désintégration du noyau atomique) et fusion nucléaire. Notions fondamentales. Paul Dirac dégage les propriétés essentiellement quantiques des phénomènes physiques et les exprime à travers quelques postulats et concepts qui sont à la base de la mécanique quantique. Elles sont présentées ici d'une façon moins formelle, plus propice à une compréhension générale. L'article détaillé présente leur formulation de façon plus rigoureuse mais aussi plus abstraite. État quantique. En substance, un état quantique est ce qui quantifie ce que l'on peut savoir d'un système quantique. Il permet de calculer les probabilités et les valeurs moyennes mesurées des observables (position, quantité de mouvement, etc.). Les états quantiques sont décrits mathématiquement par vecteur d'état dans un espace de Hilbert, représenté par une notation dédiée introduite par Dirac, dite notation bra-ket. Un état quantique s'écrit alors sous la forme formula_8. L'évolution dans le temps de ce vecteur d'état est décrit mathématiquement par la fonction d'onde formula_9, gouvernée par l'équation de Schrödinger. Ces deux représentations concernent les états purs, c'est-à-dire les états de systèmes quantiques simples idéalisés et isolés, où chaque composante peut être quantifiée et observée. Pour les états mixtes, représentant les états quantiques en interaction complexe avec un environnement ou un appareil de mesure, où les composantes sont trop nombreuses ou inaccessibles à l'observation, l'état quantique est plutôt représenté par une matrice densité. Dans le cas de la notation bra-ket, on exprime l'état quantique en fonction des états propres, c'est dire les états pour lesquels on est sûr que si on effectuait une mesure d'une observable, on obtiendrait à coup sûr une valeur donnée. On utilise en général pour ces états le même symbole que celui utilisé pour identifier cette valeur. Par exemple, lorsqu'on est sûr que si on effectuait cette mesure, le résultat serait une valeur formula_10, alors on note l'état formula_11. Il existe en général un certain nombre (voire une infinité) d'états propres pour une observable donnée. Par exemple, si on s'intéresse au spin d'une particule de spin 1/2, on obtient deux états propres de direction opposée : formula_12 et formula_13. Pour l'observable de position, on obtient une infinité d'états propres correspondant à chacune de positions possibles formula_14 ... formula_15. Ces états propres sont des vecteurs orthogonaux de l'espace vectoriel de Hilbert, et en forment une base, liée à une observable donnée. Un état quantique quelconque est alors exprimé comme une combinaison linéaire de ces états propres, par exemple un état généralisé de spin 1/2 : formula_16, a et b étant des nombres complexes. Deux états quantiques quelconques distincts ne sont pas forcément "distinguables", car il existe une probabilité que la mesure de deux états distincts donne la même valeur mesurée. Deux états quantiques sont dits "distinguables" lorsqu'il existe au moins un processus de mesure dans lequel on est absolument sûr que les deux états donnent des résultats différents. Principe de superposition. Le plus important postulat de la mécanique quantique est probablement le principe de superposition. Selon ce principe, si un système physique peut se trouver dans un état formula_17, et si de même il peut se trouver dans un état formula_8, alors il peut aussi se trouver dans un état linéairement composé : où formula_10 et formula_21 sont deux nombres complexes quelconques. Autrement dit, l'ensemble des états possibles d'un système physique est un espace vectoriel (ou plus précisément un espace de Hilbert, comme mentionné plus haut), dont la dimension peut être quelconque. Le point important est qu'un état superposé n'est pas un état traduisant une ignorance vis-à-vis de l'état « réel » du système, mais bien une indétermination intrinsèque au système, qui n'est ni dans l'état formula_17, ni dans l'état formula_8. Ce point souleva de nombreux questionnements dans la communauté scientifique. En particulier, le principe de superposition est à l'origine de ce qu'on appelle le problème de la mesure quantique, que Schrödinger popularisa en l'appliquant à un chat qui ne serait, selon le paradoxe de Schrödinger, ni mort, ni vivant. Le principe de superposition fut aussi analysé et critiqué par Einstein qui, avec Boris Podolsky et Nathan Rosen, imagina une expérience, dite expérience EPR, afin de le mettre en défaut. Une expérience comparable fut menée à la fin du par Alain Aspect, qui confirma le principe de superposition. Règle de Born. La règle de Born, du nom du physicien Max Born, est une interprétation probabiliste des coefficients linéaires du principe de superposition. Elle est d'ailleurs souvent appelée interprétation probabiliste. Cette règle peut être illustrée en considérant par exemple le chat de Schrödinger, évoqué plus haut, et dont l'état quantique peut être écrit ainsi : Une expérience qui chercherait à déterminer si ce chat est mort ou vif ne donnerait aucun résultat avec certitude (dans le cas contraire le chat serait soit dans l'état formula_25, soit dans l'état formula_26). De façon simplifiée, il peut être dit que la règle de Born quantifie cette incertitude en stipulant que la probabilité de trouver le chat mort est égale au carré du module de formula_10, divisé par la somme des carrés des modules de formula_10 et formula_21. Plus généralement, pour un système dont le vecteur d'état est une combinaison linéaire d'états distinguables formula_30, la probabilité pour que le résultat de la mesure définissant la distinguabilité soit le même que si le système avait été dans l'état formula_31 est : où les formula_33 sont les coefficients linéaires du vecteur d'état. Pour simplifier les calculs, les vecteurs d'états sont en général normalisés afin que le dénominateur soit égal à un. Cela n'affecte en rien les calculs de probabilités. En pratique, la règle de Born s'écrit donc le plus souvent : ou encore : La règle de Born est l'un des postulats de la mécanique quantique les plus difficiles à appréhender. Il fait aussi l'objet de controverses, ne serait-ce que parce que son statut axiomatique est mis en doute par au moins deux interprétations : l'interprétation des mondes multiples et l'interprétation transactionnelle. Selon ces deux interprétations, la règle de Born peut être déduite à partir de considérations mathématiques et physiques plus profondes. Grandeur observable. Lorsqu'à la suite d'une expérience, on est sûr d'obtenir toujours le même résultat de mesure formula_10, on dit que le système physique considéré est dans l'état formula_11. Ceci ne signifie pas pour autant qu'on connait avec certitude le résultat d'une mesure effectuée avec un dispositif expérimental différent. En d'autres termes, la connaissance même totale de l'état d'un système ne garantit pas la connaissance parfaite de résultats de toute expérience faite sur lui. Ainsi par exemple, si on mesure la position d'une particule dans l'état formula_39, on est sûr qu'on obtiendra formula_40, mais par contre il n'est "a priori" pas possible de savoir avec certitude ce que donnera le résultat de mesure d'impulsion, car sinon la particule serait aussi dans l'état formula_41, ce qui n'est pas le cas général et constitue donc une hypothèse "ad hoc". Plus généralement, si pour un certain processus de mesure "A" on note formula_42 tous les états de résultat de mesure parfaitement déterminés, alors en vertu du principe de superposition, toutes les combinaisons linéaires possibles sont aussi des états possibles pour certains systèmes : Parmi ces combinaisons linéaires, certaines peuvent très bien être des états de mesure parfaitement déterminée pour un autre processus de mesure "B". La question est donc de savoir quel peut être le résultat de mesure de "A" pour ces états « propres » à "B". L'interprétation probabiliste des coefficients linéaires suggère alors que le résultat de mesure, s'il n'est pas déterministe, sera tout de même statistiquement égal à l'espérance mathématique : Cette expression est une forme sesquilinéaire des coefficients formula_45. Dans le sous-espace vectoriel généré par les formula_46, on peut donc écrire cette expression en utilisant un produit scalaire dans lequel la base formula_42 est orthonormée. C'est le choix de ce produit scalaire qui donne un sens à la notation bra-ket : les vecteurs bra, notés « vers la gauche », sont alors les éléments de l'espace dual de l'espace des états ket. On a alors la relation : où formula_49 est le symbole de Kronecker. L'expression de l'espérance mathématique peut alors s'écrire : Le terme formula_51 suggère l'introduction de l'opérateur linéaire dont les vecteurs propres sont les formula_42 et dont les valeurs propres associées sont les formula_33, valeurs possibles des résultats de mesure. Cet opérateur formula_54 est ce qu'on appelle l'observable associé au processus de mesure "A". Ce n'est rien d'autre qu'un outil mathématique qui permet le calcul de l'espérance mathématique du résultat de mesure, espérance qui s'écrit alors : L'intérêt d'une telle expression est qu'elle ne dépend plus explicitement de la base formula_42. On gagne ainsi en abstraction et on simplifie les calculs par une approche synthétique de la mécanique quantique, en opposition à l'approche dite analytique. À partir de considérations algébriques élémentaires, il est facile de se convaincre que l'observable formula_54 est un opérateur auto-adjoint qui peut s'écrire en fonction de ses vecteurs propres et valeurs propres ainsi : Lorsqu'on dispose de suffisamment d'observables pour décrire tout résultat de mesure, on dit qu'on dispose d'un ensemble complet d'observables qui commutent, et c'est dans l'espace hermitien généré par les vecteurs propres de ces observables que l'on travaille. Opérateurs unitaires. Par construction, le produit scalaire dans l'espace formula_59 des états permet de calculer les probabilités de résultats de mesure. Il est alors facile de comprendre que les opérateurs linéaires qui conservent ce produit scalaire jouent un rôle très important en mécanique quantique. En algèbre linéaire, ces opérateurs qui conservent le produit scalaire sont appelés opérateurs unitaires. Ils ont comme propriété essentielle d'être l'inverse de leur adjoint : Cas général. Puisqu'il conserve le produit scalaire, un opérateur unitaire transforme formula_59 en un espace formula_62 physiquement indiscernable car donnant exactement les mêmes probabilités de mesure. Inversement, il est raisonnable de supposer qu'un opérateur transformant l'espace d'états en un espace indiscernable est unitaire. La considération de l'ensemble de tous les opérateurs unitaires sur formula_59, ainsi que d'un sous-ensemble qui puisse être paramétré de façon continue par un scalaire μ, permet alors d'approcher formula_64 au premier ordre en μ : où formula_66 est un opérateur linéaire "a priori" quelconque qui peut, sans perdre en généralité, être écrit sous la forme formula_67. En écrivant la relation d'unitarité de formula_68, il vient, en restant au premier ordre : formula_69 C'est-à-dire que formula_66 est auto-adjoint. En somme, lorsqu'il existe un paramètre formula_71 qui transforme formula_59 de façon continue en un espace formula_73 physiquement indiscernable, alors il existe un opérateur unitaire formula_68 et une grandeur observable formula_66 tels que formula_68 transforme formula_59 en formula_73 et : En assimilant formula_59 à formula_81, et en notant formula_82 le vecteur de formula_73 tel que formula_84, formula_85 apparait comme le taux d'accroissement de formula_82 pour une variation infinitésimale de μ au voisinage de zéro, de telle sorte qu'il peut être écrit : où la dépendance de formula_88 en formula_71 est sous-entendue (formula_90). Équation de Schrödinger. Les considérations précédentes peuvent être utilisées pour introduire l'équation de Schrödinger d'un point de vue théorique, grâce à un principe de symétrie selon lequel les lois de la physique sont invariantes dans le temps. Une autre façon de dire cela est de dire qu'une expérience menée dans un espace d'états formula_91 est indiscernable d'une expérience identique menée dans un espace d'états formula_92. On peut donc appliquer les résultats précédents en prenant t (ou -t) pour formula_71 : Le facteur formula_7 est ici réintroduit pour satisfaire aux contraintes dimensionnelles ignorées jusqu'alors. L'expression détaillée de l'observable formula_96, appelé hamiltonien par analogie avec la mécanique classique, est le plus souvent obtenue à l'aide du principe de correspondance. Cette formulation de l'équation de Schrödinger est assez différente de la formulation historique, et à ce titre elle est parfois appelée "équation de Schrödinger généralisée et dépendante du temps". Impulsion et moment cinétique. Comme pour l'équation de Schrödinger, mais cette fois par application du principe selon lequel les lois de la physique sont invariantes dans l'espace, on introduit l'observable du moment linéaire (aussi appelée "impulsion") et ses trois composantes spatiales : Le cas du moment cinétique (parfois appelé de façon plus explicite "moment angulaire") se traite de la même façon, mais pour les rotations dans l'espace. Commutateur. Intuitivement, le commutateur de deux observables détermine s'il est possible de mesurer simultanément leur valeur. Le commutateur intervient dans l'expression des inégalités de Heisenberg et du théorème d'Ehrenfest. Étant donnés deux opérateurs formula_54 et formula_99, non nécessairement observables, on définit leur commutateur ainsi : Le commutateur est analogue au crochet de Poisson de la mécanique classique. Fonction d'onde. En pratique, l'état formula_88 est le plus souvent écrit dans une base formula_102 d'états de position spatiale parfaitement déterminée : Ici l'intégration joue le rôle de la sommation utilisée plus haut notamment dans l'énoncé du principe de superposition, la différence étant qu'il s'agit d'une somme continue, c'est-à-dire de la somme d'une infinité de termes infiniment petits. La fonction formula_104 est appelée « fonction d'onde » et c'est sur elle que se font l'essentiel des calculs obtenus à partir de l'équation de Schrödinger. L'écriture de l'équation de Schrödinger non plus en fonction de formula_88 mais de la fonction d'onde se fait en remplaçant chaque terme de l'hamiltonien par les expressions correspondantes dépendant de la fonction d'onde. Par exemple, l'impulsion formula_106 s'écrit comme vu plus haut formula_107 où "T"("x") est l'opérateur unitaire de translation de longueur "x" dans l'espace, c'est-à-dire tel que : Dès lors, il vient : Par un changement de variable sous l'intégrale, et en se rappelant que l'équation est écrite au voisinage de "x" = 0, il découle : Autrement dit, l'opérateur d'impulsion agit sur le vecteur d'état en donnant un vecteur dont les coordonnées dans la représentation spatiale sont les dérivées de la fonction d'onde (à un facteur formula_111 près ignoré ici). Ceci permet d'effectuer tous les calculs uniquement sur la fonction d'onde et ainsi de se ramener à la résolution d'une équation aux dérivées partielles, c'est-à-dire à l'équation de Schrödinger sous une forme plus proche de sa forme historique : Matrice densité. La règle de Born implique que le résultat d'une expérience peut être indéterminé même lorsque l'état du système est parfaitement déterminé. Cette indétermination est intrinsèque au système, et ce en un sens qui n'a pas d'équivalent classique. Cependant, une ignorance concernant l'état exact du système peut aussi justifier une description probabiliste au sens classique du terme, c'est-à-dire avec l'acceptation usuelle des lois de probabilités. Ainsi, dans une base orthonormale d'états formula_113, même si l'état exact est inconnu, il est tout de même possible de lui attribuer une distribution de probabilités formula_114, où formula_115 est la probabilité pour le système d'être dans l'état quantique formula_113. La question est alors de savoir comment rendre compte de ce type de probabilité dans les calculs. L'étude du système se réduit à celle de la mesure des observables disponibles, qui elle-même se réduit à la mesure de leur valeur moyenne qui s'écrit, pour une observable formula_117 et si le système est dans l'état formula_113 : Comme le système est dans un état inconnu, mais avec la distribution de probabilité formula_114, l'espérance mathématique devient : Cette expression est en quelque sorte une double espérance mathématique, prenant en compte à la fois les probabilités quantiques et classiques. Les termes formula_119 sont en effet des espérances mathématiques, pour des distributions de probabilité associées au principe de superposition et à la règle de Born. L'expression formula_123 est quant à elle une espérance mathématique associée à une distribution de probabilité traduisant une ignorance vis-à-vis de l'état réel du système, c'est-à-dire une distribution de probabilité classique. L'espérance mathématique peut alors s'écrire : formula_124 L'expression formula_125 est ce qu'on appelle la "matrice densité" associée à la distribution de probabilités formula_115 dans la base formula_113. formula_128 est la trace. La matrice densité n'est, à l'instar des observables, qu'un outil mathématique qui permet le calcul des espérances mathématiques des résultats de mesure, mais contrairement aux observables, la matrice densité incorpore la prise en compte d'une possible ignorance de l'état exact du système. Exemples notables de problèmes quantiques. En mécanique quantique, il existe quelques problèmes et sujets d'études qui sont désormais très bien analysés, et qui s'avèrent très utiles pour la compréhension d'autres systèmes. Ils font partie intégrante du corpus théorique et sont traités en détail dans tous les manuels. Fermions et bosons. Les principes fondamentaux énoncés plus haut suffisent déjà à expliquer l'une des propriétés les plus importantes de la matière : la distinction entre bosons et fermions. En effet, cette distinction découle essentiellement du caractère vectoriel de l'espace des états et de son interprétation probabiliste. Si on considère un système physique (ou plus simplement une particule) et que l'on note formula_129 son état, alors un système physique constitué de deux de ces particules s'écrira formula_130 en utilisant le produit tensoriel des deux vecteurs. La question qui se pose alors est celle de savoir comment se comporte le système si, par la pensée, on intervertit les rôles joués par les deux particules. Autrement dit, on s'interroge sur la relation entre formula_131 et formula_132. Ces deux systèmes étant parfaitement analogues, lorsque les particules sont considérées indiscernables, elles doivent se comporter de la même façon. Leur répartition de probabilité est donc la même et elles sont donc reliées par un scalaire formula_10 : formula_134 Or, si on intervertit à nouveau les particules, on doit nécessairement réobtenir le système initial, de telle sorte que : formula_135 Même parmi les nombres complexes, il n'existe que deux racines carrées de l'unité : 1 et -1. Cela implique qu'il ne peut exister que deux types bien distincts de particules, celles pour lesquelles formula_136, les bosons, et celles pour lesquelles formula_137, les fermions (ces noms font référence aux physiciens qui ont découvert les statistiques associées : Satyendranath Bose et Enrico Fermi). De cela il découle directement le principe d'exclusion de Pauli, auquel seuls les fermions obéissent. Considérons par exemple un fermion et imaginons deux particules de cette espèce dans exactement le même état formula_129. On a : formula_139 et donc : formula_140 Autrement dit la probabilité pour que deux fermions soient dans le même état est toujours nulle. Une telle propriété est d'une importance considérable dans la nature. On lui doit par exemple en grande partie l'. À l'inverse, les bosons ont tendance à se regrouper les uns avec les autres, car leurs amplitudes de probabilités interfèrent constructivement quand ils sont dans le même état. Ceci est la cause de nombreux phénomènes, comme l'émission stimulée, à la base du fonctionnement des lasers. Des considérations comparables aux calculs effectués plus haut permettent de comprendre qu'un nombre pair de fermions se comportent comme des bosons. Ceci est la cause de phénomènes comme la supraconductivité, où les électrons forment des paires de Cooper. C'est aussi ce qui explique les différences de comportement entre les différents isotopes de l'hélium : dans un atome d'hélium 4 (4He), chaque particule est présente en double (deux électrons, deux protons et deux neutrons, formant des paires de Cooper), ce qui fait de cet atome un boson. Ce qui n'est pas le cas dans l'atome d'hélium 3 (3He), qui n'a qu'un neutron, ce qui fait de cet atome un fermion ; qui peut s'associer à un autre atome d'hélium 3 pour former un boson d'une paire de Cooper. Le caractère bosonique ou fermionique des particules est lié à leur spin, par ce qu'on appelle le théorème spin-statistique. Oscillateur harmonique. Parmi les systèmes que l'on peut résoudre analytiquement en mécanique quantique, l'un d'entre eux a une importance particulière tant sur le plan historique que théorique. Il s'agit de l'oscillateur harmonique. En mécanique classique, l'oscillateur harmonique est un système de grande importance car il constitue une bonne approximation de n'importe quel système stable autour d'une position d'équilibre. Dans un système d'unités adéquat, l'équation énergétique s'écrit : formula_141 Où formula_142 et formula_143 sont respectivement l'impulsion et la position du mobile. En mécanique quantique, l'équation est formellement la même, mais les grandeurs impliquées sont de nature différente. Au lieu d'être des scalaires réels dépendant du temps, l'impulsion et la position sont des opérateurs linéaires sur l'espace vectoriel des états. Ces grandeurs peuvent être manipulées de manière algébrique comme avec des scalaires normaux, à ceci près qu'il s'agit d'une algèbre non commutative. Il faut donc prêter attention aux commutateurs entre les opérateurs concernés. En l'occurrence, le commutateur entre formula_142 et formula_143 est : formula_146 La résolution du système passe alors par une factorisation inspirée de l'identité remarquable formula_147. En se rappelant que formula_148, on introduit donc deux opérateurs (à un facteur de normalisation formula_149 près) : formula_150 Pour des raisons qui apparaissent en cours de calcul (cf article détaillé), ces opérateurs sont appelés opérateurs respectivement de création et d'annihilation de quanta, ou encore opérateurs d'échelle. Ensuite, un raisonnement par récurrence permet de montrer le caractère quantifié des niveaux d'énergie possible, et de calculer leurs valeurs. Ces quanta sont l'analogue mécanique des photons, et à ce titre ils sont parfois appelés phonons. Cette introduction d'opérateurs de création et d'annihilation est une technique assez emblématique de la physique quantique. On la retrouve par exemple dans la théorie du moment cinétique quantique ou en théorie quantique des champs. Effet tunnel. L'effet tunnel désigne la propriété que possède un objet quantique de franchir une barrière de potentiel même si son énergie est inférieure à l'énergie minimale requise pour franchir cette barrière. C'est un effet purement quantique, qui ne peut pas s'expliquer par la mécanique classique. Pour une telle particule, la fonction d'onde, dont le carré du module représente la densité de probabilité de présence, ne s'annule pas au niveau de la barrière, mais s'atténue à l'intérieur de la barrière, pratiquement exponentiellement pour une barrière assez large. Si, à la sortie de la barrière de potentiel, la particule possède une probabilité de présence non nulle, elle peut traverser cette barrière. Cette probabilité dépend des états accessibles de part et d'autre de la barrière ainsi que de l'extension spatiale de la barrière. Spin de l'électron. Historiquement, le spin de l'électron est d'abord un phénomène expérimental observé notamment lors de l'expérience de Stern et Gerlach. En substance, il apparaît comme une sorte de très faible moment magnétique n'admettant que deux valeurs possibles, qui sont opposées et qui ne varient pas continûment selon l'axe de mesure. Il s'agit donc d'une grandeur qui ne respecte pas, du moins en apparence, les lois spatiales de la trigonométrie, tout en étant directionnelle. Ces observations assez curieuses n'ont pu être expliquées que par la mécanique quantique. Le spin de l'électron est donc une grandeur "a priori" directionnelle qui ne peut prendre que deux valeurs de magnitude égale et de sens opposé. Les états quantiques correspondants sont alors en général notés formula_151 et formula_152. Ces états dépendent d'un axe d'observation particulier, traditionnellement placé verticalement, c'est-à-dire selon l'axe formula_153. Avec un choix d'unités adéquat, cela signifie que pour un électron dans l'état formula_151, la mesure du moment magnétique de spin selon formula_153 donnera à coup sûr +1 comme résultat de mesure. De la même façon un électron dans l'état formula_152 donnera nécessairement -1 comme résultat de mesure selon ce même axe. Dès lors, formula_151 et formula_152 forment la base d'un espace vectoriel de dimension deux, et l'observable associée à la mesure du spin selon l'axe formula_153 s'écrit alors, en représentation matricielle : Par application du principe de superposition, toute superposition linéaire de formula_151 et formula_152 est aussi un état possible pour l'électron. Parmi ces combinaisons linéaires, il en est qui sont les vecteurs propres de deux matrices formula_164 et formula_165 : formula_164, formula_165 et formula_169 forment avec la matrice unité ce qu'on appelle les matrices de Pauli. La considération d'un vecteur unitaire formula_170 et de l'observable : formula_171 permet alors de faire apparaître la valeur moyenne suivante de formula_172 pour l'état formula_151 : où formula_175 est l'angle éloignant formula_176 de l'axe formula_153. Autrement dit, dès lors que formula_164 et formula_165 sont associés aux observables liées à la mesure du spin selon les axes formula_180 et formula_181, alors les règles de trigonométries apparaissent, mais avec une signification probabiliste. C'est là un résultat typique de la mécanique quantique. Le spin de l'électron joue un rôle très important en mécanique quantique, d'une part parce que c'est un phénomène qui n'a pas d'équivalent classique, et d'autre part parce que c'est l'un des systèmes quantiques les plus simples dans la mesure où il n'a que deux états (ou plus précisément, que son espace vectoriel est de dimension deux). À ce titre il est souvent utilisé comme modèle d'étude pour des systèmes plus complexes, même lorsque le phénomène physique sous-jacent est complètement différent. L'exemple emblématique est le modèle d'Ising. Formulation de la mécanique quantique par intégrale de chemin. Richard Feynman, dans sa thèse en 1942, introduit la notion d'intégrale de chemin afin de présenter une nouvelle formulation de la mécanique quantique. Ces résultats ne seront publiés qu'en 1948 en raison de la seconde guerre mondiale. À terme, le but de cette approche serait de formuler une théorie de l'électrodynamique quantique en développant la quantification par intégrale de chemin. Si de nos jours on retient le formalisme Hamiltonien de la mécanique quantique pour traiter des problèmes classiques (au sens non relativiste), il s'avère que la formulation de Feynman est largement prédominante pour traiter les problèmes relativistes notamment en théorie quantique des champs, l'avantage provenant du fait que cette approche est non perturbative. Par ailleurs, en 1953, Feynman appliqua son approche pour formuler la par intégrale de chemin (intégrale de Wiener, ) et tenta d'expliquer la transition lambda dans l'hélium superfluide. Mécanique quantique et relativité. La mécanique quantique est une théorie « non relativiste » : elle n'incorpore pas les principes de la relativité restreinte. En appliquant les règles de la quantification canonique à la relation de dispersion relativiste, on obtient l'équation de Klein-Gordon (1926). Les solutions de cette équation présentent toutefois de sérieuses difficultés d'interprétation dans le cadre d'une théorie censée décrire « une » seule particule : on ne peut notamment pas construire une « densité de probabilité de présence » partout positive, car l'équation contient une dérivée temporelle seconde. Dirac cherchera alors une autre équation relativiste du « premier ordre en temps », et obtiendra l'équation de Dirac, qui décrit très bien les fermions de spin un-demi comme l'électron. La théorie quantique des champs permet d'interpréter toutes les équations quantiques relativistes sans difficulté. L'équation de Dirac incorpore naturellement l'invariance de Lorentz avec la mécanique quantique, ainsi que l'interaction avec le champ électromagnétique mais qui est traité encore de façon classique (on parle d'approximation semi-classique). Elle constitue la mécanique quantique relativiste. Mais du fait précisément de cette interaction entre les particules et le champ, il est alors nécessaire, afin d'obtenir une description cohérente de l'ensemble, d'appliquer la procédure de quantification également au champ électromagnétique. Le résultat de cette procédure est l'électrodynamique quantique dans laquelle l'unité entre champ et particule est encore plus transparente puisque désormais la matière elle aussi est décrite par un champ. L'électrodynamique quantique est un exemple particulier de théorie quantique des champs. D'autres théories quantique des champs ont été développées par la suite au fur et à mesure que les autres interactions fondamentales ont été découvertes (théorie électrofaible, puis chromodynamique quantique). Les inégalités de Heisenberg. Les relations d'incertitude de Heisenberg traduisent l'impossibilité de préparer un état quantique correspondant à des valeurs précises de certains couples de grandeurs conjuguées. Ceci est lié au fait que les opérateurs quantiques associés à ces grandeurs classiques « ne commutent pas ». Les inégalités de Heisenberg sont très fréquemment désignées par l'expression « principe d'incertitude ». "Stricto sensu", cette appellation est trompeuse : ces inégalités ne sont pas un principe car elles sont parfaitement démontrées grâce à l'analyse de Fourier, et elles ne concernent pas des incertitudes au sens commun du terme mais une indétermination intrinsèque, propre à la nature aléatoire de la mécanique quantique. Inégalité position-impulsion. Considérons par exemple la position formula_182 et l'impulsion formula_183 d'une particule. En utilisant les règles de la quantification canonique, il est facile de vérifier que les opérateurs de position et d'impulsion satisfont : La relation d'incertitude est définie à partir des écarts quadratiques moyens de grandeurs conjuguées. Dans le cas de la position formula_182 et de l'impulsion formula_183 d'une particule, elle s'écrit par exemple : Plus l'état possède une distribution resserrée sur la position, plus sa distribution sur les valeurs de l'impulsion qui lui est associée est large. Cette propriété rappelle le cas des ondes, via un résultat de la transformée de Fourier, et exprime ici la dualité onde-corpuscule. Il est clair que ceci mène à une remise en cause de la notion classique de trajectoire comme chemin continu différentiable. Inégalité temps-énergie. Il existe également une relation d'incertitude portant sur l'énergie d'une particule et la variable temps. Ainsi, la durée formula_188 nécessaire à la détection d'une particule d'énergie formula_189 à formula_190 près vérifie la relation : Cependant, la dérivation de cette inégalité énergie-temps est assez différente de celle des inégalités position-impulsion. En effet, si le hamiltonien est bien le générateur des translations dans le temps en mécanique hamiltonienne, indiquant que temps et énergie sont conjuguées, "il n'existe pas d'opérateur temps" en mécanique quantique (« théorème » de Pauli), c'est-à-dire qu'on ne peut pas construire d'opérateur formula_192 qui obéirait à une relation de commutation canonique avec l'opérateur hamiltonien formula_193 : ceci pour une raison très fondamentale : la mécanique quantique a en effet été inventée pour que chaque système physique stable possède un « état fondamental d'énergie minimum ». L'argument de Pauli est le suivant : si l'opérateur temps existait, il posséderait un spectre continu. Or, l'opérateur temps, obéissant à la relation de commutation canonique, serait aussi le générateur des « translations en énergie ». Ceci entraîne alors que l'opérateur hamiltonien posséderait lui aussi un « spectre continu », en contradiction avec le fait que l'énergie de tout système physique stable se doit d'être "bornée inférieurement". Intrication. La notion d'intrication quantique intervient dès lors que deux systèmes formula_195 et formula_196 sont considérés dans leur ensemble comme formant un seul et unique système formula_197. Cette assertion peut être vérifiée par exemple dans le cas simple où les espaces d'état de formula_195 et formula_196 ont pour bases les vecteurs propres formula_200 et formula_201 de deux observables formula_117 et formula_203 agissant respectivement sur formula_195 et formula_196. formula_117 et formula_203 agissent nécessairement aussi sur formula_197 puisque formula_197 est constitué de la réunion de formula_195 et formula_196. On peut donc noter formula_212 le vecteur d'état de formula_197 tel que dans cet état la mesure de formula_117 donne à coup sûr formula_215 et la mesure de formula_203 donne à coup sûr formula_217. D'après le principe de superposition, toutes les combinaisons linéaires des vecteurs d'état formula_212 sont des états possibles du système. Or, il existe formula_219 tels vecteurs, et donc l'espace vectoriel qu'ils engendrent est au moins de dimension formula_219. Dans le cas général, cette dimension est supérieure à formula_221, c'est-à-dire au nombre de degrés de libertés nécessaires pour décrire les systèmes formula_195 et formula_196 considérés séparément. Il apparaît donc que dans le cas général la description complète des deux systèmes dans leur ensemble ne peut être réduite à celle des deux systèmes pris séparément. Autrement dit, il existe des états de formula_197 tels qu'il n'existe aucun état de formula_195 ni aucun état de formula_196, c'est-à-dire aucune combinaison linéaire des formula_200 ni aucune combinaison linéaire des formula_201 qui permettent d'obtenir les probabilités de résultats de mesure. De tels états de formula_197 sont alors dit "intriqués". Un tel exemple d'état intriqué est : Deux systèmes ou deux particules peuvent être intriqués dès qu'il existe une interaction entre eux. En conséquence, les états intriqués sont la règle plutôt que l'exception. Une mesure effectuée sur l'une des particules changera son état quantique selon le postulat quantique de la mesure. Du fait de l'intrication, cette mesure aura un effet instantané sur l'état de l'autre particule, même si la ligne d'univers qui relie les deux évènements « "mesure 1" » et « "mesure 2" » de l'espace-temps est une courbe de genre espace ! Par suite, le fait que la mécanique quantique tolère l'existence d'états intriqués, états ayant effectivement été observés en laboratoire et dont le comportement est en accord avec celui prévu par la mécanique quantique (voir l'expérience d'Aspect), implique que la mécanique quantique est une théorie physique non locale. La conjecture ER=EPR interprète cette non-localité comme une propriété fondamentale de l'espace-temps, qui serait en substance généré par le phénomène d'intrication quantique. Toutefois, il est incorrect d'assimiler l'intrication quantique à une transmission d'information plus rapide que la vitesse de la lumière (et donc une violation de la théorie de la relativité). La raison est que le résultat de la mesure relatif à la première particule est toujours aléatoire, dans le cas des états intriqués comme dans le cas des états non intriqués. Il est donc impossible de « transmettre » quelque information que ce soit, puisque la modification de l'état de l'autre particule, pour immédiate qu'elle soit, conduit à un résultat de la mesure relatif à la seconde particule qui est toujours aussi aléatoire que celui relatif à la première particule. Les corrélations entre les mesures des deux particules, bien que très réelles et mises en évidence dans de nombreux laboratoires de par le monde, resteront indétectables tant que les résultats des mesures ne seront pas comparés, ce qui implique nécessairement un échange d'information classique, respectueux de la Relativité (voir aussi le Paradoxe EPR). La téléportation quantique fait usage de l'intrication pour assurer le transfert de l'état quantique d'un système physique vers un autre système physique. Ce processus est le seul moyen connu de transférer parfaitement l'information quantique. Il ne peut dépasser la vitesse de la lumière et est également « désincarné », en ce sens qu'il n'y a pas de transfert de matière (contrairement au concept de téléportation typiquement décrit en science-fiction). Cet état ne doit pas être confondu avec l'état de « superposition ». Un même objet quantique peut avoir deux (ou plus) états « superposés ». Par exemple un même photon peut être dans l'état « polarité longitudinale » et « polarité transversale » simultanément. Le chat de Schrödinger est simultanément dans l'état « mort » et « vivant ». Un photon qui passe une lame semi-réfléchissante est dans l'état superposé « photon transmis » et « photon réfléchi ». C'est uniquement lors de l'acte de mesure que l'objet quantique possédera un état déterminé. Dans le formalisme de la physique quantique, un état d'intrication de « plusieurs objets quantiques » est représenté par un produit tensoriel des vecteurs d'état de chaque objet quantique. Un état de superposition ne concerne qu'« un seul objet quantique » (qui peut être une intrication), et est représenté par une combinaison linéaire des différentes possibilités d'états de celui-ci. Téléportation quantique. On ne peut déterminer l'état d'un système quantique qu'en l'observant, ce qui a pour effet de détruire l'état en question. Celui-ci peut en revanche, une fois connu, être en principe recréé ailleurs. En d'autres termes, la « duplication » n'est pas possible dans le monde quantique, seule l'est une « reconstruction en un autre endroit », voisine du concept de téléportation dans la science-fiction. Élaborée théoriquement en 1993 par C.H. Bennett, G. Brassard, C. Crépeau, R. Jozsa, A. Peres, et W. Wootters dans l'article "Teleporting an unknown quantum state by dual classical and EPR channels", de la "Physical Review Letter", cette reconstruction a été réalisée expérimentalement en 1997, sur des photons, par l'équipe d'Anton Zeilinger à Innsbruck, et plus récemment sur des atomes d'hydrogène. Liste des expériences. De nombreuses expériences ont montré que les phénomènes décrits par la mécanique quantique, tels que le spin ou l'intrication quantique, étaient bien réels. Parmi les plus célèbres, l'on peut notamment citer : Paradoxes. Ces « paradoxes » nous questionnent sur l'interprétation de la mécanique quantique, et révèlent dans certains cas à quel point notre intuition peut se révéler trompeuse dans ce domaine qui ne relève pas directement de l'expérience quotidienne de nos sens. Chat de Schrödinger. Ce paradoxe (1935) met en évidence les problèmes d'interprétation du postulat de réduction du paquet d'onde. Paradoxe EPR et expérience d'Alain Aspect. Ce paradoxe (1935) met en évidence la non-localité de la physique quantique, impliquée par les états intriqués. Expérience de Marlan Scully. Cette expérience peut être interprétée comme une démonstration que les résultats d'une expérience enregistrée à un instant T dépendent objectivement d'une action effectuée à un temps ultérieur T+t. Selon cette interprétation, la non-localité des états intriqués ne serait pas seulement spatiale, mais également temporelle. Toutefois, la causalité n'est pas strictement violée car il n'est pas possible de mettre en évidence, avant l'instant T+t, que l'état enregistré à l'instant T dépend d'un évènement ultérieur. Ce phénomène ne peut donc donner aucune information sur l'avenir. Contrafactualité. Selon la mécanique quantique, des évènements qui « auraient pu se produire, mais qui ne se sont pas produits » influent sur les résultats de l'expérience. Du monde quantique au monde classique. Alors que les principes de la mécanique quantique s'appliquent "a priori" à tous les objets contenus dans l'univers (nous y compris), pourquoi continuons-nous à percevoir classiquement l'essentiel du monde macroscopique ? En particulier, pourquoi les superpositions quantiques ne sont-elles pas observables dans le monde macroscopique ? La théorie de la décohérence explique leurs disparitions très rapides en raison du couplage inévitable entre le système quantique considéré et son environnement. Cette théorie a reçu une confirmation expérimentale avec les études portant sur des systèmes mésoscopiques pour lesquels le temps de décohérence n'est pas trop court pour rester mesurable, par exemple un système de quelques photons dans une cavité. Applications. Les applications de la mécanique quantique incluent les semi-conducteurs, le transistor, le laser, le microscope électronique et la résonance magnétique nucléaire. Une catégorie spéciale d'applications est dédiée aux phénomènes quantiques macroscopiques tels que la superfluidité de l'hélium ou la supraconductivité. L'étude des semi-conducteurs a mené à l'invention de la diode, du transistor et du circuit intégré, éléments indispensables de l'électronique moderne. Annexes. Bibliographie. Ouvrages d'initiation. Accessibles au niveau d'un premier cycle universitaire. Ouvrages destinés à l'apprentissage de la discipline. Accessibles à partir du second cycle universitaire. Prévention des abus d'interprétations. Accessible sans bagage physique préalable. Articles connexes. Interprétation. Il existe de nombreuses interprétations de la mécanique quantique, certaines étant en contradiction totale avec d'autres. Faute de conséquences observables de ces interprétations, il n'est pas possible de trancher en faveur de l'une ou de l'autre de ces interprétations. Seule exception, l'école de Copenhague dont le principe est justement de refuser toute interprétation des phénomènes. |
Mérovingien |
Maurice Leblanc Maurice Leblanc, de son nom complet Marie Émile Maurice Leblanc, est un romancier français né le à Rouen et mort le à Perpignan. Auteur de nombreux romans policiers et d’aventures, il est le créateur du célèbre gentleman-cambrioleur Arsène Lupin. Relégué au rang de « Conan Doyle français », Maurice Leblanc est un écrivain populaire qui a souffert de ne pas avoir la reconnaissance de ses confrères mais a toujours suscité un solide noyau d'amateurs et de quelques lupinologues. On peut visiter la maison de Maurice Leblanc, le Clos Lupin, à Étretat en Seine-Maritime. L’aiguille d’Étretat forme d’ailleurs l’un des décors du roman "L'Aiguille creuse". La revue d'études lupiniennes "L'Aiguille preuve" est éditée annuellement par l'Association des Amis d'Arsène Lupin (AAAL) fondée en 1985 par le philosophe et essayiste François George. Biographie. Maurice Leblanc est le deuxième enfant d'Émile Leblanc, négociant armateur de 34 ans, et de Mathilde Blanche, née Brohy, fille de riches teinturiers, âgée de 21 ans et qui fut accouchée par Achille Flaubert, frère de Gustave Flaubert. Il a pour sœur aînée Jehanne, née en 1863, et pour sœur cadette la cantatrice Georgette Leblanc, née en 1869, qui sera l'interprète de Maurice Maeterlinck et sa compagne de 1895 à 1918. Pendant la guerre franco-allemande de 1870, son père l'envoie en Écosse dont les paysages ont dû fertiliser son imagination. De retour, il achève ses études à Rouen. Le jeune Maurice reçoit sa première éducation dans une institution libre, la pension Patry, puis, de 1875 à 1882, fait ses études secondaires au lycée Corneille. Adolescent, il fréquente Gustave Flaubert et Guy de Maupassant. Refusant la carrière que son père lui destine dans une fabrique de cardes, il « monte à Paris », en 1888, pour écrire. D’abord journaliste, puis romancier et conteur, son premier roman, "Une femme", en 1893 est très remarqué ; il est suivi d'autres ouvrages ("Des couples", "Voici des ailes" et son unique pièce, "La pitié", en 1902, qui est un échec, le faisant renoncer pour un temps au théâtre). Il éveille l’intérêt de Jules Renard et d'Alphonse Daudet, sans succès public. Il fréquente les grands noms de la littérature à Paris : Stéphane Mallarmé ou Alphonse Allais. En 1901, il publie "L'Enthousiasme", roman autobiographique. En 1905, Pierre Lafitte, directeur du mensuel "Je sais tout", lui commande une nouvelle sur le modèle du "Raffles" d'Ernest William Hornung et des aventures de Sherlock Holmes : "L'Arrestation d’Arsène Lupin" se révèle un grand succès public, mais Maurice Leblanc souffre déjà de n'avoir pas la reconnaissance des gens de lettres. Deux ans plus tard, "Arsène Lupin, gentleman-cambrioleur" est publié en livre. La sortie d’"Arsène Lupin contre Herlock Sholmès" mécontente Conan Doyle, furieux de voir son détective Sherlock Holmes (« Herlock Sholmès ») et son faire-valoir Watson (« Wilson ») ridiculisés par les personnages parodiques créés par Maurice Leblanc. Maurice Leblanc reçoit la Légion d'honneur, le , des mains du sous-secrétaire d’État aux Beaux-Arts, Étienne Dujardin-Beaumetz, député radical de l’Aude. Radical-socialiste et libre-penseur, Leblanc s’embourgeoise avec l’âge et la Première Guerre mondiale. Il aurait déclaré : Dès 1910, il tente de tuer son héros dans "813", mais il le ressuscite dans "Le Bouchon de cristal", "Les Huit Coups de l'horloge", etc. En 1918, Maurice Leblanc achète à Étretat une maison à colombages de facture anglo-normande où il rédigera 19 romans et 39 nouvelles. Devant l'occupation allemande, il quitte le Clos Lupin et se réfugie en 1939 à Perpignan où il meurt d'une pneumonie en 1941. Exhumé du cimetière Saint-Martin de Perpignan en 1947, il est réinhumé, le de cette même année, à Paris, au cimetière du Montparnasse (10 division), aux côtés de sa femme Marguerite et d'autres membres de sa famille (notamment son beau-frère René Renoult). Vie privée. Fin 1888, Maurice Leblanc se décide à quitter Rouen pour Paris où il se marie le à Marie-Ernestine Lalanne (1865-1941) qui lui donne une fille, Louise Amélie Marie Leblanc (1889-1974), laquelle n'aura aucune postérité de son mariage. Les époux ne s'entendent pas et divorcent en 1895. Maurice tombe ensuite amoureux de Marguerite Wormser (1865-1950) qui a déjà un fils Claude Oulmann (1902-1994), lequel sera autorisé par décret à porter le nom de Leblanc. La procédure de divorce entamée par Marguerite contre son premier époux traînant en longueur, Maurice a des ennuis de santé et sombre dans la dépression. Ils ne se marient que le . Postérité. Une Association des Amis d’Arsène Lupin est fondée en 1985 par le philosophe François George. L'œuvre de Maurice Leblanc a inspiré Gaston Leroux (créateur de Rouletabille), ainsi que Souvestre et Allain (créateurs de Fantômas). Les exploits d’Arsène Lupin se déroulaient dans la capitale et dans le pays de Caux, que Maurice Leblanc connaissait bien : collectionneur de cartes postales, il avait recensé pas moins de quatre cents manoirs entre Le Havre, Rouen et Dieppe. Les « lupinophiles » arpentent les lieux cités dans les intrigues de Leblanc en Normandie : Étretat et le trésor des rois de France, Tancarville, le passage souterrain de Jumièges devant mener au trésor médiéval des abbayes, etc. Œuvres. Ouvrages faisant intervenir le personnage d'Arsène Lupin. La série "Arsène Lupin" compte 17 romans et 39 nouvelles, ainsi que 5 pièces de théâtre, tous écrits de 1905 à 1941. |
Meringue La meringue est une pâtisserie très légère et très fine composée uniquement d'un mélange de blancs d'œufs et de sucre. Un peu d'acide peut être ajouté sous forme de citron ou d'acide tartrique. Des variantes existent en changeant les quantités et le type de sucre mais surtout la façon de l'incorporer à la masse. Origine. On découvre une recette de « neige sèche » (une meringue italienne) chez Lancelot de Casteau (1604) et une autre de « biscuits de sucre en neige », dans "Le" "Pasticier" "françois" de la Varenne (1653), mais le nom de « meringue » apparaît en 1692 dans le livre de cuisine de François Massialot. Étymologie. D'après Alain Rey, l'origine du mot est controversée. L'origine du mot « meringue » lui-même n'est pas connue avec certitude : Préparation. La meringue utilise la capacité du blanc d'œuf à enfermer des bulles d'air dans un réseau protéique (foisonnement). La dose de sucre est d'environ par blanc d'œuf en supposant un blanc d'un poids moyen de et sachant qu'un blanc peut dissoudre seulement jusqu'à de sucre. Il y a trois modes différents de préparation se prêtant à différents usages. Meringue suisse. La meringue suisse se réalise en montant des blancs d'œufs en neige avec du sucre glace sur un bain-marie. Les blancs sont d'abord battus seuls au bain-marie puis, lorsque la préparation devient mousseuse, le sucre glace est incorporé en continuant à battre. Lorsque le mélange prend consistance, le battage est finalisé hors du feu. L'aspect fini est lisse et brillant. Elle est cuite une quinzaine de minutes à four plus chaud que pour la meringue française, aux alentours de . Sa consistance très ferme et moins friable que la préparation française permet de l'utiliser à la confection de décors. Les sujets sont formés sur plaque avant cuisson. La durée de conservation peut aller jusqu'à trois semaines en bonne condition. Meringue française. La meringue française est la plus facile à faire. Elle se réalise en battant des blancs d'œufs avec du sucre semoule. Les blancs sont battus seuls et lorsqu'ils sont bien mousseux, le sucre est alors incorporé tout en continuant à battre jusqu'à consistance bien ferme. Pour ce type de meringues on préfère parler de séchage plutôt que de cuisson. Il y a deux façons différentes de procéder : La consistance croustillante de la meringue en fait une pâtisserie à part entière destinée surtout à être consommée telle quelle. Mais elle entre aussi dans la préparation de pâtisseries, en fourrage sous forme entière ou en petits morceaux, rajoutant ainsi son croustillant bien spécial à d'autres pâtisseries. Les meringues peuvent être présentées couplées dos à dos avec une crème fouettée ou une crème glacée entre les deux. Normalement de couleur blanche, elles peuvent aisément être colorées pour créer par exemple des contrastes de couleurs avec d'autres ingrédients d'une pâtisserie composée. D'un goût plutôt neutre, elles se prêtent bien aussi à être aromatisées, le plus classiquement au cacao, à la vanille, à la noix de coco, au citron et décorées avec des amandes effilées. Elles peuvent se conserver deux semaines en conditions optimales et jusqu'à trois mois au congélateur mais toujours bien au sec. Meringue italienne. La meringue italienne se réalise en montant des blancs d'œufs en neige avec du sucre cuit. La meringue finale elle-même ne se cuit pas. Contrairement à ce que son nom peut laisser penser, elle est typiquement issue de la pâtisserie française. Cuire préalablement le sucre au petit boulé (~). Battre les blancs jusqu'à ce qu'ils moussent puis verser le sucre en continuant à battre, et ce jusqu'à ce que l'appareil prenne en mousse serrée. L'aspect fini est brillant et bien compact quoique très léger. Elle sert à alléger d'autres préparations comme les mousses, les soufflés, la crème pâtissière. Elle sert de chemisage à d'autres pâtisseries comme tartes, entremets meringués ou omelette norvégienne. C'est aussi le principe de base de la confection des guimauves. Pour un aspect plus appétissant elle peut être brièvement dorée à la salamandre, au chalumeau ou au tison. Elle ne se conserve pas plus d'une heure en condition de froid sec. Chimie. Lors de la préparation, le battage des blancs d'œuf rompt certaines liaisons hydrogène par cisaillement mécanique. C'est ce qui s'appelle une dénaturation des protéines. La pointe d'acide parfois ajoutée agit dans le même sens. Les protéines ont alors une structure leur permettant d'emprisonner des bulles d'air dans la masse. La difficulté est de ne pas battre plus que le temps nécessaire à l'obtention d'un appareil bien ferme. Au-delà, la pâte peut retomber car l'ovalbumine passe dans une troisième phase incapable de retenir les bulles. Une fois que cette phase est atteinte, il n'est plus possible de revenir en arrière et de les refaire monter car c'est la structure protéique elle-même qui a changé. La moindre goutte de matière lipidique inhibe la formation de la structure alvéolaire si bien que, lors de la séparation des jaunes et des blancs d'œuf, une seule goutte de jaune - qui est un lipide - diminue la capacité de « montage » de moitié. C'est aussi pour cette raison que si l'aromatisation éventuelle se fait sous forme de concentré lipidique, elle n'est effectuée que juste à la fin du battage. Les bols en plastique sont souvent déconseillés car ils peuvent, par affinité, retenir en surface quelques traces de matières grasses même après lavage. Le froid aide à la bonne tenue de la « pâte » c'est pourquoi le battage est parfois effectué en plaçant le récipient dans un « bain-marie » glacé. Le sucre est indispensable à la bonne tenue de la meringue. Il n'est de fait pas possible de faire de meringues avec les édulcorants les plus courants. Au-delà de le sucre et les protéines interagissent pour amorcer une réaction de Maillard et donne au produit fini un aspect pouvant aller du gris terne à l'ambré. Le blanc et le sucre sont deux matières assez hygroscopiques, c'est pourquoi il est indispensable pour la conservation d'abriter le produit fini de toute humidité en le plaçant dans une boite hermétique et un local sec. Variantes. En allemand, une meringue se nomme "Baiser" (sauf en Suisse) ; le mot est neutre, on dit « » ou . Les "Luxemburgerli" suisses se nommaient originellement des "Baisers de Mousse". |
Liste d'ensembles de musique médiévale La liste des ensembles de musique médiévale regroupe des formations de musique ancienne vocale, instrumentale ou mixte, spécialisés dans le répertoire de la musique médiévale profane ou religieuse. |
Malicorne (groupe) Malicorne est un groupe de rock progressif français. Le groupe, d'abord catégorisé musique folk puis de folk rock, est formé à la fin de l'été 1973 par le couple Gabriel Yacoub (guitare acoustique et électrique, épinette des Vosges, chant) et Marie Yacoub (dulcimer, bouzouki, vielle à roue, chant) ainsi que Laurent Vercambre (violon, alto, bouzouki, psaltérion à archet, harmonium, mandoline, chant) et Hughes de Courson (guitare électrique, basse, cromorne, percussions, chant). Ils seront rejoints en par Olivier Zdrzalik-Kowalski (basse, claviers, chant). Après une première séparation fin 1981, le groupe se reforme à l'été 1984 pour une tournée principalement nord-américaine avec de nouveaux musiciens accompagnant le couple fondateur, puis en 1986 avec d'autres musiciens accompagnateurs pour l'enregistrement d'un ultime album studio et pour une ultime tournée en 1987–1989. Malicorne se reforme dans sa configuration originelle à l'occasion d'un concert unique donné le dans le cadre du festival des Francofolies de La Rochelle. Avec de nouveaux musiciens accompagnateurs, le couple fondateur Gabriel Yacoub et Marie Sauvet forme fin un nouveau groupe sous le nom de « Gabriel et Marie de Malicorne » (renommé simplement « Malicorne » en ). En 2020, le groupe compte plus de d'albums vendus dans le monde. Biographie. Prémices et formation classique (1973—1979). Au printemps 1973, Gabriel et Marie Yacoub enregistrent (avec notamment Dan Ar Braz) l'album expérimental "Pierre de Grenoble" par lequel le couple revisite le répertoire traditionnel. Sorti en , le succès immédiat et inattendu de ce coup d'essai sera à l'origine du renouveau des musiques traditionnelles en France. Avant même la sortie de l'album "Pierre de Grenoble", Gabriel et Marie Yacoub forment Malicorne le en compagnie de deux autres musiciens Laurent Vercambre et Hughes de Courson. Le nom du groupe provient du hasard : c'est en se rendant en Bretagne pour donner un concert fin à Moëlan-sur-Mer à l'occasion du festival de Kertalg que le couple fondateur Gabriel et Marie Yacoub est amené à l'approche du Mans à passer par hasard à Malicorne-sur-Sarthe à la suite d'une déviation. Hughes qui accompagne alors le couple a l'idée de retenir ce nom pour le groupe, alors encore en gestation. Gabriel Yacoub raconte : « Une déviation nous a fait passer à Malicorne-sur-Sarthe. C'est dur de trouver un nom pour un groupe, et celui-là nous a paru très poétique, très évocateur ». À peine formé, le groupe est rejoint en renfort par le bassiste Max Picout et se lance à l'automne 1973 dans une première tournée de quelques dates en Bretagne avec un tout premier concert à Quimper le puis trois autres concerts début novembre à Concarneau, Morlaix et Rennes. Alors vendeur de disques, Daniel Bornet découvre l'album "Pierre de Grenoble" à sa sortie en . Un ami lui permet de rencontrer Gabriel Yacoub. Le groupe est alors en agence chez Michel Salou. Daniel Bornet devient l'agent et le manager du groupe jusqu'à sa dernière tournée à l'été 1989. Au printemps 1974, la formation (réduite à nouveau à un quartet après le départ définitif du bassiste Max Picout) enregistre déjà aux studios Acousti son premier album "Malicorne" qui sera bien accueilli par le public à sa sortie en octobre. Fin 1974, le public fera également un accueil très chaleureux à la tournée française de promotion de l'album. Au printemps 1975, le groupe enregistre son second album "Malicorne 2", aussi appelé "Le Mariage anglais", qui sort en novembre et connaît également un succès. Malicorne commence à se produire à l'étranger. Les Anglais découvrent ainsi ce groupe de musique folk en à l'occasion du Cambridge Folk Festival. À travers ses chansons soucieuses de l'écologie, Malicorne s'oppose . Au printemps 1976, Malicorne est à nouveau aux studios Acousti pour enregistrer son troisième album, l'emblématique "Almanach". Publié en , l'album se présente comme un album-concept déclinant en douze titres traditionnels les , comme l'explique Gabriel Yacoub sur la pochette de l'album. "Almanach" décroche son premier double-disque d'or en pour exemplaires vendus. Le quatuor aura donc réalisé seul les trois premiers albums studio du groupe avant d'être rejoint durablement en (principalement à la guitare basse et au chant) par Olivier Zdrzalik-Kowalski (présenté à Gabriel par Daniel Bornet qui le connaissait en tant que bassiste du groupe Komintern). Olivier participe à l'été 1977 au studio Normandie à l'enregistrement de "Malicorne 4", le quatrième album du groupe qui sort en . Fin 1977, Malicorne publie sa première compilation intitulée "Quintessence" comprenant "Martin", un morceau jusque là inédit en album car auparavant disponible uniquement en single (sorti début 1975). En 1978, la formation publie son cinquième et dernier album studio, "L'Extraordinaire Tour de France d'Adélard Rousseau, dit Nivernais la clef des cœurs, Compagnon charpentier du devoir", second album-concept du groupe (après "Almanach"). En 1979, Malicorne publie "En public", son premier album live, enregistrement (partiel) de deux concerts donnés à Montréal au El Casino les 2 et . Outre les titres "Le Prince d'Orange" et "Pierre de Grenoble" issus de l'album "Pierre de Grenoble" et quelques-uns de leurs classiques issus des premiers albums, ce live comporte quelques titres inédits en album studio : un medley de "Réels", une suite de branles et "C'est le mai", une chanson en partie écrite par Gabriel. Nouvelle formation (1979—1982). La publication en 1979 de l'album live "En public" coïncide avec le départ définitif de deux de ses membres originaux, Laurent Vercambre et Hughes de Courson, qui sont tous deux remplacés par Patrick Le Mercier au violon et à la guitare et par Jean-Pierre Arnoux à la batterie et aux percussions. L'anglais Brian Gulland aux vents et Dominique Regef à la vielle à roue et au violoncelle complètent la formation pour l'enregistrement de l'album "Le Bestiaire" (1979), troisième album-concept du groupe. Cette nouvelle formation (réduite à nouveau à un quintet avec le départ de Brian Gulland et Dominique Regef) s'éloignera du répertoire traditionnel en 1981 avec la publication de son second album "Balançoire en feu", fruit d'une collaboration inédite avec le parolier Étienne Roda-Gil. Les membres de Malicorne « d'un commun accord » décident d'arrêter : le groupe se sépare début 1982 à l'issue d'une dernière tournée de concerts achevée fin 1981. Comme l'explique Gabriel Yacoub, « on a choisi de tirer notre révérence et puis chacun avait d'autres projets artistiques ou projets de vie. Marie voulait privilégier sa vie de famille et moi j'ai continué une carrière en solo qui m'a mené d'Europe aux États-Unis en passant par le Canada en écrivant mes propres chansons mais sans renier la musique traditionnelle. ». Dernières années (1984—1989). Le groupe se reforme à l'été 1984 le temps d'une tournée de concerts nord-américaine en juillet–août et de quelques dates en France en octobre puis à nouveau en 1986 autour de l'album "Les Cathédrales de l'industrie" et enfin en 1987–1989 pour une tournée d'adieu passant notamment en Belgique, en Angleterre et aux États-Unis (à laquelle Marie participera sur une partie seulement, limitée aux premiers concerts donnés fin 1987) et s'achevant par un concert donné le au festival des Tertres à Saint-Gouéno dans les Côtes-d'Armor. Reformation exceptionnelle (2010). Le , près de 29 ans après la première séparation du groupe et près de 22 ans après sa séparation définitive, sur l'insistance de Gérard Pont, le directeur des Francofolies de La Rochelle (« qui faisait le forcing depuis une quinzaine d’années pour programmer [le groupe] dans son festival »), Gabriel accepte de reformer Malicorne le temps d'un concert exceptionnel donné dans le cadre du festival réunissant sur scène pour la première fois en 31 ans les cinq membres de la formation classique soit les quatre membres fondateurs Gabriel Yacoub, Marie Sauvet, Laurent Vercambre et Hughes de Courson augmentés d'Olivier Zdrzalik-Kowalski (qui avait rejoint le groupe seulement en 1976). Cette formation classique est complétée par Yannick Hardouin (basse) - complice de longue date de Gabriel - et David Pouradier Duteil (batterie et percussions), et rejointe sur scène par de nombreux artistes invités à interpréter à leur façon les classiques du répertoire de Malicorne : Gilles Chabenat, J. P. Nataf, Le Quatuor, Michel Rivard, Karl Zéro, Tété, Claire Diterzi, Bensé et Jil Is Lucky en duo. La publication en d'un album et d'un DVD tous deux intitulés "Concert exceptionnel aux Francofolies de La Rochelle" rend compte de cet évènement. Reformation de Malicorne (2011—2017). Le concert aux Francofolies révèle au couple fondateur Gabriel Yacoub et Marie de Malicorne l'engouement intact du public et même l'intérêt des jeunes générations pour la musique de Malicorne. Gabriel et Marie annoncent alors le projet d'un nouveau groupe appelé d'abord « Gabriel et Marie de Malicorne » puis simplement Malicorne. Gabriel explique : « finalement, ce sera toujours Malicorne mais avec quatre nouveaux musiciens parmi lesquels de vieux complices comme Gilles Chabenat à la vielle », ou Yannick Hardouin à la guitare basse mais aussi l'arrivée dans le groupe d'un petit nouveau : l'accordéon diatonique « malicornisé » sous les doigts de Romain Personnat ». Sur scène, Malicorne reprendra « quelques « standards », histoire de ne pas décevoir. Mais pas question pour le groupe « de se laisser enfermer dans le passé ou de s'imposer des limites. » Outre du « traditionnel qu'il adapte sans vergogne », le groupe « proposera d'autres textes plus oniriques que Gabriel écrit lui-même en gardant « l'esprit Malicorne » ». À côté des airs du Berry où Gabriel s'est installé depuis longtemps, on retrouvera « aussi diverses influences musicales allant de la Louisiane au Haut Moyen Âge en passant par Ravel, Debussy ou Fauré… » Gabriel et Marie de Malicorne (2011—2012). En , 38 ans après que Gabriel et Marie Yacoub ont publié l'album "Pierre de Grenoble", le site web de Kerne Production (agence dirigée par Jean-Philippe Mauras jusqu'en 2013) annonce la formation d'un nouveau groupe sous le nom de « Gabriel et Marie de Malicorne » : outre le couple éponyme Gabriel Yacoub (chant, guitare, mandoloncelle) et Marie Sauvet (Marie de Malicorne sur scène, chant, dulcimer, psaltérion), le groupe comptera Yannick Hardouin (claviers, basse acoustique, chant), Gilles Chabenat (vielle à roue électro-acoustique), tous deux collaborateurs de longue date de Gabriel avec qui ils jouent habituellement en trio, David Pouradier Duteil (percussions, chant, déjà présent sur scène aux côtés de Malicorne lors du concert de La Rochelle) et un nouveau venu, Romain Personnat (accordéon diatonique, harmonium, chant). Prenant modèle sur "Almanach", album publié en 1976, Kerne Production annonce deux projets : d'abord la mise en place à compter de d'une tournée intitulée "Almanach Tour 2012-2013" célébrant les 40 ans de carrière de Gabriel et Marie. Le répertoire de cette tournée se composera des standards qui ont fait le succès de Malicorne ainsi que de nouveaux morceaux inédits : des traditionnels issus de l'expérience acquise pendant toutes ces années et de compositions. S'en suivra l'enregistrement à la fin de l'année 2013 d'un nouvel album (au titre initialement annoncé comme étant "Almanach 2013") auquel participeront de nombreux invités qui ont influencé le groupe ou qui ont fait perdurer la légende. Au cours de la tournée "", le groupe se produit dans des salles plus ou moins grandes mais aussi en plein air lors de festivals d'été. Pendant les six premiers mois, sur huit dates, l'« Almanach Tour » passe pas moins de cinq fois par la Bretagne. Retour au nom Malicorne (à partir de 2012). Le , la page Facebook de Malicorne annonce que le groupe de 6 musiciens Gabriel et Marie de Malicorne devient simplement « Malicorne », à la suite du fait que le couple éponyme s'est aperçu que le nouveau nom « ne marchait pas du tout », que « dans l'esprit des gens ça restait Malicorne ». Enregistrement du nouvel album et changements de personnel (à partir de 2013). En , Malicorne rentre en studio à Greneville-en-Beauce pour commencer l'enregistrement du nouvel album. Le groupe travaille cinq titres : "Soleillet de l'air en l'air", "Géant" (deux titres que le groupe s'était déjà essayé à interpréter sur scène à l'été 1984 lors de sa tournée américaine), le tout nouveau titre "Au bout du bois", une nouvelle version du classique "Pierre de Grenoble" et un cinquième titre (non dévoilé) laissé seulement à l'état de démo. Un musicien est présent sur scène lors du concert de Malicorne le à Aubervilliers : collaborateur de longue date de Gabriel Yacoub, le guitariste Nicolaïvan Mingot avait déjà participé à l'enregistrement en des cinq premiers titres prévus pour le nouvel album. Malicorne joue à nouveau à seulement 6 musiciens au concert suivant le à l'occasion du Gooikoorts Festival qui a lieu en Belgique, mais au concert d'après, le au Château d'Ars, Nicolaïvan Mingot est de retour sur scène avec le groupe et, depuis lors, a intégré la formation. Ancien membre fondateur du groupe, Laurent Vercambre, d'abord seul au violon et au nyckelharpa puis en fin de concert au sein du duo de nyckelharpas qu'il forme avec Eléonore Billy, rejoint Malicorne sur scène sur plusieurs titres le lors du festival du Château d'Ars. C'est alors la première fois que Laurent rejoue avec Malicorne depuis le concert du groupe (dans sa configuration classique) aux Francofolies de La Rochelle 3 ans plus tôt le . Par la suite, Laurent Vercambre assure la première partie du concert parisien que Malicorne donne le au Trianon. En , Daniel Bornet reprend le management du groupe. Le "booking", jusque-là assuré par Kerne Production, est alors confié à Pyrprod. La tournée "" se poursuit dans toute la France mais passe aussi dans trois pays limitrophes ou proches : en Belgique en 2013, aux Pays-Bas en 2014 et en Suisse en 2015. Le , Malicorne annonce sur sa page Facebook le retour permanent au sein du groupe en du membre fondateur Laurent Vercambre au violon et au nyckel-harpa, en remplacement de Romain Personnat, avec un premier concert donné par la nouvelle formation le samedi à Dijon (Théâtre des Feuillants). Romain Personnat aura donc définitivement quitté le groupe après un dernier concert de l'année 2014 donné le à Coutances. Poursuite des projets et de la tournée, nouveau vinyle et ultime concert (2015—2017). Le , Malicorne assure que son nouvel album studio est toujours en préparation, confiant « prendre [son] temps pour qu'il soit de qualité » et annonce « souhaiter tout de même sortir [...] pour le mois d' » deux disques : un EP de 4 morceaux « pour donner le ton de l'album » et un vinyle (en deux versions) d'un nouveau titre, "Les Cendres de Jeanne", une chanson écrite par Gabriel Yacoub sur le personnage de Jeanne d'Arc<ref name="Ouest-France Malicorne 15/02/2013">.</ref>. Finalement, seul le vinyle sera publié le sous le titre "Jehanne", proposant deux versions différentes, l'une en face A intitulée "Les Cendres de Jeanne" (signée Gabriel Yacoub / Nicolaïvan Mingot) interprétée par Malicorne, l'autre en face B intitulée "Ghjuvanna" (signée Gabriel Yacoub / Nicolaïvan Mingot / Laurent Vercambre) curieusement interprétée par A Filetta, groupe corse ami de Malicorne. Mi-, Malicorne annonce sur sa page Facebook le départ définitif de Laurent Vercambre après seulement neuf mois passé au sein du groupe. Ce départ a été décidé de façon concertée avec le groupe, Laurent Vercambre souhaitant se lancer dans d'autres projets musicaux. À l'origine, Laurent Vercambre devait annoncer son départ sur scène à l'occasion d'un dernier concert donné au sein de Malicorne le à Coucy-le-Château dans le cadre du « Historica - Pagan Festival » mais le concert avait été annulé à la suite de l'annulation de l'intégralité du festival par ses organisateurs. Malicorne redevient donc une formation à 6 musiciens, comme c'était le cas depuis le début de la tournée jusqu'à l'arrivée de Nicolaïvan Mingot au sein du groupe au printemps 2013. Le groupe donne un ultime concert le lors du festival du chant de marin de Paimpol. Le projet de nouvel album est définitivement abandonné concomitamment au dernier concert donné à Paimpol. Style musical et influences. L'influence de Malicorne, dans la vague folk des années 1970 en France, fut importante, au côté de groupes et d'artistes plus traditionnels comme La Bamboche ou La Chifonnie. Pour "L'Encyclopédie de la chanson française", le groupe est . Le groupe se caractérise par l'innovation constante, avec un important travail sur le son et le mariage réussi des instruments traditionnels (acoustiques) et modernes (électroacoustiques et électriques). Les influences musicales du groupe sont principalement les musiques traditionnelles française et québécoise, la musique du Moyen Âge, la musique celtique mais aussi le rock et le jazz. Discographie. Singles. Les singles que Malicorne a publiés sont, pour la plupart, des singles promotionnels donc non destinés à la vente (sauf trois d'entre eux publiés en 1986, 1996 et 2015) : |
MSX Le MSX est un standard de micro-ordinateurs à vocation domestique (grand public) d’origine japonaise, qui date des années 1980. Contrairement à la plupart des ordinateurs de l’époque, les MSX ont été produits par divers fabricants. Ils étaient compatibles entre eux, aussi bien pour le matériel que pour les logiciels. Plusieurs versions du standard se sont succédé. Description. Souvent interprété comme , le sigle "MSX" signifierait "" selon Kazuhiko Nishi, initiateur du projet. Le standard est créé en 1983 et produit par de nombreuses sociétés nippones comme Canon, Casio, Panasonic, Sanyo, Sony, Toshiba ou Yashica. Le japonais Yamaha a notamment produit des MSX à vocation musicale dont une version MSX1 avec un processeur sonore huit voix et des connecteurs DIN à la norme MIDI. En Europe, Philips ou Schneider ont été présents sur la scène MSX. Le standard MSX est inventé à la suite d'un appel d'offres de la part du METI qui désirait que les ordinateurs soient compatibles entre eux (à l’époque chaque marque/modèle d'ordinateur avait son propre langage et son propre système d'exploitation). Microsoft répond à l’appel pour développer les couches logicielles : langage de programmation interprété MSX-Basic intégré en standard dans une mémoire ROM et système d’exploitation . Plus tard, le MSX-DOS 2 est développé par ASCII, ajoutant entre autres les notions de répertoires (et sous-répertoires), de partitions de disques durs SCSI. Les MSX avaient des particularités « nationales » : la version commercialisée au Japon était équipée d'un clavier QWERTY/Kanji. En France, la plupart possédait un clavier AZERTY. Une version supportant la langue arabe a été commercialisée par la société Al Alamia. Cette déclinaison portait le nom de "Sakhr" (« roche » en arabe). Les MSX2 de Sony possédaient déjà une souris et un bureau (interface) graphique. Il y a eu quatre générations de MSX : les MSX (ou MSX1), les MSX2, les MSX2+ et les . Ils ont été très populaires au Japon et en Europe, surtout à l’époque du MSX1. Le MSX2+ est commercialisé en Europe grâce à quelques rares importateurs en France, en Espagne et aux Pays-Bas. Le est encore plus rare en Europe, car produit uniquement par la firme Panasonic et réservé exclusivement au marché japonais. Les normes. MSX 1. La norme MSX 1 est définie à partir d’une machine existante, le Spectravideo 318 : MSX 2. En 1985, la norme MSX-2 est définie : On peut citer comme célèbres : le Sony HB-F 700-F (deux cartouches et un lecteur de disquettes) ainsi que le Philips VG-8235 (deux cartouches et un lecteur de disquettes ). Mais aussi les et . Ces deux ordinateurs étaient orientés vidéo (numérisation, retouche, titrage, etc.). NB : il existait pour ce standard, une cartouche d’extension sonore à et une bibliothèque sonore, cette cartouche nommée FM-PAC était compatible avec plusieurs jeux MSX de différents éditeurs. On peut également citer le " de Philips, cartouche avec prises MIDI et connecteurs RCA, pour laquelle un clavier externe (piano) était disponible en option. MSX 2+. En 1988, la norme MSX2+ a été définie : MSX turbo R. En 1990, la norme a été définie : Clones et dérivés. En Corée du Sud, Daewoo a fabriqué une gamme de consoles compatibles avec les logiciels et périphériques MSX. Ces consoles étaient regroupées sous la marque et n'étaient pas couvertes par la norme, elles n'affichent donc pas le logo MSX. Les Zenmix ont continué à être fabriqués jusqu'en 2020 et les derniers modèles sont basés sur une carte Raspberri Pi avec des circuits supplémentaires pour pouvoir connecter les périphériques MSX d'origine, y compris le logiciel de la cartouche. En 2006, ASCII a autorisé un nouveau modèle MSX appelé 1chipMSX et basé sur une carte FPGA. Le système n'était compatible qu'avec les ordinateurs MSX2, bien qu'une mise à jour ait été publiée ultérieurement pour l'étendre à MSX2 + En 2019, un groupe de fans a développé le MSX Mini Replica. Il s'agit d'une reproduction à l'échelle 1:2 du Philips VG-8020 compatible avec les logiciels du MSX, MSX2, MSX2+ et Turbo R. Il intègre 2 ports USB, une sortie vidéo HDMI et utilise en interne le même hardware que le C64 Mini .En connectant un périphérique supplémentaire, appelé MSX Player, vous pouvez jouer à des jeux originaux sur cartouche ROM. Le MSXVR est un ordinateur sorti en 2020 et compatible avec la famille d'ordinateurs MSX. Comme le dernier Zenmix, il est également basé sur une carte Raspberri Pi avec des circuits supplémentaires pour connecter les périphériques MSX d'origine. Émulation. Les ordinateurs MSX font partie des plates-formes les plus émulées aujourd’hui. Des versions existent sur la plupart des plates-formes, y compris les téléphones mobiles. Une grande partie des émulateurs MSX est basée sur le code du pionnier fMSX, un émulateur portable créé par le russe Marat Fayzullin. La licence du code source de fMSX n’étant pas libre, de nombreux émulateurs ont supprimé dans leurs dernières versions le code qui émule le Z80 de Fayzullin pour éviter tout problème légal. Il existe également une version pour Mac.x BlueMSX est considéré comme le meilleur émulateur MSX pour plate-forme Windows par les sites spécialisés. Il est disponible sur le site blueMSX. OpenMSX est un émulateur multiplateforme (Unix, Windows, Wii, Dingoo A320) "". Sa rapidité, sa qualité d’émulation et ses possibilités de paramétrage le placent à un niveau équivalent à BlueMSX du point de vue de la qualité. Son principal avantage est qu’il n’est pas lié à un système d’exploitation. Il est disponible sur le site officiel OpenMSX. En 2001, Kazuhiko Nishi, inventeur du standard MSX, a amorcé une renaissance du MSX autour d’un émulateur officiel appelé « MSXPLAYer ». C’est le seul émulateur MSX officiel. Tous les droits sont maintenus par l’association MSX. Nintendo Japon a annoncé en 2006 et confirmé en que des jeux MSX seront disponibles sur la Console virtuelle de la Wii à partir de l’été 2007 au Japon. |
Midi Pyrénées |
Maine-et-Loire Le département de Maine-et-Loire () est un département français du Val de Loire dans la région Pays de la Loire. Créé en 1790, ses limites reprennent en grande partie celles de l'ancienne province d'Anjou. Avec , c'est le de France par sa superficie, et le par sa population avec appelés « Angevins » et « Angevines » en référence à la province d'Anjou. Département à grande dominance rurale et agricole, il a comme plus grand centre urbain la ville d'Angers, qui en est la préfecture, secondée par trois sous-préfectures de tailles plus modestes : Cholet, Saumur et Segré-en-Anjou Bleu (par ordre de population). Le Maine-et-Loire fait partie du bassin de la Loire et de la région naturelle du Val de Loire inscrit depuis 2000 sur la liste du patrimoine mondial de l’UNESCO. Le territoire est traversé d'est en ouest par la Loire où se déversent de nombreux affluents faisant de lui un des départements les plus drainés de France. Son climat tempéré de type océanique, sa diversité géologique et ses nombreuses zones humides favorisent la biodiversité et en font la première région horticole de France. Économiquement, il est le second pôle industriel des Pays de la Loire et un des premiers départements français en valeur et en diversité agricole, hébergeant notamment le vignoble le plus étendu du Val de Loire. L'Insee et la Poste lui attribuent le code 49. Dénomination et usage. Le département a été créé à la Révolution française le en application de la loi du et correspond à la majeure partie de la province d’Anjou. Les documents de travail utilisés par le décret du parlent d’ailleurs du « département d’Anjou » mais ce nom a été abandonné car le choix a été fait de nommer tous les départements non pas d’après des critères historiques mais purement géographiques. Malgré tout il existe une incertitude quant au nom de la rivière et donc sur le nom du département à sa création. Ainsi, le décret de l’Assemblée du donne le nom de "Maine-et-Loire" mais la nomination par le roi des commissaires du département le comme le décret du qui indique qu’Angers est le siège de l’administration du département donnent celui de "Mayenne-et-Loire". Enfin, la proclamation du roi du qui sanctionne le décret précédent redonne le nom choisi en février, Maine-et-Loire. Le "Site sur la population et les limites administratives de la France" (SPLAF) indique que le département s’est d’abord appelé "Mayenne-et-Loire" pour changer de nom pour Maine-et-Loire le mais aucun décret national de changement de nom n’a été retrouvé à cette date. Toutefois l’assemblée du département étant réunie en séance ce jour-là, le choix du changement de nom a peut-être été fait au niveau local. Dans tous les cas, les deux noms ont cohabité dans les documents officiels de la création du département jusqu’à au moins la fin de l’an II (1794). On dit et on écrit « "le" Maine-et-Loire » ; le nom du département a donc connu une masculinisation consacrée par l’usage alors que la règle aurait souhaité, la Maine et la Loire étant toutes deux féminines, que le nom « Maine-et-Loire » le fût également. Le masculin vient peut-être, par contamination, de la province du Maine (chef-lieu Le Mans), voisine. Comme pour tous les noms de départements formés de deux termes liés par « et », à l’inverse des autres noms de départements, qui s’emploient avec l’article dans les compléments du nom et à la suite de la préposition « dans », on doit dire et écrire « département "de" Maine-et-Loire » ou « "en" Maine-et-Loire », et non « département "du" Maine-et-Loire » ou « "dans le" Maine-et-Loire », même si, là encore, « département "du" Maine-et-Loire » ou « "dans le" Maine-et-Loire » sont régulièrement utilisés. Géographie. Localisation et départements limitrophes. Le Maine-et-Loire se situe à l'extrémité Ouest du bassin parisien et à l'extrémité Est du massif armoricain, la frontière partageant le département en deux au niveau d'Angers. Le Maine-et-Loire est situé dans le Grand Ouest français, près de la façade atlantique. Depuis 1955, il fait partie de la région Pays de la Loire. Le Maine-et-Loire est le deuxième des départements français en nombre de départements qui lui sont limitrophes avec huit départements voisins. Ces huit départements sont la Mayenne, la Loire-Atlantique, la Sarthe et la Vendée pour la région des Pays de la Loire, l’Indre-et-Loire pour le Centre-Val de Loire, les Deux-Sèvres et la Vienne pour la région Nouvelle-Aquitaine et l’Ille-et-Vilaine pour la région Bretagne. Le Maine-et-Loire était même, jusqu’au et la création des nouveaux départements franciliens, le département ayant le plus de départements limitrophes : la Seine-et-Marne, qui en compte maintenant dix, n’en comptait alors que sept. Paysages et relief. L’"Atlas des paysages de Maine-et-Loire" recense en tout treize unités paysagères au sein du département de Maine-et-Loire, ainsi qu'une trentaine de sous-unités. Celles-ci sont définies selon leurs critères identitaires. Les points les plus hauts se situent dans la partie sud du département : dans la région du Chemillois, la Trottière à La Tourlandry, point culminant de Maine-et-Loire (), le puy de la Garde à Saint-Georges-des-Gardes (), Melay (), et dans la région du Vihiersois, Saint-Paul-du-Bois (), La Plaine () et Vihiers (). Les points bas de l'Anjou sont tous positionnés sur la Loire. Au moment où celle-ci entre en Anjou, à Montsoreau, elle se trouve au-dessus du niveau de la mer. Elle perd peu à peu de la hauteur au fur et à mesure qu'elle s'avance dans l'Anjou. Vers Beaufort-en-Vallée, dans la vallée de l'Authion, elle ne s'élève plus qu'à , puis 14 quand elle rencontre la Maine. Quand elle sort de l'Anjou, au niveau de Champtoceaux, elle s'élève à . Géologie. Le territoire angevin est un territoire de rencontre entre le Massif armoricain et le Bassin parisien. Les deux zones géologiques se chevauchent, divisant le territoire du nord au sud. Cependant, on reconnaît trois structures géomorphologiques au sein de l'Anjou. L'Anjou noir, situé à l'ouest de la région, à partir d’Angers et englobant les Mauges et le Segréen. Son sous-sol est majoritairement constitué de schistes et de grès. La moitié nord depuis Pouancé et jusqu'à Brissac-Quincé se caractérise par des bandes de schistes ardoisiers. Au sud de la Loire, dans les Mauges, le plateau de grès et de schistes se trouve percé de granite à l'est et l'ouest de Cholet. L'Anjou blanc, à l’est, se confond avec le Saumurois et le Baugeois par ses sols de calcaire et de tuffeau. Ses terres blanches, résultant de l’altération de la craie (tuffeau), marquent l’extrémité Sud-Ouest du Bassin parisien. La vallée de la Loire elle-même constitue un territoire géologique. Traversant l'Anjou d'est en ouest, elle y dépose de riches alluvions tout le long de son parcours. Le bassin houiller de Basse Loire traverse une grande partie du département et le coupe en deux. Hydrographie. Avec environ de cours d'eau, le Maine-et-Loire est un des départements les plus drainés de France. L'Anjou se trouve en totalité incluse dans le bassin hydrographique de la Loire qui traverse le territoire d'est en ouest. À l'est, à Montsoreau, en frontière avec l'Indre-et-Loire, la Loire reçoit les eaux de la Vienne, puis à Saumur, les eaux du Thouet grossies par la Dive qui drainent le sud-est, vers Montreuil-Bellay. Vers le centre du département, aux Ponts-de-Cé, la Loire reçoit les eaux de l'Authion, qui coule dans la Vallée angevine et se trouve grossie par le Lathan et la Couasnon qui drainent le Baugeois. Dans le nord et l'ouest du département, la Sarthe, grossie par le Loir, rejoint la Mayenne dont les affluents drainent tout le nord-ouest du département avec l'Oudon rejoint par la Verzée, l'Argos et l'Araize. Les zones humides comprises entre la Sarthe, la Mayenne et le Loir sont connues sous le nom de Basses vallées angevines et bénéficient d'un classement en zone de protection spéciale et font partie du réseau Natura 2000. En se rejoignant, la Sarthe et la Mayenne forment la Maine, qui ne possède donc pas de source pour raison hydronymique. Elle ne parcourt que avant de se jeter dans la Loire au niveau de Bouchemaine. Plus loin, les rivières du Louet qui reçoit l'Aubance, et du Layon qui reçoit les rivières Lys, Hyrôme et Jeu, et qui drainent une partie des Mauges, se jettent dans la Loire à hauteur de Chalonnes-sur-Loire. Le fleuve recueille enfin les eaux de la Romme sur sa rive droite, et de l'Èvre sur sa rive gauche. Seules l'Erdre et une petite section de la Sèvre Nantaise qui reçoit la Moine traversent le département pour se jeter dans la Loire près de Nantes, dans le département voisin, la Loire-Atlantique. Pendant toute la durée de son existence, l'Anjou aura à subir les crues répétitives de la Loire. Afin de contrer ce fléau, Henri II Plantagenêt décida en 1161 la construction d'une première levée de la Loire afin d'atténuer les crues et d'augmenter les terres cultivables. Le Maine-et-Loire continue néanmoins de subir les crues de la Loire, parfois dévastatrices. Lors de la crue de 1856, les ardoisières de Trélazé sont inondées et l'économie de la région est dévastée. L’empereur Napoléon III se rend à Trélazé pour promettre des aménagements. En 1911, la Loire est en crue, la Maine déborde et plusieurs quartiers d'Angers se retrouvent sous les eaux. Faune, flore et environnement. La LPO recense en Maine-et-Loire plus de 300 espèces d'oiseaux différents (plus de 170 espèces nicheuses). L'Anjou est avantagé par la présence de la Loire et de ses affluents et par de nombreuses zones humides et vallées inondables. De par sa position géographique, elle se trouve sur le trajet migratoire de plusieurs espèces. On trouve notamment de nombreuses espèces de canards outre le canard colvert (le canard siffleur, le canard chipeau, le canard souchet ou le canard pilet en zone d'hivernage). S'y trouvent d'autres espèces permanentes comme le grand cormoran, le vanneau huppé, le héron garde-bœufs ou le busard cendré. Des espèces rares peuvent s'y trouver comme le faucon pèlerin, le râle des genêts, la marouette ponctuée ou en limite de leur zone de nidification, comme la cigogne noire, le circaète Jean-le-Blanc, le balbuzard pêcheur, l'outarde canepetière, le moineau soulcie. En hivernage, on peut trouver entre autres espèces, la grande aigrette, l'œdicnème criard, le goéland pontique, le goéland brun… Les mammifères présents en Maine-et-Loire sont pour la plupart des espèces communes. On trouve en revanche la présence du cerf dans plusieurs forêts dans l'Est du département. Parmi les espèces les plus rares se trouvent le castor, la loutre et la genette. Le ragondin est en revanche devenu commun. Le vison d'Europe aurait en revanche disparu de la région. Avec 18 espèces, les chauves-souris forment un tiers de l'ensemble des mammifères présents dans le département, notamment grâce aux nombreuses cavités présentes dans le tuffeau. Pour les reptiles, on y trouve des orvets, des lézards verts, des vipères (aspic et péliade) et cinq espèces de couleuvres (la couleuvre vipérine, la couleuvre à collier, la couleuvre d'Esculape, la coronelle lisse et la couleuvre verte et jaune). La cistude était autrefois présente dans certains bras de la Loire. Si certains individus ont été observés, il n'y a aucune preuve d'existence d'une population viable. En revanche la tortue de Floride est bien présente (lac de Maine notamment) et le xénope lisse continue son invasion dans le Sud-Est du département. Chez les invertébrés, la présence la plus notable est celle de 550 espèces d’araignées sur les espèces présentes dans l'Hexagone, grâce aux différentes influences climatiques et aux voies de pénétration, notamment méridionales. On trouve également des moules d'eau douce des genres Corbicula et Unio, ainsi qu'une grande variété d'insectes (plus de 60 espèces d'Odonates), notamment dans les zones calcaires. Climat. Le Maine-et-Loire possède un climat tempéré de type océanique. Le poète français Joachim du Bellay a vanté la « douceur angevine » qui lui manquait tant. Aménagement du territoire. Transports. Au , la longueur totale du réseau routier du département de Maine-et-Loire est de , se répartissant en d'autoroutes, de routes nationales, de routes départementales et de voies communales. Il occupe ainsi le au niveau national sur les métropolitains quant à sa longueur et le quant à sa densité avec par km de territoire. Pour les transports en commun : Les lignes ferroviaires traversant le département sont les suivantes : Pour le réseau aérien : Agglomérations. Les principales villes sont Angers, Cholet, Saumur, Doué-la-Fontaine, Segré-en-Anjou Bleu, Longué-Jumelles, Chemillé-en-Anjou, Beaupréau-en-Mauges, Sèvremoine, Chalonnes-sur-Loire, Beaufort-en-Anjou et Baugé-en-Anjou. En , outre Angers (), la communauté urbaine Angers Loire Métropole compte huit communes de plus de : Trélazé (), Avrillé (), Les Ponts-de-Cé (), Saint-Barthélemy-d'Anjou (), Montreuil-Juigné (), Verrières-en-Anjou (), Bouchemaine () et Longuenée-en-Anjou (). Histoire. Création du département. L'ancienne province d’Anjou, plus étendue que l'actuel département, faisait partie depuis le de la généralité de Tours avec la Touraine et le Maine. La généralité de Tours d’après le Règlement général du (États généraux) fut organisée avec un certain nombre de modifications qui laissaient présager le démantèlement des anciennes provinces royales. En effet, le , l’Assemblée Constituante brusque les choses en ordonnant aux députés des anciennes provinces de se concerter afin de mettre en place un réseau de nouveaux départements d’environ 324 lieues carrées, soit . Des réunions se tiennent aussitôt dans l’hôtel du duc de Choiseul-Praslin, député de la noblesse de la Sénéchaussée d’Angers. Une trentaine de députés (des trois provinces) présents envisagent de rétrocéder des territoires au Poitou et de subdiviser le domaine restant en quatre départements, autour des capitales traditionnelles, Tours, Angers et Le Mans, et autour de la ville de Laval qui récupérerait des terres du Maine et de l’Anjou. Le , vingt-cinq députés (des trois provinces) approuvent ce partage mais les deux représentants de Saumur, de Ferrières et Cigongne, se dissocient de cette décision. Les Saumurois plaident en faveur d’un département de Saumur situé au carrefour des trois provinces de l’Anjou, de la Touraine et du Poitou, avec Loudun pour le partage des pouvoirs. Ils accusent les représentants d’Angers de s’entendre avec leurs collègues du Maine et de Touraine pour le dépeçage de la sénéchaussée de Saumur. Ils les accusent également d’abandonner à la Touraine vingt-quatre paroisses anciennement angevines (autour de Château-la-Vallière et de Bourgueil). Le mécontentement grandit, la population de Bourgueil manifeste pour son maintien dans l’Anjou et se solidarise avec Saumur. Pendant ce temps, les représentants de Chinon, à l’instar de ceux de Saumur tentent également de créer leur propre département. Des dissensions apparaissent au sein du conseil municipal de Saumur. Certains représentants de la noblesse et du clergé approuvent le découpage proposé par Angers. En décembre de la même année, les Loudunais rompent leur accord avec Saumur. Le , l’Assemblée Nationale décrète que « Saumur et le Saumurois feront partie du département de l’Anjou ». Intégrée dans le département de « Mayenne-et-Loire » (futur « Maine-et-Loire »), Saumur tente de partager avec Angers la fonction de chef-lieu. Ayant perdu la partie, les représentants de Saumur proclament que l’alternance entre Angers et Saumur permet de déjouer les intrigues et les cabales qui naissent de la fixité. Le lundi , ils obtiennent cent quatre suffrages en faveur de l’alternance mais cinq cent trente-deux voix se prononcent en faveur d’un siège permanent à Angers. Le nouveau département est constitué. L’Assemblée Constituante entérine cette structure le et le roi le . Afin de calmer la susceptibilité des Saumurois, les trente-six membres du nouveau conseil du département portent à leur présidence Gilles Blondé de Bagneux (ancien maire de Saumur). Ainsi, jusqu’en , le premier président du conseil général du département sera Saumurois. En 1790, lors de la création des départements français, le Sud-Saumurois (sénéchaussée de Loudun et pays de Mirebeau dépendants du gouverneur de Saumur et partie méridionale de l'Anjou) est rattaché au département de la Vienne. En 1802, lors de la nomination des premiers préfets de France, c'est un Loudunais, Pierre Montault-Désilles qui devient premier préfet du département de Maine-et-Loire. La même année, son frère Charles Montault-Désilles, devient l'évêque du diocèse d'Angers. Après la victoire des coalisés à la bataille de Waterloo (), le département est occupé par les troupes prussiennes de à (voir occupation de la France à la fin du Premier Empire). En 1940, le Maine-et-Loire est envahi par l'Allemagne nazie. Le , le territoire de la commune du Fresne-sur-Loire (Loire-Atlantique) est rattaché au département de Maine-et-Loire, décision préalable à la création de la commune nouvelle Ingrandes-Le Fresne sur Loire, située dans le Maine-et-Loire. Le , le territoire de la commune de Freigné (Maine-et-Loire) est rattaché au département de la Loire-Atlantique, décision préalable à la création de la commune nouvelle Vallons-de-l'Erdre, située dans la Loire-Atlantique. Administration. La question d’un rattachement du département à une région administrative Val de Loire fait l’objet d’un débat récurrent. Tendances politiques. Au , le Maine-et-Loire, profondément marqué par le souvenir des guerres de Vendée (dans les Mauges et la vallée du Layon) et de la Chouannerie (dans le nord du département) apparaît comme un bastion conservateur catholique, principalement légitimiste. Ainsi, en 1876 et en 1877, quatre légitimistes sont élus députés, à Cholet, Beaupréau et Angers. Segré et Saumur élisent un bonapartiste. Baugé nomme un républicain. En 1885, la liste d'Union conservatrice (bonapartistes et légitimistes) est élue entière avec environ 60 % des voix. Pour la droite, c'est l'un des meilleurs résultats de France. Les royalistes conservent quatre circonscriptions sur sept jusqu'en 1928, et la majorité absolue au conseil général jusqu'en 1925. Le Maine-et-Loire est un département ancré depuis des décennies dans le courant de la droite modérée. Depuis la Libération, les députés furent d’abord gaullistes puis membre de l’UDF ou du RPR, pour être à l’unanimité membre de l’UMP lors de sa création en 2002. Pourtant, lors des élections législatives du , l’élection d’un député socialiste, Marc Goua, a montré que les inclinations politiques y changent. Ceci s’explique sociologiquement par le fait que la population du département est de plus en plus citadine. Cette tendance s'est effectivement accrue lors des élections sénatoriales de 2011 et lors élections législatives du puisque la gauche angevine remporte alors deux sénateurs sur quatre (1 PS, 1 EELV) et trois députés sur sept (2 PS, 1 DVG). En 2017, les sièges sont renouvelés à l'Assemblée Nationale et au Sénat. La République En Marche obtient 6 sièges et Les Républicains conservent un seul siège au Palais Bourbon, à la surprise générale. Au Palais du Luxembourg, Les Républicains conservent leurs 2 sièges, La République En Marche et le Parti Socialiste gagnent chacun un siège. Économie. Entreprises et emplois. Le Maine-et-Loire est le second département industriel des Pays-de-la-Loire avec dans l'industrie. L'agroalimentaire emploie et la construction . En 2008, le Maine-et-Loire comptait se répartissant en 40 % pour l'industrie, 27 % pour les services, 22 % pour les commerces et 11 % pour la construction. L'économie angevine est globalement rurale, avec trois bassins urbains que sont Angers, Cholet et Saumur. On compte sur le territoire une trentaine de bassins économiques ruraux, dont près du quart ont une orientation économique diversifiée. L'activité industrielle est surreprésentée dans les Mauges qui se hissent à la des bassins industriels de France. Agriculture et pôle végétal. L'agriculture occupe 64 % du territoire (surface agricole utile). Environ sont consommés chaque année pour l'artificialisation des sols. L'Anjou se place au cinquième rang des départements français pour la valeur de ses productions agricoles. Le département est le premier producteur horticole français, ainsi que le premier producteur français de champignon de Paris, de pommes, de cassis et de camomille. Il héberge également le troisième vignoble français par la superficie. La filière végétale représente dans . Un pôle d'excellence du végétal à vocation mondiale, Végépolys, a été labellisé. Tourisme. Le tourisme en Maine-et-Loire représente un pan important de l'économie du département, avec près de de visiteurs par an, dégageant un chiffre d'affaires direct et indirect de d'euros. Se situant juste en arrière de la façade atlantique, deuxième destination touristique après la façade méditerranéenne, le Maine-et-Loire possède de nombreux atouts afin d'attirer les touristes. Département rural, il mise depuis plusieurs années sur le thème de la nature et du végétal, notamment mis en valeur par l'ouverture du parc Terra Botanica. En , le département s'engage dans la promotion de l'art contemporain, et décide de signer avec Philippe Méaille un bail emphytéotique, d'une durée de , concernant le château de Montsoreau. Le château de Montsoreau - musée d'Art contemporain ouvre ses portes le . Son offre touristique inclut également la Loire, le vignoble angevin, les châteaux de la Loire, les musées (dont la tenture de l’Apocalypse et le Chant du monde), l’habitat troglodyte ou encore le marché aux puces de Montsoreau. La monnaie locale et citoyenne. En , l’association "Agir pour la transition" a mis en circulation une "monnaie à usage solidaire et écologique" comme monnaie locale et citoyenne du Maine-et-Loire. Elle est utilisée en Anjou et est gérée par quatre groupes locaux à Angers, Trélazé/Rochefort-sur-Loire, Chemillé-en-Anjou/Chalonnes-sur-Loire et Saumur/Doué-en-Anjou. Le taux de conversion est de 1 pour 1 (1 Muse=1 Euro). Les démarches d'adhésion s'effectuent au sein d'un comptoir d'échange, pour les particuliers comme pour les professionnels. Population et société. Gentilé. Les habitants de Maine-et-Loire n'ont pas de nom officiel. La dénomination "Angevin(e)" reste cependant largement employée. En , le quotidien "Ouest-France l"ance un sondage pour choisir le nom des habitants de Maine-et-Loire avec une dizaine de propositions différentes. Le résultat place "Angevin(e)" loin devant les autres propositions avec un peu plus de 56 % des voix sur près de . Enseignement. Angers est le second pôle universitaire régional avec près de pour une zone urbaine d'environ . L'Université d'Angers et l'Université Catholique de l'Ouest forment l'essentiel des forces universitaires de la communauté urbaine. Toutefois, de nombreuses écoles supérieures publiques et/ou privées forment un tissu riche et dense dans de nombreux domaines. Citons pêle-mêle ESSCA, ISTIA, ESEO, ESTHUA, ESA, ESAIP, IFEPSA, ISBA, etc. Médias. La chaîne France 3 émet un décrochage local avec France 3 Ouest, qui propose des émissions régionales France 3 Pays de la Loire (journaux télévisés 12/13 et 19/20). Trois chaînes câblées se sont également succédé à Angers, TV10 Angers (1988-2007), Angers 7 (2007-2010) et depuis Angers Télé. À partir de 2010, la chaîne TLC émet depuis Cholet sur tout le Sud-Ouest du département ainsi que sur les départements adjacents de la Loire-Atlantique, de la Vendée et des Deux-Sèvres. La presse écrite locale est principalement dominée par le groupe Ouest-France et ses éditions "Ouest-France" et "Le Courrier de l'Ouest" dont Angers est le siège. "Haut-Anjou" est diffusé dans le Nord de Maine-et-Loire, dans le territoire correspondant au Haut-Anjou historique qui incluait la Mayenne angevine. "L'Éclaireur" couvre également le Nord-Ouest du département autour de Pouancé. Plusieurs radios nationales possèdent des antennes locales basées à Angers, comme Chérie FM, NRJ, Virgin Radio, Radio Nova ou RCF. Les radios régionales comprennent Hit West (Bretagne et Pays de la Loire), Vibration (Centre, Pays de la Loire, Bourgogne) et Alouette (Bretagne, Pays de la Loire, Poitou-Charentes). Les radios locales comprennent Radio Campus Angers (Angers), Radio G !, Oxygène Radio Haut-Anjou (Segréen) et Ouest FM. Jusqu'en 2010, le festival international du scoop et du journalisme se déroulait à Angers. Culture. Langue et littérature. En 1835, d'après Abel Hugo, la langue usitée dans les villes du département était le français, avec un accent un peu traînant. Les habitants des villages avaient encore à cette époque divers patois qui leur étaient propres, et qu'on ne comprenait plus à quelques lieues de distance. Les paysans y tenaient beaucoup et s'en servaient uniquement entre eux. Cependant, presque tous entendaient aussi le français ; quelques-uns même le parlaient bien, mais ils n'osaient pas s'exprimer avec pureté, de peur que les voisins ne les plaisantent sur leur parler « noblat », expression qui était employée dans le pays pour désigner la langue française. Gastronomie. Quelques spécialités culinaires de la cuisine angevine : La superficie du vignoble angevin est de , dont sont en appellation d'origine contrôlée (AOC). Patrimoine architectural. Les deux sites architecturaux les plus visités du département sont le château d'Angers et l'abbaye de Fontevraud. Seul château de la Loire construit dans le lit du fleuve, le château de Montsoreau est aujourd'hui un musée d'art contemporain. Il a été construit en 1450 par Jean II de Chambes, conseiller du roi Charles VII. Claude de France, Anne de Bretagne et Marie Stuart y ont séjourné. Équipements culturels. Le département comporte Manifestations culturelles et festivités. Les festivals se développent en France durant la seconde moitié du . En Maine-et-Loire, le festival d'art dramatique, le "festival d'Angers", naît au début des années 1950. Sa particularité sera au fil du temps d'utiliser plusieurs scènes du département. En 1975, il change de nom pour devenir le "festival d'Anjou". Plusieurs festivals se développent sur le département à la fin du et au début du : le festival du scoop et du journalisme à Angers en 1985, le festival Premiers plans à Angers en 1989, Les Orientales à Saint-Florent-le-Vieil en 1990, Gypsy Swing Festival à Angers en 1992, le Festival estival de Trélazé en 1996, Tour de scènes à Angers en 1998, Les Z'éclectiques à Chemillé en 1998, les Accroche-Cœurs et le festival Angers-BD à Angers en 1999, le festival Terres à vins, Terres à livres à Savennières en 2005, le festival Tempo Rives à Angers en 2009, qui prend la suite du festival d'Angers l'été créé en 1980, Saveurs Jazz festival à Segré en 2010, le festival Bouche à oreille à Bouchemaine cette même année, etc. Les plus importantes manifestations sont en 2011, le festival Premiers plans (Angers), le Mondial du Lion (Le Lion-d'Angers), le festival d'Anjou, les présentations publiques du Cadre noir (Saumur) et les journées de la rose (Doué-la-Fontaine). Deux ans plus tard, ce sont le festival Premiers plans, les présentations publiques du Cadre noir, le festival d'Anjou et les Ecuyers du temps (Saumur). Se déroulent également cette même année, le Festival estival de Trélazé, les Z'éclectiques, Les Orientales, Saveurs Jazz festival, les Accroche-Cœurs, le festival Tempo Rives, Foliklores, Angers-BD, ainsi que la foire Saint-Martin (Angers), le carnaval de Cholet et Anjou Vélo vintage. En 2019, le festival ANAKO (festival des peuples premiers) se délocalise à Angers et Saumur. Indicatif téléphonique. L’indicatif téléphonique attribué au département de Maine-et-Loire est +33 241 (02 41). Le département partage cependant de nombreux indicatifs téléphoniques : |
Manche (département) La Manche () est un département français de la région Normandie. Son nom provient de la mer qui le borde sur tout son pourtour nord et ouest, et le quart nord-est. L'Insee et La Poste lui attribuent le . Sa préfecture est Saint-Lô. Géographie. La Manche fait partie de la région Normandie. Elle est limitrophe des départements du Calvados, de l'Orne, de la Mayenne et d'Ille-et-Vilaine. Incluant la péninsule du Cotentin, le département est baigné par la Manche sur toute sa façade ouest, ainsi qu'au nord et au nord-est, sur de côtes. Par la géologie, le département se rattache au Massif armoricain (à l'exception du Plain, rattaché au Bassin parisien). La Manche se divise en terroirs, intégré essentiellement au bocage normand. On peut citer du nord-ouest au sud-est la Hague, le val de Saire, le bocage valognais, le Plain, le Coutançais, le Saint-Lois, l'Avranchin et le Mortainais. La population est majoritairement rurale. En dehors des agglomérations cherbourgeoise et saint-loise, le territoire est maillé de petites villes et de gros bourgs commerçants. Le département présente la particularité d'être le moins boisé de France (ce qui ne veut pas dire avec le moins d'arbres, ceux-ci étant présents en abondance dans les bocages). Contrairement à la tradition française qui consiste à avoir toutes les compétences regroupées en un seul lieu, la Manche présente un polycentrisme dans son organisation des pouvoirs. Si Saint-Lô est avec le conseil départemental et la préfecture départementale la capitale politique et administrative, Coutances est, avec la cour d'assises, un tribunal judiciaire, la maison d'arrêt et le pôle d'instruction, la capitale judiciaire ; le diocèse y est implanté, ce qui en fait également la capitale religieuse. Par ailleurs Cherbourg-en-Cotentin, première agglomération du département et quatrième de la région avec son port militaire et de commerce et son industrie nucléaire (centrale nucléaire de Flamanville et usine de retraitement de la Hague), est considérée comme la capitale économique et industrielle de la Manche. Étymologie. Lorsque le , l'Assemblée nationale constituante fixe par décret le nom de chacun des départements instaurés, la Manche désigne déjà depuis le milieu du , soit , la mer décrite plus haut. Histoire. Peuplée à l'origine des peuples celtes, les Unelles et les Abrincates, cette région est envahie par les Romains contre les troupes de Viridorix (56 ). À l'époque mérovingienne, elle fait partie de la Neustrie. Le Cotentin connaît, au , une immigration de Vikings venus de Norvège et ayant transité par les Hébrides et l'Irlande ; elle se distingue donc des autres régions du Nord de la Normandie dont l'immigration scandinave provenait du Danemark. L'Avranchin et le Cotentin sont concédés, par Charles le Chauve, au roi Salomon de Bretagne en 867. En 919, le Viking Ragenhold, du Nord-Cotentin, refusant de se sédentariser, opère un raid sur le Sud-Cotentin. Rollon le bat en s'appuyant sur les chefs vikings et le clergé chrétien. Un chef danois s'établit comme chef indépendant dans le nord de la presqu'île. En 924, l'évêché de Bayeux et le Maine passent sous la juridiction de Rollon, et quelques seigneurs bretons tels que Hascoit (Harcouet) de Saint-James, Bodiac de Sacey, se soumettent à son autorité, alors que les Bretons contrôle la Manche jusqu'à une frontière se situant entre Coutances et Saint-Lô. C'est ainsi que lors de l'attaque de Rolf à Saint-Lô, se sont les Bretons qui en assurent la défense. En 933, les Normands conquièrent la Manche, au détriment de Vikings de Bretagne, commandés par Incon. La frontière avec la Bretagne est fixée à la Sélune, et en 1008 ou 1009, elle est déplacée vers le Couesnon. Au , le Cotentin voit naître la maison de Hauteville, famille à l'origine de l'épopée normande du Sud de l'Italie et de la Sicile. Au également, Geoffroy de Montbray, évêque de Coutances, proche de Guillaume le Conquérant, a considérablement œuvré pour le rayonnement du diocèse de Coutances. Il est à l'origine de la cathédrale de Coutances, bâtie au , de style roman, et base de l'actuelle cathédrale qui date du début du , et du parc médiéval de l'Évêque. La région est occupée par les troupes de Philippe Auguste et annexée au royaume de France en 1204, excepté les îles Anglo-Normandes. Le futur département se partage alors entre deux pays, hérités des peuples gaulois, le Cotentin et l'Avranchin. Au début de la guerre de Cent Ans, la plupart des terres de l'actuel département de la Manche reviennent au roi , de par leur cession par au traité de Mantes en 1354. Ces terres subissent les conflits entre troupes françaises et navarraises de 1354 à 1378, date de leur occupation par les troupes de . Cherbourg est ensuite occupée par les Anglais de 1378 à 1393. Durant l'Ancien Régime, la Manche est ensuite le théâtre de nombreuses guerres et révoltes , la Ligue du Bien public (1476), les guerres de Religion du entre Montgomery et Matignon, la révolte des va-nu-pieds en 1639, la révolte vendéenne (siège de Granville, 1793), et la chouannerie normande de 1793 à 1800. Les rivalités franco-anglaises entraînent au le développement des deux ports : le port militaire de Cherbourg, et l'activité corsaire à Granville. Le département est créé à la Révolution française, le , en application de la loi du , à partir d'une partie de la province de Normandie et de la généralité de Caen. Son chef-lieu est d'abord fixé à Coutances, puis déplacé à Saint-Lô en 1796, bien que le tribunal d'instance soit toujours à Coutances de nos jours. Après la victoire des coalisés à la bataille de Waterloo (), le département est occupé par les troupes prussiennes de à (voir occupation de la France à la fin du Premier Empire). Le voit l'industrialisation du département qui garde cependant une identité profondément rurale. Le travail du fer se développe, et l'industrie agroalimentaire apparaît et s'exporte. En 1858 est inaugurée la ligne ferroviaire reliant Cherbourg à Paris. Le port de Cherbourg atteint son apogée au début du comme point de départ des voyageurs pour l'Amérique. Il sert aussi au transport de troupes et de matériel pendant la Première Guerre mondiale. Pendant la Seconde Guerre mondiale, l'armée allemande fortifie les côtes de la Manche avec le mur de l'Atlantique. En et , la bataille de Normandie se joue en partie dans le Cotentin, avec le débarquement à Utah Beach, la bataille des Haies et l'opération Cobra. Avec de nombreuses communes détruites à 80 % ou 90 % (comme Saint-Lô, dite la « capitale des ruines »), les années 1945-1960 voient le retour des populations et la reconstruction rapide du pays. La ville de Coutances reprend temporairement le rôle de préfecture, sous Édouard Lebas, après la Seconde Guerre mondiale en raison de la destruction presque totale de Saint-Lô, et ce jusqu'à la reconstruction de cette dernière en 1953. Entre 1956 et fin 2015, le département de la Manche est administrativement intégré à la région de Basse-Normandie. La réunification de la Normandie intervient effectivement le . Au , le territoire de la commune de Pont-Farcy est rattaché au département de la Manche, décision préalable à la fusion des communes de Tessy-Bocage, située dans la Manche, et de Pont-Farcy, située dans le Calvados. Pont-Farcy rejoint de fait Saint-Lô Agglo. Emblèmes. Héraldique. Ce blason, proposé par Robert Louis en 1950, rappelle celui de la Normandie, région dont fait partie le département ; la partie gauche symbolise la Manche qui le borde sur toute sa côte ouest. Climat. Avec trois façades maritimes en de côtes, le climat manchois est fortement océanique : les hivers sont doux, avec une température moyenne de janvier comprise entre du Bocage vers le cap de la Hague, aux rares gelées, les étés tempérés, avec une température moyenne d'août de environ. Ainsi, la période de gel n'excède pas six jours sur les côtes, et dure jusqu'à cinquante-quatre jours dans le Saint-Lois et le Mortainais. L'amplitude thermique journalière est entre sur la côte et dans les terres l'hiver, l'été. La pluviométrie est importante (entre de précipitations supérieures à par an en moyenne), mais varie beaucoup en fonction des terroirs, entre sur la côte et dans le bocage du sud, fréquemment sous forme de crachin. Les côtes ouest et nord bénéficient de l'influence adoucissante de la mer, permettant la naturalisation de beaucoup de plantes méditerranéennes ou exotiques (mimosas, palmiers, agaves, etc.), malgré une faible durée d'ensoleillement (environ ). Le vent marin souffle régulièrement sur la côte, ce qui participe avec les marées à des changements de temps rapides dans une journée. Les forts coups de vent ou les tempêtes sont courants. Économie. La Manche est le premier département agricole français, principalement dans l'élevage (bovin, ovin, équin) et la culture de fruits (pommes) et légumes (carottes, poireaux, choux-fleurs). Cherbourg-en-Cotentin est un port important (pêche, plaisance, trafic transmanche, commerce, militaire, construction navale). L'industrie nucléaire a pris une importance considérable. L'économie manchoise repose enfin sur le tourisme, essentiellement balnéaire et saisonnier. Transport. Cherbourg se trouve à l'extrémité d'importants axes routier (autoroute A13 prolongée par la route nationale 13) et ferroviaire (ligne de Mantes-la-Jolie à Cherbourg) venant de l'Île-de-France. Le sud du département est desservi par l'autoroute A84 et la ligne Paris-Granville. Démographie. Répartition et évolutions. Le département de la Manche est dans la moyenne nationale avec une population de au et une densité de . La seule grande ville du département est Cherbourg-en-Cotentin ( en ), devant la préfecture, Saint-Lô (). L'agglomération cherbourgeoise compte plus de , elle représente à elle seule plus de 20 % de la population totale d'un département qui reste fortement rural (52 % de la population vit dans les campagnes, contre 20 % en France). Au cours du , la population du département est passée de en 1801, à un demi-siècle plus tard, avant de retomber à en 1871, et en 1891. Cette baisse est imputable à l'exode rural et à un taux de mortalité supérieur à celui de la natalité. Gochet recense à la fin du « environ et ». De en 1968, la population a cru de 6,5 % pour atteindre en 1999, puis en 2007, soit une progression annuelle moyenne de 0,24 % ces sept dernières années. L'analyse de cette dernière période met en relief un vieillissement de la population, du fait de soldes naturel et migratoire positifs tandis que les jeunes quittent le département pour la formation et l'emploi. Du fait de l'étalement urbain, les villes de plus de perdent leur population au profit des territoires ruraux, particulièrement littoraux. L'Avranchin et le Coutançais présentent un solde positif, aux dépens du Mortanais et du Plain-Cotentin. Manque de logement et problème économique engendrent un flux migratoire négatif dans l'agglomération cherbourgeoise. Gentilé. Les habitants du département de la Manche sont appelés traditionnellement « les Manchots ». À la fin du , les médias ont commencé à utiliser aussi le terme « Manchois ». L’intelligentsia les avait avec le même mot précédés dès le . On se dit effectivement autant « Manchot » que « Manchois ». Tout dépend peut-être du milieu auquel on appartient. De souche profondément rurale, et toujours prêt à le montrer, on se dirait plutôt « Manchot ». Mais, venant d'autres milieux, on aurait tendance à s'affirmer « Manchois » pour ne pas se dévaloriser. À noter que des ouvrages, tels que le Dictionnaire Larousse 2004 par exemple, qualifient les habitants de la Manche comme étant des « Manchois ». Tourisme. Le département comporte un village parmi Les Plus Beaux Villages de France : Barfleur ( en 2012). Par ailleurs, Saint-Vaast-la-Hougue remporte le titre de village préféré des Français en 2019. Religion. La Révolution avait provisoirement maintenu deux sièges épiscopaux à Avranches et Coutances ; l'Église catholique les fusionne en 1801, le département de la Manche correspondant au diocèse de Coutances et Avranches. L'évêque nommé du diocèse est monseigneur Laurent Le Boulc'h, qui a été ordonné le dimanche à la cathédrale de Coutances. Le Mont-Saint-Michel est un haut lieu de pèlerinage pour les catholiques. Il existe de nombreuses abbayes dans la Manche. La religion catholique est largement majoritaire dans la Manche. Selon un sondage de l'IFOP pour "La Vie", en , plus de 75 % des Manchois se déclaraient proches du catholicisme. Plus de 20 % des Manchois se disent sans religion. Les musulmans représentent moins de 1 % de la population. Les protestants de la Manche dépendent du consistoire de Caen. L'Église de Jésus-Christ des saints des derniers jours est représentée dans la Manche avec deux paroisses : la paroisse de Cherbourg et la paroisse de Coutances. Culture. Cherbourg-en-Cotentin est le principal pôle culturel de la Manche, disposant d'une scène nationale, d'un centre régional d'art du cirque, de deux cinémas, dont un d'Art et d'essai. Plusieurs festivals animent la saison culturelle, qu'ils soient musicaux (Les Rendez-vous soniques, Chauffer dans la noirceur, "les Traversées Tatihou", Jazz sous les pommiers, Festival Papillons de nuit) ou cinématographiques (Cinémovida, Festival des cinémas d'Irlande et de Grande-Bretagne de Cherbourg-Octeville...). Le chanteur Allain Leprest originaire de Lestre, dans le nord de la Manche, est resté fidèle à son département et à sa mer d'origine qu'il a chantés par exemple dans "Il pleut sur la mer". L'un de ses derniers disques, "Parol' de Manchot", est une collaboration avec François Lemonnier, lui aussi du crû. Le Réseau départemental des sites et musées de la Manche mis en place par le conseil départemental regroupe dix-huit sites patrimoniaux et musées sur l'ensemble du département, dont quatorze sont ouverts au public. Le conseil départemental de la Manche lance officiellement le site internet wiki, "Wikimanche" au printemps 2007. La langue normande le loceis, le prêchi y est toujours vivace. Importante production littéraire. Enseignement au collège de Bricquebec. Politique. Terre rurale, le département a politiquement une tradition conservatrice, selon les mots d'Alexis de Tocqueville, à l'exception notable de Cherbourg, plus ouvrière et plus à gauche. Cependant, avec le temps, le département semble de plus en plus voter conformément aux vagues électorales nationales. Après la guerre, le conseil départemental de la Manche est dominé par les élus indépendants sous la présidence d'Henri Cornat et Léon Jozeau-Marigné. Avec l'élection de Jean-François Le Grand puis la constitution de l'UMP, la plupart des conseillers se présentent sans étiquette, souvent des proches du parti majoritaire qui refusent d'être encartés. Aussi, la droite dispose actuellement d'une majorité confortable avec neuf UMP, douze divers droite et quinze sans étiquette. L'opposition est composée de onze socialistes, dont les conseillers des cantons de la communauté urbaine de Cherbourg, et de quatre divers gauche. L'assemblée compte également un élu du Modem, Olivier Beck. L'assemblée reste dominée par les hommes âgés. La moyenne d'âge de l'assemblée est en 2008 de et demi, contre et 4 mois en 1994, et et demi en 2001, augmentation parallèle à celle de l'âge des candidats : en 2008 contre de en 2001, et près de 90 % des élus départementaux qui ont plus de . Conséquence, les retraités représentent plus d'un tiers des conseillers généraux, contre 17,3 % en 1994 et 19,2 % en 2001. Les professions médicales sont également sur-représentées, avec sept vétérinaires, deux médecins et un dentiste, en activité ou à la retraite. Parmi les actifs, on trouve donc en 2008 un quart de professions libérales, dont la part se réduit au profit des cadres (24,2 %), des chefs d'entreprise (18,2 %), des employés (15,2 %), des enseignants (12,1 %) et des agriculteurs (6,1 %), ces derniers qui n'étaient plus présents dans l'assemblée depuis la décennie 1990. L'assemblée ne compte que quatre femmes, l'obligation de parité se traduisant par la relégation des femmes comme suppléante. La féminisation des édiles n'est pas plus forte parmi les autres élus. Depuis la défaite d'Anne Heinis aux sénatoriales de 2001, les Manchoises sont absentes des bancs parlementaires, et aucune ne dirige une commune de plus de , pour lesquelles la loi du contraint à la stricte alternance hommes-femmes dans la constitution des listes électorales. Le cumul des mandats est la règle au niveau départemental : 51,9 % des conseillers généraux sont maires, 11,5 % occupent des postes d'adjoints, 23,1 % sont conseillers municipaux. Trois des huit parlementaires de la Manche ne détiennent que ce mandat. Les législatives de 2007 ont en revanche vu le renouvellement de trois députés sur cinq, faisant passer la moyenne d'âge de et demi. Le second tour de l'élection présidentielle de 2012, confirme une poussée de la gauche dans les villes, 9 des communes donnant l'avantage à François Hollande, contrairement aux chefs-lieux de cantons ruraux, Nicolas Sarkozy demeurant majoritaire de justesse au niveau départemental (50,1 %). Devenu ministre, Bernard Cazeneuve confirme l'implantation de la gauche dans le Cotentin en conservant son siège au premier tour malgré une circonscription redécoupée. Les députés UMP élus en 2007, Philippe Gosselin et Guénhaël Huet conservent leur siège, mais Stéphane Travert fait tomber Alain Cousin, en poste depuis 1988, faisant passer le PS d'un siège sur cinq en 2007, à deux sièges sur quatre. Administration. Au , il y a . Ce nombre a diminué au à la suite de la création de nouvelles communes comme Cherbourg-en-Cotentin, Torigny-les-Villes... |
Marne Marne est un nom commun ou un nom propre qui peut désigner |
Mayenne (département) La Mayenne () est un département français de la région Pays de la Loire. Ses habitants sont les "Mayennais" et les "Mayennaises". L'Insee et la Poste lui attribuent le code 53. Son chef-lieu est Laval. Le département a été constitué par le décret de l'Assemblée nationale du . Comme une soixantaine de départements en France, il s'identifie au nom d'un cours d'eau, en l'occurrence la Mayenne. Il correspond essentiellement au Bas-Maine, qui formait la moitié occidentale de la province du Maine. Le tiers méridional du département faisait toutefois partie de l'Anjou, et il est d'ailleurs appelé « Mayenne angevine ». L'Anjou se trouve également dans la région naturelle du Val de Loire. L'histoire du département est notamment marquée par la période gallo-romaine, avec la cité de Noviodunum, par les conflits entre la France et l'Angleterre au Moyen Âge, puis par la Chouannerie. La canalisation de la Mayenne pendant la Renaissance permet un certain essor économique et jusqu'au , la culture et le tissage du lin ainsi que la métallurgie sont les principales activités départementales. Au , après un exode rural marqué, la Mayenne réoriente son économie vers la production laitière et l'agro-alimentaire. Le département compte et en . Malgré une croissance démographique modérée, la Mayenne demeure le département le moins peuplé des Pays de la Loire. Elle ne possède que trois villes de plus de : le chef-lieu, Laval, et les deux sous-préfectures, Château-Gontier-sur-Mayenne et Mayenne. Géographie. Situation. La Mayenne se trouve au nord-ouest de la France, elle est sans accès à la mer, mais Landivy, située au nord-ouest du département, n'est qu'à une trentaine de kilomètres de la baie du mont Saint-Michel. Le département forme un rectangle régulier, orienté sur un axe nord-sud, c'est-à-dire selon le cours de la rivière Mayenne. À l'ouest, il est limitrophe de la région Bretagne avec l'Ille-et-Vilaine, et au nord de la région Normandie, avec la Manche et l'Orne. À l'est, il est bordé par la Sarthe, et au sud, par le Maine-et-Loire, deux départements qui font également partie des Pays de la Loire. La Mayenne est au carrefour des routes reliant Paris à la Bretagne et Caen à Angers et Nantes. Paysages. La Mayenne possède dans son ensemble un relief peu marqué, c'est une région de transition entre la Bretagne, la Normandie et l'Anjou, des régions très différentes. Le département est surtout fait de collines arrondies et de vallées peu profondes. Néanmoins, il se trouve sur la partie orientale du Massif armoricain et s'élève en moyenne à au-dessus du niveau de la mer. Son point culminant, le mont des Avaloirs, atteint . C'est le point le plus haut du massif ainsi que de tout le Grand Ouest français. Le mont se trouve au nord-est du département, près de l'Orne et de la Sarthe. D'autres sommets se répartissent dans le nord-est de la Mayenne, comme le mont Rochard, le Montaigu et le Tertre Ganne. À cause d'un relief relativement uniforme, la Mayenne peut difficilement être divisée en régions naturelles distinctes. Six espaces ont toutefois été distingués par des organismes locaux comme la Direction régionale de l’environnement des Pays de la Loire : Occupation des sols. Le département fait . Il est couvert à 80 % par des terres agricoles et à 7,9 % par les surfaces urbanisées. Les forêts occupent 7,1 % de la superficie départementale, les autres milieux naturels, 3,3 % et le bocage, 2,7 %. La Mayenne compte par ailleurs de surface agricole utile, dont 60 % de surfaces fourragères. Le bocage structure une grande partie du département, et les prairies naturelles sont aussi un élément caractéristique de la Mayenne. Les milieux naturels, comme les forêts et les landes, sont surtout présents dans le nord-est, autour du mont des Avaloirs et des Coëvrons. La surface agricole diminue progressivement, perdant en moyenne par an. Cette perte se fait au profit de l'urbanisation, qui gagne , le reste étant surtout composé de terres reboisées. L'urbanisation des terres agricoles concerne à 58 % la construction de logements. Elle est très marquée depuis les années 1970, lorsque les agglomérations ont commencé à s'étendre de façon rapide. Suivent les zones d'activités et les infrastructures de transport comme les routes et les voies ferrées. La construction de la LGV Bretagne-Pays de la Loire a par exemple fait disparaître plus de de terres agricoles. Géologie. L'ensemble du territoire mayennais fait partie du massif armoricain, et son sous-sol s'est formé au Paléozoïque, notamment grâce à l'activité volcanique, puis a été recouvert par des formations tertiaires diverses. Une grande partie du département, environ , est ancienne, puisqu'elle est constituée de schistes précambriens. Ces schistes forment le sous-sol de la Mayenne angevine et de petits territoires épars, comme le sud de Laval et les environs d'Évron, de Chailland, de Bais, d'Ernée ou encore de Villaines-la-Juhel. La moitié nord du département, avec le mont des Avaloirs, la forêt de Pail, la forêt de Charnie et les Coëvrons, est surtout constituée de grès du Silurien. Les schistes du bassin ardoisier Anjou-Mayenne, exploités à Renazé jusqu'au , ainsi que ceux de Javron datent de la même époque. Les sous-sols du Silurien représentent . Le nord de la Mayenne est aussi partiellement formé d'anciens terrains éruptifs ayant laissé du gneiss et du granite. Ces terrains représentent . Au centre, le département est marqué par le bassin houiller de Laval datant du Carbonifère et du Dévonien. Il s'étend d'est en ouest de Sablé-sur-Sarthe à Saint-Pierre-la-Cour et sa faible largeur est comprise entre Montigné-le-Brillant et Louverné. Similaire au bassin de Châteaulin dans le Finistère, il forme une zone de faiblesse au sein du massif armoricain, il est comprimé entre les blocs rigides mancellien au nord et rennais au sud. Il est composé de schistes et de calcaires carbonifères formant des couches plissées. Le marbre et la chaux y a été abondamment exploitée, notamment à Saint-Berthevin, Argentré, Louverné, Grez-en-Bouère et Saint-Pierre-la-Cour. Le bassin regroupe environ . Enfin, les vallées fluviales autour de Château-Gontier-sur-Mayenne, Gorron, Ambrières-les-Vallées, Mayenne, Craon, Meslay-du-Maine ou encore Évron contiennent des alluvions déposées pendant l'Ère tertiaire, notamment du gravier. Ces alluvions concernent environ . Hydrographie. Le département est presque entièrement compris dans le bassin versant de la Mayenne, vaste de . La Mayenne est une rivière longue de qui prend sa source sur le versant nord du mont des Avaloirs, dans l'Orne. Elle traverse le département du nord au sud, puis elle descend vers Angers, où, avec la Sarthe et le Loir, elle forme la Maine, un affluent de la Loire. Le bassin versant de la Mayenne s'étend donc dans l'Orne et le Maine-et-Loire, mais aussi dans la Manche et l'Ille-et-Vilaine. Le département de la Mayenne possède toutefois 71 % du bassin. La Mayenne possède un certain nombre d'affluents, comme l'Aisne, l'Aron, la Jouanne et l'Ouette sur la rive gauche, et la Varenne, la Colmont, l'Ernée et le Vicoin sur la rive droite. L'Oudon prend sa source dans le département mais se jette dans la Mayenne en Maine-et-Loire, près du Lion-d'Angers. Le bassin compte au total de cours d'eau. Le bassin de la Mayenne se trouve principalement sur un sous-sol de schistes et de granites. On y trouve deux types d’aquifères : les aquifères d’interstices, situées dans les sols perméables constitués de sables, de grès altérés ou de calcaires, et les aquifères de fissures et de fracturation, dans lesquelles l'eau circule dans les fissures non argilisées. Ce dernier type est le plus important et il forme un vaste réseau d'eaux souterraines. Chaque année, près de six millions de mètres cubes d'eau sont prélevés dans ces réserves, et le bassin possède un potentiel annuel estimé à environ douze millions de mètres cubes. La Mayenne est navigable jusqu'à la ville de Mayenne, mais son intérêt économique se limite au tourisme fluvial (pêche, voile, randonnée sur les chemins de halage, etc). En outre, des petits barrages et 24 installations hydroélectriques construits sur la Mayenne fournissent près de 2 % de la consommation électrique du bassin versant, qui totalise . Une mince bande de territoire, située le long de la limite orientale du département, fait partie du bassin versant de la Sarthe. La rivière y compte plusieurs affluents, comme le Merdereau, la Vaudelle, l'Orthe, la Vaige, la Taude et l'Erve, qui arrose les Coëvrons. Cette dernière a creusé les sols calcaires autour de Saulges, formant un paysage karstique comprenant un canyon et des grottes. L'extrémité nord-ouest de la Mayenne fait de son côté partie des bassins de la Sélune et du Couesnon, deux fleuves côtiers qui se jettent dans la baie du mont Saint-Michel. Enfin, quelques territoires de l'ouest de la Mayenne font partie du bassin de la Vilaine, qui y prend sa source. Climat. La Mayenne, grâce à la proximité de la Manche et de l'océan Atlantique, possède un climat océanique. Le temps est souvent humide, avec des températures régulières et modérées. Les températures extrêmes, en hiver et en été, sont rares. Les précipitations sont étalées sur l'année et sont donc rarement abondantes. Le centre et le sud du département reçoivent d'eau par an. Le nord, au relief plus marqué, est aussi plus humide. Les régions autour de Landivy et de Pré-en-Pail reçoivent ainsi près de d'eau par an. Données pour Laval : Faune, flore et environnement. La Mayenne compte de plantes, 63 espèces de mammifères, 280 espèces d’oiseaux, 16 espèces d’amphibiens, 11 espèces de reptiles et plusieurs milliers d'espèces d'insectes, encore peu étudiées. Le département compte plusieurs espaces naturels remarquables, comme des tourbières, des forêts et du bocage. Les tourbières se trouvent surtout dans le nord du département. On y trouve des espèces animales et végétales rares, comme des plantes carnivores (droséras et grassette), vénéneuses (fritillaire pintade) ou herbacées (linaigrette à feuilles étroites, potentille des marais). Les tourbières sont généralement entourées de bois d'aulnes et de frênes, au pied desquels poussent des fougères ou des plantes basses comme la dorine à feuilles opposées. La faune comprend notamment des libellules et des araignées. Le département possède de grandes étendues de forêts, comme la forêt de Concise, la forêt de Mayenne ou celle de Charnie. Le nord de la Mayenne, et surtout les massifs du mont des Avaloirs et des Coëvrons, sont cependant plus boisés que le sud. La plupart des forêts mayennaises font moins d'un hectare ; la futaie et les espèces feuillues, notamment le chêne, dominent. Les forêts abritent le chevreuil, le petit sylvain, la salamandre tachetée, l'amanite tue-mouche ou encore le pic mar. Le bocage sert de refuge à un grand nombre d'espèces très variées : le blaireau européen, la chevêche d'Athéna, la reinette verte, l'ancolie commune, la couleuvre d'Esculape… Les pelouses sèches, qui couvrent les sols calcaires ou gréseux, sont également riches en faune et en flore. Elles abritent la vipère aspic, l'azuré du serpolet, un papillon, l'ophrys abeille, une orchidée, ou l'œdipode turquoise, un criquet. Les landes, situées principalement dans le nord, sont peuplées d'ajoncs nains, de bruyères, d'argiopes, d'engoulevents ou de fauvettes. Les anciennes carrières sont le refuge de chauves-souris, de géraniums, de batraciens, ou encore de platanthères, qui sont des orchidées. Dans les villes et les villages, on trouve aussi le hérisson d'Europe, le choucas des tours, l'hirondelle de fenêtre ou encore la linaire cymbalère, qui pousse sur les vieux murs. Enfin, les rivières et les étangs sont le refuge de l'anguille, du triton crêté, de la loutre d'Europe, du martin-pêcheur, de la couleuvre à collier, de la gallinule poule d'eau, de la renoncule, de l'iris des marais, du sagittaire flèche d'eau, ou de l'isopyre faux-pigamon, une petite plante vénéneuse. La périurbanisation, qui entraîne le mitage des terres agricoles et la disparition du bocage, est la principale menace qui pèse sur les paysages mayennais. Le département compte un site naturel classé, Ahuillé, ainsi que huit autres sites inscrits. Le parc naturel régional Normandie-Maine, qui s'étend aux confins de la Mayenne, de l'Orne et de la Sarthe, englobe plusieurs communes du nord-est du département, comme Ambrières-les-Vallées, Pré-en-Pail et Lassay-les-Châteaux. Ce parc recouvre également la plupart des sommets mayennais, comme le mont des Avaloirs. Le département est aussi soumis à des problèmes de pollution liés au traitement des déchets. L'usine Aprochim de Grez-en-Bouère a par exemple été accusée en 2011 d'avoir diffusé du PCB dans l'environnement. Plusieurs troupeaux de bovins avaient dû être abattus. En outre, la qualité de l'eau n'est pas toujours optimale, notamment pour les affluents en rive gauche de la Mayenne. Ces cours d'eau contiennent des quantités non négligeables de nitrates rejetés par l'industrie et l'agriculture, mais la situation tend à s'améliorer, et la Mayenne doit atteindre un bon état écologique avant 2021. Par ailleurs, les nombreux barrages construits sur les rivières sont des obstacles infranchissables pour les poissons migrateurs. Transport. Voies routières. Au , la Mayenne possédait de routes, dont d'autoroutes, de routes nationales, de routes départementales et de voies communales. Le département occupait ainsi le au niveau national sur les métropolitains pour la longueur du réseau routier, et le pour la densité, avec de route par km de territoire. La Mayenne est traversée par une seule autoroute, l'A81, qui relie Le Mans à Rennes et traverse le département d'est en ouest, en desservant Laval. L'A81 se trouve par ailleurs sur la route entre Paris et la Bretagne. Le nord du département est traversé par un axe parallèle, la RN 12, qui relie Paris à Brest en passant par Alençon. Elle dessert notamment Pré-en-Pail, la ville de Mayenne, Ernée et entre en Ille-et-Vilaine par Fougères. Laval est le principal nœud routier mayennais, et de nombreuses routes partent en étoile depuis la ville. C'est notamment le cas de la D 31, qui dessert Ernée et Landivy et qui est partiellement en . La vallée de la Mayenne est également un axe important, puisqu'elle permet de relier Laval aux deux sous-préfectures, Château-Gontier et Mayenne, et traverse le département du nord au sud. Elle est empruntée par la RN 162, qui se poursuit jusqu'au Lion d'Angers, en Maine-et-Loire. Transport ferroviaire. La Compagnie des chemins de fer de l'Ouest en 1855 ouvre la section Le Mans-Laval puis le est inauguré les 73 kilomètres restant reliant Laval à Rennes. L'événement suscite ce commentaire dans "l'Illustration" daté du : En 1959, le réseau ferroviaire mayennais totalisait de voies, huit lignes et 43 gares et haltes. La plupart des lignes ont été déclassées au cours de la seconde moitié du et seule la ligne de Paris-Montparnasse à Brest sert encore au transport de voyageurs. Cette ligne est l'une des plus fréquentées de France et elle est empruntée par des TGV Atlantique ainsi que par des TER Pays de la Loire. Ces derniers desservent les quelques gares mayennaises, comme celle de Laval, d'Évron, de Montsûrs, de Port-Brillet ou de Saint-Pierre-la-Cour. Ils permettent aussi des liaisons avec des gares de la Sarthe et d'Ille-et-Vilaine, notamment Le Mans et Rennes. La gare de Laval est la seule à être desservie par des TGV, qui effectuent pour la plupart des liaisons entre Paris et des grandes gares bretonnes. La LGV Atlantique, qui dessert le Grand Ouest, s'arrête avant Le Mans jusqu'en 2017, les TGV poursuivant leur trajet en Mayenne puis en Bretagne roulent alors sur une ligne classique. Afin de remédier à cette situation et de réduire les temps de trajet, Réseau ferré de France lance la construction de la LGV Bretagne-Pays de la Loire, qui s'étend du Mans jusqu'à Rennes; elle est inaugurée le . La Mayenne est traversée d'est en ouest par cette nouvelle LGV qui s'aligne parallèlement à la ligne classique de Paris-Montparnasse à Brest. Autres moyens de transports. La Mayenne possède un petit aéroport, celui de Laval-Entrammes, qui ne propose aucun vol commercial régulier. L'aéroport proposant ce type de services le plus proche est celui de Rennes Saint-Jacques. Le transport fluvial, autrefois très important pour l'économie locale, a été abandonné au profit du transport routier, et la Mayenne, l'unique cours d'eau navigable, n'est plus utilisée que par les plaisanciers. Elle n'est d'ailleurs pas gérée par l'établissement public "Voies navigables de France". La carence en lignes ferroviaires est compensée par le réseau régional d'autocars, le réseau Aléop, qui dessert de nombreuses communes mayennaises ainsi que des villes situées dans des départements limitrophes, comme Châteaubriant et Sablé-sur-Sarthe. L'agglomération de Laval possède enfin son propre réseau de bus, géré par les Transports urbains lavallois. La Mayenne possède un réseau de pistes cyclables conséquent. Il englobe notamment d'anciennes voies ferrées reconverties en voies vertes ainsi qu'un chemin de halage de qui suit le cours de la Mayenne. À Laval, il existe un système de vélos en libre-service, appelé Vélitul. Histoire. Étymologie. Le département porte le nom de la rivière Mayenne selon un processus courant de transfert d'un hydronyme à un toponyme. Le nom de la rivière est attesté sous les formes "Meduana" au , puis "Medena", "Mehena", "Maesne" et "Meenne". La forme "Mayenne" est mentionnée pour la première fois au . Hans Krahe a vu dans "Meduana" un dérivé de la racine indo-européenne "*medh-" « du milieu ». Il s'agit plus probablement du mot indo-européen qui s'est perpétué en celtique sous la forme "*medu" « miel, hydromel ». Il se retrouve dans l'irlandais "meda" (génitif de "mid"), le gallois "medd" et le breton "mez" qui signifient tous « hydromel ». "Medu-" est identifié également dans les noms de rivières "Meduacus" (aujourd'hui la Brenta) en Cisalpine, la Mionnaz en Suisse (de "*Medu-ona"). Le second élément "-ana", appellatif ou suffixe est fréquemment attesté dans les noms de rivières. Il s'agit peut-être du gaulois "ana" « marais » attesté dans le glossaire de Vienne que l'on rencontrerait également dans le nom de la Seine, "Sequana". "Mayenne" est aussi le nom de la troisième ville du département. La Mayenne est l'un des départements français, avec la Corrèze et le Doubs, qui partage son nom à la fois avec une rivière et avec une commune. À Angers, la Mayenne rencontre la Sarthe et le Loir et les trois cours d'eau forment la Maine, dont le nom dérive de « Mayenne ». En revanche, la province du Maine, à laquelle faisaient partie les deux tiers du département, tient son nom de la tribu gauloise des Cénomans, tout comme Le Mans. Préhistoire et Antiquité. La région des Coëvrons, située dans l'est du département, est la plus riche en vestiges préhistoriques. Les traces les plus anciennes d'occupation humaine datent de 400 000 av. J.-C., soit pendant le Paléolithique inférieur. Les environs de Saulges semblent ensuite avoir été occupés par l'Homme de Néandertal, puisque des objets du Moustérien y ont été découverts. Ensuite, la région est régulièrement occupée au Paléolithique supérieur. La commune de Saulges, située dans un canyon calcaire, comprend une trentaine de grottes et d'abris sous roche. Deux de ces grottes, la grotte Margot et la Mayenne-Sciences, sont ornées. Le site de Saulges est surtout occupé pendant l'Aurignacien puis au Solutréen. Le Magdalénien et l'Azilien sont eux aussi représentés, mais une occupation gravettienne n'est pas totalement confirmée. Au Néolithique, plusieurs mégalithes sont édifiés, comme les menhirs de Bouchamps-lès-Craon, dans le sud-ouest, et de Saint-Thomas-de-Courceriers, dans le nord, l'allée couverte de la Hamelinière et le dolmen des Erves à Sainte-Suzanne. Pendant la Protohistoire, la région est envahie par les Celtes et les deux-tiers du département sont occupés par les Aulerques Diablintes tandis que le sud est occupé par les Andécaves. Les Diablites ont laissé plusieurs traces d'occupation, dont l'oppidum de Moulay, l'un des plus grands oppida de Gaule. Il possédait deux rangées de remparts et couvrait . Il fut vraisemblablement la capitale des Diablintes du au . Les Romains envahissent l'Ouest de la Gaule en 57 av. J.-C. Auguste place la Mayenne actuelle dans la Gaule lyonnaise et l'oppidum de Moulay est délaissé au profit d'une ville nouvelle, "Noviodunum" (actuelle Jublains). Les Gaulois avaient occupé le site depuis environ 450 av. J.-C. et y avaient fondé un sanctuaire en bois. Il est remplacé par un temple vers 66 ap. J.-C. Une vingtaine d'années plus tard, les Romains construisent un théâtre et Noviodunum devient une ville romaine à part entière. À la fin du , alors que les invasions barbares commencent, l'entrepôt fortifié est probablement transformé en forteresse. Les Romains laissent d'autres traces à travers le département, comme les thermes d'Entrammes, près de Laval, la forteresse-garnison du Rubricaire, près de Sainte-Gemmes-le-Robert sur les pentes du Mont Rochard. Ils construisent aussi la voie reliant Le Mans à Corseul, qui traversait la Mayenne d'est en ouest. Moyen Âge. Pendant les invasions barbares, l'autorité romaine s'affaiblit et des révoltes éclatent régulièrement contre la pression fiscale. Noviodunum périclite et perd son statut de chef-lieu des Diablintes au . Son territoire est rattaché à celui des Cénomans, dont la capitale était Le Mans. Cette annexion est le premier acte fondateur de la province du Maine. Noviodunum demeure toutefois occupée jusqu'à l'époque carolingienne, puis disparait totalement après 900, lors de la naissance de la ville de Mayenne. Les Francs s'installent durablement dans la région au où ils cohabitent avec les Gallo-romains avant d'être assimilés. Au même moment, l'Armorique connaît une importante immigration de Bretons, venus de Grande-Bretagne. Ceux-ci établissent des petits royaumes ennemis des Francs. Les guerres entre Francs et Bretons sont d'ailleurs fréquentes entre le et le , et la Mayenne actuelle est soumise à plusieurs attaques bretonnes. Pour sécuriser leur frontière, les Francs mettent en place la Marche de Bretagne, une zone tampon comprenant plusieurs forteresses et qui s'étale du Poitou à la Normandie. La ville de Mayenne, qui fait partie intégrante de la Marche de Bretagne, apparaît dès le , avec la fondation du château, censé protéger un gué sur la Mayenne. Il est attaqué par les Bretons entre 840 et 870 puis il est reconstruit en pierres. La marche est alors contrôlée par Charles le Chauve, petit-fils de Charlemagne, qui donne probablement le château aux premiers comtes du Maine. De nombreux autres châteaux forts sont construits vers l'an mille, notamment ceux de Laval, Lassay, Château-Gontier et Sainte-Suzanne. Ils sont généralement l'œuvre de nouveaux seigneurs à qui les comtes du Maine délèguent des pouvoirs locaux. Ces seigneurs fondent de grandes familles comme les Scépeaux, les Mayenne, les Laval ou encore les Beauvau dans la partie angevine du département, qui appartenait alors aux comtes d'Anjou. Au même moment, le bocage remplace peu à peu la forêt. La plupart des villes et villages actuels apparaissent. Des constructions à caractère religieux sont également entreprises, comme l'abbaye de la Roë et celle d'Évron. Ces abbayes attirent des moines venus d'Aquitaine et d'Auvergne qui participent activement au défrichement du territoire. Au , Béatrix de Gâvre, épouse de Guy IX de Laval, fait venir des tisserands du comté de Flandre dont elle est originaire. Le tissage du lin devient alors la principale activité économique de Laval et les marais alentour sont comblés pour cultiver la plante. Le Maine est envahi au par Guillaume le Conquérant, qui attaque notamment Sainte-Suzanne et Mayenne. Le roi Philippe-Auguste rattache finalement le Maine au domaine royal en 1206, alors que la France s'oppose aux Plantagenêt qui possèdent notamment l'Angleterre, l'Anjou et l'Aquitaine. Lors de la guerre de Cent Ans, les Anglais occupent brièvement des places fortes du Maine comme Laval en 1428 et Mayenne de 1361 à 1364, puis de 1425 à 1448. Époque moderne. La guerre de Cent Ans laisse en Mayenne de nombreux villages ruinés. La situation économique est alors difficile, notamment parce qu'il y a de moins en moins de terres à défricher et que la population augmente rapidement. La culture du lin et, de manière plus anecdotique, celle du chanvre, commencées au Moyen Âge, deviennent alors des activités lucratives qui permet des exportations importantes. La culture et le tissage du lin demeurent des activités essentielles pour l'économie locale jusqu'au . Au , la production textile locale concernait par exemple de à . François fait canaliser la Mayenne en 1536 et les travaux occasionnent un autre bouleversement. La rivière permet en effet d'importer les vins d'Anjou, de bonne qualité, et les vignes mayennaises sont arrachées et remplacées par des vergers. L'industrialisation de la Mayenne, commencée avec le tissage du lin, est poursuivie au avec l'émergence des forges et des fours à chaux. Ces activités consomment une grande quantité de bois, et la forêt atteint ses limites actuelles au . Les forges industrielles apparaissent surtout au et elles produisent des poêles, des clous, du fer plié ou de la fonte moulée. Les forges les plus importantes se trouvent alors à Port-Brillet, Aron, Chailland, Moncor et au bord de l'Orthe. Elles emploient des centaines d'ouvriers. Ainsi, l'industrie concernait non seulement les villes, où se concentraient les tisserands, mais aussi les villages. Au , le territoire de la Mayenne peut être considéré dans son ensemble comme une région industrielle. La gabelle est à l'origine d'une importante économie parallèle dans le Bas-Maine. La Mayenne est pays de grande gabelle; elle est bordée au nord par le bailliage de Cotentin, pays de quart-bouillon, les salines après avoir reversé le quart de leur production à la ferme du roi vendaient un sel détaxé, et à l'ouest par la Bretagne, pays de franc-salé où aucune taxe n'est perçue sur le sel. Le prix du sel d'un coté à l'autre pouvait aller de un à dix: 50 à 60 livres le minot en Mayenne contre 2 à 3 livres en Bretagne, Vitré ou Fougère par exemple à la Croixille. En 1760 une estimation évalue que mille personnes consomment un muid sept setiers sur les greniers du Maine pour vingt muids sur les dépôts de Vitré et de Fougères, le différentiel est le reflet du trafic. Si le Parlement de Bretagne ne répond que mollement aux injonctions de la ferme du roi, il s'oppose même à l'instruction des procédures et défend les privilèges de la province, la commission de Saumur, malgré l'étendue de sa juridiction recense la proportion de 40% des affaires traitées pour l'ouest de la Mayenne. Ce trafic favorise la complicité ou la solidarité entre les paysans pauvres, le bas-clergé, et la petite aristocratie; les manoirs comme les maisons simples de cette époque disposent souvent d'une cache pour le sel dans ou proche de la cheminée, les gabelous ayant un droit de perquisition. Un chef de bande de faux-sauniers, Jean Cottereau grâce à sa connaissance du terrain et son entrainement dans les escarmouches avec les gabelous devient un des chefs de la chouannerie sous le nom de Jean Chouan. Révolution et Chouannerie. En 1789, au début de la Révolution française, les idées jacobines se répandent dans les milieux instruits, notamment chez les imprimeurs, les avocats, les commerçants et propriétaires aisés. Néanmoins, la Mayenne, comme une partie non négligeable de l'ouest de la France, est fortement royaliste et catholique. La Mayenne, comme 82 autres départements, est créée le . Elle résulte de la partition du Maine en deux, le Haut-Maine, centré sur Le Mans, devient la Sarthe et le Bas-Maine, centré sur Laval, devient la Mayenne. L'Anjou, situé au sud, étant trop grand pour former un seul département, est diminué et devient le Maine-et-Loire (d'abord appelé « Mayenne-et-Loire »). Des parties de l'Anjou sont donc cédées à l'Indre-et-Loire, à la Vienne et aux Deux-Sèvres, et la frange nord est répartie entre la Mayenne et la Sarthe. La Sarthe reçoit la région de La Flèche, et la Mayenne celle de Craon et Château-Gontier. Le lin étant un trait marquant de l'économie mayennaise, sa limite méridionale de culture sert à déterminer la frontière entre la Mayenne et le Maine-et-Loire. La constitution civile du clergé et l'instauration de la conscription mécontentent une grande part de la population. La Chouannerie, une guerre civile qui oppose royalistes et républicains à partir de 1792, naît en partie grâce à Jean Cottereau, dit Jean Chouan, originaire de Saint-Ouën-des-Toits. Il prend la tête du mouvement royaliste local et mène plusieurs batailles contre la Garde nationale, par exemple au Bourgneuf-la-Forêt. En 1793, la région connaît une certaine accalmie, mais au sud de la Loire, la guerre de Vendée est toujours en cours. Les royalistes vendéens, qui souhaitent obtenir du renfort d'Angleterre, tentent d'atteindre la côte normande et lancent la virée de Galerne. Avec l'aide des Chouans, ils traversent facilement la Mayenne, remportant des victoires à Laval, Entrammes ou Ernée, mais à Dol-de-Bretagne, les républicains mettent les Vendéens en déroute. Ils retraversent la Mayenne vers le sud puis ils perdent le siège d'Angers et sont défaits par l'armée républicaine. Les Chouans poursuivent toutefois leur guérilla jusqu'à l'arrivée au pouvoir de Napoléon. Depuis 1800. Après la victoire des coalisés à la bataille de Waterloo (18 juin 1815), le département est occupé par les troupes prussiennes de juin 1815 à novembre 1818. Avant la création des départements en 1790, certaines paroisses faisaient à la fois partie du Maine et de la Normandie, et elles avaient alors été coupées en deux, une partie rejoignant la Mayenne, l'autre l'Orne. Cette situation peu pratique persiste jusqu'en 1832 pour douze communes. Une loi puis une ordonnance font alors réunifier la plupart des communes, qui intègrent l'un des deux départements. Au , la Mayenne connaît d'importants changements économiques, surtout après 1850. Alors que la France connaît dans son ensemble une industrialisation et une urbanisation massives, la Mayenne perd son industrie et ses villes ne s'étendent que très lentement. Le déclin de l'industrie mayennaise est principalement dû à l'agonie de la production textile. À la suite de l'effondrement des prix du lin, les tisserands préfèrent travailler du coton importé, et les agriculteurs mayennais cessent donc de cultiver du lin. Les tisserands sont installés dans les villes, et les campagnes perdent alors les liens qu'elles avaient longtemps entretenus avec le monde industriel. L'industrie textile, qui concernait l'ensemble du territoire au , est devenue citadine. Par ailleurs, malgré le passage du lin au coton, les tisserands mayennais n'ont pas renouvelé leurs méthodes de production. Ils travaillent encore chez-eux, et investissent dans le foncier plutôt que dans de nouvelles machines. Quelques filatures modernes sont néanmoins ouvertes par des entrepreneurs en la Mayenne, par exemple, Toiles de Mayenne, à Fontaine-Daniel en 1806, Coulange ou la filature de Bootz, à Laval en 1826 en 1966 aux Textiles du Vermandois. La métallurgie, très ancienne en Mayenne, a pratiquement disparu avant 1850, à cause de l'épuisement des gisements de fer. En 1848, il ne reste par exemple que cinq forges dans le département, et seule celle de Port-Brillet existe encore à la fin du siècle. De leur côté, les gisements de marbre, de grès, de granit et d'ardoises sont encore importants (bassin ardoisier Anjou-Mayenne, notamment les ardoisières de Renazé et les ardoisières de Chattemoue), et de nombreuses carrières voient le jour après l'ouverture de la voie ferrée Paris-Brest en 1856. La production de chaux est une autre activité qui gagne en importance au grâce à l'exploitation du bassin houiller de Laval, mais elle périclite vers 1890, à cause de l'arrivée des engrais chimiques. Les fours à chaux mayennais ont atteint leur apogée sous Napoléon III, et ils se trouvaient principalement autour de Laval. Il y avait par exemple 247 fours en Mayenne en 1872. Leur bref succès s'explique par la demande des agriculteurs de la région, qui avaient besoin de la chaux pour mettre en valeur les terrains pauvres. Grâce à elle, de grandes surfaces de lande ont disparu au profit du bocage et de l’élevage, ce qui a grandement contribué à transformer la Mayenne en département agricole. Cette transformation a aussi eu lieu grâce aux choix économiques des grandes fortunes mayennaises. Les principaux notables du département étaient alors de grands propriétaires fonciers conservateurs, qui préféraient sauvegarder les vieilles structures sociales et investir dans des activités sûres. En outre, les profits liés à l'agriculture ne servent pas aux aménagements d'intérêt économique, mais à l'embellisement des villes, à la reconstruction des églises paroissiales et à la construction de châteaux. Pendant la guerre de 1940, les Allemands arrivent en Mayenne le et ils s'emparent des villes principales en moins d'un jour. Plusieurs villages, dont Chémeré-le-Roi et Villaines-la-Juhel, sont bombardés afin de faciliter l'avance des troupes. La Résistance commence ses actions en juin 1944 avec l'organisation d'un maquis à Lignières-Orgères. Au même moment, Laval est touchée par plusieurs bombardements alliés. Les Américains arrivent dans le nord de la Mayenne en août 1944 et doivent mener une bataille de quelques jours avant de prendre la ville de Mayenne le 12 août. Le reste du département est libéré avant le 8 août. Pendant les années 1950, l'agriculture commence à se mécaniser. L'exode rural, important au début du , est cependant moins accentué que dans d'autres départements français. Ainsi, seulement 22 % des exploitations mayennaises disparaissent entre 1955 et 1980, contre 45 % en moyenne en France. Après 1970, les prairies fourragères diminuent au profit de la culture du maïs. Le bocage s'estompe lui aussi et l'élevage hors-sol devient important. Le retard industriel est partiellement rattrapé par l'implantation d'usines agro-alimentaires, notamment spécialisées dans la production laitière. La construction de l'autoroute A81 et de la LGV Atlantique intègrent le département au réseau national. Emblèmes. Il existe d'autres propositions de blasons départementaux, comme celle de 1950 de Robert Louis : "de gueules à la fasce ondée d'argent accompagnée en chef de six écussons d'or disposés 3-2-1 et en pointe d'un léopard d'or armé et lampassé d'azur". Ces armes reprennent celles de la ville de Mayenne et de Laval, la fasce suggérant le cours de la Mayenne. L'héraldiste avait aussi proposé dix ans plus tôt "de gueules à six écusson d'or disposés 3-2-1", qui est le blason de la ville de Mayenne. Logo du département de la Mayenne. Le conseil départemental de la Mayenne possède un logo représentant un Pégase rouge évoquant la tradition équestre du département. Politique et administration. Tendances politiques. Pendant la Révolution, les Mayennais étaient majoritairement royalistes. Cette tendance n'était pas spécifique à la Mayenne, elle concernait tout le nord-ouest de la France. Ces sentiments royalistes ont perduré assez longtemps, et cela s'explique par la nature du royalisme mayennais : il s'agissait davantage d'un rejet du nouveau système que de la nostalgie de l'ancien. Le royalisme concernait toutes les couches de la population, mais il s'est atténué au cours du , notamment à cause de la mise en place de l'économie de marché, de l'exode rural et de la généralisation de l'enseignement. Il se transforme définitivement en conservatisme et en républicanisme modéré au début du . Dans le nord du département, un certain radicalisme laïc apparaît toutefois à la même époque, avant de disparaître au cours des années 1950. En 1965, avant la visite du général de Gaulle, le préfet de la Mayenne écrivait dans un rapport que . Depuis les années 1950, l'électorat mayennais a surtout élu des députés issus de la droite centriste, appartenant par exemple au MRP, au CNI puis à l'UDF. L'UDR, le RPR puis l'UMP ont également eu plusieurs députés mayennais. La gauche s'est toutefois imposée à Laval dans les années 1970 et un premier député de gauche a été élu en 1986 dans la troisième circonscription. La première circonscription possède quant à elle un député socialiste depuis 2007. Les deux sénateurs de la Mayenne sont membres de l'Union centriste. Il s'agit de François Zocchetto et Elisabeth Doineau. Les députés de la Mayenne sont Sylvie Pichot (PS), Guillaume Chevrollier (UMP) et Yannick Favennec (UDI). À l’élection présidentielle de 2002, le premier tour a vu arriver en tête Jacques Chirac avec 25,82 %, suivi de Lionel Jospin avec 14,40 %, puis de Jean-Marie Le Pen avec 11,87 % et enfin François Bayrou avec 8,43 %. Au second tour, les électeurs ont voté à 88,59 % pour Jacques Chirac contre 11,41 % pour Jean-Marie Le Pen avec un taux d’abstention de 17,43 % (nationalement 82,21 % et 17,79 % ; abstention 20,29 %). Au référendum sur le traité constitutionnel pour l’Europe du , les Mayennais ont voté pour la Constitution européenne, avec 52,37 % de Oui contre 47,63 % de Non avec un taux d’abstention de 28,48 % (France entière : Non à 54,67 % ; Oui à 45,33 %). À l’élection présidentielle de 2007, le premier tour a vu se démarquer en tête Nicolas Sarkozy avec 32,12 %, suivi par François Bayrou avec 23,59 %, Ségolène Royal avec 22,63 %, puis Jean-Marie Le Pen avec 7,56 %, et Olivier Besancenot avec 4,11 %. Le second tour a vu arriver en tête Nicolas Sarkozy avec 55,45 % (résultat national : 53,06 %) contre 45,55 % pour Ségolène Royal (national : 46,94 %). À l’élection présidentielle de 2012, Nicolas Sarkozy est arrivé en tête au premier tour, avec 30,69 %, suivi par François Hollande avec 25,87 %, Marine Le Pen avec 14,77 %, puis François Bayrou avec 13,78 %, et Jean-Luc Mélenchon avec 8,30 %. Le second tour a vu arriver en tête Nicolas Sarkozy avec 53,07 % (résultat national : 48,36 %) contre 46,93 % pour François Hollande (national : 51,64 %). Enfin, à l’élection présidentielle de 2017, François Fillon est arrivé en tête au premier tour, avec 27,06 %, suivi par Emmanuel Macron avec 26,04 %, Marine Le Pen avec 16,90 %, puis Jean-Luc Mélenchon avec 14,87 %, et Benoît Hamon avec 5,69 %. Le second tour a vu arriver en tête Emmanuel Macron avec 72,02 % (résultat national : 66,10 %) contre 27,98 % pour Marine Le Pen (national : 33,90 %) Personnalités politiques. Plusieurs personnalités qui ont contribué à la vie politique française sont liées à la Mayenne : Conseil départemental. Le conseil départemental (anciennement "conseil général") est l'assemblée délibérante du département de la Mayenne, collectivité territoriale décentralisée. Son siège se trouve à Laval, rue Mazagran. Le conseil départemental comprend 34 conseillers généraux issus des 17 cantons de la Mayenne. Ces conseillers sont renouvelés par moitié tous les trois ans et se réunissent publiquement au moins une fois par trimestre. Les conseillers élisent un président ainsi qu'une commission permanente. Cette commission, composée du président du conseil et de 15 autres membres, délibère de dossiers délégués par le conseil. Les membres du conseil se réunissent aussi dans onze commissions spécialisées, qui concernent l'économie, la solidarité, les transports, l'environnement ou encore la culture. Le conseil départemental emploie environ , comme des archivistes, des assistantes sociales, des éclusiers, des mécaniciens, des bibliothécaires, des éducateurs spécialisés ou encore des cuisiniers. Les principales compétences du conseil départemental sont : En 2013, le budget primitif du conseil général voté le février a été arrêté à 312,263 millions d'euros. La plus grosse part est consacrée à l'action sociale avec soit près de 55 % du budget. (14 %) sont en outre attribués au développement des territoires, (9 %) à l'éducation et à l'enseignement, (7 %) à l'environnement, (6 %) à la voirie et aux transports, (4 %) à l'économie et l'emploi, (3 %) à la culture et (1 %) aux sports et à la jeunesse. L'argent provient essentiellement de la fiscalité indirecte, qui contribue à 32 %. Les dotations de l'État représentent 26 %, les recettes diverses 20 %, la fiscalité directe 15 %, et l'emprunt, 5 %. La dette départementale représentait en 2011, soit euros par habitant. Ce chiffre classe la Mayenne parmi les départements les moins endettés de France, la dette de la Sarthe représentant par exemple par habitant. La dette mayennaise a toutefois augmenté de 24,5 % entre 2001 et 2011 (la moyenne des départements français se situe à 55 %). À l’issue des élections cantonales de 2011, neuf groupes sont actuellement constitués au sein de l’assemblée délibérante, six pour la majorité de droite totalisant vingt-six conseillers et trois pour l’opposition de gauche totalisant six conseillers. Le président du conseil est Olivier richefou qui a succédé à Jean Arthuis, membre de l'Alliance centriste, quand celui-ci a été élu député européen lors des dernières élections en 2014. Subdivisions. Le département de la Mayenne est composé de 240 communes, 17 cantons et 3 arrondissements. En raison d'un relief et d'un peuplement relativement uniformes, les divisions territoriales de la Mayenne présentent une certaine régularité. Ainsi, chaque arrondissement compte une dizaine de cantons et chaque canton regroupe en général une dizaine de communes. Par ailleurs, ce sont les trois seules villes de plus de qui sont chef-lieu d'arrondissement. L'arrondissement de Château-Gontier totalise et . L'arrondissement de Laval, qui correspond au centre du département, totalise et . L'arrondissement de Mayenne, qui correspond au tiers nord du département totalise et . Du côté des intercommunalités, la Mayenne comptait début 2012 une communauté d'agglomération, Laval Agglo (20 communes), et 17 communautés de communes, dont une partagée avec la Sarthe (CC de Sablé-sur-Sarthe). Une seule commune, Saint-Georges-Buttavent, n'était rattachée à aucune intercommunalité. Laval Agglo totalisait à elle seule , soit presque le tiers de la population départementale. En mars 2012, la préfecture a proposé un nouveau découpage des communautés. Au , le département compte à fiscalité propre dont le siège est dans le département ( d'agglomération et de communes). Seule la commune de Bouessay se trouve dans une communauté de communes dont le siège est dans la Sarthe. Instances judiciaires et administratives. Les départements de la Mayenne, du Maine-et-Loire et de la Sarthe dépendent du ressort de la cour d'appel d'Angers pour l'ordre judiciaire. Le ressort couvre un territoire de comprenant plus de d'habitants et compte dont 5 sont situées en Mayenne : les tribunaux d'instance et de grande instance de Laval, installés dans le palais de justice de la ville, ainsi qu'un Conseil de prud'hommes, un tribunal de commerce et un tribunal des affaires de sécurité sociale, également situés à Laval. Le département est par ailleurs couvert par le tribunal administratif de Nantes, dont le ressort s'étend sur toute la région des Pays de la Loire. Les tribunaux d'instance de Mayenne et Château-Gontier ont été supprimés lors de la réforme de 2007 de la carte judiciaire. La Mayenne compte une maison d'arrêt, située à Laval. En matière de police, la Mayenne dépend de la Direction interrégionale de la Police judiciaire (DIPJ) de Rennes (Ille-et-Vilaine), qui couvre l'ensemble des régions Bretagne, Pays de la Loire, Haute et Basse-Normandie. À cela s'ajoute la présence de la police municipale dans certaines communes et de la Direction départementale de la sécurité publique de la Mayenne (DDSP53), qui est la principale direction opérationnelle intégrée à la Direction Générale de la Police nationale, incluant notamment Police secours. La Mayenne possède aussi un groupement départemental de gendarmerie. Le préfet de la Mayenne, c'est-à-dire le représentant de l'État dans le département, est M. Xavier Lefort. Démographie et société. Évolution démographique. La Mayenne est le département le moins peuplé des Pays de la Loire et le deuxième plus petit dans le Grand Ouest après l'Orne voisine. Il est d'ailleurs moins peuplé que plusieurs départements de montagne, comme l'Ardèche, le Tarn ou encore la Savoie. En 2009, il se trouvait au national avec . Sa densité était alors de lorsque la même année celle-ci s'élevait à en France métropolitaine. La population départementale était de en . Elle est en hausse constante depuis 1962 () mais encore loin du record enregistré en 1861 (). La Mayenne possède une croissance démographique régulière mais modérée, avec environ 0,7 % d'augmentation par an. Cette hausse est principalement due au solde naturel (0,4 %), le solde migratoire équivalent à 0,2 %. Ce dernier était par ailleurs légèrement négatif avant 1999. Le taux de natalité, qui atteignait dans les années 1960, est descendu à dans les années 2000, mais il demeure au-dessus de la moyenne française (). Si ces tendances se poursuivent, la hausse de la population devrait se prolonger. Néanmoins, elle s'accompagnerait d'un vieillissement de la population et, à terme, le taux de croissance diminuerait (tout en restant malgré tout positif). Le solde migratoire supplanterait également le solde naturel. L'Insee prévoit une hausse de entre 2007 et 2040, avec un taux de croissance moyen de 0,4 %, en dessous de celui des Pays de la Loire (0,7 %). Flux migratoires. Le faible solde migratoire mayennais est surtout lié aux flux entre la Mayenne et les départements limitrophes. En effet, ils sont généralement plus importants dans le sens de sortie. L'Ille-et-Vilaine est le premier département concerné. Entre 2007 et 2010, pour vers l'Ille-et-Vilaine, la Mayenne a reçu . Sur la même période, se sont installés en Maine-et-Loire, et ont rejoint la Mayenne. La Sarthe suit, avec un flux sortant de et un flux entrant de . La Mayenne entretient aussi des échanges avec la Loire-Atlantique, l'Orne, et de manière plus anecdotique avec la région parisienne, le Morbihan, le Calvados, la Manche et la Vendée. Le flux entre la Mayenne et ces départements a représenté moins de entre 2007 et 2010. Le flux entrant est supérieur au flux sortant uniquement pour la Sarthe, l'Orne et la région parisienne. La Mayenne accueille peu d'immigrés. Ils étaient en 2006 et représentaient alors 2,3 % de la population départementale. La moyenne nationale se situait à 8,1 % et celle des Pays de la Loire à 2,7 %. La Mayenne est par ailleurs l'avant-dernier département de la région pour la proportion de personnes d'origine étrangère, derrière la Vendée (1,7 % en 2006). L'immigration vers la Mayenne et les Pays de la Loire en général est un phénomène récent. La région ne comptait que en 1968. L'immigration touche surtout les zones urbaines, Laval Agglomération comptant par exemple un tiers de la population immigrée du département. 9 % des immigrés viennent de Guinée et 50 % sont originaires de l'Union européenne, notamment du Royaume-Uni. Les Britanniques sont particulièrement présents dans le nord du département. Géographie démographique. La Mayenne est un département principalement rural, structuré autour de l'axe Mayenne-Laval-Château-Gontier et des petites villes d'Évron, Ernée, Craon, Gorron et Villaines-la-Juhel. Le nord et l'est sont les régions les plus touchées par le vieillissement de la population, tandis que les agglomérations de Laval, Mayenne et Château-Gontier ont une population relativement jeune, avec par exemple plus de trois habitants de moins de 25 ans pour un habitant de plus de 75 ans. Le nord et l'est sont aussi les régions les moins peuplées et les moins attractives. La densité de peuplement des Coëvrons se situe autour de 33 habitants par km, alors qu'elle atteint autour de Laval. Les communes qui ont enregistré les plus fortes hausses de population entre 1999 et 2009 se trouvent principalement en deuxième couronne de Laval, où les terrains à construire sont plus nombreux et surtout moins chers. Tandis que la ville de Laval stagne autour des depuis les années 1970, des communes comme La Chapelle-Anthenaise, Châlons-du-Maine, Saint-Germain-le-Fouilloux et Louvigné ont vu leur population augmenter de 50% en dix ans. Le département connaît de manière générale une forte rurbanisation, qui entraîne le mitage des terres agricoles et l'augmentation des déplacements en voiture. Le département compte treize bassins de vie ruraux, centrés sur Château-Gontier, Évron, Mayenne, Cossé-le-Vivien, Craon, Ernée, Gorron, Landivy, Lassay-les-Châteaux, Meslay-du-Maine, Renazé, Villaines-la-Juhel et Pré-en-Pail. Certaines communes mayennaises appartiennent à des bassins de vie centrés sur des communes de départements voisins : Fougères, Vitré, La Guerche-de-Bretagne, Pouancé, Sablé-sur-Sarthe, Sillé-le-Guillaume, Alençon et La Ferté-Macé. La Mayenne comprend en outre huit aires d'attraction d'une ville, celles de Laval, Château-Gontier-sur-Mayenne, de Craon, d'Ernée, d'Évron, de Gorron Mayenne et de Villaines-la-Juhel, qui regroupent . Dix-neuf communes mayennaises font aussi partie des aires d'attraction d'Alençon, de Fougères, la Guerche-de-Bretagne, de Sablé-sur-Sarthe et Vitré. Enfin, la Mayenne compte douze unités urbaines, dont dix ne comprennent qu'une seule commune : Ambrières-les-Vallées, Château-Gontier-sur-Mayenne, Cossé-le-Vivien, Craon, Ernée, Évron, Gorron, Meslay-du-Maine, Renazé et Villaines-la-Juhel. Les autres sont celles de Laval (trois communes) et Mayenne (quatre communes). 49 % des Mayennais vivent dans une unité urbaine, un chiffre en dessous de la moyenne des Pays de la Loire, 69 %, et de celle de la France (hors Île-de-France), 73 %. Par ailleurs, 51 % de la population urbaine de Mayenne vit dans une ville-centre, c'est-à-dire une commune qui comprend au moins 50 % de la population de son unité urbaine. Ce chiffre est similaire à celui des Pays de la Loire, 49 %. En revanche, la part de population urbaine vivant dans des banlieues, c'est-à-dire des communes qui comprennent moins de 50 % de la population de leur unité urbaine, est inférieure en Mayenne (16 % dans le département, 27 % dans les Pays de la Loire). Enfin, 33 % des Mayennais vivent dans une ville isolée, c'est-à-dire une unité urbaine ne comptant qu'une seule commune (Pays de la Loire : 25 %). Pyramide des âges. Les pyramides des âges du département de la Mayenne, comparées sur les années 1999 et 2009, expriment le vieillissement de la population. La tranche des plus de 75 ans est ainsi passée de 8 à 11 % de la population totale en dix ans, tandis que la tranche des 15-29 ans a reculé de 20 à 17 %. La part des 45-59 ans a de son côté fortement augmenté, passant de 17 à 20 %, tandis que la part des 0-14 ans reste similaire. Ménages. Le nombre total de ménages mayennais est de en 2009. Le département compte une majorité de ménages avec famille, qui représentent 66,7 % du total. Les ménages composés d'une seule personne suivent avec 31,8 %, dont 17,6 % de femmes seules et 14,2 % d'hommes seuls. Ces ménages concernent surtout les plus de 65 ans, qui représentent 77 % du total, et dans une plus faible mesure les jeunes de 20-24 ans (21 %). Les ménages sans famille sont rares et ne représentent que 1,5 % du total des ménages. Les familles mayennaises sont plus traditionnelles que l'ensemble des familles françaises, avec une forte proportion de familles nombreuses (une sur quatre), surtout présentes dans les campagnes, notamment dans les Coëvrons et la Mayenne angevine. Les familles monoparentales, plutôt urbaines, sont minoritaires (une sur dix). Ces deux types de famille sont les plus sujettes à la précarité. Le pourcentage de divorcés chez les plus de 15 ans est faible : 5,1 %, et la majorité d'entre eux sont mariés : 53,2 %. Les célibataires représentent quant à eux 33,3 % des plus de 15 ans. Logement. En 2009, le département de la Mayenne comptait s. Parmi ceux-ci, il y avait 87,1 % de résidences principales, 5,3 % de résidences secondaires et 7,6 % de logements vacants. Le pourcentage de résidences principales est légèrement au-dessus de la moyenne en France métropolitaine, établie à 83,5 % pour la même année. En outre la même année, les maisons individuelles représentaient 79,9 % des logements. En France métropolitaine, ce taux était de 56 %. 64,9 % des occupants des résidences principales sont propriétaires, 33,8 % sont locataires et 1,3 % sont des personnes logées gratuitement. Les logements mayennais sont généralement grands : 45,7 % des résidences principales font 5 pièces ou plus, contre 31,2 % pour la France entière, et seulement 2,6 % d'entre eux ne font qu'une pièce (France entière : 6,2 %). Toujours en 2009, les maisons mayennaises comptaient en moyenne 4,8 pièces, et les appartements, 2,9 pièces. 97,1 % des logements comptaient une salle de bain avec une baignoire ou une douche. En 2013, le prix moyen de l'immobilier à la vente au niveau départemental s'élevait à pour une maison. Les appartements étaient légèrement plus chers, avec une moyenne de . Il existe de fortes disparités entre secteurs, les prix étant les plus élevés dans l'agglomération lavalloise, et les plus bas dans le nord du département. Ainsi, à Lassay-les-Châteaux, le prix moyen par mètre carré pour une maison s'élevait à seulement , contre à Laval. La Mayenne est, avec l'Orne voisine, l'un des départements les moins chers dans l'Ouest pour l'immobilier. En 2009, le département comptait sociaux. La Mayenne est le département des Pays de la Loire où la demande est la plus faible, et les logements sociaux y ont généralement un taux de vacance élevé, supérieur à 10 % dans le parc public pour certaines communes, notamment dans le nord-ouest. Selon le recensement général de la population du janvier 2008, 5,3 % des logements disponibles dans le département étaient des résidences secondaires. Ce tableau indique les principales communes de la Mayenne dont les résidences secondaires et occasionnelles dépassent 10 % des logements totaux. Sources : Religion. Le Grand Ouest français est traditionnellement une région fortement attachée au Catholicisme. La déchristianisation amorcée au y a cependant fait fortement diminuer le nombre de pratiquants. La Mayenne, avec la Manche et les Deux-Sèvres, demeure toutefois l'un des départements les plus catholiques de France. Une enquête menée par l'IFOP en 2006 fait état dans ces départements de plus de 75 % de personnes se déclarant appartenir à la religion catholique (moyenne nationale hors Corse : 64 %). Ce chiffre regroupe aussi bien les pratiquants réguliers que les individus ayant uniquement un attachement culturel à l'Église. La Mayenne correspond au diocèse de Laval qui fait partie de la province ecclésiastique de Rennes. Les autres religions sont pratiquement inexistantes. Le Protestantisme concerne moins de 1 % des Mayennais. Il a connu un certain succès dans le Bas-Maine au , puis s'est éteint après la révocation de l'édit de Nantes par Louis XIV et n'est redevenu visible qu'à la fin du . Le département ne compte qu'une seule église protestante, située à Laval. L'enquête de 2006 de l'IFOP donne également un très faible pourcentage de juifs et musulmans, inférieur à 1 %. La Mayenne ne compte pas de synagogue mais une mosquée et quelques salles de prière musulmanes. Le nombre de personnes sans religion est estimé entre 20 et 27 % de la population mayennaise (moyenne nationale : 27,6 %). Langues. Comme dans le reste de la France, le français est largement majoritaire en Mayenne, et il côtoie parfois les langues liées à l'immigration. Le département possède aussi un parler qui lui est propre, le mayennais, également appelé "bas-mainiot" ou simplement "patois". Il s'agit d'une langue d'oïl, tout comme le gallo, le picard, le normand ou le poitevin. Il descend directement du latin populaire et a connu un développement parallèle à celui du français. Le mayennais n'est donc pas une déformation du français, ce sont deux parlers distincts, avec une origine commune et une histoire différente. Ses limites géographiques et linguistiques sont difficiles à définir, car il fait partie d'un continuum, c'est-à-dire un ensemble de parlers partageant les mêmes origines, qui se mélangent et se chevauchent sur plusieurs régions. Le mayennais est voisin du normand au nord, du gallo à l'ouest, de l'angevin au sud, et du sarthois (ou "haut-mainiot" et "manceau") à l'est. La définition géographique du mayennais varie selon les auteurs, certains incorporant le nord du département dans l'aire du normand, d'autres le rattachant à l'angevin, etc. Le mayennais est étudié par des universitaires depuis le mais il est de moins en moins pratiqué, notamment à cause de la généralisation du français et de la dépréciation dont il est victime. Certains termes mayennais sont toutefois employés par de nombreux habitants, ce qui a donné naissance à une variété régionale du français. Enseignement et recherche. En matière d'éducation et d'enseignement, le département de la Mayenne appartient à la circonscription administrative de l'académie de Nantes qui regroupe également les départements de la Loire-Atlantique, du Maine-et-Loire, de la Sarthe et de la Vendée. La Mayenne compte 345 écoles maternelles et primaires, dont 237 sont publiques et 108 sont privées (soit 31 %). L'enseignement privé catholique est généralement beaucoup plus présent dans l'Ouest de la France que dans le reste du pays. La Mayenne possède aussi 42 collèges, dont 27 publics et 15 privés, 12 lycées généraux et technologiques, dont 6 publics et 6 privés, et 7 lycées professionnels, dont 4 publics et 3 privés. En 2012, ces établissements totalisaient élèves, dont dans le public et dans le privé. Le taux d'élèves dans l'enseignement professionnel (24 %) et technologique (23 %), est plus important en Mayenne que dans la France entière (respectivement 19 % et 16 %). Le taux de réussite au baccalauréat est lui aussi généralement plus élevé en Mayenne, ainsi que dans l'ensemble des Pays de la Loire. Le département et la région avaient par exemple obtenu 91 % de réussite au bac général en 2011 (France entière : 88,2 %) et 89,5 % pour le bac professionnel (France entière : 83,6 %). La Mayenne présente une forte proportion de personnes peu ou pas diplômée, et en 2009, seulement 17,4 % des Mayennais avaient un diplôme de l'enseignement supérieur. 26,7 % avaient alors un CAP ou un BEP, et 40,4 % n'avaient aucun diplôme ou bien seulement le BEPC ou le certificat d'études primaires. Les 14,5 % restant avaient un brevet professionnel ou un baccalauréat. Quelques lycées offrent des formations en BTS ou en licence professionnelle, mais l'offre en enseignement supérieur est maigre et les étudiants mayennais partent le plus souvent étudier à Rennes, au Mans ou encore à Nantes. Laval possède cependant des antennes de l'Université du Maine, qui y maintient un IUT proposant des formations en biologie, en commerce et en informatique, ainsi qu'une faculté de droit. Ces deux antennes se trouvent sur le Centre universitaire de la Mayenne, qui regroupe aussi l'École d'ingénieurs du monde numérique (ESIEA) et l'École supérieure des techniques aéronautiques et de construction automobile (ESTACA). L'Université de Nantes a aussi ouvert un IUFM, installé près du CNAM. Le Campus EC 53 regroupe de son côté l'enseignement supérieur catholique, avec l'UCO Laval, dépendante de l'Université catholique d'Angers. Laval compte aussi l'École supérieure de création interactive numérique (ESCIN), un centre de formation en alternance AFTEC, et deux écoles de commerce et de management, l'ESUP et Antaxia. La ville possède aussi quelques laboratoires de recherche, comme ceux de l'ESTACA, de l'ESIEA et de l'IUT. Ces laboratoires travaillent principalement sur la réalité virtuelle, la cryptologie la virologie, la biologie et l'électro-magnétique. La Mayenne comptait en 2012. Médias. La Mayenne est couverte par de multiples médias audio-visuels, nationaux et locaux. Du côté de la télévision, la seule chaîne locale est France 3 Pays de la Loire. TV Mayenne.com est une chaîne de télévision diffusée par internet. Le principal émetteur du département est construit au sommet du mont Rochard. Il transmet les programmes de la TNT depuis 2006 et sert également aux radios France Culture, France Musique, France Bleu Mayenne et France Inter. En plus de France Bleu Mayenne, le département compte des bureaux de Radio Fidélité, Oxygène Radio et l'Autre Radio. France Bleu Mayenne est de loin la radio la plus écoutée, avec quotidiens. La presse écrite locale compte trois journaux, "Ouest-France", un quotidien qui couvre tout le Grand Ouest français, le "Courrier de la Mayenne" et le "Haut-Anjou" pour la partie sud-Mayenne. Santé. En 2012, la Mayenne comptait de santé, dont infirmiers et infirmières diplômés d'État, généralistes, spécialistes, , 176 masseurs et kinésithérapeutes et 125 chirurgiens-dentistes. La densité de professionnels libéraux de santé pour le département s'élevait alors à 80 généralistes, 47 spécialistes et 93 infirmiers (IDE) pour . La Mayenne est le département des Pays de la Loire qui a la densité la plus faible de professionnels de santé, la région ayant par exemple 101 généralistes pour (France entière : 108). Les Pays de la Loire connaissent par ailleurs une baisse régulière des effectifs depuis plusieurs décennies. En Mayenne, les femmes ne représentent que 24 % des généralistes (Pays de la Loire : 28 %, France : 29 %). Les niveaux de santé en Mayenne sont bons, avec par exemple une mortalité générale et une mortalité prématurée inférieures à la moyenne des Pays de la Loire et de la France entière. Les admissions en maladie de longue durée, les cas de cancers, de diabète, de pathologies liées à une consommation excessive d'alcool et les chutes chez les plus de 65 ans sont aussi moins courants en Mayenne que dans l'ensemble de la région. Cependant, la Mayenne possède un nombre élevé de décès par accident de la route chez les femmes. Il existe aussi des disparités locales, et le centre du département est généralement le plus favorisé, tandis que la situation est moins bonne dans le nord. Sport. Les sports les plus populaires en Mayenne sont le football, le cyclisme et l'équitation, Le jeu de palets traditionnel y est aussi pratiqué. Le département compte plusieurs infrastructures sportives importantes, comme le stade Francis-Le-Basser, qui compte plus de assises, le stade d'athlétisme de Laval, le golf de Changé, le circuit de moto-cross Raymond Demy et l'aérodrome d'Entrammes. La Mayenne possède aussi deux grands hippodromes, ceux de Laval et de Craon, où des courses hippiques ont régulièrement lieu. La tradition hippique mayennaise est aussi entretenue par de nombreux centres équestres et une dizaine d'éleveurs de chevaux. Le Centre d'entraînement régional de galop de l'ouest se trouve au sud du département, à cheval entre Senonnes en Mayenne et Pouancé en Maine-et-Loire. Les Boucles de la Mayenne est une course cycliste annuelle qui fait partie de l'UCI Europe Tour. La vallée de la Mayenne compte de nombreux chemins de randonnée, notamment le chemin de halage, emprunté par les cavaliers, les cyclistes et les promeneurs. Le reste du département possède aussi un important maillage de voies vertes, aménagées à la place d'anciennes voies ferrées. Les sports nautiques peuvent être pratiqués dans quelques endroits, notamment près de Château-Gontier, où se trouve une base de ski nautique. La Mayenne, ses affluents ainsi que de nombreux étangs forment une vaste réserve de pêche. La principale formation professionnelle mayennaise de football est le Stade lavallois Mayenne Football Club, club de football évoluant en National. D'autres équipes incluent l'Union sportive changéenne, un club de football évoluant en championnat régional, les Francs Archers Laval, l'Union sportive lavalloise et l'ASPTT Laval. La Mayenne a vu naître quelques grands sportifs, comme les cyclistes François Pervis, pistard, huit fois champion du monde et deux records du monde, Freddy Bichot, Jacky Durand et Marc Madiot, le boxeur Jean-Claude Bouttier, l'athlète Manuela Montebrun et le jockey Olivier Peslier. Labelisé Terre de Jeux 2024, le label de Paris 2024 destiné aux territoires, le Département de la Mayenne accueillera le Relais de la Flamme. Économie. En 2011, la Mayenne comptait . La plupart d'entre elles, 63 %, étaient spécialisées dans les services, le commerce et les transports. Suivaient l'industrie (15 %), la construction (10 %), et les administrations et les établissements d'enseignement, de santé et d'action sociale (10 %). L'agriculture, qui représente 9 % des emplois et 10 % du PIB, est un secteur très important pour l'économie locale, mais elle est devancée par l'industrie, qui totalise 25 % des emplois. Les exportations mayennaises sont faibles et seules 2,5 % des entreprises locales exportent, contre 4 % des entreprises françaises. Les entreprises mayennaises sont aussi plus anciennes que la moyenne nationale, 42 % ont dix ans ou plus. En 2005, le PIB départemental s'élevait à , soit par habitant et par emploi. Ces deux derniers chiffres sont inférieurs à la moyenne nationale ( et ), mais supérieurs à ceux du Maine-et-Loire et de la Vendée. La même année, la valeur ajoutée provenait principalement des services, surtout marchands, (47 %), de l'industrie (21 %), des services administrés (20 %), de la construction (7,4 %) et de l'agriculture (7 %), une répartition similaire à celle des autres départements des Pays de la Loire. Revenus de la population et fiscalité. Les revenus. En 2009, l'INSEE recensait en Mayenne foyers fiscaux, dont 50,6 % d'entre eux ont été imposables. Le revenu net total déclaré par tous les foyers fiscaux s'élevait pour cette année à (partagé à hauteur de 75 %( d'euros) par les foyers imposables et 25 % par les non-imposables). En outre le revenu net déclaré moyen s'élevait pour sa part à € par foyer fiscal ( € pour les foyers fiscaux imposables et € pour les non-imposables) et l'impôt moyen à . La même année en France, la part de foyers imposables était de 53,6 % et le revenu moyen de €, soit des chiffres sensiblement supérieurs à ceux constatés en Mayenne. Toujours en 2009, les revenus déclarés de la population se sont répartis en 61,5 % de salaires, de 26 % de retraites, pensions et rentes, de 6,4 % de revenus non salariés et de 6,1 % d'autres revenus. S'agissant du revenu selon la profession et catégorie socio-professionnelle (PCS) en 2009, l'INSEE mesure un revenu horaire en Mayenne de pour les cadres, pour les professions intermédiaires, pour les employés, pour les ouvriers qualifiés et pour les ouvriers non qualifiés. Enfin, fin 2012, la Mayenne comptait plus de foyers bénéficiaires du Revenu de solidarité active (RSA). Ce nombre a augmenté de 8 % depuis 2010, avec le contexte de crise économique débuté en 2009. Du côté de l’imposition sur le patrimoine, la Mayenne comptait en 2010 une seule commune de plus de possédant plus de 50 redevables de l'Impôt de solidarité sur la fortune (ISF) : Laval, avec 375 redevables et un montant moyen légèrement supérieur à la moyenne française ( à Laval et au niveau national). Emploi. En matière d'emploi, l'INSEE comptait en 2009 en Mayenne occupés, dont , soit 84,6 % du total. Le temps partiel représentait alors 15,6 % des actifs, et 46,6 % des actifs étaient des femmes. En 2010, 33,9 % des emplois concernaient les services, les transports et le commerce. Suivaient l'administration publique, l'enseignement et l'action sociale, avec 28,1 % des emplois, l'industrie, 21,6 %, l'agriculture, 8,7 %, et la construction, 7,7 %. La grande majorité des emplois, 70 %, était alors à durée indéterminée. Les contrats à durée déterminée (CDD) ne représentaient que 5,5 % du total, les emplois en intérim, 2,6 %, et les stages et les contrats d'apprentissage, 3,1 %. Les emplois non salariés, 18,3 % du total, concernent surtout l'agriculture, 77,5 % des agriculteurs étant à leur compte. En 1999, 51,3 % des Mayennais travaillaient hors de leur commune de résidence. En dix ans, la situation s'est amplifiée puisqu'en 2009, ce taux est passé à 60,6 %. Dans 51 % des cas, cette commune se situait elle aussi dans le département de la Mayenne. La Mayenne connaît traditionnellement des taux de chômage faibles, en dessous des moyennes nationales et des Pays de la Loire. Néanmoins, la crise économique de 2009 a touché le département, et il a connu une hausse de 0,7 % entre janvier et novembre 2012 pour atteindre 6,4 % (Pays de la Loire : 8,3 %). Les disparitions d'emplois concernent surtout les missions d'intérim, les transports et l'industrie. Entreprises du département. Au janvier 2011, l'Insee recensait en Mayenne , majoritairement anciennes avec 42 % d'entreprises de 10 ans ou plus et 14 % âgées de 6 à 9 ans. À l'inverse, les entreprises de moins d'un an ne concernaient que 12 % d'entre elles à cette période. Les entreprises mayennaises étaient alors les plus nombreuses dans le secteur du commerce, des transports et des services divers : soit 63,5 % du total. Suivaient la construction, avec 15,4, l'administration publique, l'enseignement, la santé et l'action sociale, 10,7 %, et l'industrie, 10,4 %. Toujours en 2011, avec nouvelles entreprises, le taux de création moyen s'élevait donc à 12,1 %, en baisse par rapport à 2010, le plus fort étant de 12,9 % dans le secteur des transports, du commerce et des services. En 2009, la Mayenne comptait par ailleurs actifs, 69 % d'entre eux n'employant aucun salarié, 24 % employant de 1 à 9 salariés, 3 % de 10 à 19 salariés, 2 % de 20 à 49 salariés et 1,3 % employant 50 salariés ou plus (371 établissements). La Mayenne compte plusieurs parcs d'activités, comme "Laval Mayenne Technopole" (unique technopole du département). Entreprises d'envergure nationale ou internationale. Ci-après sont listées les principales grandes entreprises dont le siège et/ou au moins un établissement sont situés en Mayenne. En gras sont indiquées les entreprises qui y ont leur siège. Agriculture. L'agriculture est un secteur très important pour l'économie mayennaise. En 2020, la Mayenne compte environ 6 000 exploitations agricoles. L’orientation technico-économique dominante des exploitations agricoles en Mayenne est polyculture-polyélevage, avec principalement des bovins. Les autres activités importantes sont l'élevage hors-sol () et les ovins, les caprins et les autres herbivores (). La grande culture et la polyculture concernent chacune . Les races bovines les plus fréquentes en Mayenne sont la Rouge des prés (ou Maine-Anjou) pour la viande, et la Prim'Holstein et la Normande pour le lait. Les activités agricoles mayennaises actuelles ont pour la plupart été adoptées récemment. Les élevages bovins, les pâtures et le bocage n'ont d'ailleurs rien de traditionnel. Jusqu'au , l'agriculture mayennaise était dominée par la culture du lin, et du chanvre dans une moindre mesure. Par ailleurs, la culture de la vigne était commune avant le et la canalisation de la Mayenne. Le vin d'Anjou, bien meilleur, pouvait désormais être importé facilement par bateau, et les vignes locales ont fait place à des vergers, dont certains existent encore. Ces vergers servaient notamment à produire du cidre. Au , les engrais chimiques permettent de revaloriser les terres les plus pauvres et le lin, devenu peu rentable, disparaît. Le bocage mayennais prend alors forme et l'élevage du bétail ainsi que la production de céréales s'imposent. Finalement, à la fin du , les agriculteurs mayennais se spécialisent définitivement dans l'élevage bovin et abandonnent le blé, qui se vendait mal. Enfin, au , le maïs en tant que plante fourragère se généralise et sa culture tend à uniformiser les paysages mayennais. Le département de la Mayenne, tout comme les autres départements de France, est découpé depuis 1946 en quatre « petites régions agricoles » (PRA) au sein d'une région agricole française (RA). Les PRA furent déterminées en fonction d'une même vocation agricole dominante. Ces PRA sont numérotés par l'Insee. Industrie. Le secteur de l'industrie était en 2010 le en Mayenne avec , derrière le secteur des services et du commerce. Le Grand Ouest français s'est industrialisé plus tardivement et plus faiblement que des régions comme la Lorraine et le Nord-Pas-de-Calais, en privilégiant une grande diversité dans les activités. Il n'a d'ailleurs pas connu de désindustrialisation massive à la fin du . L'industrie mayennaise a toutefois tendance à diminuer au profit des services, perdant par exemple 1,3 % de ses emplois par an entre 1999 et 2006. Le département demeure toutefois au-dessus de la moyenne des Pays de la Loire, avec un quart d'emplois dans l'industrie, contre un cinquième pour la région entière. L'industrie mayennaise a beaucoup changé au cours du . Vers 1900, les activités industrielles les plus communes étaient liées aux richesses du sous-sol (ardoise, marbre, antimoine, quartz aurifère, briqueteries) et aux productions agricoles (minoteries, brasserie, tanneries…). L'industrie textile, en déclin depuis la seconde moitié du , était surtout présente à Château-Gontier et Laval. Le tissage de la soie et du coton importés avait succédé à celui du lin cultivé localement et les tisseurs mayennais produisaient surtout de la toile à matelas. Toiles de Mayenne est une des dernières entreprises locales à perpétuer l'industrie textile mayennaise. Le département comprend aussi des ateliers de couture qui fournissent des grandes marques comme Hermès, Dior et Chanel. Le maroquinier Longchamp est par ailleurs implanté à Ernée et Château-Gontier. L'industrie de la Mayenne s'appuie sur quelques grands groupes agroalimentaires comme Lactalis ou Bel qui exploitent les productions laitières. Le département compte aussi des usines de construction et de sous-traitance automobile, comme Gruau, Rapido et Valeo, des usines de plasturgie, de métallurgie et d'électronique ainsi que des imprimeries. La Mayenne fait en outre partie du territoire d'action de quatre pôles de compétitivité : "IDforCar" (sous-traitance automobile), "EMC2" (matériaux métalliques et composites), "Valorial" (agroalimentaire) et "Images et réseaux" (technologie numérique). Tourisme. La Mayenne n'a pas autant d'arguments touristiques que les départements du littoral ou de montagne. Elle possède toutefois des atouts importants, comme des cours d'eau navigables, des paysages sauvages, un grand réseau de chemins de randonnée et quelques sites historiques et artistiques notoires. En 2010, le tourisme y a généré directs. Le secteur souffre néanmoins de la crise économique car le nombre de visiteurs et la durée des séjours diminuent. Le département comptait 53 hôtels de tourisme en 2010. Ils totalisaient et 224 lits. Huit hôtels avaient « une étoile », 27 en avaient deux et neuf en avaient trois. Ces hôtels trois étoiles se trouvent dans les trois plus grandes agglomérations (Laval, Mayenne et Château-Gontier), ainsi que dans les Coëvrons. Les hôtels mayennais ont enregistré en 2010, dont deux-tiers de clients d'affaires, avec un taux d'occupation moyenne de 53 % (Pays de la Loire : 54 %). La clientèle des hôtels mayennais est en grande majorité française et les étrangers ne représentaient que 8,3 % des nuitées en 2010 (15 % en 2008). Ils viennent surtout du Royaume-Uni, mais aussi d'Allemagne, de Belgique ou d'Italie. Un restaurant est distingué d'une étoile au Guide Michelin, L'Éveil des Sens à Mayenne étoilé depuis février 2011. La Mayenne comptait 19 établissements d'hôtellerie de plein air en 2010, dont 11 avec deux étoiles et 7 avec trois étoiles. Ils totalisaient ensemble nus, ou mobil-homes et . De mai à septembre 2010, ils ont enregistré , dont 14 % de nuitées étrangères (Britanniques, Néerlandais, Belges et Allemands, principalement). Les clients français sont surtout issus des Pays de la Loire et de régions limitrophes comme la Bretagne et la Basse-Normandie, mais aussi du Nord-Pas-de-Calais et de l'Île-de-France. Toujours en 2010, les ruraux du département ont enregistré . Le site le plus fréquenté du département, le Refuge de l'Arche, un parc zoologique spécialisé dans l'accueil des animaux blessés ou abandonnés, a enregistré en 2010. Il était suivi par le musée de Jublains, les grottes de Saulges, le château de Sainte-Suzanne, le musée Robert-Tatin, le musée des sciences de Laval et le musée du château de Mayenne, des sites qui ont tous accueilli entre et . Le musée du Vieux-Château de Laval se distingue également avec environ la même année. Les groupes représentent 34 % des visites dans les sites payants mayennais, et les étrangers ne forment que 5 % du total. Énergies. Consommation énergétique. La Mayenne a consommé tonnes d'équivalent pétrole en 2008. Les activités qui consomment le plus sont l'industrie (30 %) et les transports (23 %). Les bâtiments résidentiels consomment à eux-seuls 29 % de l'énergie dépensée en Mayenne. Le secteur tertiaire n'en consomme que 10 %, et l'agriculture, 8 %. Par ailleurs, 70 % de cette énergie est d'origine fossile, avec 54 % de pétrole et 16 % de gaz naturel, tandis que l'électricité représente 24 % de la consommation, et le bois, 8 %. Cette répartition est similaire à celles observées au niveau des Pays de la Loire et de la France entière, sauf pour le pétrole (France : 45 %, Pays de la Loire : 47 %). La consommation énergétique en Mayenne augmente régulièrement, principalement à cause de la construction de nouveaux logements. Entre 1990 et 2008, la consommation a ainsi augmenté de 22,5 %. Par ailleurs, plus de la moitié des logements mayennais ont été construits avant 1975, ils sont donc peu efficaces au niveau énergétique. Enfin, les Mayennais consomment beaucoup de carburants automobiles, à cause du caractère rural du département. Énergies renouvelables. En 2010, le département ne produit que 6,5% de ses besoins électriques, mais ce pourcentage devrait passer à 28 % en 2020. Les centrales hydroélectriques sur la rivière Mayenne ne fournissaient que 0,3 % en 2007 de la consommation départementale. À l'initiative du Conseil Départemental et d'EDF, un renouvellement de 16 installations a été effectué entre 2007 et 2015, elles doivent désormais couvrir 1 % des besoins départementaux. En 2010, les 22 éoliennes mayennaises fournissaient 4,7 % de la consommation. La Mayenne s'est fixé comme objectif d'avoir 100 éoliennes en service d'ici à 2020. Les zones à plus fort potentiel se trouvent principalement dans la moitié orientale et le Sud du département, autour de Saint-Cyr-en-Pail, Courcité, Vaiges, Saint-Pierre-sur-Erve, Saint-Denis-du-Maine, Azé, Cossé-le-Vivien, La Rouaudière. Au janvier 2017, 12 parcs éoliens étaient raccordés au réseau haute tension pour une capacité de 99,5 MW. À cette même date, 20 autres parcs étaient en cours d'instruction ou autorisés mais non raccordés, ce qui représente une capacité supplémentaire potentielle de 211,8 MW. L'énergie solaire connait un développement limité dans le département du fait de faible ressource d'ensoleillement. La seule centrale photovoltaïque au sol en activité, d'une puissance de 2,4 MW, est située sur la commune de Fougerolles-du-Plessis. Plusieurs autres projets ont été portés ou autorisés, mais n'ont pas été mis en place. La Mayenne développe aussi les biocarburants, avec la méthanisation, qui doit fournir 3 % des besoins en 2020, et la cogénération issue des déchets, qui doit atteindre 2,5 %. L'entreprise espagnole Iberdrola avait annoncé la construction d'une centrale thermique à gaz en 2008, qui devait voir le jour à Villiers-Charlemagne. Le projet a cependant été abandonné en 2012 à cause de la crise économique. Culture. Musées. La Mayenne compte neuf musées portant le label « Musée de France ». Seuls deux de ces musées sont situés à Laval : celui du Vieux-Château, spécialisé dans l'art naïf et qui expose des toiles du Douanier Rousseau, de Séraphine de Senlis ou Lucien Le Guern, et le musée de sciences, qui se sert de son important fonds d'histoire naturelle pour proposer des expositions temporaires. Le musée d'Art et d'Archéologie - Hôtel Fouquet, qui se trouve à Château-Gontier, expose des collections d'antiquités grecques et romaines, notamment des céramiques étrusques, des monnaies et des vases funéraires. Il possède aussi de la peinture italienne, hollandaise et française des , des livres anciens, des statues du Moyen Âge et un fonds d'art contemporain. L'autre sous-préfecture du département, Mayenne, possède elle aussi un musée, le musée du château installé dans le château de Mayenne. Ses collections sont considérables et regroupent de nombreux artefacts découvert dans le château, fondé à l'époque carolingienne, ainsi que dans le reste du département. On peut notamment y voir des monnaies antiques et médiévales, des objets de la vie quotidienne au Moyen Âge (vaisselle, lampes à huile, outils, serrures, armes…), des sarcophages et des objets religieux. Les jeux de société médiévaux, incluant des pièces d'échecs et un tablier de jeu de tables, figurent parmi les pièces les mieux conservées au monde. Le musée Robert-Tatin, situé à Cossé-le-Vivien, est un « environnement d'art » conçu de 1962 à 1983 par Robert Tatin, qui était peintre, architecte et céramiste. L'ensemble est composée de diverses constructions et statues réalisées en ciment peint, montrant des influences variées. Le site comprend par ailleurs des salles d'exposition où sont accrochées des toiles de l'artiste. Le musée archéologique de Jublains, situé sur le site de la ville antique de Noviodunum, présente l'histoire du département pendant l'âge du fer et la période romaine. Les artefacts provenant de Noviodunum sont les plus nombreux et incluent un fragment d'aqueduc, des inscriptions, des décors peints, des objets de culte, etc. Le musée de l'ardoise de Renazé est installé sur un vaste site minier abandonné en 1975. Il renferme surtout des outils, des machines et des photographies anciennes. Le petit musée municipal d'Ernée expose des collections d'archéologie s'étalant de la Préhistoire au Moyen Âge provenant de fouilles locales. Le musée des tisserands d'Ambrières-les-Vallées retrace l'histoire du textile mayennais, centré sur le chanvre, il est installé dans trois authentiques maisons de tisserand du . Le musée de préhistoire à Thorigné-en-Charnie installé près des Grottes de Saulges dans la vallée de l'Erve a ouvert en mars 2017. Le département compte d'autres musées non classés, comme le Lactopôle de Laval, ouvert par l'entreprise Lactalis. Il présente les étapes de la production laitière ainsi que l'histoire de cette activité et le musée de l'auditoire de Sainte-Suzanne présente l'histoire des Coëvrons de l'âge du fer à la Chouannerie. Non loin de Sainte-Suzanne, à Chammes, se trouve le Centre médiéval et culturel du Maine, aussi connu sous le nom de Ferté-Clairbois. Un petit château fort, une taverne, un jardin moyenâgeux, des écuries et une chapelle y a été construits, et l'endroit sert à des reconstitutions historiques, notamment des tournois et des marchés. À Ernée l'espace culturel Louis Derbré : atelier de fonderie, jardin de sculptures et théâtre de plein air, permet de voir quelques œuvres monumentales du sculpteur, d'autres sont installées dans la ville ou dans le département. Autres institutions. La Mayenne compte quelques grandes salles de spectacle. Le théâtre de Laval est la seule scène conventionnée du département. Il possède une grande salle de 583 places et propose surtout des représentations théâtrales, de la danse et de la musique classique. "Le Carré" de Château-Gontier est une scène nationale installée dans l'ancien couvent des Ursulines. L'institution gère aussi un espace d'art contemporain, qui occupe la chapelle du Genêteil. D'autres espaces du même genre se trouvent à Mayenne et Pontmain. Le théâtre de Mayenne est le dernier théâtre à l'italienne du département. Construit en 1889, il compte plus de . Plusieurs autres communes mayennaises possèdent aussi leur salle de spectacle. Les établissements publics de coopération intercommunale sont dotés de conservatoire de musique ou de danse, et le conseil départemental soutient l'association Mayenne Culture et l'Ensemble instrumental de la Mayenne, qui se produit régulièrement sur les scènes du département. Le 6PAR4 de Laval est une salle uniquement dédiée aux musiques actuelles, labellisée "scène de musiques actuelles" depuis 2015. Les archives départementales, situées à Laval, possèdent un grand nombre de fonds légués par des particuliers, surtout constitués de photographies anciennes. Elles ont aussi des collections de cartes postales, de monographies communales réalisées en 1899, des documents de l'abbaye Notre-Dame d'Évron, le chartrier du château de Fresnay, ou encore des archives de l'armée américaine. La bibliothèque départementale est installée à Saint-Berthevin, dans l'agglomération lavalloise. Elle renferme . La bibliothèque Albert Legendre de Laval possède un fonds patrimonial riche, qui comprend des incunables, des manuscrits, anciens, une généalogie des comtes de Laval et des œuvres d'Ambroise Paré et d'Alfred Jarry dans leur version originale. Manifestations culturelles. Plusieurs festivals ont lieu tous les ans en Mayenne. La plupart sont dédiés aux musiques actuelles. Le festival Les 3 Éléphants se déroule à Laval en mai et propose de nombreux concerts payants et gratuits dans différents sites du centre-ville. En 2012, le festival a par exemple reçu en tête d'affiche Charlotte Gainsbourg, Baxter Dury, The Rapture ou encore C2C. Le festival Au Foin de la Rue se tient à Saint-Denis-de-Gastines et il a notamment reçu La Rue Kétanou, Emir Kusturica, Emily Loizeau et Wax Tailor. "Les Mouillotins Fanfare-On" est un festival qui a lieu tous les ans à Cuillé. En 2013, il reçoit Broussaï, Monsieur Roux et Les Fatals Picards. Le festival "Terra Incognita" se déroule à Carelles et il est spécialisé dans le rock et l'électro français et indépendants. L"'Été des 6 jeudis" propose six concerts de groupes différents dans des communes du nord du département. Les "Nuits de la Mayenne", qui ont lieu en été dans de nombreux lieux historiques du département, proposent principalement du théâtre, mais aussi de la musique classique. Le "festival d’arts sacrés" d’Évron est de son côté spécialisé dans la musique religieuse. Le "Festival Ateliers Jazz de Meslay-Grez", qui a lieu à Meslay-du-Maine et dans des communes voisines, s'intéresse au jazz contemporain. Il a par exemple accueilli China Moses, Shai Maestro, Dhafer Youssef, Dee Dee Bridgewater et Archie Shepp. Des spectacles de rue, des arts du cirque, des concerts d'artistes locaux ou encore des séances de cinéma en plein air sont aussi proposées à Laval et Mayenne en été. À la fin de l'année, la ville de Laval organise les "Lumières de Laval", une mise en lumière ambitieuse de la ville, renouvelée chaque année et accompagnée par un marché de Noël. Laval Virtual, aussi appelé « Rencontres internationales de la réalité virtuelle et des technologies convergentes » est un autre grand événement lavallois. Il a lieu au printemps et met en valeur l'industrie technologique de Laval, spécialisée dans la réalité virtuelle. Les trois premiers jours sont réservés aux professionnels, avec un salon, des conférences et des remises de prix, puis le week-end, Laval Virtual présente au public les dernières avancées technologiques dans le domaine. Depuis 2018, un festival international d'art et de réalité virtuelle a vu le jour à l'initiative de Judith Guez et de Laval Virtual : Recto VRso. Le département possède aussi un festival du cinéma étranger, "Les Reflets du Cinéma". Il présente pendant 15 jours des films étrangers selon des thématiques variant chaque année. Son président d'honneur est l'écrivain Jean-Loup Trassard. Le "Festival du premier roman" a pour vocation la découverte de nouveaux talents de la littérature. Il permet aux habitants de la Mayenne de faire partie des jurys qui évaluent les livres proposés et il propose divers cafés littéraires, tables rondes et séances dédicaces. Il a révélé des écrivains comme Sorj Chalandon, Laurent Gaudé, Jean-Christophe Rufin et Delphine de Vigan. Architecture. Architecture civile. Les plus anciens exemples d'architecture civile remontent au Néolithique, avec par exemple le site d'Oisseau. L'oppidum de Moulay présente une organisation spatiale et des structures typiques de La Tène, et le site de Jublains contient les restes d'un forum, d'un théâtre et d'habitations romaines. Des villes comme Château-Gontier et Laval comptent un certain nombre de maisons à encorbellement datant du Moyen Âge, ainsi que des hôtels particuliers construits du au . Ces hôtels, généralement construits en tuffeau, suivent les courants artistiques de leur époque de construction, allant de la Renaissance au néoclassicisme. Les villes et les bourgs comptent aussi souvent des maisons de tisserands. Petites, elles possèdent le plus souvent un perron en pierre ainsi qu'une cave humide semi-enterrée qui servait au tissage du lin et du chanvre dans une atmosphère suffisamment humide. Les maisons rurales construites avant le étaient faites de schiste, de grès, de calcaire ou de granite. De plain pied, elles étaient couvertes de chaume ou d'ardoises et n'avaient en général qu'une seule porte et peu ou pas de fenêtres. Elles comptaient le plus souvent deux pièces (une salle commune et un cellier), un grenier ainsi qu'une étable et une porcherie attenantes. Le chaume est interdit en 1844 afin de limiter les incendies, et, au cours du , les maisons sont progressivement améliorées : les sols en terre battue sont parfois carrelés, les greniers sont surélevés, et de nouveaux communs sont ajoutés, soit de l'autre côté de la cour, parallèlement à la maison, soit en prolongement de la maison elle-même. Les maisons de la Mayenne angevine, au sud du département, montrent des caractéristiques propres à l'Anjou, comme des linteaux sculptés ou jambages nervurés en tuffeau, datant du . Dans la vallée de l'Erve, la proximité de la Sarthe se voit dans l'usage de tuiles plates et de murs en grès roussart. Enfin, dans le nord-ouest, les toitures étaient souvent faites en bardeaux de châtaignier. L'architecture du est illustrée par les maisons éclusières, les moulins à eau, les maisons de maître, quelques usines, comme des filatures et les ardoisières de Renazé, ainsi que par divers édifices publics construits dans les villes et les bourgs, notamment des hôtels de ville, des théâtres, des ponts et des immeubles d'habitation en tuffeau. Les courants du et l'architecture contemporaine sont peu visibles dans le département, et la Mayenne ne possède aucune œuvre majeure de cette époque, à l'exception du musée Robert-Tatin, comparable au Palais idéal du Facteur Cheval. Architecture militaire et châteaux. L'oppidum de Moulay, avec ses deux rangées de remparts ses est l'un des plus grands sites gaulois fortifiés de France. Le site de Jublains comprend de son côté une vaste forteresse de la fin du . La Mayenne compte un grand nombre de châteaux et manoirs. Le plus ancien château fort du département est celui de Mayenne, de fondation carolingienne. Il a été réaménagé plusieurs fois au cours du Moyen Âge, mais l'importance des vestiges carolingiens en fait un site exceptionnel, classé site archéologique d'intérêt national. Le château de Laval, qui domine la plus grande ville mayennaise, est un château fort du , redécoré au puis agrandi par une galerie à la Renaissance. Son donjon circulaire possède encore son hourd en bois d'origine. Le château de Lassay, qui date du , est une forteresse impressionnante rythmée par huit tours. Celui du Bois Thibault, situé à proximité, date de la même époque et remplace une construction disparue pendant la guerre de Cent Ans. Certaines villes possèdent encore une partie de leurs fortifications médiévales, comme Laval, Château-Gontier et Sainte-Suzanne. La plupart des autres châteaux du département ont perdu tout caractère défensif après la Renaissance. C'est notamment le cas du château de Mausson, de celui de la Roche-Pichemer, de celui du Rocher, celui de Bourgon, celui de l'Escoublère, celui de Foulletorte ou encore de Sainte-Suzanne, qui compte toutefois un donjon du . Tous ces châteaux furent reconstruits sur une période allant du au et présentent des façades austères similaires à celles des châteaux bretons de la même époque. Ils sont ornés de fenêtres à meneaux, de grandes cheminées, de tourelles et de lucarnes à pignon. La plupart sont toujours habités. Le néoclassicisme est peu représenté en Mayenne. Le château de Craon, datant de 1770, est toutefois représentatif des châteaux construits à cette époque, avec ses façades en tuffeau ornées de pilastres et de pots à feu. Le département compte enfin quelques demeures du , notamment de style néogothique, comme le château du Tertre d'Ambrières, dessiné par Eugène Viollet-le-Duc. Architecture religieuse. Un grand nombre d'églises paroissiales du Moyen Âge ont été détruites au pour faire place à de nouveaux édifices néogothiques plus grands. Cependant, le département compte encore plusieurs églises romanes du , L'Église Saint-Pierre de Saulges avec sa crypte pré-romane serait l'édifice religieux le plus ancien du département, les églises de Saulges et de Pritz sont en partie antérieures à l'an mil. Les exemples romans les plus représentatifs sont les églises d'Ambrières-les-Vallées, Bannes, Javron-les-Chapelles, Saint-Pierre-sur-Erve, Parné-sur-Roc, Saint-Martin de Laval et Saint-Jean Baptiste de Château-Gontier. Cette dernière église faisait à l'origine partie d'un prieuré fondé par des moines angevins. Elle fait soixante mètres de long et renferme des fresques illustrant des scènes de la Bible, comme la Fuite en Égypte et l'Annonciation. Des fresques du sont également visibles dans l'église Saint-Vigor de Neau, elles racontent la vie de Vigor de Bayeux; l'Église Saint-Pierre-le-Potier à Laval, l'Église Saint-Pierre de Varennes-Bourreau témoignent également de la richesse en peintures murales romanes du département. L'abbaye Notre-Dame d'Évron possède une grande basilique édifiée du au . Elle comprend un clocher carré, une crypte ainsi qu'une nef romane massive, Le chœur est gothique, des fortifications sont réalisées à la renaissance (pont-levis, fossés, remparts). L'abbaye de la Roë, première abbaye fondée par Robert d'Arbrissel en 1096, est affiliée à l'abbaye de Fontevraud, maison-mère de l’ordre de Fontevraud. Celle du Port-du-Salut, à Entrammes, date du . Ses moines trappistes sont à l'origine du fromage Port-Salut. L'abbaye de Clermont, à Olivet, date du et compte notamment un réfectoire voûté. Laval avait aussi un grand nombre d'établissements religieux avant la Révolution. Certains sont encore visibles à travers quelques vestiges, comme le couvent des Ursulines, dont la chapelle appartient au lycée Ambroise-Paré. L'abbaye de la Coudre, qui se trouve en limite sud de la ville, date de 1859 et elle est encore habitée par une communauté trappistine. La cité de Pontmain, site d'Apparition mariale et de pèlerinage catholique, possède une grande basilique datant de 1880. Les églises mayennaises sont souvent dotées de retables. Les plus vieux datent du , mais la plupart ont été réalisés aux . Leur présence dans les églises était alors pratiquement obligatoire en relation avec la Contre-Réforme; cette production constitue ce qui est considéré comme l'école des Retables lavallois. Ces retables ont souvent été conçus par des architectes et ils sont généralement décorés de marbre. Le bois fut toutefois privilégié vers 1680, grâce à sa plus grande souplesse. Le bois a aussi permis aux sculpteurs de suivre la mode, notamment le style rocaille. Au , la reconstruction des églises paroissiales a brièvement donné un second souffle à la production de retables. Cette production disparaît complètement à la fin du siècle, lorsque les styles roman et byzantin sont à la mode. Le département est riche en croix et calvaires. Ils font l'objet d'études par l'Abbé Angot puis par la société d'archéologie et d'histoire de la Mayenne, Alain Gueguen en inventorie plus de 6600 qu'il publie en 1993 |
Meurthe-et-Moselle La Meurthe-et-Moselle () est un département français. Il fait partie de la région historique et culturelle de la Lorraine et appartient à la région administrative Grand Est. La préfecture du département est Nancy. L'Insee et La Poste lui attribuent le code 54. Histoire. Le département de Meurthe-et-Moselle est créé le , à partir des territoires des départements de la Meurthe et de la Moselle que le traité de Francfort avait laissés à la France. Les arrondissements de la Meurthe (Lunéville, Nancy et Toul), restés français comme celui de Briey en Moselle, sont associés pour constituer le nouveau département de Meurthe-et-Moselle. Les autres arrondissements de la Meurthe, ceux de Château-Salins et de Sarrebourg, de même que le reste de la Moselle, sont quant à eux rattachés à l'Empire allemand jusqu'en 1918. La limite actuelle entre les départements de Meurthe-et-Moselle et de la Moselle correspond précisément à la frontière franco-allemande entre 1871 et 1919. Cette limite sert à nouveau de frontière après l'annexion de fait des départements de la Moselle, du Bas-Rhin et du Haut-Rhin par le régime nazi entre 1940 et 1944. La seule modification intervenue dans les limites du département est le rattachement en 1997, pour des raisons de gestion administrative, de la petite commune de Han-devant-Pierrepont, qui appartenait auparavant à la Meuse. Géographie. Le département de Meurthe-et-Moselle est situé au centre de la Lorraine. Il est entouré par les départements de la Meuse, des Vosges, du Bas-Rhin et de la Moselle et sa frontière nord jouxte le Luxembourg et la Belgique. Remodelé par les guerres franco-allemandes, le département a une forme inhabituelle : ses dimensions sont de du nord au sud, et entre 7 et d'est en ouest. Cette forme, dont la partie nord correspond à un "corridor géographique", est parfois comparée à celle d'une oie. Une autre particularité du découpage de ce département est le fait qu'une de ses communes, Othe, est enclavée dans un autre département, la Meuse. La forêt recouvre 32 % du département. Elle a été fortement endommagée par la tempête de 1999. La ville principale du département est sa préfecture, Nancy. Parmi les autres pôles urbains importants on peut citer Val-de-Briey, Longwy, Lunéville, Pont-à-Mousson, Toul et Villerupt. Le département doit son nom aux deux principaux cours d'eau qui le traversent : la Moselle et la Meurthe. Parmi les autres rivières : la Chiers, la Crusnes, l'Orne, la Seille, le Madon, la Mortagne et la Vezouze. Le relief est modelé par les vastes plaines que ces cours d'eau ont creusées dans le plateau lorrain. Il cède sa place au massif des Vosges dans le sud-est. Le point culminant est le Roc du Taurupt (), entre Bionville et Raon-sur-Plaine. Un autre relief historiquement important est la colline de Sion. Le point le plus bas est situé à Arnaville (). Transports. Le principal nœud de transport du département est Nancy. L'histoire des transports dans le département est marquée par la concurrence de cette ville avec Metz : si le tracé de l'autoroute A4 a fait l'objet d'intenses débats — elle passe finalement au nord de Metz —, un aéroport unique a été construit pour desservir les deux villes, et la LGV Est européenne passe entre les deux agglomérations — quoique plus près de Metz. Climat. Le climat meurthe-et-mosellan subit des influences océanique et continentale. Cela implique des températures très contrastées entre les saisons (gelées – canicules). Les précipitations sont cependant modérées et rarement violentes et les vents généralement faibles sans direction dominante. [données ?] Économie. L'économie départementale a longtemps été liée à l'extraction minière (fer, sel et calcaire). Prospère jusque dans les années 1960, elle a commencé à souffrir de la crise de la sidérurgie à partir des années 1970, ce qui l'a contrainte à reconvertir son économie. Au nord de Val-de-Briey, le Pays Haut est la région qui a le plus souffert de cette crise. Le taux de chômage y reste élevé et l'emploi transfrontalier vers la Belgique et le Luxembourg très développé. À titre d'exemple, 50 % de la population active de l'ancienne ville sidérurgique de Longwy travaille au Grand-Duché. La région de Lunéville est également un territoire en difficulté. Au contraire, l'agglomération nancéienne est très dynamique avec une forte implication dans les services, la recherche et l'enseignement supérieur. Dans le Sud du département, le Saintois (le verger des ducs de Lorraine) est resté, quant à lui, très rural. En 2008, sur l'emprise d'une partie de l'ancienne base aérienne américaine de Chambley-Bussières est lancée l'installation d'un important pôle aéronautique pour la production de l'avion Skylander SK-105 (groupe GECI International) mais cette société ayant été mise en liquidation en 2013, le projet est arrêté puis définitivement abandonné. La centrale photovoltaïque de Toul-Rosières, mise en service en 2012, était alors la plus importante de France. Tourisme. Les résidences secondaires. Selon le recensement général de la population du , 1,6 % des logements disponibles dans le département étaient des résidences secondaires. Ce tableau indique les principales communes de Meurthe-et-Moselle dont les résidences secondaires et occasionnelles dépassent 10 % des logements totaux en 2008. Il est à noter que le nombre de résidences secondaires à Pagny-sur-Moselle était dû à la présence de la base-vie pour la construction de la LGV Est européenne. Sources : Insee, chiffres au 01/01/2008. Culture. Issue de la guerre de 1870, la limite actuelle entre Meurthe-et-Moselle et Moselle ne marque pas une réelle frontière culturelle et les habitants des deux départements, hormis quelques enjeux d'aménagement du territoire, ou bien lors de rencontres sportives, se reconnaissent comme parties du même ensemble. Près de Longwy, l'ancien bassin industriel du "Pays Haut" reste par exemple culturellement plus proche de la région de Thionville en Moselle que du sud du département. Politique. Compte tenu de la manière dont le département a vu le jour (assemblage historique accidentel de deux morceaux d'anciens départements de l'époque de la Révolution française), les comportements politiques sont relativement différents selon que l'on se situe dans la partie nord ou la partie sud, selon qu'on est dans une ville industrielle ou dans la ville centre d'un pays rural. Dans les faits, et jusqu'à aujourd'hui, l'arrondissement de Briey (Meurthe-et-Moselle Nord) est acquis à la Gauche, dont l'influence provient en grande partie du monde ouvrier, dans la diversité de ses origines et de ses immigrations, dans celle de ses activités. Mineurs ou sidérurgistes, ouvriers du bâtiment ou de la chimie, les habitants du Nord choisissent le plus souvent leurs représentants parmi les partis de gauche. L'agglomération de Nancy, où les activités industrielles ont eu un certain poids, est plus partagée, même si elle penche de plus en plus à gauche, à l'exemple de la ville préfecture. La partie sud du département apparaît plus conservatrice (longtemps influencée par l'Église, accueillant des unités militaires d'importance, plus marquée par les activités rurales) et la Droite y a bénéficié d'une forme d'hégémonie durant de longues décennies. Dans les villages du Sud de Meurthe-et-Moselle, le Front national fait de très bons scores, notamment aux élections présidentielles. Cette situation évolue toutefois, faisant du département de Meurthe-et-Moselle celui des départements lorrains le plus orienté à gauche et le seul dont le Conseil général est d'ailleurs présidé par la Gauche. |
Meuse (département) La Meuse ( ) est un département français. Il fait partie de la région historique et culturelle de Lorraine et fait aujourd'hui partie de la région administrative Grand Est. Le département doit son nom au fleuve qui le traverse du sud au nord, la Meuse. L'Insee et La Poste lui attribuent le . La préfecture du département est Bar-le-Duc. Ses deux sous-préfectures sont Commercy au sud et Verdun au centre. Verdun est la ville la plus peuplée du département. Géographie. La Meuse fait partie de la région Grand Est. Elle est limitrophe des départements des Ardennes, de la Marne, de la Haute-Marne, des Vosges et de Meurthe-et-Moselle, ainsi que de la Belgique. Les villes principales sont : Verdun, Bar-le-Duc, Commercy, Saint-Mihiel, Ligny-en-Barrois, Étain, Montmédy, Stenay, Revigny-sur-Ornain et Vaucouleurs. Les cours d'eau sont : la Meuse, l'Aire, la Chiers, l'Ornain, la Saulx, l'Orge, l'Oignon, la Vaise, l'Orne et l'Aisne dont la source est dans le département. Les « côtes de Meuse », cuestas en bordure Est du Bassin parisien, sont la forme de relief la plus caractéristique du département. Les fronts, bien drainés, sont favorables à la culture des arbres fruitiers, particulièrement des mirabelles, et de la vigne. Le revers, plateau calcaire aux vallées bien marquées, est aujourd'hui entièrement occupé par des cultures céréalières. Ces côtes dominent la plaine de la Woëvre, région au sol argileux et marécageux. La Meuse possède deux cols de montagne : Climat. Le département est soumis à un climat à la fois océanique et continental qui se traduit par des saisons prononcées entrecoupées par des périodes intermédiaires au cours desquelles les températures et les précipitations restent moyennes. Le volume des précipitations oscille autour de avec toutefois des nuances très fortes entre la région de la Woëvre (à l'est) qui reçoit moins d'eau (moins de ) que la région du Barrois (au centre) avec plus de de précipitations. Toponymie. Par une loi du , cette entité administrative est primitivement appelée "département du Barrois" par l'Assemblée nationale ; le suivant, cette même assemblée change sa dénomination pour "département de la Meuse", en référence à l'une des principales rivières qui le traverse. Histoire. La Meuse est l'un des 83 départements créés à la Révolution française, à partir de la partie la plus occidentale de la province de Lorraine. Contrairement au département voisin de la Moselle, la Meuse n'a presque pas varié dans ses limites depuis sa création. On peut cependant citer le cas de la petite commune de Han-devant-Pierrepont, qui en a été détachée en 1997 pour être rattachée au département de Meurthe-et-Moselle. Durant la guerre de 1870, l'ouest du département fut le théâtre des opérations qui aboutirent à la défaite de Sedan. Ce département fut l'un des principaux théâtres de combat de la Première Guerre mondiale, particulièrement à Verdun en 1916. Après l'armistice, les dégâts étaient tels que de terres furent considérés Zone rouge (séquelles de guerre) dans ce seul département lors des premières évaluations. La loi du définit finalement de surfaces qui furent l'objet d'expropriation et classement en forêt de guerre, où les séquelles des combats (cratères) sont encore très visibles de nos jours. À la fin du , le laboratoire de Bure est construit dans ce département, pour la recherche sur le stockage des déchets radioactifs en couche géologique profonde. Démographie. La Meuse est un département agricole peu peuplé. La tendance démographique est à la baisse depuis les années 1970. La densité de population est très faible (seulement en , contre une moyenne nationale de ). La commune la plus peuplée est Verdun, avec en et la moins peuplée (si l'on exclut les six communes « Mortes pour la France » inhabitées) est Ornes, avec seulement en . Communes les plus peuplées. La plus grande aire urbaine est celle de Verdun avec en 2015. Culture. Langue. Vers 1893, la langue française était à cette époque parlée et comprise par la grande majorité des habitants. Cependant, le patois lorrain était encore conservé dans beaucoup d'endroits. Tourisme. Le tourisme de la région s'appuie sur deux éléments ; le tourisme vert d'une part (forêts d’Argonne, étangs de la Woëvre et bien d’autres sites ayant valu à la Meuse le surnom d’Emeraude de l’Est), et le patrimoine historique de la Première Guerre mondiale d'autre part (Verdun, Douaumont). Les sites de la grande guerre en Meuse 1914-1918 : visiteurs visitent chaque année les sites de la Grande Guerre meusiens. La Meuse et plus particulièrement Verdun sont des symboles de la Première Guerre mondiale. De 1914 à 1918, du Saillant de Saint-Mihiel à l'Argonne, des Eparges à Vauquois, toute la Meuse est en première ligne de la Grande Guerre. Au centre de ces champs de bataille, le Champ de Bataille de Verdun qui est le plus mondialement connu. La bataille de Verdun est la bataille la plus meurtrière de l'histoire entre la France et l'Allemagne. D'autres éléments touristiques sont à signaler : Les résidences secondaires. Selon le recensement général de la population du , 5,2 % des logements disponibles dans le département étaient des résidences secondaires. Ce tableau indique les principales communes de la Meuse dont les résidences secondaires et occasionnelles dépassent 10 % des logements totaux. Sources : Politique. Énergie nouvelle. Dans son schéma de développement, le département de la Meuse a intégré une approche globale concernant les énergies nouvelles et la maîtrise des énergies. Le projet "Meuse Énergies Nouvelles" s'articule autour trois axes : Santé. La Meuse dispose de plusieurs centres hospitaliers tels que : À Bar-le-Duc et ses alentours : À Verdun et ses alentours : À Commercy : |
Morbihan Le Morbihan ( ; " ) est un département français situé en région Bretagne, qui doit son nom au golfe du Morbihan. Il correspond pour l'essentiel au royaume, devenu comté puis baillie de Broërec et plus anciennement à la cité des Vénètes. L'Insee et la Poste lui attribuent le code 56. Sa préfecture est Vannes. Histoire. Le département a été créé à la Révolution française, le en application du décret du 22 décembre 1789, à partir d'une partie de l'ancienne province de Bretagne : il est édifié pour les 4/5 de son étendue sur les terres de l'ancien diocèse de Vannes fondé au (moins deux petites parties au nord, une autre à l'est et une dernière à l'ouest), de l'extrême est de la Cornouaille, du sud de l'évêché de Saint-Brieuc, du sud-ouest de l'évêché de Saint-Malo et du nord-ouest de l'évêché de Nantes. Il est créé à partir de la circonscription du présidial de Vannes à laquelle on a retranché la sénéchaussée de Quimperlé et la moitié nord de celle de Ploërmel et ajouté la sénéchaussée de Gourin (à peu près). Les communes de la Cornouaille morbihannaise (l’ancienne sénéchaussée de Gourin) qui n'avaient pas choisi d'être annexées au département du Morbihan ont régulièrement réclamé de rejoindre le Finistère, sans succès. Des pétitions circuleront à plusieurs reprises, mais seule la commune de Locunolé réussira à obtenir gain de cause en 1847. Les concepteurs des départements ont choisi de ne pas reprendre les noms portés par les circonscriptions antérieures pour en éradiquer les identités, cultures et particularismes, afin qu'il n'y ait plus ni Angevin, ni Corses, ni Alsaciens, ni Breton, mais seulement des Français. Les noms des départements sont choisis à partir de particularités géographiques, notamment des noms de fleuves, de mers ou de montagnes. On songea à nommer ce département « les Côtes du sud », par opposition aux Côtes-du-Nord, mais la présence de plusieurs golfes appelés " (« petite mer » en français) par les habitants, à Gâvres et au sud de Vannes, lui a fait préférer ce vocable géographique. De 1791 à 1793, les neuf districts (Auray, Le Faouët, Hennebont, Josselin, Pontivy, Ploërmel, La Roche-Bernard, Rochefort et Vannes) du département du Morbihan fournirent quatre bataillons de volontaires nationaux. Les et de volontaires du Morbihan furent envoyés pour combattre la révolution haïtienne et participèrent à la bataille du Cap-français Le département du Morbihan fait partie en 1919 de la économique ou région de Nantes (départements 37-44-49-53-56-72-85), mais aussi de la région touristique de Bretagne (22-29-35-56). Plus tard, le Morbihan fait partie des régions « Bretagne » créées successivement en 1941, 1944 et 1956-72-88 (l'actuelle région Bretagne) et regroupant les départements du Finistère, des Côtes-d'Armor et d'Ille-et-Vilaine. Étymologie. Le nom du département vient de ', nom breton, signifiant « Petite Mer » (le golfe du Morbihan), par opposition à ', « grande mer », qui désigne localement la baie située entre Quiberon et Le Croisic. La transposition en français a pour conséquence le retrait du trait d'union, pour ne former finalement qu'un mot. Cette étymologie a conduit certains à estimer que le Morbihan serait le seul département de France métropolitaine dont le nom proviendrait entièrement d'une langue régionale. Toutefois, le département de Vaucluse est dans le même cas. Emblèmes. Logotype. De 2007 à 2022, le logo du conseil départemental du Morbihan est constitué d’un rectangle bleu foncé qui évoque le cadre institutionnel. Une lettre « M » stylisée bleu clair (couleur symbolisant la mer et toute la vie qui lui est associée) brochant sur le tout est surchargée d'un disque orange qui représente le soleil. Cette lettre est accompagnée d'une « virgule » de couleur vert anis brochant sur la droite du rectangle et qui symbolise l’intérieur des terres (la campagne verdoyante) et du fait de son graphisme et sa couleur vive, le dynamisme (culturel, économique, social). Le nom du département apparaît en lettres blanches en bas du rectangle et l'institution départementale en lettres bleues en dessous. Le précédent logo comportait les mêmes éléments disposés de façon légèrement différente et avec des couleurs plus vives : le soleil était jaune pur et la virgule rouge vif. En octobre 2022, le Département fait évoluer son identité visuelle en modifiant son logotype et la charte graphique de la collectivité. S'inspirant du blason du Morbihan (voir ci-dessous), le nouveau logo est composé d'une hermine, symbole héraldique breton déjà présent sur les logos des départements voisins d'Ille-et-Vilaine et du Finistère, et de trois vagues bleues évoquant l'origine du nom du département, la mer ainsi que la vie qui lui est associée. Géographie. Situation. Le Morbihan fait partie de la région Bretagne. Il est limitrophe des départements du Finistère à l'ouest, des Côtes-d'Armor au nord, d'Ille-et-Vilaine à l'est et de la Loire-Atlantique au sud-est, et bordé par l'océan Atlantique. Sa superficie est de pour de côtes. L'espace morbihannais couvre un peu plus d'un dixième de la superficie du Massif armoricain. La superficie totale du département est de , dont boisés, soit plus de 16 % du territoire. Le Morbihan affecte la forme un quadrilatère dont l'axe principal, de direction nord/nord-est - sud/sud-ouest, mesure près de , tandis que, des crêtes des montagnes Noires jusqu'à la mer, la distance n'est, à vol d'oiseau, que de . Relief. Pour ce qui concerne le relief du département, le Morbihan est très plat sur le littoral en contradiction avec le reste de la Bretagne mais assez vallonné dans l'arrière-pays ouest (landes de Lanvaux, montagnes Noires proches de Gourin…). Son point culminant se situe au nord-est de Gourin, c'est le mont Saint-Joseph () dans les montagnes Noires. Géologie. Le département est située au cœur du domaine centre et sud armoricain, unités géologiques du Massif armoricain qui correspondent à une structure s'allongeant sensiblement en direction W-E, depuis la presqu'île de Crozon jusqu'au bassin de Laval pour le domaine médio-armoricain, du cap Sizun jusqu'à la Vendée pour le domaine sud armoricain. Le territoire est marqué par une alternance de lignes de crêtes et de vallées parallèles à la côte. Orientées nord-ouest/sud-est (direction armoricaine caractéristique de l'orogenèse varisque), ces zones déterminent deux domaines de part et d'autre du cisaillement sud-armoricain CSA (décrochement dextre dont le rejet horizontal atteindrait 500 km). Ce décrochement, appelé aussi « zone broyée sud-armoricaine », est un témoin de la tectonique tangentielle varisque qui forme un couloir de failles hercyniennes courant de la pointe du Raz à la Loire d'orientation NW-SE (N120). Au nord du CSA, les plateaux d'une altitude moyenne de 150 m correspondent à des reliefs typiques de bassins versants de rivières dont les vallées forment des éventails. Ces plateaux correspondent à des granitoïdes de collision, post-épaississement du complexe plutonique de Pontivy-Rostrenen et plus précisément du massif granitique de Pontivy à deux micas (biotite et muscovite) qui affleure au sud-ouest de l'ensellement micaschisteux de Guémené. Ils correspondent plus à l'ouest à un bassin sédimentaire principalement constitué de schistes briovériens (sédiments détritiques essentiellement silto-gréseux issus de l'érosion du segment occidental de la chaîne cadomienne, accumulés sur plus de d'épaisseur et métamorphisés), formant un socle pénéplané sur lequel repose en discordance, dans sa partie orientale, des formations paléozoïques sédimentaires. Ces formations sont déposées dans ce bassin marqué par une forte subsidence, puis sont déformées lors de l'orogenèse varisque (plis d'orientation préférentielle N 110° et plusieurs familles de failles d'orientations différentes). Au sud du CSA, le décrochement a guidé la mise en place d'une bande de leucogranites, écrasant le flanc nord de l'anticlinal de Cornouaille (terme de Jean-Pascal Cogné en 1960, désignant la région comprise entre la pointe du Raz et Nantes) constitué de migmatites, de granites d'anatexie, ces structures formant les bas plateaux littoraux méridionaux. Les témoins géologiques de la collision de la microplaque Armorica au nord et du bloc continental Gondwana au sud, séparés initialement par l'océan Médio-Européen, sont les granites d'anatexie (indices d'une subduction) puis les leucogranites et les gneiss, indices d'une collision de type himalayenne (l'épaississement crustal varisque lié à l'écaillage de Gondwana, s'accompagne en profondeur de métamorphisme et de la fusion de la croûte continentale à l'origine de plutons leucogranitiques). Le Massif armoricain auquel appartient le Morbihan a subi depuis le passage Plio-Pléistocène (2,6 Ma) un basculement vers le sud qui a provoqué le soulèvement de sa marge nord et un effondrement relatif de sa marge sud dont le relief, étagé en gradins, descend progressivement vers l'Atlantique. Cette retombée méridionale cornouaillo-morbihannaise se traduit au niveau géomorphologique par une série de horsts et grabens, et surtout de blocs monoclinaux basculés vers le continent qui s'achèvent vers la mer par des escarpements de failles, selon un « maillage de dislocations assujetties à celles du tréfonds armoricain », cette tectonique en distension étant peut-être en relation avec l'ouverture du golfe de Gascogne. Paysages. Les plus grandes forêts se situent au nord du département (Paimpont, Lanouée, Quénécan…) et en son centre : les landes de Lanvaux (Bois de Saint-Bily, forêts domaniales de Camors, de Floranges, de Pontcallec…). Jusqu'au Moyen Âge, les forêts, comme partout en Bretagne, étaient bien plus étendues : la mythique forêt de Brocéliande s'est réduite comme une peau de chagrin pour ne laisser qu'une infime partie, Paimpont ; la forêt de Rhuys, où les ducs aimaient à chasser, a entièrement disparu. Le Morbihan est, de fait, le département breton le plus boisé (suivi d'assez loin par les Côtes-d'Armor avec près de 12 %). Quant à la surface agricole utilisée, elle représente 57 % du territoire, c'est-à-dire que le Morbihan est le département de la Bretagne le moins exploité pour l'agriculture en termes de surface (l'Ille-et-Vilaine est le premier avec 76 % de la surface). Littoral. Le littoral du Morbihan est particulièrement découpé : avec les îles, la longueur des côtes affiche (deuxième de Bretagne après le Finistère) alors que la distance à vol d'oiseau entre les estuaires de la Laïta et de la Vilaine (qui représentent les frontières naturelles est et ouest du département) n'est que de . Le golfe qui a donné son nom au département contient 42 îles, dont deux forment communes : l'île d'Arz et l'île aux Moines. Hors du golfe du Morbihan, il y a quatre îles habitées : Comme ailleurs en Bretagne, les marées remplissent et vident les estuaires de fleuves – grands et petits – appelés localement en français rivières. C'est l'équivalent des abers du Léon et de ce que les géographes dénomment ria : ria d'Étel, ria de Pénerf. Climat. Le climat est de type tempéré océanique, marqué par l'influence du Gulf Stream et des perturbations atlantiques. Il se caractérise par sa douceur aussi bien en hiver qu'en été. En été, la chaleur reste modérée sauf à l'occasion de brefs et rares épisodes de canicule comme ce fut le cas en (température de le à Lorient). En hiver, les gelées sont rares, surtout dans les îles et sur la côte. Les précipitations sont régulières, avec un maximum en hiver. Le littoral et la partie orientale du département sont les parties les moins arrosées. Les landes de Lanvaux et surtout le nord-ouest du département, au relief plus prononcé, reçoivent les précipitations les plus abondantes. Dans le secteur de Guiscriff, le cumul annuel dépasse les , alors qu'à Belle-Île il avoisine les . La côte morbihannaise bénéficie d'environ d'ensoleillement annuel. Il existe des microclimats tels que ceux de la presqu'île de Quiberon, de la presqu'île de Rhuys ou de Belle-Île. Politique. Une opposition est-ouest. Le Morbihan est souvent présenté comme étant scindé politiquement selon un axe est-ouest, la partie occidentale étant dominée par la gauche, là où la partie orientale est acquise à la droite. Ce clivage est déjà en place dès le début de la Troisième République et perdure depuis. La création de la ville de Lorient en 1666 puis son essor depuis est souvent avancé comme facteur explicatif, au motif que le pôle industriel que la ville constitue serait un terreau favorable aux idées de gauche. La rivalité entre les villes de Lorient, à l'ouest, et de Vannes, à l'est, incarne cette dynamique territoriale. L'expression est parfois utilisée pour illustrer l'antagonisme entre les deux villes, présentées aussi comme des . Économie. Longtemps le Morbihan — comme la plupart des départements de l'Ouest — a eu une vocation essentiellement agricole. La présence d'un littoral étendu a toutefois apporté la diversité par la pêche depuis toujours, le commerce maritime depuis le Moyen Âge et la construction navale à la fin du . Secteur primaire. Agriculture. Au cours des décennies 50-80, l'agriculture se transforme profondément. Elle se modernise, se spécialise (élevage, en particulier avicole) et place sa production dans les premiers rangs des départements français. Elle est cependant confrontée actuellement à des problèmes de pollution des sols et des eaux. Elle est aussi en concurrence pour l'utilisation de terres avec l'agrandissement des villes et le développement d'activités touristiques, et perd annuellement 0,5% de sa SAU depuis 2000. La moitié de la superficie du département est utilisée par des activités agricoles. L'activité emploie en 2006 environ 5,7% de la population active, et génère 13% avec les emplois du département via l'industrie agroalimentaire. Le département est l'un des plus gros producteurs français dans plusieurs secteurs. Il est le premier producteur en aviculture, et le second producteur d'œufs national. Il est à la troisième place concernant la production de viande bovine et est aussi le sixième plus gros producteur de lait. Sept productions du département sont protégées au titre d'une SIQO, dont le cidre breton, la farine de blé noir de Bretagne, ou encore les volailles de Janzé. Pêche et aquaculture. La pêche est une activité importante dans le département, et le port de pêche de Keroman à Lorient partage avec celui de Boulogne-sur-Mer le titre de plus important port de pêche français, en volume et en valeur, avec autour de de poissons vendus pour une valeur de près de . La flotte du Morbihan représente en 2008 363 bateaux et 841 emplois. Les espèces pêchées sont de plusieurs types, pélagiques (merlu, sardine…), démersales (grenadier, empereur…) et benthiques (langoustine). L'usage de casier permet la pêche de crustacés (homards, crabes, crevettes, araignées…). L'aquaculture est aussi bien développée, notamment avec l'ostréiculture et la mytiliculture. Le Morbihan est avec autour de le premier producteur breton d'huitres, et le second département français derrière la Charente-Maritime. La production est concentrée autour de la Ria d'Étel, la baie de Quiberon, et le golfe du Morbihan. La production de moules se situe autour de par an, concentrée dans l'estuaire de la Vilaine. Secteur secondaire. La Révolution industrielle a moins touché le département que le Nord-Est de la France ; on notera néanmoins le développement de la métallurgie (Forges d'Inzinzac-Lochrist, fonderies de Ploërmel…) et de la construction navale contemporaine (pays lorientais). La décentralisation industrielle après la Seconde Guerre mondiale a été bénéfique pour Vannes (implantation de Michelin). Construction navale et nautisme. La construction navale et la réparation est concentrée dans le pays de Lorient où il compte près de , essentiellement dans le domaine militaire. Naval Group et dans une moindre mesure Piriou sont les principaux acteurs. L'activité est très cyclique et dépendante des programmes de l’État, notamment du programme des Frégate multi-missions depuis 2012. La filière nautique est plus également répartie le long du littoral du Morbihan, avec environ dans le pays de Lorient, le pays de Vannes pour et le pays d'Auray pour . Au total, le département regroupe pas loin de la moitié des emplois de ce secteur dans la région Bretagne, ce qui en fait le centre de gravité économique de la Sailing Valley, principal cluster économique français lié à cette activité. Le tissu économique est essentiellement composé de TPE et de PME, dont l'activité est en grande partie tournée vers la préparation de courses au large. Le département compte par ailleurs une activité de nautisme de loisir importante, regroupant autour de pour une centaine de cales de mise à l'eau. Près d'un voilier sur huit immatriculé en France l'est dans le département. Secteur tertiaire. Le secteur des services domine fortement aujourd'hui l'économie du département. Les villes moyennes de Lorient, Vannes et même Auray ou Pontivy constituent des pôles commerciaux notables. Tourisme. Le tourisme est le pilier du secteur tertiaire, et peut représenter localement la première activité économique. Il se concentre sur la côte, principalement dans un triangle allant d'Auray à Quiberon à Carnac, ainsi qu'autour des villes de Vannes et de Lorient Il entraîne avec lui le bâtiment, les travaux publics, les services à la personne et les transports, mais peut poser localement, le long des côtes des problématiques de surtourisme. La fréquentation est principalement française, les visiteurs étrangers ne représentant que 6% des visites. Environ sont enregistrées tous les ans en moyenne, dont 56 % en juillet et août. L'activité génère environ en haute saison, et 13000 tout au long de l'année. On estime qu'environ sont impactés à divers degrés par le tourisme, soit près du tiers des entreprises du Morbihan. Population et société. Démographie. Les habitants du Morbihan sont les "Morbihannais" et les "Morbihannaises". Répartition de la population. La densité moyenne de la population s'élève à en , une densité légèrement supérieure à la densité moyenne de la France métropolitaine (). Cette moyenne recouvre d'importantes disparités puisque sur les 250 communes que compte le département en 2019, 27 comptent moins de et 9 plus de . La population se concentre majoritairement dans les zones proches du littoral où se trouvent notamment les aires urbaines de Lorient et de Vannes. Le taux d'urbanisation de la population est de 61 %. Enseignement. Le département du Morbihan est l'un des quatre département qui sont couvert par l'académie de Rennes. Quelques sont scolarisés en 2022 dans le primaire ( en 2022) et le secondaire ( en 2022). La région se caractérise par une portion importante d'élèves scolarisés dans l'enseignement privé, notamment catholique, ce dernier représentant 50 % des élèves du premier et du second degré. L'enseignement en breton représente lui quelques . Le conseil départemental est directement gestionnaire des du département, et intervient aussi dans différents aspects de la gestion des . Au total, le Morbihan finance à hauteur de le fonctionnement de ces établissements, dont en investissement et en fonctionnement. Le Morbihan est l'un des départements qui connait les meilleurs taux de réussite nationaux aux diplômes nationaux du Baccalauréat (en 2022, 98,1 % au bac général, 95,9 % au Bac technologique, et 87,9 % au Bac professionnel) et du brevet des collèges (92,6 % en 2022). Culture. Langues. Comme les Côtes-d'Armor, le Morbihan possède deux langues régionales : le breton, dans sa partie occidentale, et le gallo, dans sa partie orientale, que sépare une frontière linguistique. Cette frontière a reculé au profit du français depuis le . Celle-ci courait depuis l'est de la ville de Rohan jusqu'à la ville de La Roche-Bernard au . Dans la première moitié du , les communes situées au sud de la Vilaine (Pénestin, Férel) ont été francisées, ainsi que celles d'Arzal, de Molac et d'Elven. Au cours du , avec la francisation de toute la zone bretonnante et la mobilité croissante de la population, cette frontière a progressivement perdu de son sens. Elle coïncide cependant avec la répartition des écoles où l'on enseigne le breton aujourd'hui. Langue bretonne. Les effectifs pondérés que fournit l'enquête "Étude de l'histoire familiale" menée par l'INSEE en 1999 sont de plus de de plus de 18 ans pour ce seul département. S'y ajoutent notamment les effectifs des écoles bilingues qui se montent à à la rentrée 2005, ou encore les élèves suivant des cours de breton dans les établissements publics du secondaire (plus de 900 en 2002/2003). La signalisation routière bilingue (français/breton) est de plus en plus utilisée dans le département y compris sur sa partie gallèse. Le breton vannetais diffère par de nombreux aspects de ses homologues Léonard, cornouaillais et trégorois. Langue gallèse. D'après l'Enquête sociolinguistique sur les Langues de Bretagne de TMO Régions pour la Région Bretagne de 2018, 4,3 % de la population du Morbihan, âgée de 15 ans et plus, parlent le gallo, soit environ 26 000 locuteurs. 8,5 % de la population du Morbihan comprennent le gallo. Gastronomie. La gastronomie dans le Morbihan occupe une place très importante. Elle dispose de nombreuses recettes des plus variées en passant du salé ou sucré. La gastronomie morbihannaise renferme beaucoup de spécialités de terroirs, artisanales L’alimentation bretonne présente donc des recettes très connues, des crêpes bretonnes au kouign-amann ainsi que les huîtres et l'andouille de Guémené. Crêpes et galettes. Le Morbihan est avec le Finistère le département qui compte le plus de crêperies. Celles-ci sont principalement concentrées sur la côte, près des zones touristiques, et près d'un restaurant sur quatre dans le département propose des crêpes sur sa carte. |
Moselle (département) La Moselle ( ) est un département français de la région Grand Est. Il fait historiquement et culturellement partie de la Lorraine. L'Insee et La Poste lui attribuent le code 57. Ce territoire doit son nom à la rivière de la Moselle, un affluent du Rhin, qui le traverse dans sa partie ouest et arrose Metz, son chef-lieu. La Sarre, le plus grand affluent de la Moselle, prend sa source dans l'est du département, en arrose environ la moitié et donne son nom au Land allemand voisin. Situé en Europe rhénane, le département de la Moselle est frontalier avec le Luxembourg et l'Allemagne avec qui il entretient plusieurs liens au sein de la Grande Région. C'est le département le plus peuplé de France en 2017 avec ses , appelés les "Mosellans", qui sont répartis dans . Créé en 1790 à partir de la principauté épiscopale de Metz et des territoires du nord-est des provinces de Lorraine et de Bar, ce département a une histoire complexe en raison des diverses modifications de ses frontières entre 1790 et 1833, ainsi qu'à cause de ses deux annexions à l'Allemagne. La première annexion est à l'origine d'un énième changement de son territoire, de ses limites actuelles et de plusieurs particularismes sociaux, culturels et législatifs (droit local) qui sont toujours en vigueur au . Se fondant sur ses particularités géoéconomiques, historiques et culturelles, en 2019 le département dépose par la voix de ses élus une demande d'être reconnu comme l'"Eurodépartement" français auprès de l'Assemblée nationale, afin de bénéficier de mesures de différenciation territoriale adaptées. Géographie. Dimension frontalière. Le territoire de la Moselle est délimité à l'ouest et au sud par le département de Meurthe-et-Moselle, ainsi qu'à l'est par celui du Bas-Rhin. Au nord, le département est délimité par le Grand-duché de Luxembourg et par la République Fédérale d'Allemagne (Länder de Sarre et de Rhénanie-Palatinat). Le département mosellan est fortement marqué par sa géographie frontalière, entièrement tournée vers le bassin rhénan. Voisine du Luxembourg et de l'Allemagne, la Moselle figure parmi les sept départements de France métropolitaine qui cumulent une frontière avec deux pays étrangers (à l'instar de la Haute-Savoie, de la Meurthe-et-Moselle, du Haut-Rhin, des Pyrénées-Orientales, de l'Ariège et des Alpes-Maritimes). Concernant les régions étrangères, la Moselle fait limite avec le Land de Sarre (2/3 des frontières mosellanes) ainsi qu'avec le Land de Rhénanie-Palatinat. Elle constitue également les quatre cinquièmes de la frontière franco-luxembourgeoise. La Moselle représentait à elle seule les trois quarts des frontières extérieures de l'ancienne région de Lorraine. Au niveau européen, la Moselle fait partie de la Grande Région et de l'Eurodistrict SaarMoselle (pour une partie du département). Par ailleurs, la grande majorité de la population mosellane se trouve à moins de des frontières (distance à l'intérieur de laquelle une population est généralement qualifiée de « frontalière »). Le cas du village franco-allemand de Leiding/Leidingen est particulier : les limites entre les deux états-nations passent au milieu de la rue. Enfin, les frontières mosellanes ont une dimension culturelle spécifique : elles se font avec deux langues, le luxembourgeois et l'allemand, dont les variétés dialectales sont historiquement présentes dans environ la moitié du département. Cette particularité renvoie au bilinguisme historique complexe qui existe en Moselle depuis une quinzaine de siècles. Environnement. La région, couloir d'invasion depuis l'Antiquité, est longtemps restée une marche, entre Alsace et Nord, relativement pauvre jusqu'au , et donc peu urbanisée et peu peuplée. Dans sa partie occidentale, le paysage est celui d'un plateau avec un mélange de terres agricoles et de collines boisées de faible altitude. Dans la partie orientale, le paysage est progressivement marqué par la forêt et un caractère plus montagnard, en tant que partie mosellane du massif des Vosges et des Vosges du Nord. Le point culminant de la Moselle est le Grossmann () L'environnement y a d'abord souffert de l'industrialisation lourde liée aux gisements de fer de Lorraine, qui a artificialisé les vallées et bords de cours d'eau. Les industriels ont créé dans les vallées de vastes emprises foncières en achetant des terres aux agriculteurs et en profitant d'un "droit d'eau" qui était en France avantageux pour les riverains. Les questions de dégradation de l'environnement sont devenues politiques dès la fin du . Elles ont ensuite fait l'objet d'une sorte de consensus (la pollution étant une sorte de "rançon" acceptée de l'acier, gage de prospérité locale jusque dans les années 1960 avec la fragilisation de l'industrie métallurgique), selon R. Garcier. Climat. Le climat en Moselle est océanique dégradé ou atténué à influence semi-continentale. Les saisons sont contrastées et bien marquées mais en fonction des vents dominants peuvent se succéder du jour au lendemain des périodes de précipitations (influence océanique) ou de forte amplitude thermique (influence continentale). Hydrographie. Intégralement situé sur le bassin versant du Rhin, le département est géographiquement organisé autour des vallées de la Moselle et de la Sarre. Cependant, l’extrême est du département, c'est-à-dire le pays de Phalsbourg et la haute vallée de la Zorn, ainsi que l'est du pays de Bitche sont directement reliés au Rhin, donc sans lien avec le bassin Sarre-Moselle. Cours d'eau principaux : la Moselle, la Sarre, la Seille, la Nied (dont l'allemande et la française), l'Orne, la Fensch, la Canner, le Conroy, la Zinsel du Nord, la Zorn. Plaque d'immatriculation. Les plaques d'immatriculation en Moselle sont représentées avec le numéro 57. Avant 2015, le 57 faisait partie de la Lorraine, aujourd'hui il appartient au Grand Est. Histoire. La Moselle est l'un des 83 départements conçus à la Révolution française, le en application de la loi du , à partir notamment de la partie nord de la province de Lorraine et d'une partie de la province du Barrois, ainsi que de la principauté épiscopale de Metz. L'un de ses premiers préfets est le comte de Vaublanc, de 1805 à 1814. Le département est alors divisé en quatre arrondissements : Metz (chef-lieu du département), Briey, Sarreguemines et Thionville. Il connaît plusieurs rectifications de frontière jusqu'à la convention d'octobre 1829. D'autre part, trois de ses communes sont rattachées au Bas-Rhin : Bouquenom et Sarrewerden en , ainsi qu'Obersteinbach en 1833. Annexion par l'Allemagne. Conformément au traité de Paris de 1814, la Moselle perd au profit de la Prusse le canton de Tholey ainsi que sept communes du canton de Sierck-les-Bains. L'année suivante, dans le cadre d'un autre traité de Paris, les cantons de Relling et de Sarrelouis sont partiellement cédés aux Prussiens ; certains des villages et hameaux concernés redeviennent français en 1829. Le , ce département est rayé de la carte à la suite du traité de Francfort, celui-ci ayant pour origine une défaite militaire contre les Allemands. À la suite de cette défaite, la création de l'Empire allemand fut proclamée le précédent, dans la galerie des Glaces du château de Versailles. La nouvelle Allemagne annexe la plus grande partie du département, ainsi qu'une part du département de la Meurthe et des Vosges. Seul l'extrême-ouest de la Moselle, correspondant à l'actuel arrondissement de Briey, reste français et forme avec les arrondissements du département de la Meurthe restés français, le nouveau département de Meurthe-et-Moselle. Les territoires devenus alors allemands comprennent non seulement la partie germanophone de la Lorraine, territoire dans lequel les habitants parlent le francique lorrain, ou "Platt", mais aussi des régions où l'on parle français, comme le pays messin et la majeure partie du Saulnois. Les arrondissements existants depuis 1800 sont redécoupés, et l'on crée le district de Lorraine, correspondant à l'actuel département de la Moselle. Il forme alors, avec l'Alsace, l'Alsace-Lorraine, avec Strasbourg pour chef-lieu. De là est né le , correspondant en fait à cette nouvelle terre d’Empire, ou "", dont l'appellation officielle allemande est "Reichsland Elsass-Lothringen", dont les traces subsistent dans le droit local d'Alsace-Moselle. L'esprit de revanche, que nourrissait la perte de la Lorraine et de l'Alsace au sein de la population française et de sa classe politique, exalte en France un sentiment profondément germanophobe, propice aux velléités guerrières de la France. Lorsque la Première Guerre mondiale éclate, les Mosellans comme les Alsaciens sont naturellement incorporés dans les troupes allemandes, au sein desquelles la plupart d'entre eux a déjà accompli deux années de service militaire obligatoire. Entre 1914 et 1918, si Alsaciens et Mosellans s'engagent dans l'Armée française, Alsaciens-Lorrains, soit plus de 95 % des conscrits, nés Allemands se battent pour l'empire allemand jusqu’à la fin de la guerre. Pour éviter les désertions, la plupart sont envoyés sur le front russe. Leurs tombes sont aujourd'hui entretenues par le "Volksbund Deutsche Kriegsgräberfürsorge". Ceci explique la spécificité des monuments aux morts du département, qui ne portent souvent que l'inscription lapidaire « À nos morts », en lieu et place du traditionnel « Morts pour la France ». Résurgence. Entre l'armistice du 11 novembre 1918 et la promulgation du traité de Versailles le , la Moselle est, juridiquement, un territoire sous occupation de l'armée française. Quand en 1919, le traité de Versailles rend à la France les territoires lorrains perdus, on ne reconstitue pas les anciens départements, mais le district de Lorraine devient le « Département de la Moselle », conservant les anciens arrondissements de Boulay-Moselle, Forbach, Metz, Sarreguemines et Thionville et ceux de Château-Salins et Sarrebourg, qui avant 1871, appartenaient à la Meurthe. Le département de Meurthe-et-Moselle reste de ce fait inchangé, conservant l'arrondissement « mosellan » de Briey. Dans l'entre-deux-guerres, la Moselle reste traumatisée par les déchirures de la guerre et les dommages collatéraux des nationalismes. Les intellectuels mosellans réagissent diversement au rattachement de la Moselle à la France. L'avocat Robert Schuman se montre conciliateur et recherche une synthèse entre le sentiment d'appartenance à la nation et les nombreuses spécificités alsaciennes-mosellanes. Il sera notamment l'un des architectes du Droit Local d'Alsace et de Moselle. D'autres par contre s’engagent sur la voie d’un nationalisme pro-français, revanchard et cocardier. D’autres s’engagent sur la voie antagoniste d’un nationalisme pro-allemand, tout aussi vindicatif et belliqueux. D’autres enfin, comme Adrienne Thomas, Polly Maria Höfler (1907-1952), Ernst Mungenast ou Alfred Pellon, hésitent entre un pacifisme sincère, mais naïf, et un régionalisme culturel identitaire. Ces mouvements, plus ou moins autonomistes, seront ensuite largement exploités par les nazis. Ce combat identitaire, souvent mené par des intellectuels idéalistes, qui s’inscrit parmi des courants de sensibilité à l’œuvre dans l’Europe entière, traduit aussi une crise d’identité propre à l’ensemble des Alsaciens-Lorrains. Seconde Guerre mondiale. La Moselle est touchée par la Seconde Guerre mondiale, dès la déclaration de guerre le : près de 30 % du territoire de la Moselle se trouve entre la Ligne Maginot et la frontière franco-allemande. , soit 45 % de la population du département, sont évacuées pendant le mois de septembre 1939 vers des départements du Centre et de l'Ouest de la France, essentiellement la Charente, la Charente inférieure, la Vienne, la Haute-Vienne et enfin la Haute-Loire qui accueillent les mineurs. L'ordre d'évacuation pour les villages frontaliers comme Oberdorff a été donné dès le septembre. Parmi les quelque évacués, reviendront après la défaite. Au cours de la Seconde Guerre mondiale, malgré l'armistice du , la Moselle est à nouveau annexée, en juillet de la même année, par l'Allemagne nazie. Elle n'est pas réunie à l'Alsace, qui subit le même sort, mais intégrée au "Gau Westmark", la "Marche de l'Ouest", comprenant aussi la Sarre et le Palatinat, Sarrebruck en était le chef-lieu. L'importance de la population francophone en Moselle, ou tout simplement francophile, amène le Gauleiter Bürckel à procéder à des expulsions massives vers la France. L'évêque de Metz, Joseph-Jean Heintz, expulsé dès le mois d'août, en est un bon exemple. Moins bien traités que les Alsaciens, les Lorrains expulsés se félicitèrent bientôt de leur destin quand, en 1942, les jeunes Mosellans restés ou retournés au pays furent soumis à l'incorporation de force dans les armées allemandes. Comme dans le reste de la France, plusieurs types de résistance à l'annexion virent le jour, prenant parfois la forme de groupes organisés et structurés, comme le Groupe Mario, animé par Jean Burger, ou le Groupe Derhan. Au cours de ces années noires, plus de dix mille Mosellans furent déportés dans des camps, notamment dans les Sudètes, pour s'être opposés publiquement à l'annexion en . Si des villages lorrains furent libérés dès le début de , au début de la Bataille de Metz, la ville elle-même ne fut libérée que le et il fallut attendre le mois de pour voir les combats cesser dans le nord-est du département. Le bilan matériel de la guerre est très lourd en Moselle. À partir du printemps 1944, les bombardiers américains se sont succédé par vagues au-dessus de la Moselle, faisant d’énormes dégâts collatéraux. Si les populations civiles furent durement touchées, les dégâts matériels furent plus grands encore. Les dévastations sont généralisées dans la vallée de la Seille, entre Dieuze et Metz, et au nord d'une ligne Forbach-Bitche. 23 % des communes de la Moselle furent détruites à plus de 50 %, et 8 % des communes le furent à plus de 75 %. Dans la seule journée du , un total de bombardiers lourds B-17 et B-24 déversèrent tonnes de bombes, de à , sur les ouvrages fortifiés de la Moselstellung et les points stratégiques situés dans la zone de combat de la armée. Ce funeste ballet aérien ne prendra fin, au-dessus de la Moselle, qu’en , lorsque le département sera entièrement libéré. Droit local, concordat et « Eurodépartement ». À l'instar du Bas-Rhin et du Haut-Rhin, le département de la Moselle dispose depuis 1919 d'un droit local spécifique : le droit local Alsacien-Mosellan. Héritier à la fois de lois napoléoniennes et de lois allemandes de l'époque du "Reichsland Elsaß-Lothringen", ce dernier concerne notamment les cultes (concordat Alsacien-Mosellan), le remboursement des dépenses de santé, l'aide sociale, l'organisation de la justice, le notariat, le livre foncier, le droit communal, l'apprentissage, le droit du travail, des associations et de la chasse ; il donne également droit à deux jours fériés supplémentaires. À la suite d'un vote à l'unanimité par ses membres le , le conseil départemental mosellan s'engage dans la voie de transformer la Moselle en un « Eurodépartement » bénéficiant de compétences élargies. Ce projet peut se concrétiser si une révision constitutionnelle créant un « droit à la différenciation » est mis en place, ou bien si l'État reprend la voie suivie pour l'instauration de la collectivité européenne d'Alsace qui voit le jour en 2021. Économie. Pour développer l’économie locale, la Chambre de commerce et d'industrie de la Moselle a mis en place le site « Achat-Moselle » dans les années 2000. Achat-Moselle est une réponse concrète de la CCI de la Moselle, adaptée aux enjeux du commerce électronique pour le commerce de proximité. Ce dispositif leur permet aux professionnels du commerce du département de créer un site internet pour être visible sur ce canal et développer leur activité. Un projet labellisé « Meilleure pratique européenne » par la Commission européenne. Démographie. Les habitants de la Moselle sont les "Mosellans". Son chef-lieu est sa commune la plus peuplée, Metz ( en ), sa commune la moins peuplée est Molring ( en ). La Moselle est un département densément peuplé, dont le développement industriel a fait apparaître de nombreuses villes moyennes. Hormis Metz, principale ville possédant une très longue histoire, et dont l'agglomération s'étend de plus en plus loin le long de la Moselle, les autres grandes agglomérations sont Thionville et Forbach, qui doivent leur importance à la sidérurgie et à la houille. C'est ce qui explique aussi le recul de ces villes à partir des années 1970, avec la désindustrialisation. Thionville semble avoir réussi sa reconversion et retrouvé la croissance (la ville, ancienne possession luxembourgeoise, bénéficie de la proximité du Grand-Duché de Luxembourg, grand pourvoyeur d'emplois). L'ouest de son agglomération ainsi que l'agglomération de Forbach sont encore en déclin relatif. Entre ces grandes agglomérations s'est développé un réseau de villes secondaires, surtout dans le nord (Sarreguemines, Saint-Avold). Le sud du département, notamment le Saulnois, (qui fit autrefois partie de la Meurthe), est resté plus rural. La seule ville importante y est Sarrebourg. Environ quittèrent leur département entre 1825 et 1850. Cela principalement pour migrer vers les États-Unis et Paris. Après avoir connu une très forte croissance de sa population dans les années 1950 et 1960, passant de en 1946 à en 1968, la Moselle a connu un solde migratoire négatif, même si l'excédent naturel l'a compensé, de sorte que la population totale a continué à augmenter légèrement mais régulièrement, dépassant désormais le million d'habitants. Originalité du bilinguisme mosellan. Plusieurs langues sont utilisées en Moselle. Langues. Les principales sont : Historique : Le département de la Moselle ne constitue ainsi pas un ensemble culturel homogène, car à cheval sur ces deux régions linguistiques et culturelles qui composent la Lorraine administrative : la Lorraine thioise de langue francique lorraine ou Lorraine allemande, dite plus communément germanophone ou « de dialecte germanique », et la Lorraine francophone, dite « latine ou romane » et « de patois roman ». Une frontière linguistique coupe le département en deux parties quasi égales au : Metz et les « pays » de Moselle francophone se reconnaissent dans leurs confrères meurthe-et-mosellans et meusiens par la culture, l'architecture (excepté l'épisode marquant de l'annexion de Metz à l'Allemagne) et le patois (le patois de Nancy étant de la même famille que le patois messin, tous les deux étant des patois romans). La pseudo-frontière « culturelle » qui séparerait la Moselle romane de la Meurthe-et-Moselle n'est donc qu'un leurre issu de l'annexion de 1871. Les ethnologues et historiens tracent cette frontière linguistique à à l'est de Metz. La Moselle est ainsi un territoire administratif partagé entre deux cultures et traditions : l'une romane (avec un particularisme à Metz) et l'autre germanique ou autrement dit francique. On notera cependant les ravages de l'histoire : Nancy doit sa prospérité et notamment son université à l'annexion de Metz et de Strasbourg à l'Allemagne en 1871. Quatre fois, en l'espace de 75 ans, Metz perdit son élite et ses habitants les plus dynamiques. Cela eut un effet très négatif sur son développement. Un antagonisme virulent oppose encore les deux villes lorraines (cf les discussions sur la gare de Lorraine TGV). Il se trouve encore des Nancéiens pour traiter les Messins de « Boches » à cause de l'annexion, et des Messins pour traiter les Nancéiens de « Polonais » à cause du roi Stanislas Leszczynski. Les pays de Thionville, de Sarrebourg, de Boulay, de Saint-Avold, de Forbach, de Sarreguemines et de Bitche, quant à eux, ont une culture lorraine fortement influencée par les cultures, architectures et dialectes germaniques et partagent une proximité culturelle avec leurs voisins du Luxembourg, de la Sarre, du Palatinat et de l'Alsace. La frontière linguistique séparant les "deux Moselles" et les "deux Lorraines", à l'Est, est très nette. Ainsi, à l'Est de Courcelles-Chaussy, la commune de Raville est considérée comme dernier village de Moselle romane avant la Moselle germanophone. Puis on passe à Fouligny (anciennement "Fullinga" et "Filling") , commune signalée comme étant toujours germanophone dans les années 1990, ainsi qu'en 2012 où il persiste encore des habitants germanophones. Ensuite le prochain village est Marange-Zondrange, puis Zimming et enfin Bambiderstroff. Le changement de toponyme est radical. D'autre part, l'architecture du pays messin, marquée par des façades de pierre ocre (pierre de Jaumont) et de toit à pente relativement faible et propre au reste de la Lorraine romane, contraste très vite avec une architecture plus germanique. Les accents changent d'un village à l'autre. Ainsi les habitants de Servigny-lès-Raville ou de Herny, villages où l'on parlait le patois messin, n'ont pas l'accent germanique des habitants de Bambiderstroff et Mainvillers ("Maiwilla"), villages de dialecte francique (germanique) situé seulement quelques kilomètres plus loin. L'expression des anciens de Courcelles-Chaussy (pays messin) "Après Fouligny, révise ton allemand !" traduit bien la ténacité de cette frontière linguistique. Mais en réalité les communes situées le long de cette frontière étaient plus ou moins bilingues, comme Fouligny. Car les habitants de chaque côté de la frontière étaient plus ou moins amenés à avoir certaines relations communes, chose qui se remarque dans le vocabulaire des dialectes locaux. Au nord de Metz, la frontière linguistique est floue et a aujourd'hui, quasiment disparu pour se cantonner au niveau d'Algrange, qui est la commune la plus au sud-ouest de la zone germanophone de Thionville. il y a également les localités de Rédange, Russange et Nondkeil qui étaient germanophones au moins jusque dans les années 1980. Cette diversité reste un atout majeur pour ce département situé au cœur de l'Europe occidentale. Les vicissitudes de l'histoire et des affrontements divers ont, dans la modernité, abouti à une forme d'identité mosellane commune. Celle-ci fait aujourd'hui la part belle à la biculturalité, à un consensus autour d'une situation interculturelle très originale, entre deux grandes civilisations européennes. Francisation. Dans cette partie de la Moselle appelée la Moselle thioise ou allemande les suffixes -"ingen" des villages lorrains furent, au fil des siècles et par l'influence de la proximité avec le Royaume de France, francisé en -"ange". Ainsi "Morchingen" devint "Morhange" et "Hagendingen" devint "Hagondange". Ce phénomène s'observe également en Meurthe-et-Moselle (Bezange-la-Grande, Godbrange et Herserange), dans les Vosges (Relanges), en Belgique, au sud du Luxembourg, ainsi que dans quelques localités de Moselle germanophone proche de la frontière linguistique (alentours de la commune de Boulay-Moselle par exemple). "ange" étant la francisation la plus courante des -"ing" et -"ingen", il y a également d'autres cas, en -"in" : Lorquin, Reclin, Lidrequin, Chevalin; en -"ain" : Barchain; en -"gny" : Fouligny, Ibigny, Hattigny; en -"ey" : Foulcrey; en -"ay" : Donnelay; en -"ville" : Raville; en "-court" : Vaudoncourt, Vannecourt, Chicourt, Plappecourt, Holacourt, Gelucourt, etc. Même chose pour les toponymes en -"viller" qui sont restés orthographiés -"willer" (parfois -"weiller"), jusqu'à la fin du dans les Bulletin des lois de la république et les dictionnaires. La transcription choisie des toponymes est très corrélée avec le dialecte local. Ainsi, on retrouve les terminaisons en -ange, -ing, -troff, -dorff, -ach et -viller dans les localités où est historiquement parlé le francique lorrain (-house et -heim uniquement dans la zone du francique rhénan) ; celles en -y, -ey, -court, -ville et -villers sont pour la plupart situées dans la zone du lorrain roman. Voir : Culture. La vie culturelle mosellane est bien représentée dans le département par des festivals, parfois aussi bien issu du folklore local que d'une culture d'immigration dans les pays miniers. La Moselle-est conserve de nombreuses traditions locales comme les fêtes de la Kirb, célébrées en début octobre dans les milieux ruraux par des fêtes foraines et des repas festifs, ou la cavalcade de Sarreguemines le jour du Mardi gras. Du côté de Metz, le festival emblématique reste celui des fêtes de la Mirabelle fin août, mais se déroulent également des événements autour des arts et du spectacle, notamment durant l'été avec « HopHopHop » et la « journée Extra-Large », de plus en automne les scènes messines des Trinitaires et depuis 2014 de la BAM produisent deux séries de concerts à savoir « Musiques volantes » et « Metz en fête ». Dans l'ancien bassin minier, a lieu chaque année le festival du film arabe de Fameck en raison de l'importante communauté immigrée au . C'est en Moselle par ailleurs que se trouve le plus ancien théâtre de France, encore en activité. L'opéra-théâtre de Metz date en effet du et a depuis toujours gardé sa vocation d'origine. Outre l'opéra-théâtre, Metz est dotée d'une importante salle de spectacle, l'Arsenal où se représentent de nombreux artistes nationaux et internationaux de divers genres : aussi bien des humoristes que des orchestres symphoniques. La ville de Thionville quant à elle est dotée de l'organisme du NEST (Nord-Est Théâtre) qui regroupe le grand théâtre de la ville et un petit théâtre en bois et propose des productions théâtrales très diverses et souvent peu communes. Tourisme. le Conseil départemental de la Moselle a engagé une véritable politique de développement touristique dans le département. La réalisation de zones de loisirs, de structures d’hébergement (hôtels, gîtes…), ainsi que divers équipements touristiques et l’ouverture de sentiers de randonnée et de pistes cyclables ont permis d’accroître sensiblement la fréquentation touristique en Moselle. Aux côtés du Conseil départemental, l'Agence de développement et de réservation touristiques de la Moselle (Moselle Tourisme) est chargée de mettre en œuvre certaines actions de promotion, de commercialisation. Moselle Tourisme est membre du Réseau national des destinations départementales. De nombreux autres partenariats sont activés, en particulier avec les collectivités locales et les professionnels du tourisme. Moselle Tourisme est copropriétaire du Système d'information touristique - Lorraine (SITLOR), dont les objectifs sont la collecte de l'offre touristique régionale et sa diffusion auprès du grand public. Les résidences secondaires. Selon le recensement général de la population du , 1,8 % des logements disponibles dans le département étaient des résidences secondaires. Ce tableau indique les principales communes de la Moselle dont les résidences secondaires et occasionnelles dépassent 10 % des logements totaux. Sources : Média. Télévision. Les télévisions locales sont historiquement importantes en Moselle. On peut l'expliquer par la présence de la chaîne RTL TV dans les années 1990, dont la principale cible était la Lorraine, mais également par le fait que le département dispose d'un réseau câblé développé. Par conséquent, de nombreuses communes disposent d'un canal local. Il y a deux chaînes locales à rayonnement départemental, à savoir Moselle TV et France 3 Lorraine (édition locale de Metz), Mosaïk-Cristal qui diffuse sur l'arrondissement de Sarreguemines et TV8 Moselle-Est sur les secteurs de Forbach et Freyming-Merlebach. De nombreuses communes de plus petite taille disposent également d'un canal local, par exemple : Télévision locale en TNT. Historique. Le CSA a lancé le une consultation auprès des acteurs publics et privés concernés afin de recueillir leurs remarques en vue de la diffusion hertzienne en mode numérique de télévisions locales (TNT). Cette consultation avait également pour objet, dans le cadre de la préparation des futurs appels aux candidatures et de la planification en cours pour l'extension de la couverture de la TNT, de connaître les projets de télévisions locales existants ou en cours d'élaboration, en précisant la ou les zones concernées. Les contributions étaient attendues pour le . Ont répondu : TV8 Moselle, Communauté d'agglomération Forbach Porte de France, département de la Moselle, Canal local Mosaïk, TV2M, canal local TV Cristal à Bitche, canal local à Bischwiller, Communauté de communes Freyming-Merlebach. Problématique de l’isofréquence. Une seule et même chaîne, Moselle TV, existe sur le canal local TNT réservé sur le R1. Cette même chaine doit diffuser sur les émetteurs : Forbach, Longwy, Metz et Verdun (en Meuse) et couvre le département de la Moselle, le nord de la Meuse, le sud du Luxembourg, l'ouest de L'Allemagne. Le coût. Diffuser sur quatre émetteurs TNT plus les réémetteurs a un coût élevé, qui représente la totalité du budget d'une chaine locale existante. La durée des programmes. Les chaînes locales existantes produisent, diffusent et rediffusent en moyenne de programmes quotidiens. Cependant une syndicalisation des programmes permet l'échange entre chaînes de leurs émissions et de leurs reportages. Ainsi, les chaînes accroissent leur programmation mais les sujets échangés ne correspondent plus au bassin de population visé. Religions. Au en Moselle, les cultes catholique, israélite, protestant luthérien (ÉPCAAL) et protestant réformé (ÉPRAL) sont toujours officiellement reconnus et financés par l'état (application du droit local) : Le culte de l'Église de Jésus-Christ des saints des derniers jours, financièrement autonome, est représenté en Moselle avec deux paroisses : la paroisse de Metz et la paroisse de Forbach. L'enquête de l'INSEE de 1962 constate que la Moselle comptait 4,1 % de protestants pour 85,5 % de catholiques (avec une forte proportion de « non déclarés »). Patrimoine. Les orgues en Moselle. Avec 650 instruments répartis sur tout son territoire, la Moselle est le second département en France qui possède le plus grand nombre d’orgues. Trois facteurs d'orgues œuvraient déjà en terre mosellane au mais c'est au courant du que la Moselle compta jusqu'à 17 facteurs d'orgues différents qui bâtirent de précieux instruments sur son territoire. De nos jours, cinq facteurs d'orgues encore en activité continuent d'enrichir le département en instruments de qualité. L'orgue le plus ancien du département est celui de la cathédrale Saint-Étienne de Metz qui date de 1537. Les grandes orgues les plus importantes du département (et qui figurent aussi parmi les grandes orgues rurales les plus importantes de France) sont celles d'Hayange. Elles comportent 53 jeux. On note aussi des instruments plus modestes et historiques comme l'orgue personnel d'Albert Schweitzer qui est conservé à L'Hôpital au sein de la paroisse protestante. Afin de conserver ce patrimoine unique, le Conseil départemental de la Moselle a lancé un programme intitulé la « Route des Orgues » qui vise à restaurer, promouvoir et valoriser ces nombreux instruments souvent méconnus. Châteaux, maisons-fortes, manoirs, ferme-châteaux. Au Moyen Âge, il existe de nombreux châteaux, fermes et églises fortifiées en pays messin. Les grandes demeures féodales disparaissent avec la politique d’expansion territoriale vers l’est de Louis XIII et Louis XIV qui appliquent une politique de démantèlement et de destruction des édifices. La guerre de Trente Ans ruine une partie de la noblesse dont les possessions, vendues ou confisquées, sont attribuées à de nouveaux venus ou de récents anoblis. Le château du Schossberg, le château de Turquestein ou celui de Faulquemont sont rasés en 1634 sur ordre de Richelieu, les deux châteaux d’Audun-le-Tiche en 1675, de même pour Lixheim, Sarralbe, Sarrebourg et Sarreguemines. Après la guerre de Trente Ans, disparaissent dans l’indifférence générale : le château du Falkenstein, ruiné par les troupes de Mansfeld en 1623, celui de Thicourt, incendié en 1635, le château des évêques d’Albestroff, le château de Créhange et celui de Fontoy, détruit en 1643. Le château de Raville est reconstruit fin puis détruit à la Révolution. Le château de La Grange est reconstruit en 1731. À Hombourg-Haut, le château des évêques de Metz puis des ducs de Lorraine est entièrement détruit vers 1735. Le château de Château-Voué est partiellement détruit à partir de 1795. Le château médiéval d’Ottange, en partie détruit en 1671, fut entièrement démoli en 1734. Disparaissent également les châteaux d’Hingsange et de Guermange. Certains sont vendus comme bien nationaux à la Révolution : le château d’Imling en 1795, il est détruit peu après et sert de carrière de pierres ; le château de Frescaty à Moulins-lès-Metz, construit pour l’évêque de Metz, détruit en 1944, il sert aujourd’hui de terrain d’aviation à la ville de Metz. Certains châteaux du pays messin sont transformés en fermes comme à Ancerville ou le château-ferme de Prayelles à Augny. Les troubles des périodes de guerre retardent, à de rares exceptions près, l’apparition du classicisme en Moselle au , période de paix durant laquelle de nombreuses demeures sont remaniées ou reconstruites, en particulier par des officiers ou par des conseillers au parlement de Metz. À la fin de l’Ancien régime, dans les 250 maisons nobles — châteaux, maisons-fortes et manoirs —, existent en Moselle dont la moitié subsiste aujourd’hui. Les guerres de l’époque contemporaine détruiront les châteaux de Colombey, incendié après la guerre de 1870, de Lorry-Mardigny (une partie subsiste), Sailly-Achâtel, Albestroff, Louvigny, Amanvillers, Lorry-lès-Metz, Arry, Coin-sur-Seille, Corny, Sillegny, Verny, Maizières victimes de la Seconde Guerre mondiale. Après les conflits, certains propriétaires préfèrent démolir plutôt que financer une réhabilitation ; les bâtiments abandonnés sont victimes du vandalisme. Le château d’Hayange, symbole de la famille de Wendel, est en partie démoli en 1935. Le château de Montois-la-Montagne est rasé vers 1950 au profit d’une cantine ouvrière. Le château de Reinange est rasé vers 1958-1960. Les châteaux de Florange, Francaltroff et Distroff sont aussi en ruine. Certains chefs-d’œuvre du patrimoine architectural en péril sont restaurés à grand frais par les collectivités : le château de Malbrouck (originellement Schloss Meinsberg) ou le château de Courcelles. D’autres sont fidèlement entretenus par des familles respectueuses de la demeure ancestrale comme au château de Pange ou par une noblesse de cœur ayant envie de redonner une âme à ces monuments : Pouilly, Les Étangs, Mardigny ou le château de Landonvillers. Plusieurs sites sont en cours de sauvetage, par des associations ou autres initiatives, comme le château Saint-Sixte en restauration depuis 2007. Le parc du château de Mercy sert de terrain pour la construction du nouvel hôpital au sud-est de Metz prévu pour 2012. Plusieurs châteaux et ruines subsistent dans le Pays de Sarrebourg : une partie des fortifications médiévales de Sarrebourg, le château de Lutzelbourg et le château de Turquestein dans le massif des Vosges, le château de Fénétrange, le château de Geroldseck à Niederstinzel, le château du Sarreck à Oberstinzel ou encore le château de Réchicourt. Le centre Pompidou-Metz. Inauguré le , ce bâtiment situé dans le centre-ville de Metz attire de nombreux visiteurs. Il accueille des expositions artistiques. Il est composé de superposées en forme de pavés sortant de son toit blanc aux formes rondes, d'où dépasse un mât. U4 Uckange. Ouvert au public en 2007, le Haut Fourneau U4 de Uckange devient un espace dédié à la mémoire du passé sidérurgique de la France. Dès 2010, le Jardin des Traces s'étend sur 4 hectares au pied des infrastructures et par différents espaces à thèmes, il rend hommage aux installations et aux hommes et femmes qui les ont fait vivre pendant les 100 ans qu'a duré l'exploitation. Fondée en 1890, l'usine cesse sa production de fonte le . Un lieu atypique proposant visites libres ou guidées ainsi que de nombreuses animations. Vins de Moselle. Dans l'antiquité, le poète latin Ausone célèbre souvent la table et surtout, le vin, le vin de Bordeaux dont le château Ausone prendra le nom, mais aussi les vins de Moselle. Jacques Brel chantera également bien plus tard le vin de Moselle dans la chanson "Jef". La Moselle fut très longtemps une terre de vignobles ( Vignoble de Lorraine). L’irruption du phylloxéra à la fin du , puis la signature de l’Armistice de 1918 qui sonna le glas des débouchés sur le marché allemand, ont provoqué un déclin certain de la vigne en terre mosellane. Néanmoins les coteaux mosellans continuent de produire un vin de qualité. Depuis 2010, le moselle est un AOC. Identité visuelle. Héraldique. Le conseil départemental de la Moselle a adopté, le , un blason complexe, retraçant la formation du département : Durant le Second Empire, le département de la Moselle portait : « écartelé, au : parti d'argent et de sable (Metz) ; au : d'or à trois pals alésés et fichés de gueules (Briey) ; au : d'or à la bande de gueules chargée de trois alérions d'argent (Sarreguemines au ) et au : d'azur au château donjonné de trois tourelles d'or, celle du milieu plus haute, le tout maçonné de sable (Thionville) ». |
Mathématique |
Musique La musique est un art et une activité culturelle consistant à combiner sons et silences au cours du temps. Les paramètres principaux sont le rythme (façon de combiner les sons dans le temps), la hauteur (combinaison dans les fréquences), les nuances et le timbre. Elle est aujourd'hui considérée comme une forme de poésie moderne. La musique donne lieu à des créations (des œuvres d'art créées par des compositeurs), des représentations. Elle utilise généralement certaines règles ou systèmes de composition, des plus simples aux plus complexes (souvent les notes de musique, les gammes et autres). Elle peut utiliser des objets divers, le corps, la voix, mais aussi des instruments de musique spécialement conçus, et de plus en plus tous les sons (concrets, de synthèses, abstraits). La musique a existé dans toutes les sociétés humaines, depuis la Préhistoire. Elle est à la fois forme d'expression individuelle (notamment l'expression des sentiments), source de rassemblement collectif et de plaisir (fête, chant, danse) et symbole d'une communauté culturelle, nationale (hymne national, musique traditionnelle, musique folklorique, musique militaire) ou spirituelle (musique religieuse). Origine. Bien que la musique soit une caractéristique universelle de la culture humaine, peu de choses sur ses origines et ses fonctions sont établies. La musique pourrait avoir une origine commune avec la parole. Ce concept est nommé le musilangage et propose que le chant et la parole ont servi de première forme de communication aux ancêtres des humains. Charles Darwin et Herbert Spencer ont les premiers proposé une origine évolutive à la musique. Darwin a suggéré notamment que la musique a permis la communication d'émotions et a servi dans les mécanismes de séduction d'une manière similaire au chant des oiseaux. La musique aurait pu donc évoluer comme un signal de qualité génétique pour les compagnons potentiels. Cependant, si cette hypothèse est communément admise chez les oiseaux, il reste en 2015, difficile de trouver des preuves concrètes pour confirmer cette hypothèse chez l'homme. L’origine de la musique est notamment le sujet d'étude de la . Histoire. L'histoire de la musique est une matière particulièrement riche et complexe, principalement du fait de ses caractéristiques : la difficulté tient d'abord à l'ancienneté de la musique, phénomène universel remontant à la Préhistoire, qui a donné lieu à la formation de traditions qui se sont développées séparément à travers le monde sur des millénaires. Les premiers instruments représentés sur des peintures rupestres incluent l'arc musical, et attestent de leur utilisation, il y a plus de 13 000 ans. Dans la grotte de Hohle Fels, une flûte en os datée de 35 000 ans avant notre ère a été retrouvée. Un autre type d'instrument primitif est le Rhombe. Il y a donc une multitude de très longues histoires de la musique selon les cultures et civilisations. La musique occidentale (musique classique ou pop-rock au sens très large) ne prennent qu'au l'allure de référence internationale, et encore très partiellement. La difficulté vient également de la diversité des formes de musique au sein d'une même civilisation : musique savante, musique de l'élite, musique officielle, musique religieuse, musique populaire. Cela va de formes très élaborées à des formes populaires comme les berceuses. Un patrimoine culturel d'une diversité particulièrement large, contrairement à d'autres arts pratiqués de manière plus restreinte ou élitiste (littérature, théâtre…). Enfin, avec la musique, art de l'instant, se pose la question particulière des sources : l'absence de système de notation d'une partie de la musique mondiale, empêche de réellement connaître l'étendue de la musique du temps passé, la tradition n'en ayant probablement sauvé qu'un nombre limité. La réalisation d'une synthèse universelle apparaît très difficile car beaucoup d'histoires de la musique traitent essentiellement de l'histoire de la musique occidentale. Il n'est en général possible que de se référer aux ouvrages et articles spécialisés par civilisation ou par genre de musique. Approches définitoires. Intrinsèque et extrinsèque. Il existe alors deux « méthodes » pour définir la musique : l’approche intrinsèque (immanente) et l’approche extrinsèque (fonctionnelle). Dans l'approche intrinsèque, la musique existe chez le compositeur avant même d’être entendue ; elle peut même avoir une existence par elle-même, dans la nature et par nature (la musique de la rivière, des oiseaux…, qui n'a aucun besoin d'intervention humaine). Dans l'approche extrinsèque, la musique est une fonction projetée, une perception, sociologique par nature. Elle a tous les sens et au-delà, mais n'est perçue que dans un seul : la musique des oiseaux n'est musique que par la qualification que l'on veut bien lui donner. L'idée que l'être est musique est ancienne et semble dater des pythagoriciens selon Aristote. Dans la "Métaphysique" il dit : . Il est à noter que la définition de la science des sons par les pythagoriciens est « une combinaison harmonique des contraires, l'unification des multiples et l'accord des opposés ». La science des sons est une des quatre sciences de la mesure, supérieure aux mathématiques car elle s'appuie sur la justesse, si vous essayez de terminer l'opération de diviser 10 par 3 en mathématiques vous ne pouvez terminer cette opération alors que le temps musical le permet. Les deux sciences sensibles de la mesure que sont la musique et l'astronomie ont été laissées de côté à l'époque de Platon pour ne conserver que les deux sciences techniques de la mesure que sont l'arithmétique et la géométrie. Il est bon de se rappeler qu'au départ la science des sons était éthique et médicale et servait à calmer les passions humaines et à remettre les facultés de l'âme à leur juste place, dixit Pythagore, et lorsque cette expérience était réalisée vous étiez capable d'être vous-même et de là d'acquérir les savoir-faire comme dans une sorte d'accordage de l'être humain qui vise à laisser s'exprimer la résonance universelle de la sagesse. Anthropocentrisme. Cette définition intègre l'homme à chaque bout de la chaîne. La musique est conçue et reçue par une personne ou un groupe (anthropologique). La définition de la musique, comme de tout art, passe alors par la définition d'une certaine forme de communication entre les individus. La musique est souvent jugée proche du langage (bien qu'elle ne réponde pas à la définition ontologique du langage), communication universelle susceptible d'être entendue par tous et chacun, mais réellement comprise uniquement par quelques-uns. Boris de Schlœzer, dans "Problèmes de la musique moderne" (1959), dit ainsi : . Compétence « biologique » ou « culturelle » ? La musique est généralement considérée comme un pur artefact culturel. Certains "prodiges" semblent néanmoins disposer d'un don inné. Les neuropsychologues cherchent donc à caractériser les spécificités des capacités musicales. Le caractère plus ou moins inné des talents artistiques est scientifiquement discuté. Pour beaucoup, la musique serait propre à l'humain et ne relèverait que peu de la biologie, si ce n'est par le fait qu'elle mobilise fortement l'ouïe. Un débat existe pourtant sur le caractère inné ou acquis d'une partie de la compétence musicale chez l'Homme, et sur le caractère adaptatif ou non de cette « compétence ». Compétence « culturelle » ? Plusieurs arguments évoquent une origine et des fonctions culturelles ou essentiellement socio-culturelles. De nombreux animaux chantent instinctivement, mais avec peu de créativité, et ils semblent peu réceptifs à la musique produite par les humains. Une rythmique du « langage » et du chant existe respectivement chez les primates et chez les oiseaux, mais avec peu de créativité. Chez l'humain, le chant et le langage semblent relever de compétences cérébrales en partie différentes. L'alphabet morse est une sorte de code « musical » qui a un sens (caché pour celui qui ignore le code). C'est clairement un artefact culturel (personne ne naît en comprenant le morse, car ni sa production ni son interprétation ne sont inscrites dans nos gènes). Chez l'homme, la voix, le langage et la capacité à interpréter un chant évolue beaucoup avec l'âge, ce qui évoque un lien avec l'apprentissage. Enfin, la musique n'est pratiquée « à haut niveau » que par quelques individus, et souvent après un long apprentissage ; ceci évoque une origine culturelle, ce que les ethnomusicologues et les compositeurs contemporains ont longtemps renforcé. Mais il existe des exceptions, et l'exploration du fonctionnement du cerveau questionne ce point de vue. Compétence « biologique » ? Les neuropsychologues ont dès le début du mis en évidence une composante génétique à certains troubles de l'élocution. Ils ont aussi démontré que certaines structures du cerveau (aires cérébrales frontales inférieures pour l'apprentissage de la tonalité, et l'hémisphère droit notamment) dont l'intégrité est indispensable à la perception musicale, révèlent l'existence d'un substrat biologique. Ce substrat neuronal peut d'ailleurs être surdéveloppé chez les aveugles (de naissance ou ayant précocement perdu la vue) ou être sous-développé chez les sourds. Certains auteurs estiment que tout humain a une compétence musicale. Ceci ne permet cependant pas d'affirmer que la compétence musicale est biologiquement acquise. La musique, ou plus exactement la « capacité musicale », la « dysmélodie » et l"'amusie congénitale" (incapacité à distinguer les fausses notes, associée à une difficulté à faire de la musique, ou à « recevoir » la musique), qui toucherait 4 % des humains selon Kalmus et Fry (1980), ou les émotions suscitées par la musique évoquent une composante biologique importante, notamment étudiée par le Laboratoire international de Recherche sur le Cerveau, la Musique et le Son (BRAMS) de l'Université de Montréal. Des études pluridisciplinaires associant la musicologie à la génétique et aux recherches comportementales et comparatives permettraient de préciser les liens entre musique et fonctions cérébrales en neurosciences. La pratique de la musique semble être un « fait culturel » très ancien, mais 96 % des humains présentent des capacités musicales jugées « spontanées » par les neuropsychologues. Au-delà des aspects neurologiques de l'émission et de l'audition de la voix et du chant, le cerveau animal (des mammifères et oiseaux notamment) montre des compétences innées en termes de rythme, notamment utilisées pour le langage. La musique et la danse ont des aspects fortement transculturels ; elles semblent universellement appréciées au sein de l'humanité, depuis au moins d'après les instruments découverts par l'archéologie, et la musique d'une culture peut être appréciée d'une autre culture dont le langage est très différent. L'imagerie cérébrale montre que la musique active certaines zones de plaisir du cerveau et presque tous les humains peuvent presque spontanément chanter et danser sur de la musique, ce qui peut évoquer des bases biologiques et encourager une "biomusicologie". La mémorisation ou la production d'une mélodie semblent mobiliser des réseaux neuronaux particuliers. Compétence adaptative ? La musique aurait-elle une fonction biologique particulière ? ... même si elle ne semble pas avoir une utilité claire en tant que réponse adaptative (tout comme la danse qui lui est souvent associée). Quelques auteurs comme Wallin estiment que la danse et la musique pourrait avoir une valeur adaptative en cimentant socialement les groupes humains, via la « contagion émotionnelle » que permet la musique. Les résultats de l'étude de la compétence musicale du bébé et du jeune enfant (ex : chantonnement spontané), et de l'émotion musicale et du « cerveau musical » dans le cerveau, apportent des données nouvelles. Hauser et McDermott en 2003 évoquent une « origine animale » à la musique, mais Peretz et Lidji en 2006 proposent un point de vue intermédiaire : il existe une composante biologique, mais . Si la musique produit des effets sur les groupes, c'est parce que dès qu’on entend une mélodie, on peut s’y associer. Les muscles s’activeraient pour que l’on puisse se mettre à chanter ou à danser comme les autres. Ainsi, le rythme d’une mélodie servirait de ciment social en tissant un lien physique. D’ailleurs, la musique stimule des régions du cerveau dédiées à la perception du lien social. Il s’agit notamment du sillon temporal supérieur, une région du cortex cérébral localisée près des tempes, et qui s’active par exemple quand on observe les mouvements des yeux d’une personne, ou que l’on est sensible au ton de sa voix (et non à la signification des mots qu’elle prononce). En 2008, Nikolaus Steinbeis, de l’Institut Max Planck pour la cognition humaine et les sciences du cerveau, et Stefan Koelsch, de l’Université de Sussex en Grande-Bretagne, ont montré que cette zone « sociale » s’active chez des personnes écoutant des accords musicaux. Tout se passe comme si, en entendant de la musique, notre cerveau se tournait vers l’autre. La musique contribuerait à tisser des liens sociaux ; les hymnes le font à l’échelle des nations, les groupes de rock à celle des communautés d’adolescents, les comptines entre parents et enfants. La musique pourrait aussi avoir une base biologique forte, mais en quelque sorte résulter des hasards de l'évolution et n'avoir aucune fonction adaptative ; c'est une possibilité retenue en 1979 par Gould et Lewontin. Moyen d'expression. Selon Claude Debussy, . Mais pour Saint-Saëns, . Pour Stravinsky, . Tautologique. Selon cette définition, la musique est l’« art des sons » et englobe toute construction artistique destinée à être perçue par l’ouïe. Œuvre musicale. Œuvre en tant que travail produit par l'artiste. Parmi les œuvres musicales on distingue la composition musicale, produite avant son interprétation, et l'improvisation musicale, conçue au moment où le musicien la joue. Ces deux techniques suivent les règles de l'écriture musicale. La transcription musicale consiste à adapter une œuvre à un autre medium. Œuvre en tant qu'exécution reçue par l'auditeur. La musique, comme art allographique, passe par l'œuvre musicale. Chacune est un objet intentionnel dont l'unité et l'identité est réalisée par ses temps, espace, mouvement et forme musicaux, comme l'écrit Roman Ingarden. Objet de perception esthétique, l'œuvre est certes d'essence idéale, mais son existence hétéronome se concrétise par son exécution devant un public, ou par son enregistrement, y compris sa numérisation. Comme toute œuvre, l'œuvre musicale existe avant d'être reçue, et elle continue d'exister après. On peut donc s'interroger sur ce qui fait sa pérennité : combien d'œuvres survivent réellement à leurs compositeurs ? Et sont-elles vraiment toutes le reflet de son style, de son art ? On entend surtout par œuvre musicale le projet particulier d'une réalisation musicale. Mais cette réalisation peut être décidée par l'écoute qu'en fait chaque auditeur avec sa culture, sa mémoire, ses sentiments particuliers à cet instant précis autant que par la partition, transcription qui ne comporte pas toute la musique. À partir de la Renaissance et jusqu'au début du , l'unique support de la musique a été la partition de musique. Cette intrusion de l'écrit a été l'élément-clé de la construction de la polyphonie et de l'harmonie dans la musique savante. La partition reste unie au nom du ou des musiciens qui l'ont composée ou enregistrée. Certaines œuvres peuvent être collectives, d'autres restent anonymes. Depuis la généralisation des moyens techniques d'enregistrement du son, l'œuvre peut également s'identifier à son support : l'album de musique, la bande magnétique ou à une simple calligraphie de la représentation du geste musical propre à transcrire l'œuvre du compositeur. L'informatique musicale a fait évoluer encore cette notion d'œuvre, puisqu'à présent un logiciel est susceptible d'engendrer « automatiquement » une œuvre musicale, ou de produire des sons auxquels l'interprète pourra réagir. Formalisme et fonctionnalités. Formalisme. Dans son essai sur les « célibataires de l'art », Jean-Marie Schaeffer estime que, dans l’art moderne (et "a fortiori" dans l’art technologique du ), la question-clé : « Qu’est-ce que l’art ? » ou « Quand y a-t-il art ? » s’est progressivement transformée en : « Comment l’art fonctionne-t-il ? ». En musique, ce déplacement d’objet a posé le problème des éléments que l’on peut distinguer "a priori" dans l’écoute structurelle d’une œuvre. En 1945 apparurent les premières formes d'informatique, et en 1957 on a assisté, avec l’arrivée de l'électronique musicale, à un point de bifurcation. D'abord une nouvelle représentation du sonore qui, bien que difficile à maîtriser, a en fait ouvert des perspectives nouvelles. Ensuite, ces techniques ont remis en cause certaines réflexions théoriques sur la formalisation de la pensée créatrice, renvoyant le compositeur à la confrontation, essentielle dans sa démarche, entre un formalisme abstrait et l’élaboration d’un matériau fonctionnel. La transition vers l’atonalité a détruit les hiérarchies fonctionnelles et transformé le rôle tenu par les fonctions tonales, élaboré depuis Monteverdi. De fait, la logique des formes musicales est donc devenue surtout une logique fonctionnelle, dans la mesure où elle permet de maintenir la cohésion de l'œuvre, même si les éléments de composition sont multiples (éléments rythmiques, contrapuntiques, harmoniques). La notion de processus compositionnel, a permis de passer de la vision statique de l’objet musical (celui que l’on peut répertorier, et qui cesserait de vivre en entrant dans le patrimoine) à une vision dynamique. Cette vision est évolutive, ce que ne prenaient pas en considération les théories fondées sur la GestaltPsychologie qui figent la pensée dans des images accumulées dans la mémoire. Le processus musical est plus que la structure : il est en effet une forme dynamique, un devenir. Ce devenir est marqué par l’empreinte du sonore, c’est-à-dire par un matériau musical, et pas uniquement par l’outil ou par la théorie. À partir de la théorie de la communication de Shannon et Weaver, d'autres définitions insistent plus sur les moyens de réception que sur la chaîne de production de la musique. Fonctionnalités. L'utilisation de musique dans d'autres œuvres (qui sont donc des œuvres de collaboration tel qu'un film, un dessin animé, un conte musical ou un documentaire) pose la question des fonctionnalités de la musique, en particulier dans les contenus audiovisuels. La musique remplit des fonctions lorsqu’elle est utilisée (ou incorporée, synchronisée). La musicologue polonaise Zofia Lissa présente douze fonctions principales, la plupart n’étant pas mutuellement exclusives. Elle cherche à en comprendre la façon dont la musique est utilisée dans les films et l'effet qu'elle produit : par exemple la fonction de Leitmotiv qui contribue à tracer la structure formelle d'un film : description des personnages, des atmosphères, des environnements, ou encore la fonction d'anticipation d'une action subséquente. Plus largement, se pose la question des fonctionnalités de la musique dans un ensemble audiovisuel (qui peut être un flux radiophonique ou un flux télévisuel composé de contenus qui se succèdent sans interruption). Dans un tel contexte, la musique (sous la forme d'un indicatif d'émission, d'un jingle, etc.) remplit pour les diffuseurs diverses fonctions. Elle peut agir comme un élément d’accroche pertinente et capter une attention par sa capacité à séduire ou à émouvoir ou encore à annoncer. Mario d'Angelo, en s'appuyant doublement sur une compréhension des finalités recherchées du côté de l'offre (par les concepteurs des contenus audiovisuels et du flux télévisuel) et des finalités perçues du côté de la réception (par les téléspectateurs), retient six fonctions : mnémonique, identitaire, émotionnelle, esthétique, didactique et narrative ; elles ne sont pas mutuellement exclusives. Technique. Art du temps. Le temps gouverne la musique comme il gouverne la perception du son : depuis le micro-temps, qui est l'échelle de la vibration sonore car le son est une mise en vibration de l'air, jusqu'à la forme musicale, construction dans un temps de l'écoute. Comme la forme musicale ne nous est révélée qu’au fur et à mesure, chaque instant est en puissance un moment d’avenir, une projection dans l’inconnu. C’est le sens du titre d’une œuvre d’Henri Dutilleux qui propose de nous plonger dans le « mystère de l’instant ». Le théologien suisse Hans Urs von Balthasar livre cette métaphore judicieusement musicale de la condition humaine : « Faites donc confiance au temps. Le temps c’est de la musique ; et le domaine d’où elle émane, c’est l’avenir. Mesure après mesure, la symphonie s’engendre elle-même, naissant miraculeusement d’une réserve de durée inépuisable ». Composantes. Dans cette composante temporelle, la musique peut se déployer selon trois dimensions fondamentales : Selon les genres musicaux, l'une ou l'autre de ces trois dimensions pourra prédominer : Dimensions sonores et son. Grâce au développement des recherches de l'acoustique musicale et de la psychoacoustique, le son musical se définit à partir de ses composantes timbrales et des paramètres psychoacoustiques qui entrent en jeu dans sa perception. D'objet sonore, matériau brut que le musicien doit travailler, ce matériau devient objet musical ; la musique permet de passer à une dimension artistique qui métamorphose le « donné à entendre ». Le silence n'est plus « absence de son ». Même le fameux "4′33″" de John Cage, est un « donné à entendre ». Mais ce « donné à entendre » englobe désormais un matériau de plus en plus large. Depuis le début du , cet élargissement s’opère vers l’intégration des qualités intrinsèques de notre environnement sonore (concerts bruitistes, introduction des sirènes chez Varèse, catalogues d’oiseaux de Messiaen). Comment distinguer alors bruit et signal, comment distinguer ordre et désordre, création musicale et nuisance sonore ? Le bruit, c’est uniquement ce qu’on ne veut pas transmettre et qui s’insinue malgré nous dans le message ; en lui-même il n’a aucune différence de structure avec un signal utile. On ne peut plus distinguer comme auparavant le son purement musical et le bruit. Avec l’élaboration d’une formalisation par nature des fonctions du bruit, les sons inharmoniques (apériodiques) qui liés à la vie courante participent désormais, dans l’intégration du sonore, à la construction musicale. Tous les éléments de notre environnement sonore contiennent une certaine part de bruit, qui a vocation de devenir fonction structurante par destination. L’ensemble de ces bouleversements conceptuels accompagne les découvertes scientifiques et techniques qui permirent de développer des factures instrumentales nouvelles (notamment avec l'électronique). L’instrument de musique primitif se voulait représentation des sons naturels (le vent dans les arbres se retrouvant dans le son de la flûte, le chant des oiseaux dans celui de l’homme…). À cette condition, il était le seul capable de traduire le musical (d’opérer une distinction entre sons harmoniques et bruits). L’extension des techniques aidant, la notion même d’instrument s’est trouvée redéfinie… . La machine et l’instrument se sont rejoints. Ce que les hommes acceptent de reconnaître comme musical correspond désormais à une appropriation d’un matériau sonore étendu, à une intégration de phénomènes jusqu’alors considérés comme bruits. Intrusion de l’aléatoire. Avec la composition assistée par ordinateur, première expérimentation musicale à utiliser l’ordinateur, les théories musicales se sont tour à tour préoccupées d’infléchir ou de laisser l’initiative à la machine, et, parallèlement, de libérer totalement l’homme de certaines tâches de régulation ou de lui laisser une part importante de création. La problématique oscille ainsi, de façon quasi paradoxale mais finalement foncièrement dialectique, entre déterminisme et aléatoire, entre aléa et logique, entre hasard et nécessité. Le formalisme aléatoire (mathématisé) « calcule » sans qu’il n’empiète sur les atouts sensibles du compositeur. Les objets mathématiques qui se sont développés créent véritablement un intermédiaire vers des paradigmes esthétiques que l’expérimentation musicale essaie petit à petit de mettre à jour, intermédiaire qui se situerait entre un ordre régulier, périodique, et un chaos incontrôlé, aléatoire et singulier. Hiller, le père de la composition assistée par ordinateur, sans juger qui pourrait effectuer les compromis, considérait déjà que « la musique est un compromis, voire une médiation, entre la monotonie et le chaos ». Artistiquement, à la théorie de l'information de Shannon répond la théorie de l’indétermination de John Cage (l’information est maximale donc nulle). En 1951, Cage et Feldman s’en remirent à l’aléatoire codifié du "I Ching" pour bâtir leur œuvre "Music of Changes". Cette œuvre, qui brise les carcans de la notion traditionnelle d’œuvre musicale, sert de manifeste artistique au concept de l’indétermination. Cage introduit subrepticement le hasard dans la composition dans un sens plus combinatoire. "Music of Changes" laisse place à l’aléa contre la logique en réhabilitant le pouvoir créateur de l’expérience divinatoire, le pouvoir de la création par le hasard. John Cage, Morton Feldman et Earle Brown utilisaient aussi un hasard codifié, l’aléatoire du "I Ching", livre de divination chinois qui laisse entrevoir un certain nombre de combinaisons par pentagrammes. Le hasard est sublimé par le destin dans une prédication divinatoire (Concerto pour piano (1957)). Puis, chez Cage les théories devenant paroxystiques, il prône la raréfaction de la musique jusqu’au total aléa (4’33’’) : l’écoute est focalisée vers des objets sonores qui n’ont pas été directement prévus pour cela. Peu de critiques ont pu abonder dans son sens, déplorant que ces théories ne servent qu’à la justification d’un « coup » médiatique. Musique algorithmique. Pour tenter de réduire la proportion de hasard fatalement confiée à la technique, la machine fut utilisée par la suite pour ses fonctions de contrôle de l’automation qui assure un enchaînement continu d’opérations mathématiques et logiques. Pierre Barbaud débuta dans cet esprit ses travaux sur la composition « automatique » et mit au point avec Roger Blanchard en 1959 le programme ALGOM I-5 pour l’ordinateur "Gamma" 60 du Centre de calcul électronique de la compagnie Bull à Paris. Musique stochastique. Cette mathématisation accrue des possibles continua à être prise en compte mais en essayant de reprendre à la machine la part de responsabilité qu’elle avait conquise. Dès 1954, Iannis Xenakis avait créé son opus un, "Metastasis" pour 61 instruments ; c’est la première musique entièrement déduite de règles et de procédures mathématiques. Pour son créateur, il s’agit de mettre en pratique une relation directe entre musique et architecture, combinaison certes peu commune mais qui pour l’assistant de Le Corbusier va de soi. Il la mettra à profit en utilisant les mêmes règles de construction dans l’élaboration des plans du pavillon Philips pour l’exposition universelle et internationale de Bruxelles en 1958 (pavillon où seront jouées dans un même concert les créations des œuvres de Varèse ("Poèmes électroniques") et de Xenakis ("Concret PH")). En 1956 est publiée une théorisation de la musique stochastique qui s’appuie entre autres sur la théorie des jeux de von Neumann. Le hasard n’y est déjà plus une simple chance ; contrairement à la troisième sonate de Pierre Boulez ou aux autres œuvres « ouvertes », contrairement à Cage, et à sa démission de compositeur, la probabilité est entièrement calculée et les règles sont explicitées ("Achorripsis" ou "ST/10-1" en 1961). Le processus global est prévisible, même si les évènements qui le composent sont aléatoires. Par cette philosophie de la création, Xenakis essaie de se rapprocher des phénomènes biologiques et des événements du monde vivant. Notation, théorie et système. Un « système musical » est un ensemble de règles et d'usages attachés à un genre musical donné. On parle parfois de « théorie musicale ». La conception de la musique comme système peut aller très loin, et les anciens Grecs comptaient la musique comme une des composantes des mathématiques, à l'égal de l'arithmétique, de la géométrie et de l'astronomie. Voir l'article « Harmonie des sphères ». Plus près de nous, Rameau dans son "Dictionnaire de la Musique" arrive à considérer la musique comme étant à la base des mathématiques. Certaines musiques possèdent en outre un "système de notation". La musique occidentale, avec son solfège, en est un exemple notoire. Dans ce cas, il est difficile de séparer le système musical du système de notation qui lui est associé. Certaines musiques traditionnelles sont uniquement de transmission orale, et développent des systèmes musicaux différents. Signes musicaux. En occident, la musique s'écrit avec des signes : les notes de musique, les clés, les silences, les altérations Les notes de musique s'écrivent sur une portée, composée de 5 lignes parallèles. La portée comporte aussi des barres verticales. L'espace entre deux barres de mesure est une mesure. Il existe aussi des doubles barres. Les sept notes de musique sont : do (ou ut), ré, mi, fa, sol, la et si. Les notes s'écrivent sur la portée ou sur des lignes supplémentaires placées au-dessus ou en dessous de la portée. La portée va du plus grave (en bas) au plus aigu (en haut). Une même note peut être jouée de façon plus ou moins grave ou aiguë. Une octave est la distance qui sépare deux notes identiques, plus ou moins graves. Il existe de très nombreux signes musicaux pour indiquer la durée d'une note. En particulier : Les silences sont les moments du morceau de musique sans son. Il existe sept figures de silence : la pause, la demi-pause, le soupir, le demi-soupir, le quart de soupir, le huitième de soupir, le seizième de soupir. Les clés indiquent la base de départ de la lecture de la partition. Il existe trois clés : la clé de sol, la clé de fa et la clé d'ut. Les altérations modifient le son d'une note pour le rendre plus grave ou plus aigu. Il existe trois altérations : Il existe également des double-dièse et des double-bémol. Si l'altération concerne la ligne entière, elle est placée près de la clé et s'appelle armure. Si elle ne concerne qu'une note (ou toute note identique suivant la note modifiée dans la mesure), elle est placée juste avant la note. Gammes. Une succession de notes voisines (ou conjointes) forme une gamme. Celle-ci est donc une succession de sons ascendants (de plus grave au plus aigu) ou descendants (du plus aigu au plus grave). Lorsqu'elle respecte la loi de la tonalité, il s'agit d'une gamme diatonique. Une succession de notes qui ne sont pas voisines (ou disjointes) forme un arpège, un arpège est souvent le jeu égrainé d'un accord du plus aigu au plus grave ou l'inverse. Dans la musique occidentale, les notes de la gamme (également appelées des degrés) sont séparées par des tons ou des demi-tons. On distingue les demi-tons diatoniques situés entre deux notes de nom différent et demi-tons chromatiques situés entre deux notes de même nom mais altérées par un dièse ou un bémol. La gamme chromatique comprend tons et demi-tons, tandis que la gamme diatonique ne contient que les tons. Les notes sont séparés par des intervalles : lorsque les notes sont voisines, par exemple do et ré, l'intervalle est dit de deux degrés ou seconde. On parle ensuite, par éloignement croissant entre les notes, de tierce, quarte, quinte, sixte, septième et octave (intervalle de huit degrés). Comme il existe sept notes de musique dans une gamme diatonique, l'octave, qui relie 8 degrés, relie deux notes de même nom, mais de hauteur différente (on dit que la note est plus aiguë ou plus grave d'une octave). Au-delà de l'octave, on parle d'intervalle redoublé (on parle de neuvième, de dixième...). Par défaut, on considère que l'intervalle est ascendant (il va du grave à l'aigu) sauf si le contraire est indiqué. L'intervalle peut en effet être renversé. Les différents types d'intervalle sont également appelés mineur, majeur, juste. Ils sont alors dits diminués ou augmentés. Mesure. La mesure est la manière d'ordonner les notes et les silences. La mesure se lit sur la portée par la barre de mesure (verticale). Toutes les mesures doivent avoir une durée égale. La double barre de mesure indique la fin d'un morceau, la césure indique la fin d'une partie et la simple double barre indique un changement d'armure de la clé ou un changement de manière de compter les mesures lors d'un changement de mesure. Certains temps sont dits temps fort et d'autres temps faible. La mesure se subdivise en deux, trois ou quatre temps. La mesure d'un morceau est annoncée par deux chiffres superposés après une double barre. Le chiffre supérieur indique le nombre de temps dans la mesure et le chiffre inférieur indique la durée allouée à chaque temps. On distingue : Le rythme est la manière dont sont ordonnées les durées (c'est-à-dire les notes et les silences). On distingue : Le mouvement est la vitesse d'exécution du morceau de musique. Il est indiqué par un mot placé au début du morceau. Du plus lent au plus vif (rapide), les principaux mouvements sont : "Largo", "Lento", "Adagio", "Andante", "Andantino", "Moderato", "Allegretto", "Allegro", "Presto". Mais il en existe des dizaines d'autres. Instruments. La musique peut être réalisée avec des objets de la nature (bout de bois par exemple) ou de la vie quotidienne (verres à eau et couverts par exemple également), des parties du corps (battements de mains, de pieds) avec la voix humaine, ou avec des instruments spécialement conçus à cet effet. Les instruments de musique peuvent être classés selon le mode de production du son : Typologie. Il existe plusieurs manières de classer la musique, notamment : Genres musicaux. Un genre musical désigne des pratiques musicales de même nature et de même destination. Exemple de classification. En France, les bibliothèques municipales suivent les catégories des principes de classement des documents musicaux suivants, qui sont ici limitées aux premières subdivisions de chaque classe suivies d'exemples de sous-catégories. Société. Cette définition considère la musique comme un fait de société, qui met en jeu des critères tant historiques que géographiques. La musique passe autant par les symboles de son écriture (les notes de musique) que par le sens qu’on accorde à sa valeur affective ou émotionnelle. En Occident, le fossé n’a cessé de se creuser entre ces musiques de l’oreille (proches de la terre, elles affirment une certaine spiritualité et jouent sur le parasympathique) et les musiques de l’œil (marquées par l’écriture, le discours, et un certain rejet du folklore). Les cultures occidentales ont privilégié l’authenticité et inscrit la musique dans une histoire qui la relie, par l’écriture, à la mémoire du passé. Les musiques d’Afrique font plus appel à l’imaginaire, au mythe, à la magie, et relient cette puissance spirituelle à une corporalité de la musique. L’auditeur participe directement à l’expression de ce qu’il ressent, alors qu’un auditeur occidental de concerts serait frustré par la théâtralité qui le délie de participation corporelle. Le baroque constitue en occident l’époque charnière où fut mise en place cette coupure. L’écriture, la notation, grâce au tempérament, devenait rationalisation des modes musicaux. Phénomène social. Chaque époque est tributaire des rapports entre l’art et la société, et plus particulièrement entre la musique et les formes de sa perception. Cette étude sociale aux travers des âges est menée dans un essai de Jacques Attali ("Bruits", Paris, PUF, 1978). Évolution. La libération esthétique du compositeur par rapport à certaines règles et interdits, fondés au cours de l’histoire de la musique, et celle, concomitante, des liens qu’il noue avec l’auditeur est un facteur d’évolution. Elle va rarement sans heurts. L’évolution historique des courants stylistiques est jalonnée de conflits exprimés notamment à travers la question classique : . L’histoire évolue également par alternance de phases de préparations et de phases de révélation intimement liées entre elles. Ainsi, la place prépondérante qu’occupe Jean-Sébastien Bach dans le répertoire de la musique religieuse, conséquence du génie créatif de ce musicien d’exception, ne peut nous faire oublier tous les compositeurs qui l’ont précédé et qui ont tissé ces liens avec le public en le préparant à des évolutions stylistiques majeures. L’œuvre de Bach concentre de fait un faisceau d’influences allemandes (Schütz, Froberger, Kerll, Pachelbel), italiennes (Frescobaldi, Vivaldi), flamandes (Sweelinck, Reincken) et françaises (Grigny et Couperin), toutes embrassées par le Cantor. Ce type d'évolution incite Nikolaus Harnoncourt à considérer que « Mozart n’était pas un novateur ». Pour lui, Mozart ne fut que le cristallisateur du style classique, et le génie qui sut porter à son apogée des éléments dans l’air du temps. Concentrer les influences d’une époque, consolider les éléments et en tirer une nouvelle sève, c’est là le propre de tout classicisme. Contrairement aux musiciens contemporains expérimentateurs qui cherchent à la fois « le système et l’idée » (selon un article fondateur de Pierre Boulez), Mozart n’aurait ainsi jamais rien inventé qui ne lui préexistait. Les mutations radicales qu’il a su imposer proviennent de conceptions déjà en germe. Le lien entre l’évolution des techniques et l’écriture, entre les données matérielles (instruments, lieux, espaces) et l’expression, contraint le compositeur dans la double ambiguïté du carcan systémique et de la libération expressive. Dans cette perspective, la musique se construit autour de structures, de catégories, qu’il faut savoir dépasser (« travailler aux limites »). En termes de style, la musique semble avoir souvent oscillé au cours des siècles entre une rhétorique de la litote et du minimum d’éléments syntaxiques (c’est le cas de Bach ou de Lully, c’est aussi celui, à un degré extrême de John Cage) et une excessivité (Richard Wagner ou Brian Ferneyhough par exemple), dilution dans l’emphase (autre définition du baroque), révolte contre les alignements conceptuels. Avec le recul historique, les phases de cette élaboration paraissent suivre des paliers successifs. Le pouvoir expressif passe d’apports strictement personnels à une complexification qui dénature les premières richesses de la nouveauté en cherchant à épuiser les ressources du matériau initial. Définition esthétique. La musique peut également être définie et approchée dans une perspective de recherche esthétique. Cette vision esthétique de la musique, peut être, du côté de l’auditeur, définie par la définition du philosophe français Jean-Jacques Rousseau : . De la Renaissance jusqu’au , la représentation des sentiments et des passions s’est effectuée par des figures musicales préétablies, ce que Monteverdi a appelé la "seconda prattica expressio Verborum". La simultanéité dans la dimension des hauteurs (polyphonie, accords), avancée de l’"Ars nova" au (Ph. De Vitry), a été codifiée aux ("Traité de l’harmonie universelle" du père Marin Mersenne, 1627, "Traité de l’harmonie réduite à ses principes naturels" de Jean-Philippe Rameau, 1722). Depuis, la représentation de la musique affiche des tendances plus personnalisées. Cette traduction de la personnalité aboutit tout naturellement au aux passions développées par la musique romantique. Certains estiment que les grandes écoles de style ne sont souvent qu’un regroupement factice autour de théories "a priori". La musique passe autant par les symboles de son écriture que par les sens accordés à sa « valeur » (affective, émotionnelle…). Théorie et réception se rejoignent pour accorder à la musique un statut, artistique puisque communication, esthétique puisque traduction de représentation (cf. les théories de la réception et de la lecture selon l’école de Constance). Les trois pôles du phénomène musical sont le compositeur, l’interprète et l’auditeur. Cependant un fossé n’a cessé de se creuser dans la musique occidentale entre le compositeur et son public. Les recherches musicales actuelles tendent à faire de la musique un support de la représentation de la complexité de notre monde (de l’infiniment petit à l’infiniment grand). Elles se seraient alors éloignées de la recherche purement esthétique. Chaque étape stylistique importante (Renaissance, baroque, classicisme, romantisme, et d’une certaine façon modernisme), porte ainsi en elle une ou plusieurs bifurcations esthétiques. Au milieu du , dans les années 1947-1950, après les assauts formalistes du sérialisme, le noyau fédérateur qui subsistait à l’arrivée du magnétophone et des techniques électroniques résidait dans la manifestation d’un sonore perceptible et construit. Les traités d’harmonie de la fin du (par exemple le "Traité d’harmonie" de Th. Dubois), reprenant la théorie de Rameau, s’étaient attachés à amarrer la tonalité à une nécessité développée par l’histoire depuis Monteverdi. Or, en rompant dès 1920 avec les schémas classiques de la tonalité, le aurait confiné le système tonal aux seuls , et même réduit à cette époque, dans la stricte délimitation géographique que nous lui connaissons, à savoir en Europe et aux États-Unis. La définition classique de la musique comme « art de combiner les sons » se serait effondrée peu après le milieu du . Discipline scientifique. Pendant longtemps la musique fut considérée comme une science au même titre que l’astronomie ou la géométrie. Elle est très liée aux mathématiques. De nombreux savants se sont penchés sur les problèmes musicaux tels que Pythagore, Galilée, Descartes, Euler. Pythagore étudie la musique comme mettant en jeu des rapports arithmétiques au travers des sons. L'harmonie qui en procède se retrouve pour lui et gouverne l'ordonnancement de ses sphères célestes. Ainsi Platon dans "La République", VII, 530d, rappelle que la Musique et l'Astronomie sont des sciences sœurs. Au , Martianus Capella présente la musique comme un des sept arts libéraux. Avec Boèce, la théorie musicale est distinguée de la pratique musicale. La musique entendue comme activité ("praxis"), qui est la musique des musiciens, sera alors déconsidérée et considérée comme un art subalterne, un « art mécanique », de la musique entendue comme savoir ("théoria") qui seule sera reconnue comme vraie musique, et enseignée comme un des 7 arts libéraux, parmi les 4 disciplines scientifiques du second degré de cet enseignement, et que Boèce nomma le « "quadrivium" ». La musique (théorique) a alors le même statut que l'arithmétique, la géométrie et l'astronomie. Jean-Philippe Rameau, considérait que « la Musique est une science qui doit avoir des règles certaines ; ces règles doivent être tirées d’un principe évident, et ce principe ne peut guère nous être connu sans le secours des Mathématiques ». La musique est l'une des pratiques culturelles les plus anciennes et comporte le plus souvent une dimension artistique. La musique s'inspire toujours d'un « matériau sonore » pouvant regrouper l’ensemble des sons perceptibles, pour construire ce « matériau musical ». À ce titre elle a, dans les années récentes, été étudiée comme une science. La phénoménologie de Husserl, réfutait ces points de vue. L'ouïe, qui est le plus adapté de nos sens pour la connaissance des sentiments est, a contrario, le moins apte à la connaissance objective qui fonde la science. La musique est donc un concept dont la signification est multiple, elle peut tout bien être un concept hérité de fonctions de survies ancestrales capables, par le biais d'émotions, d'indiquer ce qui est propice à la survie de l'espèce ; mais elle est également dépendante des goûts de chacun. Il en résulte qu'il est difficile d'établir une définition unique regroupant tous les genres musicaux. Santé. Musicothérapie. La musique est utilisée pour ses effets thérapeutiques pour des personnes atteintes de la maladie d'Alzheimer. Elle est également une aide pour réveiller des patients d'un coma à l'écoute d'une musique familière . La musique a des bienfaits sur les personnes atteintes de la maladie de Parkinson ou victimes d'un accident vasculaire cérébral. Des études ont montré que les enfants qui font de la musique voient leurs compétences scolaires s’améliorer. Les orthophonistes recommandent d'ailleurs le violon pour les enfants qui souffrent de repère dans l'espace. De manière plus générale, la pratique musicale permet de lutter contre les effets du vieillissement cognitif. Chez les personnes soufrant d'une grave incompétence et d'une désorganisation motrice, la musique permet de rétablir leur capacité à se mouvoir. Cette caractéristique de la musique explique peut être en partie l'existence des chants de travail. Prévention des risques sur l'audition. L'écoute de musique à très fort niveau sonore (lors d'un concert, baladeur, par un musicien...) sans protection auditive peut aboutir à un traumatisme sonore. Il se manifeste soit par des pertes auditives partielles ou totales, des acouphènes et de l'hyperacousie. Les conséquences sont parfois dramatiques dans la vie de l'individu car ces pathologies sont irréversibles. Les musiciens (professionnels ou non) sont particulièrement concernés. Certaines associations se mettent en place pour les sensibiliser à ce sujet et contrer ces risques. Médias et technologie. La musique que les compositeurs créent peut être entendue par le biais de nombreux médias ; la manière la plus traditionnelle étant par la présence des musiciens eux-mêmes. La musique en direct peut être écoutée par radio, à la télévision ou sur Internet. Certains styles musicaux se focalisent plus sur la production d'un son pour une performance, tandis que d'autres se focalisent plus sur l'art de « mélanger » des sons lorsqu'ils sont joués en direct. Le rapport entre la musique et les médias est une question complexe comportant plusieurs dimensions (esthétique, sémantique, cognitive, économique, sociale, et même organisationnelle). Pour Mario d'Angelo, il convient de développer une approche globale, systémique pour prendre en compte en même temps ces différentes dimensions. Ainsi pour la télévision par exemple, le flux d'image est accompagné d'un flux sonore qui comporte de la voix, des bruits et de la musique. La forte présence de musique trouve son origine bien au-delà des seules concerts ou spectacle avec musique retransmis (en direct ou en différé). La musique est également présente dans les contenus dits de stocks et dans les contenus dits de flux. Les premiers nécessitent une postproduction avec du montage et du mixage. La musique y est donc présente par incorporation (ou synchronisation) dans la bande son, selon des niveaux de mixages comme les films cinématographiques, feuilletons, séries télévisuelles, téléfilms, documentaires, docu-fictions, spots publicitaires, etc.. Les seconds (les contenus dits de flux) nécessitent pas ou très peu de postproduction (journaux télévisés, magazines, reportages, émissions enregistrées depuis un plateau de télévision, etc.). Tandis que les sonorités cinématiques ont émergé au début du , un grand nombre de musiciens d'orchestre ont participé à ces enregistrements de son. Dans la plupart des cas, les performances en direct impliquent des compositions pré-enregistrées. Par exemple, un disc jockey utilise des platines pour créer une sonorité appelée "scratching", et certaines compositions durant le font leur performance (le chant par exemple) en direct à l'aide d'un son pré-enregistré. Les ordinateurs et un bon nombre de claviers électroniques permettent une programmation à l'avance de notes qui peuvent être jouées (Musical Instrument Digital Interface, MIDI). Le public peut également faire une performance en participant lors d'un karaoké, une activité d'origine japonaise centrée sur des chansons composées par des professionnels et chantées par des particuliers. La plupart des machines de karaoké possèdent un écran adapté pour aider ces particuliers ; les particuliers peuvent ainsi chanter les paroles tout en gardant le rythme de la musique jouée en playback. L'émergence d'Internet a considérablement changé la manière d'écouter la musique et contribue à un très large choix de styles musicaux. La musique sur Internet grandit également grâce aux communautés virtuelles telles que YouTube, Myspace et SoundCloud. De tels sites simplifient le contact et la communication avec des musiciens et facilitent grandement la distribution de la musique. Les musiciens professionnels tirent également profit de YouTube en tant que site gratuit promotionnel. YouTube n'est pas seulement un outil promotionnel gratuit pour les musiciens professionnels mais c'est aussi un moyen pour les amateurs de se faire connaître du grand public que ce soit de manière volontaire ou non, comme la chanteuse Irma qui a découvert par hasard qu'elle était en page d'accueil. La musique dans la philosophie et la religion. De nombreux philosophes ont développé des théories de la musique. C'est en particulier le cas d'Arthur Schopenhauer (joueur de flûte) pour qui la musique est l'art métaphysique par excellence. Sa philosophie eût une influence déterminante sur Richard Wagner. Friedrich Nietzsche, ami de Wagner et compositeur à ses heures, accorde également une place de choix à la musique dans sa pensée. Dans les religions, de nombreuses traditions de musiques sacrées existent, à l'instar de la musique chrétienne, de la musique bouddhique ou de la musique juive. Dans l'islam, les interprétations traditionnelles prévalant notamment dans le sunnisme tendent à considérer que la religion musulmane prohibait la musique, en exceptant certaines occasions comme les mariages. Aucun consensus entre autorités religieuses musulmanes n'existe cependant sur ce point, et la musique est présente dans les sociétés musulmanes. De riches traditions de musiques islamiques existent dans certaines branches de l'islam, comme le soufisme. |
Mexique Le Mexique, officiellement et en forme longue les États-Unis mexicains (en espagnol : ' et '), est un pays situé dans la partie méridionale de l'Amérique du Nord. Délimité à l'est-sud-est par le Guatemala et le Belize, et au nord-nord-ouest par les États-Unis d'Amérique, il est bordé à l'est par le golfe du Mexique et la mer des Caraïbes et au sud-ouest par l'océan Pacifique. C'est le quatorzième pays en superficie, avoisinant deux millions de kilomètres carrés. Avec une population estimée en 2020 à d'habitants, le Mexique se classe ainsi au dixième rang mondial des pays les plus peuplés. Plus de 99 % des Mexicains parlent l'espagnol mexicain (soit comme langue maternelle ou langue seconde), et plus de (environ 6 %) parlent une langue autochtone dont moins de 1 % était monolingue ; la loi mexicaine les reconnaît comme langues nationales depuis 2003, mais aucune ne possède le statut de langue officielle. Le Mexique est donc le pays le plus peuplé du monde hispanophone. Politiquement, le Mexique est une république fédérale, composée de trente-deux entités fédératives dont trente et une ont le statut d'État, Mexico ayant un statut spécial (qui lui permet une autonomie accrue comparable à celle d'un État) car abritant la capitale politique du pays. La présence humaine au Mexique remonte à plus de avant le présent. Après des millénaires de développement culturel sont apparues les cultures mésoaméricaines, aridaméricaines et oasisaméricaines. Diverses civilisations fleurissent ; les Olmèques, les Toltèques, les Zapotèques, les Mayas et les Aztèques. Certaines d'entre elles avaient déjà disparu avant l'arrivée des Espagnols. En 1521, l'Espagne conquiert et colonise le territoire depuis Mexico-Tenochtitlan, qui devient la capitale de la vice-royauté de Nouvelle-Espagne. En 1810, la révolte des espagnols nés au Mexique partisans de ("Grito de Dolores") menée par Miguel Hidalgo contre le gouvernement imposé à l'Espagne par marque le début d'un processus menant à la guerre d'indépendance contre l'Espagne, les insurgés déclarant la séparation en 1813 pour établir un nouveau pays souverain avant d'en sortir victorieux en 1821. Le pays connaît ensuite un demi-siècle d'instabilité politique et financière, caractérisé par divers conflits dont une tentative de reconquête par l'Espagne en 1829, un blocus naval français connu sous le nom de guerre des Pâtisseries entre 1838 et 1839, une guerre contre les États-Unis entre 1846 et 1848 aboutissant à la perte de la moitié du territoire du pays, une guerre civile pour séculariser le pays entre 1857 et 1861, une intervention française entre 1861 et 1867, deux républiques fédérales, une république unitaire et deux empires. Durant l'administration du président Porfirio Díaz, héritière d'un pays exsangue, le pays a connu une période de modernisation et de croissance économique importante. Díaz fut renversé par la révolution et quitta le pays en 1911. La guerre civile entre factions révolutionnaires culmina avec la proclamation de la constitution de 1917 et la mise en place du système politique actuel ; bien que, entre 1930 et 2000, le pays vive sous un régime autoritaire, une lente transition démocratique inachevée a été mise en œuvre entre 1977 et 1997. L'Indice de démocratie marque une lente dégradation de la situation depuis 2006, encore classé démocratie imparfaite en 2020 le Mexique est passé au statut de régime hybride en 2021 Le pays a connu des périodes de grande prospérité dans les années 1950-1960 et des crises économiques dévastatrices dans les années 1980-1990. Le Mexique fait partie des vingt premières puissances économiques mondiales (quinzième avec un PIB nominal de de dollars en 2017). Mesuré en parité de pouvoir d'achat, son PIB arrive à la onzième place, derrière la France (dixième). En 2019, le Mexique est le douzième plus grand producteur de pétrole au monde et le premier producteur d'argent. Puissance émergente, puissance moyenne à l'échelle mondiale et puissance régionale en Amérique latine, le Mexique est le premier pays d'Amérique latine à avoir rejoint l'OCDE. Classé parmi les nouveaux pays industrialisés, il s'agit, selon la Banque mondiale, d'un pays à revenu intermédiaire supérieur. Son économie est fortement liée à celle des États-Unis, par son appartenance à l'ALENA jusqu’en 2018 et le nouvel ACEUM ("T-MEC" en espagnol) après 2018. En 2018, le Mexique est la deuxième destination touristique des Amériques et la première, devançant les États-Unis en 2021. Il est l'un des dix-sept pays mégadivers de la planète (il abrite de 10 à 12 % de la biodiversité mondiale et comprend plus de douze mille espèces endémiques), il compte 33 sites culturels ou naturels inscrits par l'UNESCO au patrimoine de l'humanité. L'indice de développement humain du Mexique s'élève à en 2021, à la mondiale, devant le Brésil () et derrière l'Iran (), la Chine () et Cuba (). En 1990, cet indice ne s'élevait qu'à . En 2022, le Mexique est classé en pour l'indice mondial de l'innovation. Le Mexique est également membre d'institutions internationales de grande envergure, telles que l'ONU, l'OMC et le G20. Toponymie. Dès avant l'indépendance de la vice-royauté de la Nouvelle-Espagne, il fut décidé que le pays prendrait le nom de sa capitale, Mexico. L'utilisation de ce toponyme remonte à la fin de l'époque préhispanique (post classique tardif), chez les Nahuas (et plus particulièrement les autochtones de la cité, les Mexicas). Il était alors accolé au toponyme Tenochtitlan. Le jésuite et historien Francisco Javier Clavijero soutient dans ses écrits qu'il dérive du mot nahuatl "Mexitl" ou "Mexitli", un nom secret de Huitzilopochtli, la divinité tutélaire des Mexicas. Selon cette théorie, « Mexico » signifie « lieu [où vit] "Mēxitli" ou "Mēxtli" » ou « lieu où est construit le temple de Mexitli », en référence au "Templo Mayor". Cette thèse était aussi partagée par Juan de Torquemada. Toutefois, Torquemada ajoute que Mexitli viendrait des mots "metl" (« agave ») et "xictli" (« nombril »). Selon cette version, Mexico signifierait mot pour mot « lieu dans le nombril d'agave » ; cette interprétation est aussi soutenue par le franciscain Motolinia. D'autres historiens, comme Bernardino de Sahagún, José de Acosta et Diego Durán, avancent dans leurs travaux que « Mexico » vient de "Mecitl" ou "Mexi", qui était le nom d'un chef et prêtre qui guida les premiers Nahuas émigrés de la mythique Aztlan, dits "Mexicas", et par conséquent, ce mot signifierait « peuple de Mexi ». Alfonso Caso, a suggéré que Mexico viendrait des mots "metztli" (« Lune »), "xictli" (« nombril », « centre », « milieu », « fils »), et du suffixe locatif "-co". Par conséquent Mexico signifierait « lieu au milieu de la Lune » ou « lieu au centre du lac de la Lune », en faisant allusion au lac Texcoco au milieu duquel a été construite la ville de Mexico. Cette version est fondée sur une légende aztèque qui raconte que lorsque les Mexicas arrivèrent pour la première fois au lac de Texcoco, ils y virent la Lune qui s'y reflétait. Le nom de la ville fut translittéré en espagnol (') avec la valeur phonétique du x de l'espagnol médiéval, qui représentait la consonne fricative post-alvéolaire voisée //, représenté par un j, évolua vers la consonne fricative vélaire sourde // durant le , qui conduisit à l'utilisation de la variante "Méjico" dans beaucoup de publications, en Espagne le plus souvent, tandis qu'au Mexique, ' est restée la graphie préférée. Il y a quelques années, l’Académie royale espagnole, l'institution régulant la langue espagnole, statua que la graphie recommandée en espagnol serait "", et la majorité des publications dans tous les pays hispanophones adhèrent aujourd'hui à la nouvelle norme, même si la variante désuète se rencontre parfois. En français, le x de Mexico et de Mexique ne représente ni le son originel ni le son actuel, mais la double consonne //. Histoire. Époque préhispanique. Le territoire a été découvert et habité par des groupes de chasseurs-cueilleurs nomades il y a environ . Pendant plusieurs milliers d'années, les habitants de cette région d'Amérique pratiquèrent la chasse et la cueillette jusqu'à la découverte de l'agriculture. À Guilá Naquitz, ont été mis au jour les restes les plus anciens de la domestication de la courge et de la calebasse, qui datent du millénaire av. J.-C., mais l'agriculture s'est développée de façon précoce dans des sites comme la vallée de Tehuacán où la domestication du maïs a eu lieu aux alentours du millénaire av. J.-C. Dès lors des groupes humains de cette région deviennent de plus en plus dépendants des produits agricoles, et ce jusqu'à l'apparition de hameaux agricoles et jusqu'à la dépendance totale qui a lieu durant la période classique. Tandis que l'agriculture prospère en Mésoamérique, les peuples au nord (Chichimèques) restent encore dépendants de la chasse et la cueillette. L'histoire préhispanique de ce qui est actuellement le nord du Mexique est mal connue car les peuples qui occupèrent la région avaient une culture matérielle limitée. Ces peuples nomades qui habitaient les déserts, le littoral et les montagnes au nord de la Mésoamérique, ne partageaient pas la même culture. Le site de la grotte de la Perra (Tamaulipas) a connu l'invention de l'agriculture et connu la présence humaine à partir de Il y a des traces de peuples nomades dans les sites tels que la grotte de la Candelaria (Coahuila, ) ou (Basse-Californie du Sud). On trouve également en Basse-Californie les peintures rupestres de la Sierra de San Francisco dont la fonction continue jusqu'au , lorsque les derniers autochtones disparaissent de la région. Plusieurs auteurs prennent comme marqueur du début de la civilisation mésoaméricaine la controversée de Puerto Marqués, datée vers le Cette céramique mésoaméricaine pourrait avoir pour origine le contact entre la côte sud-américaine du Pacifique et l'occident de la Mésoamérique. Les nouvelles avancées techniques se diffusent dans toute la région si bien que, des siècles après, on produit une céramique dans d'autres hameaux du préclassique ancien (2 500-1 500 av. J.-C.) comme Chupícuaro et Tlatilco. Durant le préclassique moyen (-), la culture olmèque se diffuse dans toute la Mésoamérique. Après le déclin olmèque, l'essor simultané de plusieurs peuples a lieu. Par exemple la culture des tombes à puits de probable influence sud-américaine, la culture épi-olmèque à Tres Zapotes, l'épanouissement d'Izapa et le développement du compte long. À la fin de cette étape, Teotihuacan devient la ville la plus importante de la vallée de Mexico. Durant le Classique ancien (//), l'influence de Teotihuacán se fait sentir dans toute la Mésoamérique, appuyée par son pouvoir politique et commercial. Elle avait d'importants alliés, comme Monte Albán dans les vallées centrales d'Oaxaca. La civilisation mésoaméricaine s'étend plus au nord vers des sites comme . En retour, des influences culturelles arrivent du nord, visibles dans la culture huastèque. La période classique est également l'époque de consolidation de la civilisation maya dans la péninsule du Yucatán et des hautes terres du Chiapas. D'un autre côté, dans les vallées et les montagnes du nord de la Sierra Madre occidentale, se développe la culture Paquimé, résultat de la consolidation de l'agriculture dans le nord-est et l'échange entre la Mésoamérique et l'Oasisamérique. Entre les , le centre du Mexique est dominé par Tula, la capitale des Toltèques. La ville a établi des liens très forts avec plusieurs régions de Mésoamérique, mais particulièrement avec la péninsule du Yucatán, où se trouve la ville maya de Chichén Itzá. Au même moment, dans ce qui est actuellement l'État d'Oaxaca de Juárez, les Mixtèques commencent un processus expansionniste qui les mène à occuper les vallées centrales où vivaient les Zapotèques. En 1325, les Mexicas fondent Mexico-Tenochtitlan, la capitale de l'État le plus vaste qu'a connu la Mésoamérique, qui rivalisait seul avec les Tarasques de Tzintzuntzan. Époque coloniale. En 1519, les conquistadors, alliés à de nombreuses tribus ennemies des aztèques dont les Tlaxcaltèques et conduits par Hernán Cortés, contribuent à la conquête de l'empire aztèque, aidés en cela par la supériorité et la qualité de leurs armes et de leurs tactiques de combat, mais aussi la supériorité numérique de leurs alliés indigènes. Le , la fin du siège de Tenochtitlan signe la victoire des Espagnols et la fin de l'empire aztèque. Cortés se lance alors dans la conquête d'un vaste empire colonial qui deviendra la Nouvelle-Espagne. Le territoire s'étendra jusqu'à une importante partie du sud des actuels États-Unis (notamment la Californie, l'Arizona, le Nouveau-Mexique et le Texas). Les principales villes mexicaines sont alors créées : Mexico (sur les ruines de Tenochtitlán), Guadalajara, Puebla et Monterrey. En même temps que la colonisation espagnole, des missionnaires arrivent dans le pays pour évangéliser les populations indigènes. Parmi ces évangélisateurs, Bartolomé de las Casas se distingue par son désir de protéger les populations indigènes. Dès 1535, l’administration de la Nouvelle-Espagne est confiée à un vice-roi. Le premier sera Antonio de Mendoza, nommé par Charles Quint. Pendant cette période, l’Espagne s'est enrichie grâce à la découverte et à l'exploitation des mines d'argent mexicaines, parmi les plus riches du monde, dont le produit transite via Anvers, première place financière mondiale, pour permettre d'importer des biens de l'Inde, où les marchands sont friands d'argent-métal. Les espagnols implantent aussi la culture de la canne à sucre et du café, alors que sur le plan humain, la population amérindienne chuta de 80 %, à cause principalement des épidémies. On estime qu'avant l'arrivée des Espagnols, le Mexique central comptait d'habitants. Il en restait un million vers 1650. Les trois siècles de colonisation espagnole (1521 - 1821) coïncident avec la création du Mexique en tant que nation latine, hispanique, catholique et métisse telle que nous le connaissons aujourd’hui. L'architecture, la gastronomie, les fêtes mexicaines et la structure familiale sont encore aujourd'hui largement influencées par ces trois siècles de domination espagnole. Après les très nombreuses destructions résultant de la colonisation du Mexique, une forme d'art colonial s'est développé à partir du ; et ce pour plusieurs raisons : contexte humaniste européen et développement des cabinets de curiosités, propagande religieuse, développement d'une élite métisse, explosion d'un commerce intercontinental, etc. Ce phénomène a en outre permis la conservation et la diffusion de nombreuses techniques précolombiennes uniques au monde, comme l'art de la laque mexicaine (technique de collage très différente de la laque asiatique), du papier d'amate ou celui de la mosaïque de plumes, d'une extraordinaire virtuosité au vu des moyens à la disposition des artisans précolombiens. De ces très nombreux ouvrages envoyés en Europe pour la délectation des princes et collectionneurs, très peu sont parvenus jusqu'à nous. Quatre tableaux de mosaïques de plumes sont aujourd'hui conservés en France, dont deux datant du : Le Triptyque de la crucifixion, conservé au Musée national de la Renaissance à Écouen (Val d'Oise), et la Messe de Saint-Grégoire, conservée au Musée des Jacobins d'Auch (Gers). Les populations indigènes ne furent pas entièrement soumises du fait de la chute de l'empire aztèque, d'autres ne firent que changer de maîtres, les talxcaltèques alliés des espagnols furent mieux traités et jouirent tout au long de la colonie de privilèges tels que pouvoir monter à cheval. Des nobles indigènes partirent pour l'Espagne où leurs descendants vivent toujours. De très nombreuses révoltes locales eurent lieu durant les trois siècles de la période coloniale. Indépendance. L'un de précurseurs de l'indépendance du Mexique est Melchor de Talamantes mort emprisonné dans la forteresse de San Juan de Ulúa en 1809. Il est l'auteur de textes où sont exposées les raisons qui devaient, selon lui, amener le pays à son émancipation de la couronne espagnole. Dans la nuit du 15 au , depuis ce qui est aujourd'hui la ville de Dolores Hidalgo, dans le Guanajuato, un Espagnol né au Mexique, le curé Miguel Hidalgo, aujourd’hui héros national, lève, au cri de (c'est-à-dire celui de Joseph Bonaparte, au pouvoir depuis l'invasion de l'Espagne par les Français), une armée hétéroclite et indisciplinée de villageois et d'indigènes pour le rétablissement de Ferdinand VII et contre les juntes espagnoles au service des Français. Il commence avec succès, mais échoue au Monte de las Cruces, dans sa tentative de prendre Mexico, et sera exécuté en 1811. Les créoles, descendants d'Européens, le plus souvent d'Espagnols, mais nés hors de la métropole espagnole au nombre d'un million en Nouvelle-Espagne devenue l'actuel Mexique, sont à la tête des métis et des mulâtres (qui ensemble sont ) et des indigènes () qui forment la majeure partie des six millions de la population d'alors, mais sont tenus à l'écart du pouvoir politique et économique, les fonctions les plus prestigieuses et lucratives étant réservées aux Espagnols dont le nombre n'était que de (peninsulares, nés dans la métropole, que les créoles nomment aussi gachupines). Si le Grito de Dolores est à l'origine du processus d'indépendance du pays, il n'est cependant pas un appel à l'indépendance, mais bien une réaction à la destitution de Ferdinand VII par les Français. Le premier acte d'indépendance est proclamé par le congrès de Chilpancingo, inspiré principalement par les écrits de José María Morelos, et a été signé le . Il a été rédigé par Carlos María de Bustamante et Andrés Quintana Roo, et a été intitulé Acte solennel de la déclaration d'indépendance de l'Amérique septentrionale. L’Acte de l’Indépendance de l'Empire mexicain sera finalement signé le . L'Espagne ne reconnaîtra l'indépendance du Mexique que le . Parmi les éléments déclencheurs du mouvement indépendantiste, figurent la conquête et l’occupation française de l’Espagne, au début du , par les troupes de Napoléon et le rejet par les créoles de la Nouvelle-Espagne de la Constitution de Cadix jugée par eux anticléricale et trop libérale. Avec l'indépendance, les Espagnols nés au Mexique purent devenir les maîtres du pays en accédant à toutes les fonctions auparavant réservées aux Espagnols nés en métropole qui furent expulsés en 1829, exception faite de ceux dont les capitaux étaient investis dans les mines et l'agriculture. En 1821 l'empire est proclamé avec Agustín de Iturbide. Le , le Mexique se dote de la nouvelle Constitution fédérale des États-Unis mexicains (""), adoptant pour son gouvernement la forme de république représentative populaire fédérale. De l'indépendance à la consolidation républicaine. Intervention espagnole de 1829. Les troupes espagnoles débarquent près de Tampico en mars 1829, dans une ultime tentative de reconquête du pays, et sont repoussées par les troupes du général Antonio López de Santa Anna. Celui-ci acquiert un immense prestige par sa victoire, et devient le « Héros de Tampico ». Guerre des Pâtisseries. En raison des dégâts causés lors des troubles publics liés au chaos de la situation politique dans les années qui suivirent l'indépendance, des commerçants français déposèrent des réclamations au baron Deffaudis, ambassadeur français à Mexico ; parmi eux, un pâtissier du nom de Remontel réclama la somme exorbitante de en dédommagement du préjudice causé par des officiers à son établissement de Tacubaya (selon les sources, ayant profité d'émeutes pour partir sans payer leurs pâtisseries en 1832, d'où le surnom ironique donné ensuite au conflit par les Mexicains, ou ayant occasionné des dégâts à sa boutique en 1828). En 1837, le ministre mexicain des affaires extérieures, Luis G. Cuevas, répondit que le gouvernement n’était pas dans l'obligation d'indemniser ces pertes, étant donné qu'elles étaient la conséquence d'un mouvement révolutionnaire. Le 6 février 1838 (ou le 21 mars, selon d'autres sources), une flotte de 26 navires de guerre français arriva au large de Veracruz et le gouvernement de Louis-Philippe réclama une somme totale de , équivalant à l'époque à de francs or en réparation des pertes subies par ses sujets. Le 27 novembre, les Français bombardèrent la forteresse de San Juan de Ulúa. Les Français obtinrent des garanties quant au paiement de cette somme et se retirèrent après onze mois de blocus du port de Veracruz. Cela occasionna pour le trésor mexicain une perte, calculée par le "Journal des Débats", de soit de francs or. Guerre américano-mexicaine. En 1836, le Texas proclame son indépendance du Mexique. Il sera annexé plus tard par les États-Unis en 1845. En fait, le Texas décide de rejoindre les États-Unis, mais cela violait le traité de Velasco, signé en 1836, qui spécifiait qu'après l'indépendance le Texas ne pouvait rejoindre l'Union Américaine. En 1846, le Mexique revendique le territoire compris entre le rio Bravo et le rio Nueces. En effet, la limite de la province texane était le rio Nueces situé à au nord du rio Bravo. Dès lors, la guerre éclate entre le Mexique et les États-Unis et durera de 1846 à 1848. Les troupes américaines envahissent le pays et l’occupent de 1847 à 1848. Après la bataille de Chapultepec, le 14 septembre 1847, les troupes américaines hissent le drapeau américain sur le Palais National : la ville de Mexico est occupée. Sous le contrôle de Winfield Scott, ses troupes exécutent de nombreux soldats d'origine irlandaise du bataillon Saint Patrick, déserteurs de l’US Army, qui collaboraient avec la résistance mexicaine face à l’occupant. La guerre se termine par la signature en 1848 du traité de Guadalupe Hidalgo, par lequel le Mexique reconnaît le rio Bravo comme sa frontière avec le Texas. De plus, le Mexique cède plus de 40 % de son territoire aux États-Unis, soit près de . Les États de Californie, Nouveau-Mexique, Arizona, Nevada, Utah, la majeure partie du Colorado et le sud-ouest du Wyoming représentent les territoires que les États-Unis ont annexés à la suite de la guerre américano-mexicaine. En 1857 est promulguée la Constitution qui règle les institutions politiques mexicaines jusqu'en 1917. Guerre de Réforme. Intervention française. En 1861, le gouvernement de Juárez décide la suspension du paiement de sa dette extérieure. La France, l’un des créanciers du Mexique, invoque le motif des dettes pour y intervenir militairement avec l’appui de l'ancienne puissance coloniale l’Espagne et de l’Angleterre. Profitant de la guerre civile qui déchire et absorbe les ressources du voisin du Nord, Napoléon III, avec la bénédiction du pape, pensait établir au Mexique un empire « latin » et catholique qui contrebalancerait le pouvoir grandissant des Américains. Des forces maritimes de ces trois pays débarquent à Veracruz, les Espagnols en , les Anglais et les Français en . Après des négociations, le gouvernement mexicain arrive à obtenir des Anglais et des Espagnols leur retrait (Convention de Soledad). La France continue donc seule cette expédition visant à établir un empire catholique et ami au Mexique. Hormis la première bataille de Puebla, gagnée par les forces libérales sous le commandement d’Ignacio Zaragoza, la campagne militaire française est un succès. La Légion étrangère s'y illustra lors du combat du 30 avril 1863 non loin du Cerro del Chiquihuite, à Camarón, rebaptisée plus tard Villa Tejeda (dite Camerone en français). Devant l’avancée des forces ennemies appuyées par les conservateurs, le gouvernement de Juárez est contraint de s'éloigner à San Luis Potosí le 31 mai 1863 puis finalement à Paso del Norte (devenue depuis Ciudad Juárez) près de la frontière avec les États-Unis. En juin 1863, Mexico tombe sous le contrôle des forces de Napoléon III et de celles des conservateurs mexicains. Le 10 juillet, une Assemblée des Notables à Mexico nomme Maximilien d’Autriche empereur. Il était un des frères de , empereur d'Autriche. Prince bien intentionné, il déçut souvent les conservateurs par ses idées modernes et libérales, allant jusqu'à demander à Juárez de gouverner avec lui, mais cet Habsbourg imbu d'étiquette commit des maladresses irréparables qui hâtèrent sa chute. Le pays resta peu sûr pour l'envahisseur, une guérilla féroce ne lui laissa aucun repos et épuisa ses forces et son moral, d'autre part les bandits pullulèrent, ce qui ne fit qu'aggraver la situation. Dès la fin de la guerre de sécession en 1865, Juárez trouve auprès des États-Unis, en échange de promesses de concessions sur le territoire mexicain (isthme de Tehuantepec), un soutien en armes et en hommes, ainsi que diplomatique (doctrine Monroe). Ce nouvel appui, les succès militaires des républicains, et surtout les menaces de guerre en Europe, forcèrent les troupes françaises à se retirer. L'intervention au Mexique fut un grand échec pour Napoléon III. Le second empire mexicain durera jusqu’en 1867. L’empereur Maximilien est exécuté à Santiago de Querétaro. Durant toute cette période, Benito Juárez n'abandonna jamais le territoire national et continua d'exercer sa fonction de président de la République. Porfiriat. Héros de la guerre contre le Second Empire français, Porfirio Díaz devient président du Mexique en 1876. Il hérite d'un pays exsangue, qui depuis 1810 a connu de longues périodes d'instabilité tant économique que politique, des guerres civiles, des interventions étrangères, la perte de la moitié de son territoire. Sa présidence dure jusqu'en 1911. Les lois de 1884 et 1896 permettent aux étrangers de posséder le sous-sol, dans le but d'attirer les investisseurs. Ces derniers ont, par conséquent, la prépondérance totale dans les infrastructures (chemins de fer, ports, télégraphes et téléphones), les mines, le pétrole, le textile, les plantations, l'industrie. Pendant cette période, Diaz applique la Constitution fédérale des États Unis mexicains (1857), dont l'une des conséquences est la concentration des terres aux mains d'une minorité d'investisseurs et de propriétaires terriens. Il entreprend de moderniser le pays au nom du positivisme. Pour la première fois de l'histoire du pays le banditisme a quasiment disparu, les ex-bandits devenant pour la plupart d'entre eux, membres du créé en 1861 par Benito Juárez, les usent de l'article 28 de la loi du 25 février 1862 et dont l'usage continuera bien après la révolution de 1910, qui leur donne la possibilité d'abattre les détenus qui tentent de fuir. Les victimes, dont le nombre est estimé pour cette période à furent principalement des délinquants de droit commun. Officiellement, Díaz est réélu à chaque élection mais les dysfonctionnements du vote et le mécontentement d'une partie de la bourgeoisie, dont l'un des chefs de file est Aquiles Serdán, les villageois dépossédés des terres collectives et dont la Constitution de 1857 ne reconnaît pas de statut légal (l'exemple type en est Emiliano Zapata), la classe moyenne instruite et désireuse d'accéder au pouvoir et d'obtenir des postes gouvernementaux, la Panique bancaire américaine de 1907, la baisse de moitié des cours de l'argent-métal, la stagnation des salaires réels et une période de sécheresse sont parmi les éléments déclencheurs de la Révolution mexicaine. Madero reprendra habilement le vieux slogan de Díaz, , pour sa campagne politique. Díaz est l'auteur de la phrase (1878). Révolution de 1910. Porfirio Díaz, au pouvoir depuis une trentaine d'années, voulait se présenter à l’élection présidentielle de 1910, de même que Francisco I. Madero. Díaz fit emprisonner Madero puis le relâcha. Lors de ces élections, Díaz sortit victorieux tandis que Madero ne recueillit que quelques centaines de voix à travers tout le pays. En mai 1911, après la prise de Ciudad Juárez par les troupes d'un ancien bandit, Pancho Villa, recruté par Madero en échange du pardon de ses crimes et d'un grade de colonel dans l'armée fédérale en cas de victoire, Díaz, qui voulait éviter une guerre civile, préféra partir en exil en France. La révolution dégénéra alors en une lutte pour le pouvoir entre révolutionnaires. Le président Madero (révolutionnaire) fut assassiné par Victoriano Huerta (réactionnaire), lui-même chassé par les troupes de Pancho Villa. Zapata fut assassiné en 1919, Venustiano Carranza, le commanditaire de l'assassinat de Zapata, en 1920, et Francisco Villa en 1923, sur ordre d'Álvaro Obregón. La révolution se terminera officiellement en 1917, date de la nouvelle constitution mexicaine, mais la violence dura jusqu’aux années 1930 (assassinat d'Álvaro Obregón par un fanatique catholique en 1928). Une autre vague de violence suit l'application des mesures de laïcisation contenues dans la Constitution de 1917 et appliquées par le gouvernement dès 1926 : c'est la guerre des Cristeros. 1930-2000 et la domination du PRI. L'après-révolution. À la mort d'Obregon, Plutarco Elías Calles devient le "Jefe máximo de la Revolución" (Chef suprême de la Révolution). En mars 1929, il fonde le Parti national révolutionnaire dans le but de contrôler et de surveiller les divers courants politiques et se nomme lui-même à la tête de ce parti. Dans le but d'éviter des conflits entre militaires, il fait nommer président de la République un civil, Emilio Portes Gil, pour la période de 1928 à 1930. Calles dut lutter contre une conjuration de militaires obregonistes (« plan de Hermosillo ») écartés du pouvoir et menés par . Les années 1930 furent marquées par la présidence autoritaire de Lázaro Cárdenas de 1934 à 1940 titulaire du prix Lénine pour la paix qui se proposait de faire du Mexique un pays socialiste par des nationalisations, l'institution d'un plan sexennal imité de l'URSS, puis l'expropriation (nationalisation) pétrolière en 1938, Cárdenas profitant de la baisse du prix du pétrole et de difficultés économiques des compagnies pétrolières étrangères en majorité anglo-néerlandaises et américaines alors au bord de la faillite.. Seconde Guerre mondiale. À la suite du torpillage de navires mexicains par des sous-marins allemands, dont les pétroliers ' et ' en mai 1942, le gouvernement du général Manuel Ávila Camacho déclara la guerre le à l'Allemagne, à l'Italie et au Japon. L'escadrille mexicaine , composée d'avions P-47, participa à la guerre contre le Japon et fut envoyée aux Philippines. Des Mexicains participèrent aussi au débarquement du 6 juin 1944. L'un des plus connus est le pilote de chasse Luis Pérez Gómez abattu le 19 juin 1944. Il repose au cimetière du village de Sassy. D'autres participèrent sous l'uniforme américain à la bataille des Ardennes. Parmi eux, le sergent qui reçut les plus hautes distinctions militaires des États-Unis pour ses faits d'armes (Medal of Honor et Purple Heart), notamment la neutralisation à lui seul lors d'un combat de plus de cent soldats ennemis. À noter également que le Mexique fut le seul pays au monde qui protesta officiellement devant la Société des Nations (discours d' du 19 mars 1938 contre l'annexion de l'Autriche par l'Allemagne nazie. En commémoration une place de Vienne porte le nom de . Domination du PRI. Le Parti révolutionnaire institutionnel (PRI), membre de l'Internationale socialiste, prit son nom actuel en 1946 et dirigea le pays sans interruption jusqu’en 2000, date de la victoire du démocrate chrétien Vicente Fox, candidat du Parti action nationale (PAN) (voir la Liste des chefs d'État du Mexique). En octobre 1968, l’armée ouvre le feu sur des étudiants d’extrême gauche (voir "Massacre de Tlatelolco"). Plus de trois cents manifestants sont tués et des centaines disparaissent. Les autorités, poussées dans une paranoïa anticommuniste par la CIA américaine, entendaient en finir avec un mouvement où elles voyaient une subversion orchestrée depuis Moscou et La Havane. Alors que la presse mexicaine s'en tient à la version du pouvoir sur de prétendus « affrontements » entre manifestants et soldats, il faut attendre les années 1970 pour que soit admis que les étudiants n'étaient pas armés. De 1960 à 1980, le revenu moyen des Mexicains a presque doublé. Si l’économie avait continué à croître à ce rythme, les Mexicains auraient de nos jours un niveau de vie comparable à celui des Européens. Dans les années 1980, le président Miguel de la Madrid impulse une libéralisation de l'économie qui touche plus particulièrement les paysans : les subventions au secteur agricole sont réduites (les aides à la production du café sont quant à elles supprimées), la libéralisation du commerce provoque une hausse des importations qui coule la production locale et la suppression d’importants combinats agricoles font perdre beaucoup d’emplois ruraux. Par ailleurs, le gouvernement libéralise les flux de capitaux, privatise des entreprises publiques et abandonne les politiques industrielles et de développement. Les années 1980 sont considérées comme une « décennie perdue », avec une baisse du revenu par habitant. En 1992, la Constitution est modifiée de façon à autoriser la vente des terres communales. , entre alternances politiques et violences liées à la drogue. En 2000 Vicente Fox est élu président, mettant fin à de domination politique du Parti révolutionnaire institutionnel (PRI). En 2006, Felipe Calderón (PAN) est le président du Mexique après avoir recueilli 35,88 % des suffrages à l’élection présidentielle du 2 juillet 2006 contre 35,31 % pour Andrés Manuel López Obrador (PRD) et 22,27 % pour Roberto Madrazo (PRI). Il engage une guerre contre les cartels de la drogue qui déstabilise les cartels de la drogue et cause plus de et disparus en quelques années. En juillet 2012, le PRI revient au pouvoir avec la victoire d'Enrique Peña Nieto aux élections présidentielles. Avec près de 38 % des suffrages, il devance le candidat du PRD Andrés Manuel López Obrador (31 %), ainsi que la démocrate centriste Josefina Vazquez Mota du Parti d'action nationale (PAN ; près de 25 %). En juillet 2018, le Mouvement de régénération nationale (Morena) accède pour la première fois au pouvoir avec l'élection d'Andrés Manuel López Obrador (53 % des suffrages). Politique. Le Mexique est une république fédérale composée de . Son régime politique est de type présidentiel. La séparation des trois pouvoirs (exécutif, législatif et judiciaire) est garantie par la Constitution de 1917. Pouvoir exécutif. Le chef de l’exécutif est le président des États-Unis mexicains, élu pour une période de six ans, non renouvelable, au suffrage universel direct à un seul tour et à la majorité relative. Il n’y a pas de Premier ministre. Le président nomme et révoque les ministres, le procureur général, les ambassadeurs et les consuls généraux. En cas de démission ou de décès, le Congrès désigne un président provisoire, intérimaire ou de substitution selon le cas. Le président peut émettre des décrets dans le domaine économique et financier grâce aux pouvoirs que lui délègue le Congrès. Depuis le , le président du Mexique est Andrés Manuel López Obrador. Pouvoir législatif. Le Congrès est divisé en deux chambres : En effet, le PAN était devenu la première force politique à la Chambre des députés avec , suivi par le PRD avec , et en par le PRI avec seulement . Néanmoins, le PAN sans majorité absolue à la Chambre des députés a dû obtenir l’appui de l’opposition pour faire voter une loi Depuis 1997, le Congrès joue un plus grand rôle puisque l’opposition obtint plus de sièges grâce à la désignation de de députés élus à la proportionnelle. Entités fédératives. Constitutionnellement le Mexique est composé de 32 entités fédératives ayant toutes leur propre constitution, dont 31 sont des États ; l'ex "Distrito Federal" (district fédéral), devenu « », est la fédérative du pays, sans avoir le statut d'État ni celui de ville. Femmes en politique. En 2018, l’élection d’Andrés Manuel López Obrador a contribué à une forte féminisation du personnel politique. Ainsi, le gouvernement, qui ne comptait que quatre femmes sur trente membres sous la présidence d’Enrique Peña Nieto, est dorénavant paritaire pour la première fois au Mexique. D'autre part, la Chambre des députés comporte désormais sur ses ; elles étaient 114 dix ans auparavant. Quant à la chambre haute, elle compte et . Géographie. Le Mexique est un pays situé en Amérique du Nord. Il partage des frontières terrestres avec les États-Unis d'Amérique () au nord-nord-ouest et avec le Belize () et le Guatemala () à l'est-sud-est. Il possède de nombreuses façades maritimes () notamment avec l’océan Pacifique au sud et au sud-ouest, le golfe de Californie () au nord-ouest, la mer des Caraïbes à l'est et le golfe du Mexique à l'est-nord-est (). La superficie totale du pays est de dont d’îles ; les îles mexicaines se situent dans l’océan Pacifique (dont la plus grande est l'Île Cedros), le golfe de Californie (dont les plus grandes sont les îles Tiburón et Ángel de la Guarda), la mer des Caraïbes (dont la plus grande est Cozumel) et le golfe du Mexique. La superficie maritime totale du Mexique est de ( dans l'océan Pacifique et dans le golfe du Mexique et la mer des Caraïbes). Elle se subdivise en une mer territoriale, qui s'étend sur () autour des côtes, une zone contiguë, qui s'étend sur 24 milles marins autour des côtes () et une zone économique exclusive (ZEE) qui s’étend sur 200 milles marins () autour des côtes. On trouve aussi de nombreux volcans. Le pic d'Orizaba culmine à , tandis que le point le moins élevé est la Laguna Salada qui se trouve à en dessous du niveau de la mer. Le pays est sujet aux tremblements de terre, parfois très violents. Parmi les ressources naturelles, on trouve l'argent, le cuivre, le gaz naturel, l’or, le pétrole, le plomb et le zinc. Relief. Le Mexique est traversé par deux principales chaînes de montagne : la sierra Madre occidentale et la sierra Madre orientale. La sierra Madre occidentale à l’ouest est le prolongement de la sierra Nevada de Californie et la sierra Madre orientale à l’est est le prolongement des montagnes Rocheuses du Nouveau-Mexique et du Texas. Entre les deux principales chaînes de montagnes se trouve le plateau mexicain. La cordillère Néovolcanique marque la limite sud des sierras Madres occidentale et orientale. Le Mexique compte également d’autres chaînes de montagne moins importantes comme la chaîne californienne, la sierra Madre del Sur, la sierra Madre de Oaxaca, la sierra Madre de Chiapas, et la Meseta Central de Chiapas. Le point culminant du pays est le Pic d'Orizaba, qui se dresse à . Cours d’eau. Le Mexique possède peu de cours d’eau navigables. Le Río Grande est appelé « Río Bravo del Norte » par les Mexicains. Climat. Le Tropique du Cancer divise le pays en deux zones, l'une tempérée (climat subtropical humide) et l'autre au climat tropical. Le climat varie avec l’altitude. Les "tierras calientes" (terres chaudes), comprenant les plaines côtières, s’élèvent jusqu’à environ . Au nord du , les températures sont plus froides pendant les mois d’hiver, tandis qu’au sud, elles restent constantes le long de l’année. Elles varient néanmoins en fonction de l’altitude. Zones au sud du. Les pluies varient beaucoup selon la situation géographique et les saisons. Aride ou semi-aride en Basse Californie, le Nord-Ouest de l’État de Sonora, les plateaux du Nord et une partie des plateaux du Sud. Il pleut dans ces régions en moyenne entre 300 et par an. Dans les plateaux du Sud et notamment les régions les plus peuplées (comme Mexico et Guadalajara), il pleut en moyenne entre 600 et . Les basses terres le long du golfe du Mexique reçoivent plus de de pluies à l’année. La région au sud-est de Tabasco reçoit approximativement de pluies à l’année. Il neige occasionnellement sur certains des plateaux du nord et des hauts sommets de la Sierra Madre occidentale et de la Sierra Madre orientale. Saison humide ou saison des pluies. Le Mexique connaît une saison humide (ou saison des pluies) et une saison sèche marquées. La saison des pluies dure, dans la majeure partie du pays, de juin à mi-octobre. Il pleut nettement moins le reste de l’année. Février et juillet sont respectivement le mois le plus sec et le plus humide. Par exemple, la ville de Mexico reçoit environ de pluies en février et en juillet. Les régions côtières, et spécialement celle du golfe du Mexique reçoivent leurs précipitations maximales en septembre. Tabasco enregistre plus de de pluies pendant ce mois. Une petite partie de la côte nord-ouest du Mexique autour de la ville de Tijuana possède un climat méditerranéen avec des brumes importantes et une saison des pluies en hiver. Ouragans. Le Mexique est situé dans la ceinture des ouragans et toutes les régions côtières sont susceptibles de subir une de ces tempêtes de juin à novembre. Les ouragans de la côte Pacifique sont moins fréquents et souvent moins violents que ceux qui affectent la côte est du pays. Plusieurs ouragans frappent chaque année les côtes du golfe du Mexique et de la mer des Caraïbes, avec des vents violents qui peuvent dépasser les , mettent en péril la vie des habitants et provoquent des dégâts importants aux hôtels et habitations de la région. Environnement. Le Mexique est un des pays au monde à utiliser les plus fortes concentrations de pesticides. Il est aussi l'un des plus touchés par la déforestation, avec de forêts et de jungle disparaissant chaque année selon les données officielles. Le Mexique est le pays d'Amérique latine où les niveaux de pollution de l'air sont les plus élevés. Biodiversité. Le Mexique est un des dix-sept pays mégadivers identifiés en juillet 2000 par le programme des Nations unies pour l'environnement. Avec différentes, le Mexique héberge 10 à 12 % de la biodiversité mondiale. Le Mexique est le premier pays en nombre d'espèces de reptiles avec connues, second en nombre d'espèces de mammifères avec , le quatrième en nombre d'espèces d'amphibiens avec et quatrième en nombre d'espèces de plantes. Ce pays compte quelque d'oiseaux, dont 101 endémiques. Le Mexique est également considéré comme le second pays en écosystèmes et le quatrième en nombre total d'espèces. Près de sont protégées par la législation mexicaine. Le gouvernement mexicain a créé le Sistema Nacional de Información acerca de la Biodiversidad, qui se charge d'étudier et de promouvoir l'utilisation substantielle des écosystèmes. Au Mexique, sont considérés comme des zones naturelles protégées. Trente-quatre réserves de biosphère (écosystèmes inaltérés), soixante-quatre parcs nationaux, quatre monuments naturels, vingt-six aires pour protéger la flore et la faune, quatre zones pour la protection naturelle et dix-sept sanctuaires (zone comportant une diversité riche en espèces). La biodiversité est cependant menacée au Mexique à cause de la déforestation, en particulier dans les forêts tropicales humides. Économie. Agrégats macroéconomiques. Selon l'Organisation de coopération et de développement économiques (OCDE) : En 2018, 48 % de la population vit dans la pauvreté et 1 % des plus riches concentrent 36 % de la richesse nationale. Plus de trois millions d'enfants sont contraints de travailler en raison de la pauvreté de leur famille. La corruption représente un défi majeur pour l’économie mexicaine : d'après des études de la Banque mondiale, la corruption politique et économique pourrait représenter 9% du PIB. Quelque 60 % des actifs travaillent dans l'économie informelle, et 15 % aux États-Unis. Ces derniers absorbent 80 % des exportations mexicaines, ce qui place le pays latino-américain dans une situation de dépendance extrême qui le contraint bien souvent à accepter les exigences de Washington. Pétrole et gaz naturel. Même si le pétrole ne représente aujourd’hui qu’une partie des exportations mexicaines, les ressources financières dégagées par Pemex financent 30 % du budget de l’État. Cette situation a permis aux Mexicains de bénéficier d’une certaine clémence fiscale. En effet, le Mexique est le pays de l’OCDE et de toute l’Amérique latine dont le ratio recette fiscale / PIB est le plus faible (entre 15 et 17 % contre une moyenne de 30 % pour les pays de l’OCDE). Secteur primaire. Le secteur primaire représente 4 % du PIB et emploie 18 % de la population active. Secteur secondaire. L’industrie représente 26,5 % du PIB (2004) et emploie 24 % de la population active. Secteur tertiaire. Le secteur tertiaire représente 69,5 % du PIB et emploie 58 % de la population active. Le , le Mexique a annoncé un plan d'investissement de de dollars en coopération avec le secteur privé pour stimuler l'économie touchée par la pandémie de COVID-19 grâce à des projets d'infrastructure. Depuis la signature de l’ALENA. En , le Mexique, le Canada et les États-Unis signent l’Accord de libre échange d’Amérique du Nord (ALENA) créant ainsi la plus vaste zone de libre-échange du monde. L’ALENA a fortement transformé le Mexique qui passa d’une politique économique marquée par son fort protectionnisme à une politique économique basée sur le libre-échange et l’insertion dans l’économie mondiale. L’année même de la mise en application de l’ALENA, le Mexique connut une grave crise économique marquée par une forte dévaluation du peso. Les raisons de cette crises sont multiples : adaptation imposée du tissu économique à ce nouvel environnement économique, politique monétaire. En 2008, la dette extérieure ne représentait plus que 8 % du PIB contre 50 % en 1993. Le pourcentage de la dette publique en dollars a baissé de 95 % à 63 % en 2008. Depuis 1994, l'économie mexicaine s’est remise de la crise économique. Les exportations ont connu une croissance très importante, notamment en direction des États-Unis et du Canada. Les "maquiladoras" ou zones franches sont un des éléments importants de ce succès. Aujourd’hui, le Mexique représente 50 % des importations et exportations d’Amérique latine et est devenu la commerciale du monde. Le PIB mexicain en valeur est le plus élevé d’Amérique latine, devant le Brésil et l’Argentine et la économique selon ce même critère. Les cinq principaux pays investisseurs au Mexique sont par ordre décroissant les États-Unis, l'Espagne, le Canada, les Pays-Bas et la Suisse. En 2000, le Mexique connut sa première alternance politique depuis plus de avec l’arrivée au pouvoir de Vicente Fox. Ce dernier continua la politique économique de ses prédécesseurs avec une politique budgétaire et monétaire rigoureuse. L’inflation a fortement baissé et les finances publiques ont été fortement améliorées notamment grâce à la hausse du prix du pétrole dont le Mexique est le exportateur mondial. La dette publique ne représente plus aujourd’hui que 23,5 % du PIB et la dette extérieure mexicaine a été classée par Standard & Poor’s BBB soit le niveau le plus haut jamais atteint par le Mexique et la meilleure notation des grandes économies d’Amérique latine. Afin de diversifier les débouchés des exportations mexicaines (dont plus de 80 % sont faites avec les États-Unis et le Canada), le Mexique a signé un grand nombre de traités de libre-échange, notamment avec l’Union européenne, le Japon, Israël. Il existe aussi un traité de libre-échange avec les pays de l'AELE entré en vigueur en 2001. Entre 2001 et 2003, le Mexique connut une croissance économique médiocre (-0,3 % en 2001, +0,9 % en 2002 et +1,4 % en 2003). En effet, la Chine est devenue une concurrente importante du Mexique, le salaire dans les ateliers chinois étant en moyenne quatre fois moins élevé qu’au Mexique. Le Mexique doit donc adapter son modèle économique à cette nouvelle situation internationale, notamment à travers des réformes structurelles qui se font très lentement. Depuis 2004, la croissance économique s’est fortement accélérée : +4,3 % en 2004 et +3,8 % en 2005 (estimations), de nombreuses entreprises revenant au Mexique après être parties en Asie. Néanmoins, pour que cette reprise puisse être durable et que le Mexique puisse remplir les objectifs du millénaire dans la lutte contre la pauvreté qui touche encore 40 % de la population, d’importantes réformes structurelles doivent être entreprises. Las remesas, ces remises ou transferts de fonds de la part des émigrés mexicains pour leurs familles qui sont restées au Mexique ont représenté en 2005 un record de plus de de dollars. Cela est l’équivalent de la moitié de la valeur des exportations pétrolières du pays, qui représentent à leur tour moins de 10 % des exportations totales de biens, au contraire des décennies précédentes où les exportations pétrolières prévalaient dans la balance courante. Cette formidable manne est supérieure aux investissements étrangers au Mexique et permet d’améliorer la situation économique de nombreuses familles rurales. La corruption représente un défi majeur pour l’économie mexicaine : d'après des études de la Banque mondiale, la corruption politique et économique pourrait représenter 9 % du PIB. En dépit de l’augmentation du PIB (2,1 % en moyenne entre 2012 et 2014), les revenus des ménages ont baissé de 3,5 % au cours de cette période. Une grande partie des richesses produites étant captées par les grandes fortunes. Selon l’organisation Oxfam, les quatre plus grandes fortunes représentent en 2017 9,5 % du PIB mexicain, contre 2 % en 2002. Le , un nouvel accord commercial est signé entre le Mexique et les États-Unis, remplaçant l'ALENA. Démographie et urbanisme. Transition démographique. Pendant tout le , la population du Mexique a seulement doublé. Cette tendance continuera pendant les deux premières décennies du . En 1920, on assiste à une perte de deux millions d’habitants qui peut s’expliquer par la Révolution mexicaine entre 1910 et 1920. Le taux de croissance de la population s’est fortement accéléré entre 1930 et 1980, avec des chiffres supérieurs à 3 %. La population mexicaine doublait tous les vingt ans et à ce rythme on estimait que le Mexique compterait d'habitants en 2000. Le gouvernement fédéral créa alors le Conseil national de la population, CONAPO, avec pour mission d’établir des politiques de contrôle de la natalité et réaliser des études sur la population du pays. Ces mesures furent positives et le taux de croissance de la population baissa jusqu’à 1,6 % sur la période 1995-2000. Les projections de la CONAPO évaluent la population mexicaine, à la mi-2019, à . L'espérance de vie est passée de en 1895, à en 2005. On estime donc que le Mexique est rentré dans la dernière phase de transition démographique. Taux d'excédent naturel total de la population (chiffres 2005) : Le solde migratoire est traditionnellement négatif et s’élève à plus de par an. Les États-Unis restent la première destination. Même si aujourd’hui le Mexique a une population jeune (seulement 5,6 % de la population a plus de ), le vieillissement de la population a commencé et s’accélérera dans les prochaines années. Exode rural et urbanisation. Au début du , près de 90 % de la population vivait dans les zones rurales. Lors du recensement de 1960 la population urbaine devient majoritaire pour la première fois avec 50,6 % de la population mexicaine vivant dans les villes et grandes agglomérations. Le nombre de personnes qui habitait dans leur État natal était en 1895 de 96,6 % alors qu’en 1950 plus de 80 % des Mexicains habitaient dans un autre État que celui où ils sont nés. À travers ces chiffres on peut se rendre compte du phénomène de développement industriel des moyennes et grandes agglomérations mexicaines et l’exode rural qui y est lié. Aujourd’hui les Mexicains continuent à être très mobiles à l’intérieur du pays notamment entre les différentes agglomérations. Néanmoins, on peut considérer que l’exode rural massif des décennies précédentes fait partie du passé. Les entités fédératives qui concentrent la plus grande partie de la population mexicaine sont Mexico, l'État de Mexico, Jalisco, Nuevo León, Puebla et Veracruz. L'aire urbaine de Mexico, avec plus de d'habitants, se classe deuxième au rang mondial fin 2012, après celle de Tokyo ( d'habitants) et devant Séoul ( d'habitants). Guadalajara et Monterrey sont respectivement les deuxième et troisième grandes villes du pays avec chacune plus de trois millions d’habitants. Indigènes et émigration mexicaine. Le Mexique, avec environ d'habitants en 2020, est le pays hispanophone le plus peuplé, largement devant l'Espagne, et le troisième pays le plus peuplé du continent américain après les États-Unis et le Brésil. Au niveau mondial c’est le dixième pays le plus peuplé après la Chine, l'Inde, les États-Unis, l'Indonésie, le Brésil, le Pakistan, le Nigeria, le Bangladesh et la Russie. La population qui parle les langues indigènes (unique critère retenu par l’INEGI pour désigner la population indigène) passa de 17 % en 1895 à seulement 7 % en 2000. Néanmoins en nombre absolu elle a crû en passant d'un million en 1895 à sept millions en 2000. Les spécialistes s'accordent pour dire qu’il y a plutôt d’indigènes qui parlent ou non une langue indigène au Mexique. Jusqu'en 1980, les populations indigènes émigraient en direction des métropoles régionales proches de leur lieu de naissance, mais, à partir des années 1990, l'émigration indigène se fit massivement en direction des États-Unis. Les salaires plus élevés aux États-Unis alimentaient inlassablement le flux de l'émigration. Les États-Unis ont entrepris de renforcer leur frontière avec le Mexique et des murs sur la frontière ont été installés en différents endroits à partir de 1996. Les États-Unis sont le pays où vivent le plus de Mexicains après le Mexique. Il se dit que Los Angeles, la plus grande ville de Californie est aussi la deuxième ville mexicaine pour ce qui est de la population car le nombre d'immigrés et de descendants de Mexicains dépasse largement les quatre millions de personnes qui vivent à Guadalajara, seconde métropole mexicaine. La présence des Mexicains de l’autre côté du Río Grande commence lors de l’annexion par les États-Unis d’immenses territoires mexicains. Ainsi un certain nombre de Mexicains se trouvèrent "de facto" en territoire américain mais gardèrent leurs coutumes et leur langue. L’État du Nouveau-Mexique illustre bien cela. À ce nombre, il faut ajouter le nombre important de "braceros" qui partirent vivre aux États-Unis, parfois temporairement grâce à un accord laboral entre les gouvernements de Washington et de Mexico. Les dernières crises économiques du Mexique ont favorisé l’émigration vers le nord et on estime qu’au début du près de de Mexicains ou descendants de Mexicains vivent aux États-Unis. La grande partie de ceux-ci se situe en Californie, au Texas et au Nouveau-Mexique. On compte aussi de nombreux citoyens mexicains dans l'Union européenne, surtout en Espagne et en Allemagne. La Suisse compte de nombreux binationaux qui occupent souvent des postes de haute qualification professionnelle. Langues. La Loi générale des droits linguistiques des peuples autochtones de 2003 concède le statut de « langue nationale » à l'espagnol et aux langues autochtones. Même s'il n'existe pas de déclaration constitutionnelle qui fasse de l'espagnol la langue officielle, c'est celle-ci qui est utilisée pour tous les documents officiels et est parlée par plus de 99 % des Mexicains. Selon le recensement de 2015 au Mexique, les langues autochtones sont parlées par de et plus, soit plus de 6 % des Mexicains ; parmi ceux-ci, 12,32 % ne parlent pas l'espagnol, soit moins de 1 % de la population totale. Aussi, avec les échanges très importants avec les États-Unis, environ 5 % des Mexicains parleraient couramment l'Anglais en seconde, ou troisième langue. Les deux langues autochtones les plus parlées sont : D'autres langues mayas sont également parlées : le tzotzil, le tseltal et le ch'ol avec quelques centaines de milliers de locuteurs chacune, essentiellement dans le Chiapas. Ces langues sont apparentées aux différents dialectes du maya classique oriental que l'on retrouve sur les monuments et codex de la civilisation maya. L'origine des langues autochtones remonte à plus de cinq millénaires. De l'époque dite classique (entre 300 et 800 ap. J.-C.) à la conquête espagnole, certaines de ces langues (en particulier le maya classique oriental et le nahuatl) furent écrites sur des bâtiments, de la poterie et des codex, grâce à un système d'écriture hiéroglyphique. Ces langues ont eu une grande importance tout au long de l'histoire et la culture mexicaine. Ainsi, le nom du pays pourrait trouver son origine dans la langue nahuatl. De nombreux mots espagnols sont d'origine amérindienne, par exemple : sans compter les nombreux produits de l'échange colombien. De fortes communautés anglophones représentent 50 % de la population de villes telles que San Miguel de Allende, Chapala et Taxco. Chipilo, une ville de l'État de Puebla, est peuplée de descendants de vénitiens où y parlent toujours le vénitien. Les mennonites des États de Chihuahua, Zacatecas et Durango parlent encore le bas saxon. Ils sont si l'on y ajoute ceux des communautés de Tamaulipas et de Campeche. Religion. Le Mexique est un pays laïque. Les Mexicains sont très majoritairement catholiques. Le syncrétisme entre les traditions religieuses européennes et préhispaniques indigènes (et, dans une moindre mesure, africaines) y est fréquent, surtout dans les populations rurales. Il se manifeste notamment dans le culte très populaire de Notre-Dame de Guadalupe (qui est le plus répandu au Mexique), celui de la Santa Muerte, les traditions du jour des morts, la santeria (qui n'est pas traditionnelle au Mexique mais d'introduction récente par des émigrés cubains) et dans les rituels de nombreux groupes d'origine indigène. La politique anticléricale, due à la Constitution de 1917, a pris fin en 1991 avec l’adoption d’amendements constitutionnels qui accordent un statut légal aux institutions religieuses et autorisent notamment l’organisation d’écoles paroissiales. Éducation. Aujourd’hui la grande majorité des indigènes sont bilingues (12 % des hommes et près de 21 % des femmes ne parlant pas espagnol en 2005). En 1970, le Mexique fut le deuxième pays au monde (après l'Australie) à mettre en place un système d’enseignement à distance. Les écoles qui utilisent ce système sont appelées télécollèges. La diffusion de ce système s’étend aussi à certains pays d’Amérique centrale, à la Colombie et même à certains États du Sud des États-Unis. Les trois universités publiques mexicaines les plus connues sont l’université nationale autonome du Mexique (UNAM) fondée en 1551, l'université autonome métropolitaine (UAM) et l’Institut polytechnique national (IPN) qui ont un grand prestige dans toute l’Amérique latine. Les quatre principales universités privées de reconnaissance internationale sont l’Institut technologique d’études supérieures de Monterrey (ITESM) qui est souvent désigné comme le "TEC de Monterrey", l’Institut technologique autonome de Mexico (ITAM), l’université Anáhuac (ANAHUAC) et son réseau d'universités affiliées (Espagne, Italie, et Chili) et l'université ibéro-américaine. Ces universités ont connu une croissance importante et ont su nouer des partenariats avec des universités étrangères prestigieuses. Architecture. Architecture moderne (). L'architecture au Mexique a joué un rôle crucial dans le développement social de la population mexicaine. En effet, au , le peuple voyait en l'architecture moderne un tremplin vers le progrès, de plus grands droits et libertés. De plus, la neutralité du pays lors de la Seconde Guerre mondiale lui a permis de continuer à développer son architecture, contrairement à la majorité des pays européens. Par ailleurs, le travail de Luis Barragán est aujourd'hui grandement représentatif de l'architecture mexicaine du . Ses constructions "émotionnelles" se trouvent pour la plupart en banlieue de Mexico. La symbiose entre l'architecture moderne du Style international et des caractéristiques ancestrales de l'architecture mexicaine est l'un de ses concepts revendiqués, tout en prenant en compte les rites et habitudes des mexicains, démontré par exemple par la large utilisation de la cour entourée de murs aveugles ou bien la présence de pièces tournées vers l'intérieur de la maison. Système de santé. L' qui est l'organe étatique chargé de la santé publique est particulièrement affecté par la corruption et le sous-investissement. La crise sanitaire provoquée par la pandémie de Covid-19 en 2020 a mis en exergue ces problèmes. Le gouvernement mexicain reconnait un « désastre », faisant état de graves irrégularités dans l’achat de fournitures et de médicaments, des professionnels sans formation adéquate, de nouveaux hôpitaux jamais achevés, des patients abandonnés à la mort faute de soins. Devant l’urgence, des hôpitaux militaires ont été réquisitionnés, tandis que les autorités ont fait appel à des médecins cubains pour assurer le fonctionnement de certaines unités de soins intensifs dans les zones les plus touchées. Dans les régions concernées par les séismes de 2017, des hôpitaux sont restés en ruine, les budgets dédiés à leur reconstruction s'étant évaporés. Au début du mois de mars 2020, le président Andrés Manuel López Obrador, en fonction depuis décembre 2018, a lancé de graves accusations contre ses prédécesseurs, en évoquant « des politiciens qui vendaient des médicaments ou protégeaient les distributeurs », multipliant par dix le prix de certains produits. Le système d’achat public de médicaments a été réorganisé en 2019 et les accords avec les fournisseurs suspectés de corruption suspendus, mais ces mesures ont favorisé des pénuries de traitements vitaux, certains distributeurs jouant la carte du boycott. Le système de santé a par ailleurs connu une privatisation rampante : l’investissement privé dans le secteur de la santé s’est envolé, tandis que le Mexique consacre à présent moins de 6 % de son PIB aux dépenses de santé. Pour Hugo López-Gatell Ramírez, responsable de la lutte contre le Covid-19, « contrairement à ce que suggérait l’optimisme des administrations précédentes, notre système a accumulé au cours des trois ou quatre dernières décennies un énorme retard sur des aspects fondamentaux pour garantir le droit à la protection de la santé ». L’avortement est interdit dans la plupart des États du Mexique, hormis à Mexico depuis 2007 et dans l’État de Oaxaca depuis 2019. Ailleurs, une femme qui avorte peut risquer plusieurs années de prison. Les femmes vivant dans des états où l'avortement est criminalisé peuvent avoir recours à un juge afin que leur demande soit réexaminée. Le juge peut donner l'ordre que l'avortement soit pratiqué. Forces armées. Les effectifs totaux des forces armées sont estimés en 2008 à et femmes : Les forces armées dépendent du Secrétaire de la défense nationale pour les armées de terre et de l'air, La marine dépendant elle du secrétaire de la marine. Le président de la République en est le chef suprême. Criminalité. Le Mexique compte parmi les pays ayant un taux d'homicides volontaires les plus élevés du monde. En 2017, le pays est considéré comme le deuxième pays le plus meurtrier au monde par l'International Institute for Strategic Studies (IISS) avec commis pendant l'année 2016. Les enlèvements n'ont cessé d'augmenter depuis les années 1980 ( recensés par le gouvernement en 2013). Chaque jour, Mexicaines sont agressées et sept sont assassinées. Lutte contre la criminalité. L'histoire du crime organisé remonte à la fin des années 1960. Pendant la guerre du Vietnam, le Mexique est devenu le premier fournisseur de l'armée américaine pour les substances tirées de l'opium et utilisées en pharmacie. Cette situation a ouvert la voie à la naissance aux États-Unis d'un marché clandestin de la drogue. Dans les années 1980-1990, les cartels de Colombie ont donné un rôle important au Mexique, devenu la route empruntée le plus souvent pour envoyer la drogue aux États-Unis. Peu à peu, les cartels mexicains ont pris leur indépendance des gangs colombiens et sont devenus particulièrement puissants. La lutte contre les activités des narcotrafiquants constitue une préoccupation majeure au Mexique. Le président, Felipe Calderón, au pouvoir entre 2006 et 2012, avait décidé d'engager les forces militaires dans le combat contre les cartels de la drogue et a défini le combat contre ces gangs comme l'une des principales priorités de son administration. Cependant, sur ce point, le bilan de Calderón a été mitigé. Entre 2007 et 2011, les violences liées aux narco-trafiquants ont fait plus de au Mexique, notamment dans les villes du nord du pays. L'Institut national de statistiques et géographie avance des chiffres bien plus élevés en 2012 : ont été enregistrés en 2011 et pour les années 2007-2011, le total s'élèverait à assassinats. En 2019, le nombre de morts dues à la décision en 2006 de Felipe Calderón de « militariser » la réponse des autorités s'élève à plus de sans compter les dizaines de milliers de disparus. En 2013, durant la présidence de Peña Nieto, le Mexique a enregistré une baisse de 17 % du nombre d'assassinats. Entre décembre 2012 et avril 2013, les homicides ont baissé de 18 %, ce qui représente en moins sur cette période. Les six premiers mois du mandat du président Peña Nieto ont ainsi été marqués par une baisse de près de 20 % des décès liés au crime organisé. Le 22 août 2014, le président met sur pied une nouvelle gendarmerie nationale dont les missions sont principalement axées sur la répression des bandes criminelles. Peña Nieto s'est aussi illustré par un fait divers d'envergure : l'arrestation en 2013 de Miguel Treviño, le chef des Zetas, le plus puissant gang du Mexique. La ville de Ciudad Juárez, après être devenue la capitale mondiale du crime, a enregistré en 2011 une baisse de près de 60 % de son nombre d'homicides. Malgré ces efforts, le Mexique a connu une augmentation de 11 % des homicides entre 2015 et 2016 d'après l'IISS. Selon les chiffres officiels, l'année 2017 est la plus violente en deux décennies avec . Selon des statistiques portant sur l'année 2017, 75 % des homicides au Mexique seraient imputables au crime organisé. Certains experts estiment que . Selon Ricardo Ravelo, les parrains mafieux et les grands barons contrôleraient plus de 70 % des du pays. En réalité, s'il est vrai que certains cartels disposent d'une influence sur le pouvoir politique, les chiffres révèlent que la situation n'est pas aussi simpliste. Les chiffres stipulent que l’activité mafieuse ne pèse pas très lourd sur le dynamisme économique du Mexique, activité qui coûterait à peine 2 % de son PIB au pays. Le plus grand pays hispanophone de la planète dispose en effet de bien d'autres atouts pour être indépendant des simples revenus du trafic. L'économie du Mexique est la quatorzième plus importante de la planète : le pays est premier producteur mondial d’argent, le septième de pétrole, le quatrième de gaz, le dixième d’or et est classé parmi les plus grands producteurs mondiaux de l'alimentaire (café, sucre, maïs, etc.). Le Mexique enregistre assassinats en 2018, soit un nouveau record. L'augmentation du nombre d'assassinats est due à des politiques sécuritaires défaillantes et des inégalités croissantes. Ce record est à nouveau battu en 2019 avec homicides dont « féminicides ». De plus, près de ont disparu au Mexique en 2019 et n'ont pas été retrouvées. Prévu pour détenus, le système pénitentiaire mexicain en accueille près de en 2020. Au total, 63 % des prisons ne respectent pas les normes d’hygiènes, selon la Commission mexicaine des droits de l’homme. En juillet 2021, le président Andrés Manuel López Obrador alloue des pesos (environ de dollars américains) de crédits supplémentaires à la Garde nationale du Mexique. En de gouvernement d'Andrés Manuel López Obrador le total des morts violentes est de , dont féminicides, le nombre de morts violentes pour le mois de juin 2022 de et de pour celui de juillet, malgré cela il s'agit du mois de juillet le moins violent des cinq dernières années. En mars 2021, le chef du commandement nord des États-Unis, Glen VanHerck, estime que 30 à 35 % du territoire mexicain est contrôlé par les cartels. Culture. Cinéma. Fernando de Fuentes. Il fut un pionnier du cinéma parlant et réalisa trois des plus grands classiques du cinéma mexicain : "El compadre Mendoza" (1934), "Vámonos con Pancho Villa" (1936) et "Allá en el Rancho Grande" (1936). Lupita Tovar se fera marqué dans le film de "Drácula" en 1931. Le cinéma mexicain est marqué, dans les années 1950 et 1960, par le réalisateur Ismael Rodriguez, surnommé le « cinéaste du peuple mexicain » et par ces acteurs fétiches María Félix, Pedro Infante et Luis Aguilar ainsi que les films du réalisateur Luis Buñuel avec son acteur favori Claudio Brook. Les années 1990 jusqu'à aujourd'hui sont marquées par des réalisateurs reconnus internationalement comme Alejandro González Iñárritu ("Birdman", "The Revenant"), Alfonso Cuarón (Gravity, "Harry Potter et le Prisonnier d'Azkaban") et Guillermo del Toro ("La Forme de l'eau, Pacific Rim"). Sport. Les sports dans lesquels les Mexicains ont connu un relatif succès international sont la boxe et le football. Ce sont les sports les plus populaires du pays. Le Mexique a accueilli les Jeux olympiques d'été de 1968, ainsi que deux coupes du monde de football, en 1970 et en 1986. Le sport national est un sport équestre appelé « », juste après vient le baseball sur la côte atlantique. Les principales équipes de football sont Tigres UANL, Club América, Club de Fútbol Monterrey, Club Deportivo Guadalajara, Cruz Azul Fútbol Club, Club Universidad Nacional, Club de Fútbol Atlas et Deportivo Toluca Fútbol Club. Gastronomie. La cuisine mexicaine a été mise en 2010 sur la liste représentative du patrimoine culturel immatériel. Celle-ci est en fait constituée par une multitude de cuisines régionales qui sont très riches en subtilité et raffinement, très variées, et qui utilisent un grand nombre d’ingrédients. Son origine date de la conquête espagnole, même si elle a de nombreuses influences indigènes. D’un côté, le maïs, les piments, les haricots noirs, les courges, l’avocat, la patate douce, les tomates, le cacao, la vanille, la dinde et de nombreux fruits et condiments originaires du nouveau monde. De l’autre côté, les Espagnols introduisirent les viandes des animaux domestiqués dans l’ancien monde tels que le porc, le bœuf et le poulet, mais aussi le poivre en grains, le sucre, le lait et ses dérivés, le blé, et le riz, les agrumes et une multitude d’ingrédients qui forment aujourd’hui une part importante de l’alimentation des Mexicains. De cette fusion naissent le guacamole, le pozole, le mole et les tamales dans leurs formes actuelles, le chocolat, un grand répertoire de grignotages mexicains ("antojitos"). La nixtamalisation du maïs et le broyage sur "molcajete" (mortier traditionnel) et "metate" ont fait place à des procédés industriels modernes. L'atole est à base de Maïzena et sa variante, le champurrado, qui lui est un atole à base de maïs ne sont pas des boissons mais se consomment au petit-déjeuner et le soir. On trouve des boissons alcoolisées régionales telles que le rompope. Il existe une confiture de lait de chèvre, la cajeta. Les flans à la vanille et au caramel y sont très populaires. Le Mexique produit de nombreux spiritueux dont la tequila faite à partir de la distillation de l’agave bleue. 50 % de la production de tequila est exporté vers les États-Unis. La tequila possède une AOC et ne peut provenir que d’une région formée de 181 communes réparties sur cinq États (dont 125 dans l’État de Jalisco). Les mexicains sont en 2012 les plus gros consommateurs d'œufs (consommés principalement au petit-déjeuner) par personne au monde. Arts. Le Museo de Arte Popular (MAP) consacré à l'art populaire mexicain a ouvert ses portes en 2006. Il est installé dans un immeuble Art déco qui a été construit en 1928 pour héberger la caserne des pompiers. Très endommagé par le tremblement de terre de 1985, le bâtiment a été abandonné durant plus de dix ans. Restauré, il abrite aujourd'hui une collection d'artisanat. Plus de mille pièces, réparties sur trois étages : les animaux fantastiques fabriqués en papier mâché ou en bois (alebrijes), des ex-voto des masques, des costumes et des vêtements brodés et les mille représentations de la mort à la mexicaine. Quelques personnalités : Musique. Le terme de mariachi désigne tout à la fois un type de formation musicale originaire du Mexique, puis le style de musique associé, et une culture musicale. Un groupe de mariachis est constitué d'au moins deux violons, deux trompettes, un joueur de guitare espagnole, un vihuela et d’un "guitarrón". Certaines formations comportent plusieurs dizaines de musiciens. Les mariachis sont originaires de l’État de Jalisco. De nombreux groupes ou musiciens américains ont été influencés par la musique mexicaine : Flaco Jimenez, Los Lobos… Des styles musicaux et danses populaires sont la "banda" (Nord) et la "salsa" (reste du pays). Chaque région possède sa musique au même titre que sa cuisine et son artisanat. Cinq d'entre elles se distinguent par la richesse et la variété de leur répertoire populaire : Jours fériés et fêtes. Jours fériés officiels Autres fêtes Tourisme. Le tourisme au Mexique est une activité importante, aussi bien pour les Mexicains qui choisissent d'y passer leurs vacances, que pour les étrangers qui viennent y faire un séjour. Le Mexique est un pays de hauts plateaux enserrés entre deux chaînes montagneuses (Sierra Madre occidentale et orientale) qui s’abaissent vers d’étroites plaines côtières à l’est et à l’ouest. Ces deux chaînes de montagnes se rejoignent au sud-est du pays où elles forment la Sierra Madre du sud. Au nord-ouest, la Basse-Californie est une longue et étroite péninsule qui s’étend sur et prolonge la Sierra Nevada américaine. Patrimoine mondial. Sites classés au patrimoine mondial de l’UNESCO Codes. Le Mexique a pour codes : |
Métal En chimie, les métaux sont des matériaux dont les atomes sont unis par des liaisons métalliques. Il s'agit de corps simples ou d'alliages le plus souvent durs, opaques, brillants, bons conducteurs de la chaleur et de l'électricité. Ils sont généralement malléables, c'est-à-dire qu'ils peuvent être martelés ou pressés pour leur faire changer de forme sans les fissurer, ni les briser. De nombreuses substances qui ne sont pas classées comme métalliques à pression atmosphérique peuvent acquérir des propriétés métalliques lorsqu'elles sont soumises à des pressions élevées. Les métaux possèdent de nombreuses applications courantes, et leur consommation s'est très fortement accrue depuis les années 1980, au point que certains d'entre eux sont devenus des matières premières minérales critiques. En astrophysique, et notamment en physique stellaire, on appelle métal tout élément chimique autre que l'hydrogène et l'hélium. Ces éléments sont produits par nucléosynthèse stellaire à partir d'hydrogène et d'hélium par fusion nucléaire, processus à l'origine de l'énergie libérée par les étoiles. De ce point de vue, la métallicité d'une étoile est la proportion d'éléments autres que l'hydrogène et l'hélium qui la constituent. Liaison métallique et structures cristallines des métaux. Les électrons des matériaux métalliques purs ou alliés se distribuent dans des niveaux d'énergie formant un continuum entre la bande de valence, occupée par les électrons de valence, et la bande de conduction, occupée par les électrons libres injectés thermiquement depuis la bande de valence par-delà le niveau de Fermi. Ces électrons libres forment une liaison métallique délocalisée dans tout le volume du matériau. On peut se représenter un métal comme un réseau tridimensionnel de cations métalliques baignant dans un fluide d'électrons très mobiles. Le modèle de l'électron libre permet de calculer la conductivité électrique ainsi que la contribution des électrons à la capacité calorifique et à la conductivité thermique des métaux, bien que ce modèle ne tienne pas compte de la structure du réseau cristallin du métal. Certains matériaux, comme les intermétalliques, présentent des liaisons partiellement métalliques et sont donc à la limite des céramiques. La nature électronique particulière d'une liaison métallique est responsable de plusieurs propriétés macroscopiques des métaux : le fluide d'électrons libres assure à la fois une conductivité électrique et une conductivité thermique élevées en permettant la circulation d'un courant électrique et en favorisant la propagation des phonons dans le matériau ; elle rend compte de la ductilité, de la malléabilité et de la plasticité des métaux en maintenant leur cohésion en cas de déformation brisant les autres liaisons interatomiques ; elle confère aux métaux leur absorbance et leur éclat particulier par son interaction avec les ondes électromagnétiques, ainsi que leur point de fusion et leur point d'ébullition plus élevés que les non-métaux en renforçant les autres types de liaisons interatomiques. Ces dernières, notamment les liaisons covalentes de coordination, sont responsables des différentes structures cristallines formées par les métaux solides : la plus fréquente est la structure cubique centrée, suivie de la structure hexagonale compacte et de la structure cubique à faces centrées. Dans une structure cubique centrée, chaque atome est situé au centre d'un cube formé par ses huit atomes voisins. Dans les structures cubique à faces centrées et hexagonale compacte, chaque atome est entouré par douze autres atomes, mais l'empilement de ces atomes diffère entre ces deux structures. Certains métaux peuvent adopter des structures cristallines différentes selon la température et la pression auxquels ils sont soumis. Tous les métaux — notamment les alliages — ne sont cependant pas cristallins, et il peut se former des alliages métalliques amorphes par trempe rapide d'alliages métalliques fondus. On utilise pour ce faire des métaux fondus dont les atomes ont des tailles sensiblement différentes, ce qui limite la cristallisation lors d'un refroidissement rapide. Également appelés verres métalliques, les alliages métalliques amorphes présentent, par rapport aux métaux usuels, une meilleure ténacité, une moindre fragilité, ainsi qu'une plus grande résistance à la déformation et à la corrosion. La force d'une liaison métallique dépend notamment du nombre d'électrons libres par atome métallique, et atteint un maximum au sein des métaux de transition vers le milieu du bloc d au niveau de la et au-delà, parmi les métaux réfractaires. Les liaisons métalliques subsistant à l'état liquide, contrairement aux autres liaisons interatomiques, le meilleur indicateur de la force de la liaison métallique d'un métal donné est sa température d'ébullition plutôt que sa température de fusion. Éléments chimiques métalliques. Dans le tableau périodique des éléments, les métaux occupent la gauche, le centre et une partie de la droite du tableau, séparés des non-métaux par les métalloïdes. Parmi les dont les propriétés chimiques ont été un tant soit peu caractérisées, on dénombre environ et . La ligne de démarcation entre métaux et non-métaux du tableau ci-contre est conventionnelle : elle est arbitraire et ne marque pas une rupture nette des propriétés macroscopiques entre éléments, dont la transition entre métaux et non-métaux est relativement continue, donnant lieu à la superposition de propriétés métalliques et non métalliques chez certains métalloïdes. De plus, un même élément peut exister selon plusieurs variétés allotropiques aux propriétés davantage métalliques pour les unes et davantage non métalliques pour les autres : un bon exemple est l'étain, qui existe d'une part sous une grise de structure cubique de type diamant, stable aux basses températures, aux propriétés métalloïdes proches d'un non-métal, et, d'autre part, sous une blanche de structure tétragonale, dont les propriétés sont celles d'un métal pauvre. Les propriétés des métaux eux-mêmes ne sont pas uniformes, et l'on a coutume de les classer en familles plus ou moins informelles qui rendent compte des différences de propriétés entre ces éléments. Du point de vue chimique, le caractère métallique est d'autant plus marqué qu'on se déplace vers la gauche et vers le bas du tableau. Ainsi, les éléments les plus métalliques sont les métaux alcalins, tandis que les moins métalliques sont les non-métaux diatomiques, notamment les halogènes. Entre les deux, d'autres familles d'éléments sont traditionnellement définies, comme les métaux alcalino-terreux, les lanthanides, les actinides, les métaux de transition et les métaux dits « pauvres », ces derniers étant les métaux dont les propriétés métalliques sont les moins affirmées. Du point de vue pratique, il existe une grande variété de termes désignant des familles d'éléments métalliques et d'alliages. On parle de métaux ferreux et non ferreux selon qu'on considère les alliages contenant ou dépourvus de ferrite, respectivement. On parle de métaux nobles pour désigner les éléments métalliques résistants à la corrosion et à l'oxydation dans l'air humide : ce sont le ruthénium, le rhodium, l'argent, l'osmium, l'iridium, le platine et l'or ; le mercure est parfois également considéré comme un métal noble, tandis que le titane, le niobium et le tantale, qui sont pourtant très résistants à la corrosion, ne sont pas considérés comme des métaux nobles. On parle de métaux précieux pour désigner les métaux les plus rares et dont la valeur marchande est la plus élevée, comme typiquement l'or, l'argent, le platine et le palladium, qui ont chacun un code monétaire ISO 4217 : XAU, XAG, XPT et XPD respectivement ; les platinoïdes sont également considérés comme des métaux précieux. On parle de métaux réfractaires pour désigner les métaux particulièrement résistants aux températures élevées et à l'usure : ce sont typiquement le niobium, le molybdène, le tantale, le tungstène et le rhénium ; le technétium est également réfractaire, mais n'est généralement pas mentionné comme tel car il est synthétique et radioactif. Propriétés des métaux. Propriétés physiques. Les métaux purs ont le plus souvent une conductivité électrique, une conductivité thermique et une masse volumique élevées. L'argent est ainsi le meilleur conducteur électrique (), suivi par le cuivre (), l'or () et l'aluminium (). La conductivité électrique du fer est de , tandis que celle de l'acier au carbone 1010 (fer à 0,10 % de carbone) est de seulement , ce qui illustre l'effet des impuretés sur la conductivité des métaux. Bien que la plupart des métaux aient une masse volumique supérieure à celle de la plupart des non-métaux, celle-ci est très variable selon les matériaux considérés. Parmi les corps simples métalliques, le lithium est le moins dense ( à ) tandis que l'osmium est le plus dense (). Les métaux alcalins (dont fait partie le lithium) et alcalino-terreux sont les moins denses des métaux ; ils sont également les moins durs, et les métaux alcalins ont un point de fusion particulièrement bas : hormis le lithium, ils sont tous liquides à . La densité élevée de la plupart des métaux provient de leur structure cristalline compacte. Les métaux sont en outre généralement caractérisés par une bonne malléabilité et une grande ductilité qui leur permettent de se déformer sans se briser. Ainsi, le cuivre pur peut être étiré pour former des fils électriques, des tuyaux (plomberie), être mis en plaque et martelé en forme de casseroles ; l'or pur peut également être mis sous forme de feuilles très fines. À l'inverse, certains éléments d'alliage permettent de durcir le métal : c'est par exemple le cas du carbone qui durcit le fer pour donner de l'acier, de l'étain qui durcit le cuivre pour donner le bronze, ou encore de l'argent et du cuivre qui durcissent l'or. La force des liaisons métalliques est la plus élevée aux environs du centre de la famille des métaux de transition, au niveau des métaux réfractaires, car ces éléments ont un grand nombre d'électrons délocalisés dans leur structure. D'autres facteurs entrent cependant également en ligne de compte, comme le rayon atomique, le numéro atomique, le nombre d'orbitales liantes, la superposition des énergies des orbitales et le type de structure cristalline ; les structures cubiques centrées donnent ainsi des liaisons métalliques moins fortes que les structures cubiques à faces centrées et hexagonales compactes car ces dernières ont une coordinence plus élevée, c'est-à-dire qu'ils lient davantage d'atomes voisins que la première. Les métaux ont une surface généralement brillante, et sont opaques dès que leur épaisseur dépasse quelques micromètres ; les feuilles d'or transmettent néanmoins une lumière verte. Propriétés mécaniques. La déformation élastique des métaux peut être modélisée par la loi de Hooke lorsque la déformation est une fonction linéaire de la contrainte. L'application de forces supérieures à la limite d'élasticité ou le chauffage peuvent conduire à une déformation permanente de l'objet, ce qui correspond à une déformation plastique. Cette modification irréversible de la disposition des atomes du matériau peut résulter de l'application : L'écoulement visqueux autour des joints de grains, par exemple, peut donner lieu au fluage ou la fatigue du métal. Il peut également contribuer à d'importants changements dans la microstructure, comme la croissance des grains et l'accroissement localisé de la densité du matériau par élimination de la porosité intergranulaire. De plus, la nature non directionnelle des liaisons métalliques pourrait contribuer de manière significative à la ductilité des métaux solides. Propriétés magnétiques. Quelques métaux présentent des propriétés magnétiques remarquables comme le ferromagnétisme. Ce sont notamment, à température ambiante, le fer, le cobalt et le nickel. Certaines terres rares (lanthanides dans la classification périodique) sont également ferromagnétiques à basse température. Les propriétés magnétiques varient avec les alliages, ce qui peut être mis à profit pour créer des aimants puissants ou annuler le magnétisme d'un métal comme le fer. Propriétés des oxydes. Les métaux ont tendance à former des cations en perdant des électrons. Le sodium peut ainsi perdre un électron pour former le cation Na, le calcium deux électrons pour former le cation Ca, le fer deux électrons pour former le cation ferreux Fe ou trois électrons pour former le cation ferrique Fe. Ces ions métalliques se retrouvent en solution ou dans des sels, comme le chlorure de lithium LiCl ou le sulfure d'argent . Les métaux réagissent avec l'oxygène de l'air pour former des oxydes de façon plus ou moins rapide : le fer forme de la rouille en plusieurs mois, voire années, tandis que le potassium brûle en quelques secondes. Les réactions suivantes sont des exemples d'oxydation de métaux : Les métaux de transition tels que le fer, le cobalt et le nickel s'oxydent plus lentement car leur oxydation forme une couche de passivation qui protège l'intérieur du matériau. Certains forment une couche imperméable qui bloque complètement la progression de l'oxydation et permet de conserver pendant des décennies à la fois leur éclat métallique et leurs bonnes propriétés conductrices de l'électricité : ce sont par exemple l'aluminium, le magnésium, l'acier inoxydable et le titane. Les oxydes métalliques sont généralement basiques, par opposition aux oxydes des non-métaux, qui sont plutôt acides ; les oxydes métalliques acides se rencontrent avec les états d'oxydation très élevés, comme avec le trioxyde de chrome , l'heptoxyde de dimanganèse et le tétroxyde d'osmium , qui présentent des réactions strictement acides. D'autres métaux, tels que le palladium, le platine et l'or ne réagissent pas du tout à l'air libre : pour cette raison, ils sont appelés métaux nobles. La corrosion des métaux peut être empêchée par leur peinture, leur anodisation ou encore l'apposition d'un revêtement. S'agissant d'une réaction électrochimique, il faut, pour que la protection soit efficace, utiliser un métal plus réducteur que le métal, sinon le revêtement peut favoriser la corrosion, surtout en cas de rayures. Alliages. Un alliage est un mélange de deux éléments chimiques ou davantage dont le principal constituant est un métal. La plupart des métaux purs sont trop mous, trop fragiles ou trop réactifs pour pouvoir être utilisés tels quels. Il est possible de moduler les propriétés des alliages en faisant varier les proportions relatives de leurs différents constituants. Il s'agit généralement de les rendre moins fragiles, plus durs, plus résistants à la corrosion, ou encore de leur donner une couleur et un éclat plus attrayants. De tous les alliages métalliques utilisés de nos jours, ceux du fer — acier, , acier à outils, acier au carbone, acier inoxydable, fonte par exemple — en représentent l'essentiel de la production, aussi bien en valeur qu'en volume. Le fer allié au carbone donne des aciers de moins en moins ductiles et résistants à mesure que le taux de carbone augmente. L'addition de silicium donne du ferrosilicium, souvent allié à la fonte, tandis que l'addition de chrome, de nickel et de molybdène à des aciers au carbone (à plus de 10 %) donne de l'acier inoxydable. Outre les alliages de fer, ceux de cuivre, d'aluminium, de titane et de magnésium sont également importants d'un point de vue économique. Les alliages de cuivre sont connus sous forme de bronze depuis l'âge du bronze. Le billon était un alliage utilisé jusqu'au Moyen Âge pour faire des pièces de monnaie et constitué le plus souvent essentiellement de cuivre avec un peu d'argent et parfois de mercure. De nos jours, le bronze désigne spécifiquement un alliage de cuivre et d'étain, tandis que le laiton est un alliage de cuivre et de zinc, et que le maillechort est un alliage de cuivre, de zinc et de nickel. Ces alliages ont divers usages industriels, notamment dans les installations électriques. Les alliages d'aluminium, de titane et de magnésium ont été développés plus récemment, et sont intéressants en raison de leur grande résistance mécanique pour une masse volumique plutôt faible ; leur coût de revient est cependant élevé, ce qui restreint leur utilisation aux applications de haute technologie pour lesquelles les performances sont plus importantes que le coût. Parmi les différents alliages d'aluminium, on peut citer ceux pour corroyage et pour fonderie. Le zamak est formé de zinc allié à l'aluminium, le magnésium et le cuivre. Outre des propriétés mécaniques remarquables, les alliages permettent également de faciliter la fusion des métaux, notamment les eutectiques. C'est par exemple le cas du système aluminium-silicium, avec un hypereutectique à environ 78 % d'aluminium, 17 % de silicium, 4 % de cuivre et 1 % de magnésium, utilisé dans l'industrie automobile, et l'alliage étain-plomb qui fond à — à comparer aux points de fusion respectifs de l'étain et du plomb, qui sont de et . L'un des alliages métalliques ayant le plus bas point de fusion est le galinstan, dont la composition massique est typiquement de 68 % de gallium, 22 % d'indium et 10 % d'étain, et qui est liquide à température ambiante. C'est également le cas de l'eutectique NaK, constitué de 77 % de potassium et 23 % de sodium, mais qui est corrosif et très inflammable à l'air libre, surtout en présence d'humidité, ce qui en limite l'usage à des applications très particulières. Les alliages spéciaux destinés à des applications de pointe, dits superalliages, comme ceux des moteurs à réaction, peuvent contenir plus d'une dizaine d'éléments différents. Les alliages à mémoire de forme sont un autre type d'applications : les alliages Fe-Mn-Si, Cu-Zn-Al et Cu-Al-Ni, par exemple, sont assez bon marché, mais il en existe une très grande variété. Minerais. Les métaux présentent le plus souvent un état d'oxydation positif, c'est-à-dire qu'ils tendent naturellement à former des cations. Il existe cependant des anions métalliques, avec un état d'oxydation négatif, par exemple avec certains complexes carbonyles comme ou avec l'anion de sodium Na. Étymologiquement, un métal est une substance extraite d'une mine — μέταλλον en grec ancien. En pratique, les métaux sont généralement extraits sous forme de minerais contenant les éléments recherchés. Ces minerais peuvent chimiquement être de nature très diverse. Ce sont souvent des oxydes, comme la bauxite (minerai d'aluminium), l'ilménite (minerai de titane), l'hématite et la magnétite (minerais de fer), ou encore la pechblende (minerai d'uranium). Il peut également s'agir de sulfates, comme la chalcopyrite (minerai de cuivre), la sphalérite (minerai de zinc), la molybdénite (minerai de molybdène) ou encore le cinabre (minerai de mercure). Il existe par ailleurs des silicates, comme le béryl (minerai de béryllium), des carbonates comme la dolomite (minerai de magnésium), et bien d'autres types de composés. Une fois extraits des mines, les minerais sont traités pour isoler le métal recherché, le plus souvent par réduction chimique ou électrolytique. La pyrométallurgie utilise des températures élevées pour convertir les minerais en métaux bruts, tandis que l'hydrométallurgie passe par au moins une étape où le métal est solvaté dans l'eau. Les méthodes employées dépendent des métaux et de leurs impuretés. Lorsque le minerai est constitué d'un composé ionique du métal avec un non-métal, le minerai doit généralement être fondu, c'est-à-dire chauffé en présence d'un réducteur pour en extraire le métal pur. De nombreux métaux communs comme le fer sont fondus en présence de carbone comme réducteur. D'autres métaux, en revanche, ne peuvent être réduits de cette façon, et sont purifiés par électrolyse : c'est le cas de l'aluminium et du sodium notamment. Les sulfures ne sont pas réduits directement, mais sont d'abord grillés à l'air libre pour être préalablement convertis en oxydes, qui sont ensuite traités de manière classique. Certains minerais sont des éléments natifs, les plus connus étant le cuivre natif, l'argent natif, l'or natif, voire le fer météorique, mais il en existe bien d'autres, plus rares, comme le fer natif, le nickel natif (dans des roches d'origine météoritique (nickel-fer)), le cadmium natif, l'indium natif, l'étain natif, l'antimoine natif, le tellure natif, le mercure natif, le plomb natif, le bismuth, par exemple. Ces minerais sont solides, à l'exception du mercure, qui se présente à l'état liquide au-dessus de dans des poches généralement de petite taille ne dépassant quelques kilogrammes de métal et le plus souvent associées à des métaux nobles, avec lesquels il forme des amalgames. Les platinoïdes existent également sous forme minérale plus ou moins pure, comme le ruthénium natif, le rhodium natif, le palladium natif, l'osmium natif, l'iridium natif et le platine natif. Applications. Certains métaux et alliages possèdent une résistance structurelle élevée par unité de masse, ce qui les rend utiles pour transporter des charges lourdes et résister à des chocs violents. Les alliages métalliques peuvent être conçus pour avoir une résistance élevée aux contraintes de cisaillement, de flexion et de déformation. Le même métal peut cependant être sujet à la fatigue à la suite de contraintes répétées ou d'un dépassement de la contrainte maximum. La résistance et la résilience des métaux a conduit à leur utilisation courante dans la construction des gratte-ciel et des ouvrages d'art ainsi que dans celle de tous types de véhicules, d'appareils et dispositifs, d'outils, de tuyaux, ou encore de voies ferrées. Les deux métaux les plus utilisés, le fer et l'aluminium, sont également les plus abondants dans l'écorce terrestre. Le fer est le plus utilisé des deux : il est à la base de toutes les grandes constructions métalliques (poutre, rail, coque de navire). L'aluminium est presque toujours utilisé allié à d'autres métaux afin d'en améliorer les propriétés mécaniques, dans des applications tirant profit du fait qu'il est moins dense que le fer ( contre ) et meilleur conducteur électrique ( contre ) ; l'aluminium est par exemple utilisé préférentiellement au cuivre dans les câbles électriques à haute tension aériens. Le cuivre reste utilisé essentiellement pour ses bonne propriétés de conducteur de l'électricité dans les câbles électriques, et de conducteur thermique dans les ustensiles de cuisine. Les propriétés de conducteur de la chaleur font de certains métaux des matériaux intéressants pour réaliser des dissipateurs thermiques destinés à éviter les surchauffes. Les métaux les moins abondants sont utilisés dans des alliages (chrome, manganèse, titane), et les plus rares interviennent souvent comme catalyseurs (platinoïdes, notamment) et parfois comme placements financiers ou en joaillerie (métaux précieux). La réflectivité élevée de certains métaux, comme l'argent, en font des matériaux de choix pour la construction de miroirs, notamment ceux des télescopes. Elle est également à l'origine de l'attrait esthétique de certains métaux utilisés en joaillerie. L'uranium est un métal qui, après séparation isotopique, permet d'alimenter des réacteurs nucléaires pour libérer leur énergie par fission. D'autres métaux, trop réactifs à l'air et/ou à l'eau sont rarement utilisés à l'état métallique (sodium, potassium, calcium). Dans un certain nombre de cas, les métaux tendent à être remplacés par d'autres matériaux, en général pour des raisons de légèreté (polymères, matériaux composites, céramiques) ou de résistance à la corrosion ou à l'usure (céramiques). Ces matériaux ont toutefois eux aussi leurs limites par rapport aux métaux, en particulier les polymères et composites à matrice polymère ne sont pas utilisables à hautes températures et sont souvent plus souples, tandis que les céramiques résistent mal aux chocs. Les métaux peuvent être dopés avec des molécules étrangères, qui peuvent être organiques, minérales, biologiques, ou encore des polymères. Ces molécules confèrent au métal des propriétés nouvelles qui peuvent être mises à profit pour des applications aussi variées que les catalyseurs, la médecine, l'électrochimie et la résistance à la corrosion<ref name="10.1021/ar4001982"> </ref>. Spécification chimique. Les différents états d'oxydation, conformations, complexes ou formes transitoires représentent des espèces chimiques distinctes d'un élément et jouent un rôle majeur dans l'élaboration, la corrosion, ainsi que sur leur biodisponibilité et leur toxicité ou écotoxicité. Certaines espèces d'éléments traces métalliques (ÉTM) sont plus facilement assimilables par les organismes que d'autres, ce qui engendre des effets bénéfiques ou néfastes selon la nature et la concentration du métal (élément essentiel ou non). Il ne faut pas confondre la spéciation chimique d'un élément avec son fractionnement ou sa partition. La littérature scientifique confond quelquefois ces concepts ce qui complexifie les recherches dans ces domaines. Cette section décrit donc les principales catégories d'espèces chimiques relatives aux ÉTM et présente des exemples d'espèces chimiques de niveau toxique varié. Oxydation et réduction. Comme indiqué précédemment, les métaux se trouvent en général naturellement dans des minerais ; ils sont à l'état oxydé. Par exemple, le fer se trouve à l'état Fe(III) dans l'hématite, à l'état Fe(II) et Fe(III) dans la magnétite, l'aluminium dans l'état Al(III) dans la bauxite… La métallurgie primaire consiste essentiellement en la réduction du minerai pour obtenir un état d'oxydation (0). À l'inverse, en réagissant avec l'environnement, le métal va s'oxyder et se dissoudre dans l'eau ou bien se lier à d'autres atomes ou ions, en particulier l'oxygène et l'ion hydroxyle. C'est un des mécanismes principaux de la corrosion. L'état d'oxydation des métaux dans un système influence leurs effets sur les organismes. Par exemple, le chrome(III) est un élément essentiel (c'est-à-dire nécessaire pour le bon fonctionnement de l'organisme) et pénètre difficilement les membranes lipidiques des cellules. En revanche, le Cr(VI), qui s'avère toxique pour certains gènes, est cancérigène et pénètre facilement dans les cellules grâce à des transporteurs spécifiques. Dans d'autres cas, ce sont les formes moins oxydées qui sont toxiques, par exemple avec l'arsenic dont la toxicité est plus importante pour As(III) que pour As(V). Composition isotopique. La composition isotopique de quelques éléments influence leur abondance ou leur toxicité dans l'environnement. Par exemple, le plomb comporte une vingtaine d'isotopes dont quatre sont stables : Pb, Pb, Pb et Pb. Les Pb et Pb proviennent de la dégradation de l'uranium et le Pb résulte de la dégradation du thorium, deux éléments radioactifs ; ainsi, l'abondance de ces isotopes s’accroît dans le temps, et la composition isotopique du plomb évolue donc selon les sources d'émission stimulées. Un autre exemple intéressant de variation de la toxicité est lié à la composition isotopique de l'eau (HO) : remplacer 60 % de l'eau du corps de rongeurs par de l'HO est sans effet alors qu'une substitution de 30-40 % de cette eau par du DO engendre la mort de ces animaux. On peut chercher à trier les isotopes, par exemple pour enrichir la matière en isotopes radioactifs, comme dans le cas de l'enrichissement de l'uranium pour produire du combustible nucléaire. On peut à l'inverse chercher à appauvrir le métal, comme dans le cas des munitions à uranium appauvri. Les isotopes métalliques sont utilisés comme traceurs pour les phénomènes de diffusion : on élabore un métal contenant une quantité notable d'isotope radioactif, et le profil de radioactivité permet de suivre la progression de ces atomes. Composé et complexe inorganique. Les métaux s'allient souvent à des ligands inorganiques pour former des composés ou complexes inorganiques possédant des propriétés physico-chimiques différentes. Par exemple, la charge, la solubilité, le coefficient de diffusion ou la force de liaison de ces composés influencent le transport et par conséquent la biodisponibilité et la toxicité des métaux dans les organismes. Par exemple, certains sels de nickel comme les chlorures (NiCl) et les sulfates (NiSO) sont solubles dans l'eau et de faible toxicité orale, alors que les sulfures de nickel (NiS) sont pratiquement insolubles dans l'eau mais sont cancérigènes. Composé organique. Les composés organiques tel les sucres, acides organiques, lipides ou autres composés organiques de faible poids moléculaire ont des affinités plus ou moins importantes avec les métaux. Certains d'entre eux, des acides organiques comme l'acide citrique et l'acide malique, contiennent un groupement fonctionnel (l'hydroxylcarboxyle) qui se lie facilement aux métaux et qui diminuent leur biodisponibilité; ces composés sont très étudiés en écotoxicologie terrestre car ils sont excrétés par les racines des plantes et les micro-organismes du sol, créant une synergie qui diminue la toxicité des métaux dans le sol. Certains composés organiques particuliers que l'on nomme chélateurs, comme l'EDTA, forment des complexes très stables avec les métaux. Les chélateurs sont des ligands solubles polydentés faiblement acides qui forment des complexes chélateur-métal thermodynamiquement forts ; ils sont quelquefois utilisés pour la restauration des eaux et des sols contaminés aux métaux ou dans les méthodes analytiques chimiques pour extraire les métaux d'une matrice. Composé organométallique. Les composés organométalliques contiennent une liaison entre le carbone et le métal. Cette liaison peut être de nature covalente ou ionique; par exemple, les liaisons carbone-sodium et carbone-potassium sont fortement ioniques, les liaisons carbone-étain, carbone-plomb et carbone-mercure sont fortement covalentes et les liens carbone-lithium et carbone magnésium se situent entre la liaison ionique et la liaison covalente. Par exemple, la bioalkylation, c'est-à-dire la formation d'un alkyle (CH) avec un métal par des micro-organismes spécifiques, est un processus fréquent dans les sols et les sédiments. Or, bien que la méthylation des métaux (lien CH-métal) forme des composés plutôt toxiques, certains alkyles métalliques d'arsenic et de sélénium détoxifient le métabolisme de l'humain et d'autres organismes vivants. Néanmoins, la plupart des produits organométalliques résultant d'une bioalkylation sont d'origine anthropogénique, comme certains fongicides ou produits de combustion d'essence, et sont très toxiques pour le système nerveux central de certains organismes (comme les dérivés d'alkyles d'étain, de plomb ou de mercure et d'or). Composé ou complexe macromoléculaire. Les composés ou complexes macromoléculaires sont à la limite de représentation des espèces chimiques. Ils forment malgré tout une catégorie distincte car ils jouent un rôle particulièrement important dans la biodisponibilité des métaux pour les organismes vivants. En effet, les acides humiques et fulviques résultant de la biodégradation de la matière organique sont des anions mobilisant les ÉTM contenus dans les sols et dans les eaux. Les acides humiques et fulviques ont des structures et une composition très variables et complexes mais joueraient un rôle significatif sur la spéciation des métaux. D'autres particules organiques et inorganiques tels la biomasse et les colloïdes adsorbent les métaux et diminuent ainsi leur toxicité en réduisant leur biodisponibilité. Par contre, d'autres macromolécules anioniques des organismes vivants, comme certains acides nucléiques ou les glycosaminoglycanes, se lient involontairement aux ÉTM et provoquent des mutagenèses dommageables pour l'organisme. Paramètres influençant la spéciation des métaux. La spéciation des métaux dans les phases aqueuses et solides est influencée par plusieurs paramètres (Voir aussi section Environnement de cette page) : Cette spéciation implique que l'équilibre chimique est atteint. Or, la complexation des métaux avec les ligands inorganiques est très rapide car ils sont nombreux dans la phase aqueuse, mais la complexation des métaux avec les ligands organiques nécessite plus de temps car les sites d'adsorption ou d'attachement sont moins accessibles. Par conséquent, il est préférable d'analyser la spéciation d'une contamination métallique sur une matrice contaminée stable depuis plusieurs années qu'une matrice fraîchement contaminée avec une dynamique chimique évolutive, sans quoi les analyses risquent d'être biaisées. De plus, la constante d'équilibre relative à la notion d'équilibre chimique peut être illustrée par la réaction : Métal + Ligand → Métal-Ligand La constante d'équilibre K associée à cette équation varie selon le type de lien : Ainsi, puisque K est relativement faible pour les paires ioniques et plus élevée pour les complexes, les métaux préfèrent s'associer à long terme aux complexes stables qu'aux paires ioniques de plus faible énergie de liaison. Économie et géopolitique. Raréfaction des ressources. Le développement de nombreuses industries telles que l'électronique, les technologies de l'information et de la communication, et l'aéronautique, et le pari du « tout technologique » dans la recherche du rendement et de l'efficacité, ont conduit à une augmentation sans précédent de la production et de la consommation de métaux. La période de croissance de 1990 à 2010 a conduit à un doublement de la production des principaux métaux. Alors que dans les années 1970, on utilisait moins de 20 métaux dans la table de Mendeleïev, on en consomme environ 60 depuis les années 2000. Il y a une tendance à la baisse de concentration moyenne des minerais. Par exemple, la concentration moyenne des minerais de cuivre exploités est passée de 1,8 % dans les années 1930 à 0,8 % en 2010. Parallèlement, les réserves, exprimées au niveau de production 2008, se situent pour la plupart des métaux entre 20 et 100 ans de production annuelle. Géopolitique. Depuis très longtemps les mines de certains métaux (précieux ou communs mais indispensables à l'industrie), les installations de raffinage, voire certains secrets de fabrication étaient considérés comme d'intérêt stratégique par les États. Les raisons militaires et l'avènement des armes et munitions métalliques puis de l'énergie et de l'arme nucléaire ont accru l'importance de certains métaux. Même pour des métaux géologiquement non rares comme le cuivre, mais faisant l'objet d'un marché fluctuant, de fortes hausses de cuivre se traduisent aussi par l'accroissement de vols de métaux (à titre d'exemple, en France, en 2010, RFF et la SNCF ont subi de cuivre (quatre fois plus qu'en 2009) qui ont causé des dysfonctionnements et "plusieurs dizaines de millions d'euros de préjudice par an" pour la SNCF. La consommation de certains métaux autrefois sans valeur s'est fortement accrue au , avec par exemple l'uranium (fortement demandé pour des usages militaires et civils), les métaux du groupe du platine (principalement utilisés pour les pots d'échappements catalytiques, comme catalyseur industriel ou pour les chimiothérapies anticancéreuses) la surexploitation des ressources minières les plus accessibles ou les plus « pures » et malgré les économies permises par un recyclage d'une partie des métaux constituant les produits en fin de vie ou les chutes de production, la notion de métaux stratégiques est encore prégnante. Ainsi, la France a créé en 2011 un « Comité pour les métaux stratégiques », chargé d'aider le ministère à élaborer et mettre en œuvre une politique rénovée de gestion de ces métaux, via notamment des approvisionnements mieux sécurisés. Le ministre chargé des matières premières en préside les trois collèges (administrations, organismes techniques et fédérations professionnelles et industriels). La FEDEREC (fédération des entreprises du recyclage) et la FEDEM (fédération des minerais, minéraux industriels et métaux non ferreux) y participent. Environnement. Contrairement aux composés organiques, les métaux ne sont pas biodégradables par les micro-organismes. Cette caractéristique engendre certains problèmes de gestion de la contamination métallique. En effet, le sort des métaux dans l’environnement pose de grands défis analytiques ; les métaux se retrouvent sous plusieurs formes dans le sol et dans l'eau (complexe avec la matière organique du sol, avec les minéraux, précipitation, ions libres) complexifiant les prédictions de toxicité et d'écotoxicité. Toxicité et écotoxicité terrestre. La toxicité et l'écotoxicité des métaux dans les sols sont étroitement liées à leurs caractéristiques propres (radioactivité éventuelle et type de radioactivité, métal lourd, toxicité chimique, micro ou nanoparticules), spéciation chimique et biodisponibilité ; plus l'espèce métallique est libre et mobile, plus elle est biodisponible et plus il y a un risque de toxicité sur les organismes vivants. En général, les ions métalliques libres (en solution) constituent la forme chimique la plus disponible pour les organismes et donc la plus susceptible d'être toxique. Cependant, d'autres espèces ou fractions de métaux peuvent être instables et mobiles (fraction labile ou liée aux oxydes libres par exemple) et engendrer un risque pour les organismes. Certains métaux (fer, cuivre et zinc notamment) sont des éléments essentiels. Ils sont toxiques au-delà d'une certaine dose, mais une carence entraîne des troubles métaboliques graves. Ainsi, plusieurs paramètres influencent la toxicité des métaux dans les sols: Empreinte énergétique. Pour aller de la mine à un objet façonné, il faut passer par de nombreuses étapes et utiliser beaucoup d'équipements qui consomment de l'énergie. Les métaux étant pratiquement tous sous forme d'oxydes ou de sulfures dans la nature, il faut, pour les obtenir sous forme métallique, fournir l'énergie nécessaire à casser les liaisons chimiques correspondantes. L'empreinte énergétique d'un métal est la quantité d'énergie nécessaire pour obtenir du métal pur. Dans ce qui suit, la quantité d'énergie est mesurée en tep (tonne équivalent pétrole), pour une tonne de métal pur. Pour obtenir l'énergie « contenue » dans un métal « neuf », issu de la première transformation du minerai, il faut prendre en compte : (*) Source en MJ / kg et = . (**) Source en tec (tonne équivalent carbone) ; conversion utilisée : 1 tec = (valeur moyenne européenne). (***) Énergie injectée dans les procédés uniquement : hors énergie d'extraction, des intrants (acides, solvants), de transport. La consommation énergétique totale pour la production de métaux bruts est alors de 730 à , soit 7 à 10 % de l'énergie primaire mondiale. L'acier et l'aluminium en représentent la plus grande part, soit respectivement 544- et 147-. Les grands métaux sont globalement recyclables, et l'énergie nécessaire au recyclage est bien moindre que l'énergie nécessaire à la fabrication du métal neuf. Par exemple, pour l'acier, l'énergie nécessaire au recyclage représente 25 à 40 % de l'énergie nécessaire à la production du métal primaire. Le recyclage de l'aluminium ne nécessite quant à lui que 4 à 5 % de l'énergie requise pour la production de l'aluminium primaire. Astronomie. Planétologie. En planétologie, les métaux sont les matériaux les plus , comme le fer ou le nickel, qui composent le cœur des planètes rocheuses. C'est la catégorie des matériaux les plus lourds à côté des (hydrogène, hélium), des (composés contenant du carbone, de l'azote et/ou de l'oxygène, comme l'eau, le méthane et l'ammoniac) et des (silicates). Cosmologie. En cosmologie, on appelle métaux tous les éléments autres que l'hydrogène et l'hélium. La teneur en ces s'appelle en conséquence la métallicité, notée Z (X et Y représentant respectivement la proportion d'hydrogène et d'hélium). |
Manga Un est une bande dessinée japonaise. La plupart des mangas se conforment à un style développé au Japon à la fin du , alors que la forme a une longue préhistoire dans l'art japonais antérieur. Au Japon, le terme manga désigne plus généralement la bande dessinée, quelle que soit son origine. En Occident, le mot « manga » désigne une bande dessinée japonaise, mais aussi parfois une bande dessinée non japonaise respectant les codes des productions populaires japonaises ou pour nommer, par métonymie, d'autres produits visuels rappelant certaines de ces bandes dessinées (dessins animés, style graphique). Les mangas se lisent généralement de droite à gauche. En raison du rythme élevé de parution et pour limiter le coût d'impression, la plupart des mangas sont dessinés en noir et blanc, mis à part la couverture. Les deux premiers pays les plus consommateurs de mangas sont le Japon et la France. La personne réalisant des mangas est appelée "mangaka". Étymologie. Le mot japonais « "manga" » souvent traduit littéralement par « image dérisoire » ou « dessin non abouti », est composé de « "ga" » (), qui désigne la représentation graphique (« dessin », « peinture » ou toute image dessinée — comme l'estampe), et « "man" » (), « involontaire », « divertissant », « sans but », mais aussi « exagérer », « déborder » (qui peut être interprété comme caricature), ainsi qu'« au fil de l'idée ». Ainsi on pourrait aussi bien traduire ce mot par « dessin au trait libre », « esquisse au gré de la fantaisie », « image malhabile » ou tout simplement caricature ou grotesque dans le sens de Léonard de Vinci. Le terme devient courant à partir de la fin du avec la publication d'ouvrages tels que "Mankaku zuihitsu" (1771) de Kankei Suzuki, "Shiji no yukikai" (1798) de Kyōden Santō ou "Manga hyakujo" (1814) de Minwa Aikawa. Également en 1814, Hokusai, futur graveur de "La Grande Vague de Kanagawa", donne à ses recueils d'estampes parfois grotesques le titre "Hokusai manga". C'est ce dernier ouvrage qui fait connaître le mot en Occident. Il aurait été ainsi choisi pour son analogie avec un terme similaire dans l'ancien temps mais dont l'écriture diffère, et qui décrit la conservation de proies dans les becs des pélicans indiquant des scènes prises sur le vif — comme l'oiseau fondant sur sa proie. Il ne prend le sens précis de « bande dessinée » qu'au cours du , avec l'introduction de celle-ci au Japon. Lorsqu'elle y devient très populaire, après 1945 et grâce à Osamu Tezuka, le terme s'impose pour finir par ne plus désigner qu'elle. C'est ce terme qui a été utilisé à l'étranger (France, États-Unis, Allemagne), pour caractériser la bande dessinée japonaise, dont il est devenu un synonyme, et parfois grossièrement ramené à un genre. Genre et nombre du mot « manga » en français. Le mot « manga » est pleinement intégré dans la langue française, comme l'atteste son intégration dans les dictionnaires usuels. Ceux-ci le donnent comme masculin (les mots japonais, eux, n'ont pas de genre grammatical), et c'est le genre qui prédomine largement. Toutefois, la première utilisation du mot en français revient à Edmond de Goncourt en 1895, dans une étude artistique dédiée à Hokusai, où il accorde « manga » au féminin pour désigner ce qu'il appela "La Mangwa" ("sic") de l'artiste. Le terme revêtait alors plutôt le sens de « miscellanées », c'est-à-dire un recueil de nature disparate. Depuis cette époque, "manga" a souvent été employé au féminin, et ce jusqu'à la popularisation de l'usage au masculin dans les années 1990 (notamment par les premiers journaux spécialisés et la télévision). Mais un argument en faveur de la féminisation du terme pourrait être que la locution équivalente en français, bande dessinée, est déjà de genre féminin. Plus récemment, l'auteur Frédéric Boilet parle de "manga" au féminin, notamment dans le cadre de son mouvement franco-japonais "La Nouvelle Manga". "Manga" s'écrit "mangas" au pluriel, selon la règle du pluriel des mots étrangers intégrés dans la langue française (les dictionnaires actuels ne donnent d'ailleurs pas le mot comme invariable). Histoire des mangas. Mouvements culturels initiateurs. Le manga, bien que très ancré dans la culture japonaise moderne, trouve ses prémices dans la peinture narrative qui apparaît à l'époque de Nara, avec l'apparition des premiers rouleaux narratifs peints japonais : les "emakimono". Ces œuvres associaient en effet des peintures à des textes calligraphiés qui assuraient, ensemble, le récit d'une histoire que l'on découvrait au fur et à mesure que se déroulait le rouleau. Le premier des "emakimono", l’, illustration d'un sûtra, était la copie d'une œuvre chinoise et marquait une nette séparation entre le texte et la peinture. Pourtant, durant l'époque de Heian apparaissent les premiers "emakimono" de goût japonais (le style "yamato-e"), dont l"'emaki" du "Genji monogatari" datant du est l'un des plus anciens représentants conservés. Ces derniers faisaient souvent intervenir de courts textes explicatifs après de longues scènes peintes. Les "Chōjū-giga", soient « caricatures de la faune », une satire anthropomorphique, sont constitués uniquement de dessins à l'encre. Cette priorité accordée à l'image – qui peut assurer seule la narration – est aujourd'hui une des caractéristiques les plus importantes du manga. De même, lors de la période Edo, les estampes étaient d'abord destinées à l'illustration de livres, mais, très vite, le rapport de force s'inversa et l'on vit l'apparition de « livres à lire » en opposition avec les « livres à regarder », les "kusazōshi" tels que le "kibyōshi". Puis vint la disparition relative des écrits complémentaires et la naissance de l'estampe « indépendante » en une seule illustration, qui est la forme la plus fréquente de l’"ukiyo-e". C'est d'ailleurs Katsushika Hokusai (1760-1849), le fondateur de l'estampe de paysage, qui donna son nom au manga (littéralement « dessins grotesques »), nommant ainsi ses célèbres caricatures les "Hokusai Manga", qu'il publia de 1814 à 1834 à Nagoya. Enfin, et notamment dans le manga de type "shōjo", l'Art nouveau occupe une place prépondérante parmi les influences des "mangaka", tout en sachant que ce mouvement a été provoqué en partie par le japonisme en Europe, à la suite de la découverte des estampes par les Occidentaux. De 1861 à 1931. Première ouverture vers l'Occident. Pendant la restauration Meiji, à partir de 1868, l’ouverture obligatoire du Japon au commerce extérieur s’accompagne d’une modernisation rapide du pays sous influence occidentale. De nombreux étrangers sont attirés au Japon pour enseigner les sciences et technologies occidentales et de riches Japonais voyagent en Europe. Edo, rebaptisée Tokyo, voit ses rues, éclairées par des réverbères, se peupler de pousse-pousse sans oublier les bicyclettes d'importation. C'est la création du yen et l'interdiction du et du port du . L'usage du "kimono "et du "hakama "(pantalon traditionnel) diminue au profit du costume occidental accompagné du chapeau et du parapluie, pour les hommes, et d'une coiffure européenne pour les femmes. Les deux seuls quotidiens existants au début des années 1860 étaient à destination de la colonie étrangère, le "Nagasaki Shipping List and Advisor" (bihebdomadaire de langue anglaise) et le "Kampan Batavia Shinbun" ("Journal officiel de Batavia"). La presse japonaise naît avec le "Yokohama Mainichi Shinbun" en 1871 et le "Tokyo Nichinichi Shinbun" en 1872. C'est le "Shinbun Nishikie", créé en 1874, qui introduit le premier les estampes dans la presse japonaise. Création d'une presse satirique. La presse japonaise se transforme aussi sur le modèle de la presse anglo-saxonne avec l’apparition des dessins d’humour sur le modèle américain et des caricatures à la mode britannique à partir de 1874 avec le "E-Shinbun Nipponchi", créé par Kanagaki Robun et Kawanabe Kyōsai, et surtout avec le "Marumaru Shinbun" créé par qui a fait une partie de ses études en Grande-Bretagne. Imprimé entre 1877 et 1907, il publie des dessins de et de Kiyochika Kobayashi, créateur d'estampes "ukiyo-e", qui fut élève de Charles Wirgman. Wirgman fait partie de ces trois Européens qui ont une influence certaine sur l'avenir de la bande dessinée et du manga. Ce caricaturiste anglais arrive à Yokohama en 1861, et l'année suivante il crée un journal satirique, "The Japan Punch", dans lequel il publie jusqu'en 1887 nombre de ses caricatures, dans lesquelles il utilise des "balloons". Il enseigne en même temps les techniques occidentales de dessin et de peinture à un grand nombre d'artistes japonais comme Takahashi Yuichi. Autre caricaturiste, le français Georges Ferdinand Bigot arrive à Yokohama en 1882, il enseigne les techniques occidentales du dessin et de l'aquarelle à l'École militaire de la ville. Parallèlement, il publie des caricatures dans des journaux locaux et édite des recueils de gravure. En 1887, il crée lui aussi une revue satirique, "Tôbaé", alors que Wirgman arrête la sienne, dans laquelle il démontre sa maîtrise de la technique narrative en introduisant la succession des dessins dans des cases au sein d'une même page. Il part en Chine en 1894 pour couvrir pour "The Graphic" de Londres le conflit sino-japonais. De retour en France en 1899, il collabore comme illustrateur pour l'imagerie d'Épinal. C'est à cette période qu'un fils d'enseignant hollandais dans une mission de Nagasaki quitte le Japon pour suivre des cours d'art à Paris, où il tente quelques bandes dessinées dans le Chat noir avant de s'exiler aux États-Unis. C'est là que Gustave Verbeck dessine un des "strips" les plus originaux de l'histoire de la bande dessinée, "The Upside-Downs of Little Lady Lovekins and Old Man Muffaroo". Le "strip" de quatre cases se lit dans le sens normal de lecture, de gauche à droite, puis l’histoire se continue en retournant tête-bêche le journal et en relisant les cases dans le sens inverse, "lady Lovekins" se transforme alors en "old man Muffaroo", le chapeau de l’une devenant la barbe de l’autre. Création. C'est le caricaturiste australien Frank Arthur Nankivell qui travaille pour le , publié à Yokohama par E. B. Thorne, qui initie Yasuji Kitazawa à la caricature, lequel prendra ensuite le nom d'artiste Rakuten Kitazawa. En 1899, Rakuten quitte "Box of Curios" pour rejoindre le créé par l'intellectuel Yukichi Fukuzawa, désireux de développer le mode satirique au Japon. C’est Kitazawa qui reprend le terme de "manga" pour désigner ses dessins, il se désigne lui-même comme "mangaka" (dessinateur de mangas). Le premier manga considéré comme tel date de 1902. Il s’agit d’une histoire dessinée par Kitazawa dans les pages illustrées du supplément du dimanche du "Jiji Shinpō". Kitazawa s’inspire beaucoup de la culture européenne, son premier manga reprend le thème de l’arroseur arrosé. Le supplément du "Jiji Shinpō" prend rapidement le nom de . En 1905, Kitazawa crée son premier magazine le en s'inspirant de l'américain "Puck" et du "Rire" français. Ce magazine en couleurs paraît deux à trois fois par mois et contient des textes en japonais, chinois et anglais, des caricatures et un manga en six cases de Kitazawa. Plusieurs fois censuré pour ses caricatures féroces contre le pouvoir, il crée en 1912 deux nouveaux magazines, et . Mais c'est en 1908 que Kitazawa innove dans la presse japonaise en publiant , un magazine en couleurs exclusivement réservé aux enfants. Devant le succès, il renouvelle l'expérience en 1914 en créant la revue dans laquelle il dessine "L'enfance de Toyotomi Hideyoshi". Ce succès allait marquer le marché des mangas pour longtemps. En 1914 paraît , en 1923 et en 1926 . En 1929, Kitazawa entreprend un long voyage en Europe, en Afrique et aux Amériques. De passage à Paris en 1929, il expose en présence de Léonard Foujita et y reçoit la Légion d'honneur. À la fin de l'ère Meiji, à l'ère Taishō (1912-1926), dessine des mangas pour le quotidien "Asahi Shinbun". Il est l'un des inspirateurs du mouvement des « Nouveaux représentants progressistes du manga » qui introduit au Japon les "comics", entre autres "Bringing up Father" ("La famille Illico") de Geo McManus paraît dans . Si à cette époque tous les mangas utilisent plus ou moins la bulle, il y a encore beaucoup de texte écrit dans les dessins. Le premier à généraliser l'emploi de la bulle est qui dessine accompagné de son écureuil dans le premier numéro de "Asahi Gurafu" en 1923. C'est Okamoto qui invente le terme de et qui crée la première association de "mangaka" appelée en 1915, qui devient en 1923 le et en 1942 le avec pour premier président Kitazawa. La satire et la caricature sont féroces envers le pouvoir en place et, en 1925, le gouvernement établit une censure en promulguant une « Loi de préservation de la paix ». La presse japonaise devient « politiquement correcte » mais la publication de mangas se développe. Des magazines féminins comme ou publient aussi des mangas à destination de leurs lectorats ou pour des mères de familles qui lisent ces mangas à leurs enfants. À partir de la guerre sino-japonaise, et comme plus tard aux États-Unis ou en Italie, la presse, y compris les mangas, se met au service de l'État pour soutenir l'effort de guerre. Ainsi le très militariste de Suihō Tagawa nous montre un chien paresseux engagé dans l'armée impériale, première série longue. C'est comme cela que les Japonais lisent aussi les aventures de de , qui déjoue toutes sortes de conjurations étrangères, et celles de Dankichi dans de . Ce seront les séries les plus populaires au Japon jusqu'au milieu des années 1940 pendant lesquelles toute la presse ainsi que toutes les activités culturelles et artistiques subissent la censure du gouvernement militaire, ce dernier n'hésitant pas à mobiliser ces milieux à des fins de propagande. L'après-guerre. Sous l'occupation américaine, les "mangakas" d'après-guerre subissent l'énorme influence des comic strip qui sont alors traduits et diffusés en grand nombre dans la presse quotidienne japonaise. "Sazae-san" de Machiko Hasegawa sera le premier grand succès d'après-guerre. Cette génération a vu ses villes rasées, ses pères vaincus, son empereur déchu de sa divinité, et ce que leurs idéologies véhiculaient jeté dans les poubelles de l'Histoire par les vainqueurs. Les bombardiers B29, les avions invulnérables, et les jeeps armées apparaissent dans la vision des futurs "mangaka" encore adolescents. Après sa défaite, le Japon s'est reconstruit au prix d'un lourd sacrifice ; d'ailleurs dans les mangas apparaît souvent la devise de "Shōnen Jump" : « Amitié, effort, victoire » (devise choisie par les lecteurs). L'un d'entre eux, influencé par Walt Disney, révolutionnera le genre et donnera naissance au manga moderne : il s'agit du célèbre Osamu Tezuka. C'est en effet Tezuka qui introduira le mouvement dans la bande dessinée japonaise par des effets graphiques comme des traits ou des onomatopées soulignant toutes les actions comportant un déplacement, mais aussi et surtout par l'alternance des plans et des cadrages comme il en est usage au cinéma, rompant ainsi avec une tradition théâtrale, les personnages étant jusque-là toujours représentés en pied, à égale distance et au centre de l'image. On considère généralement , parue en 1947, comme marquant le début du manga moderne. L'animation étant la véritable passion de Tezuka, il réalisa la première série d'animation japonaise pour la télévision en janvier 1963, d'après l'une de ses œuvres : , plus connue en France sous le nom d"'Astro, le petit robot". Finalement, le passage du papier au petit écran devint courant et l'aspect commercial du manga prit de l'ampleur. Tezuka bouleversa le mode d'expression du manga, en explora les différents genres – alors principalement infantiles – et en inventa de nouveaux. Il inspira de nombreux artistes tels que le duo Fujiko Fujio ("Obake no Q-tarō", "Doraemon"), Fujio Akatsuka ("Tensai bakabon") et Shōtarō Ishinomori ("Cyborg 009", "Kamen Rider") qui se succédèrent au Tokiwasō, voire Leiji Matsumoto ("Galaxy Express 999"). Les années 1960 voient l'émergence de mangas plus dramatiques dans lesquels sont abordés des sujets plus « sérieux » et réalistes, appelés "gekiga". Initié par Yoshihiro Tatsumi et Takao Saitō ("Golgo 13"), le style influencera notamment Sampei Shirato ("Ninja bugeichō", "Kamui den"), Shigeru Mizuki ("Kitaro le repoussant") et le duo Tetsuya Chiba/Asao Takamori ("Ashita no Joe"), la plupart de ces auteurs participant au magazine d'avant-garde "Garo". En 1964 naît l', qui décerne des prix annuels à partir de 1972. Dans les années 1970, le manga pour filles, écrit par des femmes ("shōjo") se développe à l'initiative du groupe de l'an 24, notamment Moto Hagio ("Poe no ichizoku") et Keiko Takemiya ("Kaze to ki no uta"), puis de Riyoko Ikeda ("La Rose de Versailles"), Suzue Miuchi ("Glass no Kamen"), et Yumiko Igarashi et Kyoko Mizuki ("Candy Candy"). Mettant en avant les relations psychologiques des personnages, il se détache des mangas pour garçons ("shōnen"). La première librairie dédiée uniquement à la vente de manga ouvre à cette époque en 1979 dans le quartier Jinbōchō de Tokyo, la librairie Comic Takaoka. En 1985, Tezuka Osamu reçoit le prix culturel de Tokyo, et en 1990, un an après sa mort, le Musée d'art moderne de Tokyo lui consacre une exposition. Cet événement marque l'introduction du manga dans l'histoire culturelle japonaise. Dans les années 1980 et plus encore 1990, l'émergence du jeu vidéo comme industrie de masse au Japon s'imprègne de culture manga (notamment le genre du ), et en retour a un effet sur la production de mangas, à tel point que les éditeurs commencent à sortir des univers multimédias comme la franchise "Pokémon" (jeu de Game Boy devenu manga, jeu de cartes, et une multitude de produits dérivés). Actuellement. Ainsi, les mangas « grandissant » en même temps que leurs lecteurs et se diversifiant selon les goûts d'un public de plus en plus important, l'édition du manga représente plus d'un tiers par ses tirages, et près d'un quart par ses revenus, de l'ensemble de l'édition japonaise. En 2008, sur de publications vendues au Japon ( de yens), on comptabilisait de magazines de manga (21 % des publications) et de recueils de manga (15 %), pour un chiffre d'affaires respectif de 211 et de yens (22 % des ventes totales), chiffre relativement stable depuis le début des années 1990. Les hommes de moins de lisent environ six mangas par mois, contre trois pour les femmes. La vente de mangas numériques représentait déjà en 2008 3/4 des ventes de livres électroniques avec de yens. Le manga va plus loin, il en existe des jeux de cartes, des jouets, des jeux vidéo, des films d'animation et des films ; ces derniers pouvant même être à l'origine d'un manga (comme c'est le cas avec "Pokémon" qui était à l'origine un jeu vidéo). Il est devenu un véritable phénomène de société puisqu'il touche toutes les classes sociales et toutes les générations, traitant de tous les thèmes imaginables : la vie à l'école, celle du salarié, le sport y compris cérébral tel le jeu de go, l'amour, la guerre, l'épouvante, jusqu'à des séries plus didactiques comme la littérature classique, l'économie et la finance, l'histoire, la cuisine et même le code de la route, dévoilant ainsi ses vertus pédagogiques. Caractéristiques du manga. Codes graphique et narratif. Techniquement parlant, les mangas sont presque toujours en noir et blanc, ce qui est directement lié au système de prépublication en magazine bon marché. Les mangas comptent souvent un nombre important de pages (planches). À titre d'exemple, une bande dessinée européenne contiendra une quarantaine de planches quand le manga en comptera plus d'une centaine, voire plus de deux cents. Par ailleurs, le manga est le plus souvent une série en plusieurs volumes. Finalement, le nombre total de planches racontant une histoire dans un manga est beaucoup plus élevé que dans une bande dessinée européenne (même s'il s'agit d'une série). Ceci affecte par conséquent beaucoup la structure du récit et sa narration. D'où les techniques propres au manga. Le dessin, en général, est moins « statique » que dans les bandes dessinées occidentales. Le manga utilise un découpage temporel proche de celui du cinéma, adoptant souvent ses cadrages et utilisant une décomposition similaire du temps et de l'action. On retrouve souvent une mise en scène comme la plongée ou la contre-plongée. La perspective varie systématiquement d'une image à l'autre. De nombreux codes graphiques sont utilisés pour symboliser l'état émotionnel ou physique d'un protagoniste. Les personnages ont souvent de grands yeux, ce qui permet de renforcer l'expressivité du visage. L'étonnement est souvent traduit par la chute du personnage ; l'évanouissement, par une croix remplaçant les yeux. Pour traduire l’excitation sexuelle chez un personnage masculin, un saignement de nez plus ou moins important est provoqué. Dans le manga "City Hunter" (connu à la télévision française sous le nom "Nicky Larson"), la colère de Kaori ("Laura") est souvent traduite par l'apparition inopinée d'une énorme massue qu'elle assène sur la tête de son partenaire (ce gag est si répandu dans les mangas qu'un univers parallèle où seraient stockés les marteaux a été inventé). Il y a également une utilisation fréquente d'onomatopées relatives aux mouvements, actions ou pensées des personnages. Notons au passage que le japonais est beaucoup plus riche que le français en onomatopées et que leur champ d'application est plus large, incluant des concepts surprenants tels que l'onomatopée du sourire (), du silence () ou encore du scintillement (, d'où le nom de Pikachu). Une particularité à noter est que la plupart des personnages ont souvent des traits occidentaux, au-delà du simple tracé des grands yeux des personnages. Un samouraï roux, un exorciste aux yeux bleus ou une écolière blonde n'ont rien d'étonnant pour le lecteur japonais, même s'ils sont censés être japonais ou de culture japonaise. La simple nécessité de distinguer physiquement deux personnages ne suffit pas toujours à expliquer cet aspect de la narration, puisque certains "mangakas" choisissent de donner à tous leurs personnages un aspect purement japonais, sans que cela pose de problème de compréhension de l'histoire. Les décors des scènes sont parfois moins fouillés que pour une bande dessinée occidentale. Cela peut aller jusqu'à faire évoluer les personnages dans un décor blanc. Ce parti pris a pour conséquence de focaliser l'attention du lecteur sur l'histoire en général et sur les dialogues en particulier. On note ainsi une certaine résurgence de l'aspect théâtral. Enfin, les personnages ont souvent des attitudes expressives à outrance : la colère, la jalousie ou la gêne se montrent facilement, alors que cette attitude est plutôt mal vue dans la culture japonaise, où le calme et la retenue sont de rigueur dans les rapports sociaux. Le passage de l'absurde et du comique au sérieux ou au drame, sans aucune transition, fait également partie de la narration, sans jamais susciter d'interrogation de la part du lecteur qui accepte par avance cette convention de lecture. Une autre particularité est le jeu de l'auteur avec le lecteur. Ainsi, dans "Rough", on peut voir les personnages faire de la publicité pour d'autres mangas de l'auteur, ou bien ramasser des phylactères tombés sur le sol. De manière générale, on peut noter une plus grande liberté quant à l'interaction entre les dessins et leur support (jeu avec les cadres, personnages sortant des cadres). Dans les mangas destinés à la jeunesse, les kanji, caractères chinois ou sinogrammes, sont souvent accompagnés de "furigana" pour faciliter la lecture. Système de prépublication. Les mangas japonais sont très rarement édités directement sous forme de volumes reliés ; ils paraissent tout d'abord de manière découpée dans des magazines de prépublication, des revues spécialisées qui leur sont consacrées. Les rythmes de publication de ces magazines peuvent beaucoup varier, allant de l'hebdomadaire aux publications mensuelles voire trimestrielles. Les séries y sont souvent publiées par chapitres d'une dizaine à une vingtaine de pages. À l'intérieur d'un même magazine, le papier peut parfois changer de couleur, afin de distinguer rapidement les différentes séries les unes des autres. Ces magazines, bon marché, s'écoulent en grand nombre, c'est-à-dire en millions d'exemplaires pour certains, et se lisent un peu partout. On en retrouve parfois abandonnés dans les trains, les rames de métro, les cafés Ils alimentent un système de lectures multiples : un même exemplaire serait lu par plusieurs personnes. Principalement en noir et blanc, les premières pages des magazines sont souvent en couleurs, mettant tour à tour à l'honneur l'une de leurs séries vedettes à cet emplacement, souvent de manière que le chapitre en cours soit un début de volume. Ce n'est que dans un deuxième temps, lorsqu'un manga rencontre un certain succès, qu'il est édité en volumes reliés, similaire à ceux que l'on trouve en France, entamant ainsi une deuxième carrière. Ces volumes reliés sont appelés "tankōbon" (format poche), "bunkōbon" (format plus compact, utilisé pour des rééditions) ou "wide-ban" (format « luxe », plus grand que le format poche). En l'absence de succès auprès du public, une série pourra voir sa parution arrêtée, le "mangaka" étant prévenu peu avant pour trouver une fin rapide à son histoire et permettre une éventuelle parution en volumes. Certaines revues décident désormais de la fin d'une série dès la fin du second volume, conduisant à des histoires finales en quatre volumes. Dans certains cas, un "manga" à succès peut se voir adapté en "anime" (dessin animé). Les magazines de prépublication hebdomadaires incluent notamment ces titres populaires : Certains titres atteignent couramment les hebdomadaires. "Weekly Shōnen Jump" était vendu en 1994 à 6 millions d'exemplaires, mais son tirage pour 2008 s'établissait à d'exemplaires. Sens de lecture. Les mangas se lisent originellement de droite à gauche (ce qui correspond au sens de lecture japonais), en commençant par la dernière page. Cela amène une certaine confusion puisque la lecture des mots se fait alors dans le sens inverse de celui des cases (ce qui n'est pas le cas au Japon). Introduits en France en 1978 avec la revue "Le cri qui tue", les mangas ne sont publiés dans ce sens que depuis 1995 environ. Toutefois, les éditeurs français ne se plient pas systématiquement à cette spécificité. Certains choisissent alors de simplement retourner les images, ce qui occasionne des incohérences pouvant sembler douteuses (un droitier qui devient gaucher, un coup porté au cœur qui perd son sens). D'autres adaptent entièrement les ouvrages en retournant seulement certaines images, en changeant la mise en page et en redessinant certains éléments graphiques, ce qui a pour mérite de faire correspondre la forme des phylactères avec l'horizontalité des systèmes d'écriture occidentaux (Casterman notamment, dans sa collection "Écritures"), mais génère toutefois un surcoût significatif. La plupart des éditeurs français ont actuellement adopté le sens de lecture japonais, dans un but d'économie et de respect de l'œuvre. Cela les expose à se couper d'un lectorat plus large (notamment âgé) que les habitués du genre. Depuis son « invention » par Rodolphe Töpffer en 1827, la bande dessinée occidentale a été codifiée pour une lecture exécutée de gauche à droite et le lecteur risque donc de lire la fin d'une action ou d'un gag avant le début. Cependant, la vague de démocratisation qu'a connu le manga en France auprès des jeunes a fait qu'ils sont désormais plus habitués à un autre sens de lecture. Le sens de lecture japonais est également devenu le standard de lecture des mangas aux États-Unis depuis le début des années 2000. Classification des mangas. Par démographie. Les mangas sont traditionnellement classifiés en fonction de l'âge et du sexe du lectorat visé. Il existe six classes démographiques : Ces classes démographiques sont indicatives ; de nombreux lecteurs ne les suivent pas, et certains mangas tentent de toucher plusieurs publics à la fois. Ces démographies sont généralement réutilisées telles quelles par les éditeurs occidentaux afin de créer leurs collections, toutefois les stéréotypes de genre et le rapport à la violence et au sexe n'étant pas les mêmes au Japon et en Occident, il arrive que les éditeurs occidentaux changent la démographie-cible d'un manga, typiquement les "shōnen" romantiques sont reclassés en "shōjo". Quelques rares éditeurs occidentaux préfèrent quant à eux totalement ignorer la classification japonaise à l'instar d'Akata. Par genre. Les mangas reprennent les genres et registres littéraires usuels, du roman d'amour à l'horreur en passant par la science-fiction, et n'hésitent pas à les mélanger. En plus de cela il existe quelques genres typiques des mangas et de ses dérivés, ou dont le nom japonais a pris le pas sur le nom français auprès des éditeurs et des fans : Par format de publication. Les mangas peuvent aussi être classifiés en fonction de leur format de publication. Le "one shot" est une histoire qui tient en un seul volume voire un seul chapitre. Le est un manga en quatre cases, similaire au "comic strip". Quant au "webcomic", c'est un manga publié directement sur Internet. Diffusion. Au Japon. En 2002, le marché du manga représentait % des bénéfices de l'industrie éditoriale japonaise et % des livres et magazines publiés au Japon étaient des mangas. Le volume de vente de mangas au Japon représentait quant à lui, en 2006, environ 27 % du total des livres vendus au Japon. Les ventes de manga au Japon (magazines compris) représentaient de yens en 1995, de yens en 2005, de yens en 2015, mais de yens en 2021 grâce à l'essor des mangas sur support numérique. Il est estimé que près d'un Japonais sur douze lit au moins une fois un manga par semaine (2005). La grande popularité des mangas rivalise avec les grands noms de la bande dessinée européenne ; ainsi, les 42 tomes de "Dragon Ball" se sont vendus à plus de d'exemplaires dans le monde et les 95 tomes de "One Piece" se sont vendus à plus de d'exemplaires dans le monde, un chiffre qui surpasse celui enregistré par "Les Aventures de Tintin" avec 24 albums édités à plus de d'exemplaires. Rien qu'au Japon, le tirage de "One Piece" dépasse les d'exemplaires à la sortie du le . Les mangas sont vendus moins chers au Japon qu'en Europe, leur prix avoisinant les ( en ), alors qu'en France, le prix d'un manga se situe généralement entre 6 et selon le format et les éditions. Les mangas publiés dans les magazines de prépublication sont considérés au Japon comme des objets de grande consommation plutôt que comme des objets de valeur. Cependant, des éditions reliées et brochées à l'image de celles paraissant en Occident, sont destinées à être collectionnées et conservées. Depuis son ouverture en , le musée international du manga de Kyoto offre une impressionnante collection de mangas (plus de en 2012, sachant que la collection est amenée à évoluer). En France. La génération des baby-boomers français a pu lire de la BD franco-belge pendant toute son enfance et son adolescence. , s'est jetée sur le manga qui, selon Jean-Marie Bouissou, a vocation à être un produit global en proposant beaucoup de séries propres à intéresser les clientèles les plus diverses par l'âge, le sexe et les goûts, à la différence de la BD mais aussi des comics américains. Représentation des ventes de manga en France par année (en millions) Avant "Akira" : l'impossible installation du manga. Il existe une volonté de la part du Japon de faire découvrir au reste du monde sa bande dessinée. À la fin de l'année 1970, une rétrospective sur les mangas est organisée au cœur même de Paris, au drugstore Publicis de St-Lazare, à la demande de l'ambassade du Japon si on en croit l'article sur les mangas paru dans le numéro 21 de la revue "Phénix" de 1972 et rédigé par Claude Moliterni et Kosei Ono. La bande dessinée japonaise est très peu présente dans le monde francophone avant 1978 : quelques planches de "Bushidou Muzanden" d'Hiroshi Hirata dans "Budo Magazine Europe", publication consacrée au judo, en 1969, plusieurs mangas sur les samouraïs traduits et publiés au début des années 1970 dans la nouvelle formule de "Budo magazine Europe" et l'article « La Bande dessinée japonaise » de Claude Moliterni et Kosei Ono qui lui est consacré en 1972 dans "Phénix". En 1978, Atoss Takemoto publie le premier numéro du "Cri qui tue", fanzine d'assez mauvaise qualité (impression, choix des bandes). On y retrouve dans les six numéros qui paraissent jusqu'en 1981 "Golgo 13" de Takao Saito, "Le Système des Super Oiseaux" d'Osamu Tezuka, "Good bye" de Yoshihiro Tatsumi et des histoires de Shōtarō Ishinomori, Fujiko Fujio, Masashi Ueda. Toutes les planches sont adaptées au sens de lecture européen. En 1979, Kesselring, associé à Takemoto, publie le premier album : "Le vent du nord est comme le hennissement d'un cheval noir" de Shōtarō Ishinomori. Le format choisi, supérieur à la norme européenne, met peu en valeur les particularités du format japonais, le lettrage est bâclé : comme le premier périodique, le premier album est un échec. En 1982, les éditions Télé-Guide, désireuses de profiter du succès de la série animée "Candy", publient avec succès la bande dessinée originelle de Yumiko Igarashi et Kyoko Mizuki dans les douze numéros de "Candy Poche". C'est pourtant dans les années 1980 le seul manga adapté en dessin animé à faire l'objet d'une traduction, les autres adaptations étant le fait de studios français, afin d'éviter de payer des droits d'auteurs. En 1983, le premier volume de "Gen d'Hiroshima" de Keiji Nakazawa est publié par Les Humanoïdes associés dans la collection « Autodafé », dans une édition correcte, mais qui ne rencontre aucun succès. De même, l’"Hiroshima" de Yoshihiro Tatsumi édité par Artefact en 1983 ne trouve pas son public. Les éditeurs sont alors refroidis par l'expérience et, dans un contexte de récession, plus aucune bande dessinée japonaise n'est éditée en album jusqu'à "Akira", hormis en 1989 chez Albin Michel le premier tome des "Secrets de l'économie japonaise en bandes dessinées" d'Ishinomori. Les premiers mangas pornographiques sont traduits, avec la publication chez Idéogram dans les onze numéros de la revue "Mutant", de à , d"'Androïde", de Sesaku Kanō et Kazuo Koike et celle dans "Rebels" (juin 85) à 9 (janvier 86) de "Scorpia" de M. Yuu et K. Kazuya. L'absence de traduction de ce que les spécialistes savent être le premier marché de la bande dessinée suscite cependant les interrogations de Thierry Groensteen en 1985 et la publication de divers articles dans "Les Cahiers de la bande dessinée". 1990-1995 : « naissance » du manga en France. À partir de , encouragé par les chiffres corrects réalisés par le film Akira, et à la suite d'un voyage au Japon en 1988, Jacques Glénat P.D.-G. de la maison d'édition grenobloise décide de traduire et publier "Akira", de Katsuhiro Ōtomo, en fascicules, d'après l'édition colorisée en Amérique. Le renouvellement massif des codes du manga qu'introduit cette œuvre permet au succès d'être cette fois au rendez-vous, et l'édition cartonnée en couleur voit le jour dès la fin de l'année. En , le premier volume de "Gen d'Hiroshima" fait l'objet d'une nouvelle édition chez Albin Michel, avec le titre "Mourir pour le Japon", sans beaucoup plus de succès qu'en 1983. En 1991, "Rêves d'enfants", autre série d'Ōtomo, est éditée en 1991 par Les Humanoïdes Associés, avec beaucoup moins de succès qu'Akira (ce qu'on peut expliquer par le fait qu'il n'y a pas d'adaptation animée de ce manga). En , s'inspirant des exemples étrangers (par exemple "Protoculture Addicts" au Canada en 1987 et "Yamato" en Italie en ), naît "Mangazone", le premier fanzine d'information sur la bande dessinée japonaise en France. Il est tiré à et connaît huit numéros avant sa disparition en 1994, ses éditeurs préférant se consacrer à leur autre production "Scarce". En naît "AnimeLand", fanzine luxueux qui remplace "Mangazone" comme référence francophone. Alors que de plus en plus de voix s'élèvent pour protester contre les animes, toujours plus présents dans les programmes jeunesse, Glénat, une fois "Akira" achevé, publie d'autres mangas originaux d'animes à succès : "Dragon Ball" d'Akira Toriyama en , "Ranma ½" de Rumiko Takahashi en . La réussite de l'entreprise permet à Glénat de traduire d'autres mangas, liés ou non à un anime : "Appleseed" de Masamune Shirow à partir de , puis "Orion" du même auteur en septembre, "Crying Freeman" de Ryōichi Ikegami en , "Dr Slump" de Toriyama et "Sailor Moon" de Naoko Takeuchi en février, "Gunnm" de Yukito Kishiro en mars. En 1994, les éditions Tonkam, l'une des plus vielles boutiques d'importation de manga japonais, se lancent dans l'édition et deviennent rapidement le premier grand éditeur français spécialisé dans le manga. Ils publient notamment les séries du groupe CLAMP (RG Veda en ) et sont les premiers à publier les mangas dans le sens de lecture japonais, à la fois pour des raisons de coût et d'intégrité de l'œuvre, disposition qui devient assez rapidement la norme, sauf dans quelques cas particuliers (comme la collection «Écritures» de Casterman). D'autres éditeurs traditionnels commencent à s'intéresser au manga. Casterman publie d'abord dans sa collection « Manga » créée en janvier 1995 deux bandes dessinées créées au Japon par des auteurs français ("Kiro" d'Alex Varenne puis en septembre "Au Nom de la famille" de Jerome Charyn et Joe Staton) avant de publier en septembre "Gon" de Masashi Tanaka, "L'Habitant de l'infini" d'Hiroaki Samura et "L'Homme qui marche" de Jirō Taniguchi. « Casterman manga » accueille de nouveaux titres de qualité jusqu'en 1999, avant d'être remplacée par des collections plus spécialisées par la suite. Dark Horse France publie ' de de à . J'ai lu lance également sa collection manga en 1996, avec "City Hunter" et '. Dargaud se lance également en créant la collection Kana avec "Angel Dick" puis "Armagedon" de la coréenne Hyun Se Lee. Des éditeurs spécialisés naissent également (en plus de Tonkam déjà cité) : Samouraï Éditions, qui publie des mangas érotiques à partir de 1994 ("Ogenki Clinic" d'Inui Haruka) puis des mangas plus traditionnels l'année suivante ("Vampire Miyu" de Narumi Kakinouchi et Toshiki Hirano), l'éphémère Star Comics en avec "Takeru" de Buichi Terasawa, Kraken en avril (avant de disparaître l'année suivante) avec l'ambitieux "Shang Hai Kaijinzoku" de Takuhito Kusanagi puis "Les Élémentalistes" de Takeshi Okazaki ou encore "Vaelber Saga" de Nobuteru Yūki. 1995-1996 : la crise. Début des , il y a une vague « anti-manga », surtout anti-anime, alimentée par parents outragés par des scènes trop violentes. Il y a de multiples censures face à l'insistance des groupes de parents, dues à des choix maladroits de programmation ; par exemple "Ken le Survivant" était programmé en même temps que "Mon Petit Poney", le mercredi après-midi. Les dessins animés japonais sont accusés de tous les maux, d'avoir une influence néfaste. Certaines personnalités s'engagent contre cette culture japonaise, dont Ségolène Royal, auteur du livre "Le ras-le-bol des bébés zappeurs". Cette dernière s'attaque aux séries d'animations japonaises, qu'elle qualifie de . Dorothée est, quant à elle, très vivement critiquée : titrait à la une le supplément télé du magazine VSD, TVSD en 1993. Certains mangas durent revêtir une couverture plastique avec la mention « vente interdite aux mineurs ». Pour Dorothée, c'est aussi la fin du "Club Dorothée", qui avait introduit l'anime en France sous le nom de "Récré A2" () avec "Goldorak". C'est aussi la fin de la publication japonaise d'un titre phare : "Dragon Ball". Le marché du fanzine s’essouffle. Mais cette année sera un tournant éditorialiste, où les enfants ne seront plus la cible privilégiée des éditeurs. 1996-2001 : essor du marché. La vague est lancée : "AnimeLand" devient en 1996 avec son vingt-deuxième numéro le premier magazine consacré à l'animation et aux mangas diffusé en kiosque, de plus en plus d'éditeurs se joignent aux précurseurs, tandis que d'autres séries à grand succès sont traduites : d'une petite dizaine en 1994, ce sont plus d'une quarantaine de séries différentes qui sont publiées ou lancées en 1996 (pour 105 albums, par Tonkam, Glénat et J'ai lu principalement), parmi lesquelles "Nicky Larson" de Tsukasa Hōjō, "" de Koji Inada, Riku Sanjo et Yuji Horii, "Ghost in the Shell" de Shirow, "Amer Béton" de Taiyō Matsumoto, "Bastard !!" de Kazushi Hagiwara, "Le Roi Léo", "Astroboy" et "Blackjack" d'Osamu Tezuka. En 1997 apparaissent "Détective Conan" de Gosho Aoyama, "3×3 Eyes" de Yūzō Takada, "Sanctuary" de Ryōichi Ikegami et Sho Fumimura, "Ah! My Goddess" de Kōsuke Fujishima, en 1998 "Neon Genesis Evangelion" de Yoshiyuki Sadamoto, "Cat's Eye" de Tsukasa Hojo, "Kenshin le vagabond" de Nobuhiro Watsuki, "Yu-Gi-Oh!" de Kazuki Takahashi ainsi que les premières réalisations de Naoki Urasawa, en 1999 "Ken le Survivant" de Tetsuo Hara et Buronson, "Captain Tsubasa" de Yōichi Takahashi, "Cardcaptor Sakura" de CLAMP, "Slam Dunk" de Takehiko Inoue. Le marché continue à croître à un rythme soutenu : 151 albums en 1998, 200 en 1999, 227 en 2000, 269 en 2001. À partir de 1999, Kana s'affirme comme le quatrième grand acteur du secteur. Cependant, alors qu'à cette date les principales séries japonaises à succès des années 1980 et 1990 sont traduites, et qu'elles atteignent parfois d'enviables chiffres de vente (au début du millénaire par volume de "Dragon Ball", environ pour les séries les plus populaires), que les magazines dédiés vont commencer à se multiplier, que les rencontres d'amateurs ont de plus en plus de succès, qu'Internet va favoriser le développement des mangas, le monde de la bande dessinée tel que le laisse percevoir le Festival d'Angoulême laisse peu de place à cette émergence, et les éditeurs alternatifs lui restent globalement indifférents, laissant inconnu du public le large patrimoine de bandes dessinées d'auteur japonaises, hormis Taniguchi. Des séries plus récentes sont alors traduites, et remportent également un grand succès : en 2000 "Hunter × Hunter" de Yoshihiro Togashi, "Shaman King" de Hiroyuki Takei, "One Piece" d'Eiichirō Oda, en 2001 "Great Teacher Onizuka" de Tōru Fujisawa, "I¨s" de Masakazu Katsura, "Samurai deeper Kyo" d'Akimine Kamijyō, "Angel Sanctuary" de Kaori Yuki, "Monster" de Naoki Urasawa, en 2002 "Love Hina" de Ken Akamatsu, "Gunnm Last Order" de Kishiro, "Fruits Basket" de Natsuki Takaya, "Naruto" de Masashi Kishimoto, "Bleach" de Tite Kubo. Le premier festival de bande dessinée et d'animation japonaises, la Japan Expo, est créé en 1999. Il se tient au centre des nouvelles industries et technologies (CNIT) en 2003 et 2004, puis au parc des expositions de Paris-Nord Villepinte, où il attire en 2012 plus de . 2002-2009 : forte augmentation des ventes de manga. À partir de 2002, la hausse de la part des bandes dessinées asiatiques dans le marché des nouveautés s'accélère, à la fois en valeur absolue (377 en 2002, 521 en 2003, 754 dont 614 mangas en 2004) et relativement (25 % en 2002, 30 % en 2003, 36 % en 2004, 42 % en 2005, 44 % en 2006, environ 42 % en 2007). Les mangas restent les bandes dessinées asiatiques les plus vendues (), leur coût par tome plus faible et leur périodicité plus régulière que celle des bandes dessinées occidentales leur permet de toucher un public fidélisé, d'autant que les éditeurs peuvent sélectionner les bandes dessinées qui ont déjà passé l'épreuve du public au Japon. La plupart créent des collections dédiées, voire tentent de lancer des mangas « à la française ». En 2003, le tirage des quinze plus grandes séries oscille entre et ("Yu-gi-oh", et "Naruto" en 2004) exemplaires, en 2007 "Naruto" est imprimé à , "Death Note" à , et le fonds reste attractif (avec "Dragon Ball" surtout). En valeur, le marché est détenu à 80 % par Pika, Kana et Glénat. En 2003, pour la première fois, un manga obtient un prix au festival d'Angoulême : "Quartier lointain", de Taniguchi, pour le prix du scénario. C'est un début de reconnaissance. En 2005, la forte part des mangas édités dans le marché de la bande dessinée francophone a fait écrire à Gilles Ratier que 2005 avait été en France « l'année de la mangalisation », sans qu'il s'en offusque, . dessinées asiatiques (soit 42 % des nouveautés) sont en effet éditées en 2005 dont 937 mangas, et en 2006 (soit 44 % des nouveautés), dont . Les tirages à la nouveauté des bandes dessinées japonaises les plus populaires n'ont plus rien à envier à ceux des bandes dessinées traditionnelles populaires : pour "Naruto", pour "Samurai deeper Kyo" ou "Fullmetal Alchemist" (de Hiromu Arakawa, traduit à partir de 2005), pour "Gunnm Last Order", "Hunter × Hunter", "Yu-Gi-Oh!", "Fruits Basket" et "Shaman King", pour "Neko Majin" de Toriyama, pour "Air Gear" (d'Ōgure Ito, traduit à partir de 2006) et "One Piece" d'Eiichirō Oda. Début 2006, la France est, avec plus de d'exemplaires annuels, le plus gros « consommateur » de mangas au monde après le Japon et devant les États-Unis. Les mangas représentent 26 % du chiffre d'affaires de la bande dessinée et constituent la plus forte progression derrière la fiction jeunesse, se plaçant en deuxième position des secteurs de l'édition les plus dynamiques. De plus, sur le marché français, seulement dix séries mangas concentrent 50 % des ventes. Parallèlement à ce succès populaire, les maisons d'éditions commencent à développer l'édition patrimoniale : Vertige Graphic réédite "Gen d'Hiroshima" et publie Yoshihiro Tatsumi, un des pères du "gekiga" à partir de 2003, Ego comme X traduit "L'Homme sans talent" de Yoshiharu Tsuge en 2004, Cornélius publie Shigeru Mizuki depuis 2006, avec succès puisque "NonNonBâ" obtient le Prix du meilleur album à Angoulême en 2007, respectabilité qui avalise la forte pénétration de la bande dessinée japonaise sur le marché français. La bande dessinée d'auteur pour adultes, représentée d'abord par Jirō Taniguchi et Naoki Urasawa, se développe à partir de 2002, tandis que les jeunes auteurs les plus novateurs le sont, hormis Taiyō Matsumoto publié dès 1996, à partir de 2005. L'intérêt pour le manga pousse des éditeurs à s'intéresser également aux bandes dessinées coréenne et chinoise. Les ventes de mangas culminent à plus de 15 millions d'exemplaires vendus en 2008. 2010-2014 : un début de déclin ? En 2010, Kana et Glénat sont toujours leaders dans le domaine du manga, fort du succès de "Naruto" et "One Piece" qui sont les bandes dessinées les plus vendues de l'année toutes catégories confondues, mais ils perdent du terrain à l'avantage de maisons d'édition comme Pika Édition, Ki-oon ou Kazé, qui se fait une grande place dans le marché depuis son rachat en 2009 par Shōgakukan et Shūeisha. Certains éditeurs comme Tonkam, Panini ou encore Delcourt enregistrent des baisses très importantes, tandis que la petite maison d'édition Doki-Doki enregistre la plus grande progression de l'année. "Pluto", "Bakuman." et "Monster Hunter Orage" (par Hiro Mashima) sont les trois nouvelles licences les plus populaires en 2010. En 2011, le trio de tête reste identique, mais Glénat passe largement en tête devant Kana, du fait de la montée des ventes de "One Piece" et du rythme de parution plus lent (3 tomes par an) de "Naruto". Glénat affiche donc une forte hausse (+13,3 %), alors que ses deux concurrents directs Kana et Pika Édition affichent des baisses (-17 % pour Kana et -2,9 % pour Pika). Kurokawa, Kazé et Ki-oon continuent leurs progressions et représentent à eux trois environ 20 % des ventes de manga en France, avec notamment la fin de "Fullmetal Alchemist" ou le novateur "Les Vacances de Jésus & Bouddha" pour Kurokawa, l'arrivée de titres comme "Blue Exorcist", "Beelzebub" ou "Toriko" pour Kazé et de "Judge", "Pandora Hearts" ou "Bride Stories" chez Ki-oon, mais également avec l'arrivée d'un catalogue pour les enfants plus important, avec notamment "Pokémon Noir et Blanc" ou "". Depuis le rachat de Tonkam et Soleil Manga par Delcourt, le groupe représente environ 10 % des ventes de manga en 2011, mais les trois maisons d'édition continuent leur chute. Seuls les petits éditeurs Taifu Comics et Doki-Doki sont à la hausse. Pour autant, le secteur du manga a vu sa croissance s'arrêter et ses ventes diminuer au début des années 2010. De fait, après avoir plus que quadruplé entre 2001 et 2008, les ventes des mangas en France ont marqué un recul de 15 % en volume entre 2008 et 2011. Après deux années propices à la stagnation, 2012 marquait cependant une hausse remarquable du nombre de séries asiatiques sur le sol français. Mais la tendance des sorties s'est inversée en 2013, avec parus (contre en 2012 et en 2011). Cependant, dans un marché général de la bande dessinée qui, pour la première fois depuis au moins , est en baisse (-7,3 % de sorties), les sorties asiatiques se maintiennent et représentent une part des nouveautés légèrement plus importante (40,7 % du marché, contre 39,4 % l'année précédente). Cette légère baisse s'accompagne en revanche de ventes qui continuent de chuter de manière importante. En effet, alors que le marché général de la bande dessinée a bénéficié d'une hausse de 1,4 % en valeur sur la fin de l'année 2013 (porté par les best-sellers évènementiels que furent les derniers albums d"'Astérix", de "Blake et Mortimer" ou du "Chat"), le secteur du manga accuse une nouvelle chute de -8,5 % de son chiffre d'affaires, et ce alors qu'il avait déjà connu un recul de -3,8 % l'année précédente. Comme pour les années précédentes, le marché du manga reste marqué par une très forte concentration, tant au niveau des séries à succès (une dizaine de titres représente à elle seule la moitié des tirages de l'ensemble du marché) que des éditeurs. Ainsi, les dix premières séries les plus vendues en 2013 (qui sont, dans l'ordre décroissant d'importance, "Naruto", "One Piece", "Fairy Tail", "Black Butler", "Bleach", "King's Game", "L'Attaque des Titans", "Judge", "Prophecy" et "Soul Eater") sont portées par seulement cinq éditeurs que l'on identifiera sans surprise comme faisant partie des premiers groupes éditoriaux du secteur : Glénat, Pika Édition, Kana, Ki-oon et Kurokawa. Bien mieux, en 2013, les trois plus importants leaders éditoriaux du marché que sont Glénat, Pika Édition et Kana ont cumulé à eux seuls près de 60 % des ventes. Pour une grande partie des séries à succès des années 2000, les rythmes de parution en France rattrapent de plus en plus ceux du Japon et se font donc plus lents tandis que les nouveaux lecteurs se font de plus en plus rares, eu égard au grand nombre de tomes existants à rattraper ("Fairy Tail" et "Bleach" en comptent respectivement plus de 40 et 60 tandis que "Naruto" et "One Piece" ont déjà atteint les 70 tomes). Or, au Japon, certaines grandes séries emblématiques des années 2000, arrivées à maturité, commencent à perdre plus de lecteurs qu'elles n'en gagnent. Ainsi, au sein du classement des quinze premières séries au Japon, "Naruto" est tombé à la cinquième place du fait son rythme de publication moins rapide, et surtout parce que la série n'attire plus autant de nouveaux lecteurs, voire lasse certains anciens lecteurs, au point de connaître une chute de ses ventes d'environ 15 %. Il en va de même pour "Hunter × Hunter" ( du fait de son rythme de publication irrégulier), "Fairy Tail" (), "Sawako" (), "Gintama" (), "Toriko" () ou encore "Bleach" (), qui baissent tous au profit de la nouvelle vague de titres emmenée par "L'Attaque des Titans", "Kuroko's Basket", "Magi", "Silver Spoon", disposant tous d'adaptations animées de qualité et mieux étudiées pour soutenir leurs ventes. De même, si "Fairy Tail" a toujours du succès en France, on constate que le premier volume n'est que au sein du classement par volume, et que la série a vu ses ventes baisser de 8 %, après avoir déjà connu une baisse de 12 % l'année précédente. En 2014, les ventes de mangas continuent de diminuer et sont inférieures à 12 millions d'exemplaires, chiffre le plus bas depuis 2004. Depuis 2015 : une croissance record. En 2015, la France représente 50 % des ventes de mangas en Europe, tandis que la bande dessinée japonaise emporte environ 40 % du marché en France, chiffre constant depuis plusieurs années. La France est deuxième plus grand consommateur de mangas au monde, derrière le Japon au point que certains éditeurs ont décidé – fait unique – de publier simultanément certains volumes dans les deux langues, japonais et français. Les ventes de mangas retrouvent une forte croissance à partir de 2015 et finissent par dépasser le précédent record de 2008 avec plus de 16 millions d'exemplaires vendus en 2018 ; plus d'une bande dessinée sur trois vendues est alors un manga. La croissance continue dans les années suivantes, avec plus de 22 millions d'exemplaires vendus en 2020. Une hausse de 107 % est observée en 2021 avec plus de 47 millions de mangas vendus, soit plus d'une bande dessinée sur deux. La mise en place du Pass Culture a notamment eu selon Fabien Hyzard, responsable marketing et commercial chez Ki-oon. L'effet du Pass Culture dans la hausse des ventes est cependant contesté par plusieurs spécialistes, comme Xavier Guilbert, qui analyse que : . À l'inverse, les conséquences des confinements de 2020 puis 2021, avec la fermeture de plusieurs secteurs d'activités culturelles (théâtre, cinéma, voyages…), peuvent expliquer que les budgets des ménages ont pu se reporter en grande partie sur les librairies. Produits dérivés. Souvent, les séries à succès sont adaptées en "anime", sous forme de séries télévisées mais aussi de jeux vidéo. Mais parfois, ce sont les animes qui sont utilisés pour créer des bandes dessinées, soit simplement inspirées de la version animée (comme c'est le cas pour "Neon Genesis Evangelion"), soit directement copiées à partir des images animées. Pour cela, on met en page des images extraites de l'œuvre souhaitée, sur lesquelles on ajoute du dialogue. Ces bandes dessinées particulières sont alors appelées "animekomikkusu" (Anime comics). De nombreux mangas ont aussi été adaptés en "drama" (série télévisée), dont certains sont très populaires comme "Hana yori dango". Associés aux mangas, on trouve les "artbooks", recueils d'illustrations en couleur et d'images originales, incluant parfois des histoires courtes. De même, du fait de la popularité grandissante des mangas, les produits dérivés sont de plus en plus nombreux : figurines, cahiers, calendriers, porte-clés, peluches, habits, costumes, accessoires La naissance de ces produits dérivés est généralement associée aux séries "Nonki na tōsan" (1924) et "Norakuro" (1931). On trouve également des jeux de rôle développant un riche univers post-apocalyptique ou de fantasy tels que "Mekton Z", "Anima", "Final Fantasy" et "Manga BoyZ". En France, de nombreux festivals appelés conventions ont fait leur apparition ces dernières années. Ces conventions sont des points de rassemblement pour les fans de mangas ou de culture japonaise moderne en général, proposant des projections, des jeux, des spectacles de "cosplay" et étant souvent complétées par un espace où se côtoient professionnels (magasins de livres et autres produits) et amateurs (clubs et associations exposant leurs propres œuvres). On compte parmi les conventions les plus connues : Cartoonist, Epitanime, Japan Expo, G.A.M.E. in Paris (France), Tokyo Zone (France), Polymanga (Suisse) |
Microsoft ( ) est une multinationale informatique et micro-informatique américaine, fondée en 1975 par Bill Gates et Paul Allen. Microsoft fait partie des principales capitalisations boursières du NASDAQ, aux côtés d'Apple et d'Amazon. En 2018, le chiffre d'affaires s’élevait à de dollars. Elle est dirigée, depuis le , par Satya Nadella qui succède à Steve Ballmer et Bill Gates en qualité de directeur général. En 2020, l'entreprise emploie dans . Son activité principale consiste à développer et vendre des systèmes d’exploitation, des logiciels et des produits matériels dérivés. Les meilleures ventes historiques sont portées par les systèmes d’exploitation MS-DOS puis Windows, et la suite bureautique Office, qui alimentent à présent une politique de diversification. Windows a atteint une position dominante sur les ordinateurs personnels, avec plus de 90 % de parts de marché dans le monde. Microsoft est présent dans l'informatique en nuage (Azure), les sites Web (moteur de recherche Bing, réseau social LinkedIn, messagerie électronique Outlook.com), les consoles de jeu vidéo (Xbox) et les tablettes PC (Surface). La vigoureuse stratégie commerciale menée par Microsoft lui a valu des déboires judiciaires, notamment aux États-Unis et dans l'. Cette stratégie s'est notamment appuyé sur le principe d"'Embrace, extend and extinguish", l'abus de position dominante de Windows, et la vente liée. Histoire. Création et début de l'entreprise. La société est née en sous le nom original de Micro-Soft, à Albuquerque, dans le Nouveau-Mexique, du besoin de deux étudiants américains, Bill Gates et Paul Allen, de formaliser la vente de l’interpréteur de langage informatique BASIC : Altair BASIC adapté par eux deux et Monte Davidoff , pour ce qui est considéré comme le premier ordinateur personnel américain, l’Altair 8800, de la société MITS, avec le premier langage de programmation pour micro-ordinateur de l’histoire de l’informatique. La marque Microsoft (Le trait d’union disparaîtra quelques années plus tard) fut déposée le . À l’origine, elle a été fondée pour développer et vendre des programmes informatiques BASIC pour l’Altair 8800, puis elle est devenue un des sous-traitants d'IBM. Microsoft a réussi à dominer le marché du système d’exploitation de l’ordinateur personnel avec MS-DOS au milieu des années 1980. Elle a pu ensuite s'affranchir d'IBM. L’introduction en bourse de la société, et l’envolée du prix des actions qui s’ensuivit, ont fait quatre milliardaires et environ parmi les employés de Microsoft. Au cours de son histoire, la société a été critiquée pour abus de position dominante, parfois devant la justice américaine et européenne, ou pour des copies, ces dernières critiques s'étant atténuées après la de 1997. Ce premier contrat de Microsoft représenta le véritable tour de force de Bill Gates, étant peut-être même plus important pour cette société que le rôle que jouera ensuite MS-DOS : contrairement à ce qui se faisait à l’époque, où les constructeurs achetaient aux éditeurs leurs logiciels avec tous les droits, Bill Gates et Paul Allen demandèrent de recevoir chacun trois mille dollars pour leur Altair BASIC tout en restant propriétaires, et ne concédèrent qu’une licence à MITS, qui devait leur reverser trente-cinq dollars par exemplaire distribué. À titre indicatif le prix de vente de l’Altair 8800 étant de , la licence de Microsoft en représentait donc 8,8 %. C’est ainsi que le BASIC de Microsoft se retrouva dans deux micro-ordinateurs populaires introduits en 1977 : le PET de Commodore et le TRS-80 de Tandy. Au cours de cette période, l'informatique évolue et dépend moins des « grands systèmes IBM », les constructeurs proposant une informatique plus décentralisée. En 1980, IBM s’apprêtant à lancer l’IBM PC, a demandé son BASIC (dont une version en mémoire ROM) à Microsoft. IBM a, par ailleurs, demandé à la société , dirigée par Gary Kildall, de lui fournir une version de son système d’exploitation CP/M. L’histoire du contrat manqué par Gary Kildall est très controversée, cependant la version avancée par de nombreuses personnes, dont Tim Paterson, qui sera bientôt amené à travailler pour Microsoft, et la moins contestée, affirme que Kildall et son ancienne épouse, Dorothy McEwen, auraient refusé de signer un accord de confidentialité. De plus, ils ont refusé de modifier CP/M-86, ont demandé une redevance plus élevée, et surtout, le CP/M 86 étant totalement exempt de bugs, n’ont pas autorisé IBM à en modifier le codage. IBM se tourna alors vers Microsoft, et voulut sous-traiter CP/M pour l’IBM PC. Le contrat avec Microsoft ne le permettant pas, celui-ci dépensa en pour une licence non exclusive pour un système d’exploitation, disponible à un stade expérimental, clone de CP/M, le QDOS (, littéralement ). En , Microsoft engagea Tim Paterson pour porter QDOS sur l’IBM PC. En , Microsoft acheta tous les droits sur 86-DOS pour cinq mille dollars. IBM vit ainsi sauvé son projet d’IBM PC, mais au prix, qu’elle ignora, de la perte de sa position dominante : cet accord va permettre de réaliser des clones, et surtout, à IBM d’empocher des redevances sur le MS-DOS pour les correctifs qu’elle y a apportés (débogage). IBM avait détenu jusqu’à 66 % du marché des propriétaires ; sa part du marché des PC ne dépassa jamais un maximum de 21 %, atteint vers 1983, puis a décliné pour placer ce constructeur derrière Dell et Compaq (aujourd’hui intégrée par Hewlett-Packard), situation devenue marginale, inimaginable en 1981. Microsoft vendit donc à IBM des licences pour ce système d’exploitation tiers, le 86-DOS, écrit par Tim Paterson de pour le microprocesseur Intel 8086 (le Intel 8088 qui équipa le Compatible PC est compatible avec le Intel 8086, et juste un peu moins rapide que ce dernier, et possède le même langage machine). Le MS-DOS devint ainsi l’un des trois systèmes d’exploitation disponibles pour l’IBM PC, avec CP/M 86 (Gary Kildall mis face à une concurrence a fini par se laisser convaincre) et PC/IX, une version d’UNIX ne possédant pas de mode de protection mémoire. Microsoft a acheté pour le logiciel qui va ériger son empire, même si elle a dû en compléter le développement pour répondre au cahier des charges d’IBM. Celui-ci fut édité sous le nom d’IBM PC-DOS 1.0 lors de l’introduction des IBM PC sur les marchés anglophones, le . Étant plus léger, moins cher et rendu plus disponible que ses deux concurrents, il devint rapidement le système d’exploitation installé d’office sur les IBM PC, puis plus tard des Compatible PC. Comme pour le BASIC, Microsoft s’est réservé le droit de vendre des licences à d’autres constructeurs sous le nom de MS-DOS. Avec l’essor des Compatible PC dès le milieu des années 1980 (de Texas Instruments, Compaq, Seiko Epson, Thomson, Amstrad…), MS-DOS s’imposa rapidement et devient la plate-forme de référence professionnelle et, selon les points de vue, un monopole. En 1987, des milliers de constructeurs de compatible PC existaient dans le monde, et tous sans exception avaient un point de passage obligé qui était le système d’exploitation de Microsoft, le plus performant de tous, dans un souci, crucial pour le monde professionnel, d’unité, de standardisation, et de portabilité de tous les ordinateurs compatible PC. Montée en puissance de Microsoft. D’abord simple environnement graphique pour MS-DOS, Windows est devenu entre 1993 et 2001 un système d’exploitation à part entière. Quelques coups de stratégie de marketing ne sont pas étrangers à ce succès, comme l’ajout de trois touches « Windows » sur les claviers afin de marquer celui-ci dans l’esprit du consommateur comme « étant fait pour Windows » et marginaliser ainsi le concurrent potentiel OS/2 développé par IBM, et codéveloppé initialement par Microsoft et IBM, jusqu’au divorce officiel entre les deux sociétés en . Selon Microsoft, un soin particulier a également été apporté aux questions d’ergonomie, et en particulier à la question des polices de caractères typographiques, dès les (Adobe Type Manager) et 3.1 (TrueType) de Windows. Bien des années plus tard, Microsoft affirmera considérer son avance sur le plan de l’ergonomie comme l’atout qui permettra à Windows de survivre face à la concurrence libre de Linux et de KDE/GNOME. De fait, Microsoft consacre une part très importante de son budget aux questions d’ergonomie : un service observe toutes les hésitations d’utilisateurs novices, pour rendre les menus plus clairs, démarche fastidieuse et rarement réalisée sur des logiciels gratuits. Windows est alors devenu le standard micro-informatique solidement soutenu par l’effet réseau indirect de milliers de logiciels et de périphériques matériels spécifiques à Windows qui ont nécessité des milliards de journées/hommes de développement. Quelques-uns s’y risqueront : , avec un produit performant, rapide, et très riche en fonctionnalités, mais alors que beaucoup d’applications sont déjà portées ou en cours de portage sous Windows ( se reconvertira dans les interfaces de téléphones mobiles), ou Be Inc. avec le système d’exploitation BeOS, créé par Jean-Louis Gassée, alors patron de la R&D d’. L’élaboration d’un produit capable de rivaliser avec Windows impliquerait de disposer, comme Microsoft, de revenus réguliers pendant les années nécessaires au développement d’un tel système. Or, le temps que celui-ci soit développé, Microsoft aurait déjà pris de l’avance, et éventuellement modifié les standards. La société Be propose tout de même BeOS, orienté d’emblée dans la gestion de la vidéo : ce système d’exploitation ne décollera jamais vraiment hors d’un cercle de passionnés. Et intentera d’ailleurs un procès antitrust contre Microsoft pour abus de position dominante, qui s’achèvera par un accord financier à l’amiable entre les deux sociétés. En 1986 Microsoft lance l'environnement graphique Windows 1.0, peu après la sortie des produits concurrents GEM de Digital Research et Mac OS de Apple. La de Windows, rudimentaire - les fenêtres ne peuvent même pas se recouvrir -, n’inquiète pas sérieusement , qui ne réagit pas. La est une concurrence plus sérieuse, et intente un procès contre Microsoft pour plagiat, peu de temps après avoir intenté un procès similaire contre Digital Research. Cette dernière usa de tous les moyens légaux pour faire traîner le procès en longueur. perdit définitivement son procès contre Microsoft en appel en 1994. , en situation financière délicate, menaça ensuite d'attaquer à nouveau Microsoft, ce qui aboutit à un règlement à l’amiable en 1997, au moment du retour de Steve Jobs à la tête d’, appelé « de 1997, ce qui l'a sorti de grosses difficultés ». Cet accord comprenait une prise de participation temporaire de Microsoft dans le capital d’ (à hauteur de de dollars soit 6 % du capital de "la pomme"), et l’obligation pour Microsoft de développer et pour Mac OS au moins jusqu’en 2002. En échange, abandonnait ses poursuites. , avec le niveau de 620,58 milliards de dollars atteint le . Le , ce record est battu par Apple, à de dollars, grâce au succès populaire de ses appareils mobiles iPhone et iPad. Un facteur important de l’adoption généralisée de Windows a été son rôle d’interface non seulement graphique, mais également de "pilotes". Sous MS-DOS, chaque éditeur de logiciel devait développer individuellement la gestion de tout le panel des milliers de périphériques compatible PC existants et à venir. Tâche colossale que les éditeurs de logiciels n’ont plus à gérer sous Windows dans la mesure où celui-ci se charge de gérer lui-même en standard tous les pilotes de périphériques de l’univers compatible PC. Le Campus Microsoft est le nom informel du siège social de Microsoft, situé au One Microsoft Way à Redmond, Washington. Microsoft s'est d'abord installé sur les lieux le , puis la société est devenue publique le . Le siège a depuis connu de multiples expansions. On estime qu'il englobe plus de d'espace de bureau et . D'autres bureaux sont situés à Bellevue et Issaquah ( dans le monde). En , Microsoft a annoncé l'achat de campus de Redmond Safeco. (Anciennement un des principaux employeurs de Redmond, Safeco a commencé à consolider ses bureaux dans le quartier universitaire de Seattle à la Tour Safeco en 2005). En février 2006, Microsoft a annoncé qu'il avait l'intention d'étendre son campus de Redmond de pour un coût d'un milliard $ et a dit que ce serait pour créer un espace pour entre employés au cours des trois années suivantes. L’histoire de Microsoft ne se résume cependant pas à celle de Windows. D’autres pans importants de l’activité de Microsoft ont permis sa croissance : Le Seattle Times a rapporté, au début de , que Microsoft avait embauché un cabinet d'architecture Skidmore, Owings & Merrill pour commencer une refonte de plusieurs milliards de dollars du campus de Redmond, en utilisant supplémentaire, refonte autorisée par un accord avec la Ville de Redmond. En , Microsoft effectue une émission obligataire d'un montant de 20 milliards d'euros, permettant le financement de l'acquisition de LinkedIn. Cette émission obligataire est la cinquième plus grosse jamais lancée sur le marché du crédit américain. En juin 2020, Microsoft annonce la fermeture d'une grande partie de ses boutiques. En mars 2021, le groupe lance Mesh, sa nouvelle plateforme de réalité mixte, à partir de laquelle les développeurs pourront créer hologrammes et objets virtuels. En décembre 2021, AT&T annonce la vente de sa filiale de publicité en ligne Xandr à Microsoft, pour un montant de 1 milliard de dollars. En janvier 2023, le groupe annonce un plan de 10 000 licenciements d'ici à la fin de mois de mars. Systèmes, logiciels et technologies. Stratégie du « One Windows ». Microsoft veut que Windows 10 harmonise l'expérience utilisateur et la fonctionnalité entre les différentes classes de périphériques, par exemple en corrigeant les lacunes de l'interface utilisateur qui ont été introduites dans Windows 8. Ou bien encore centraliser toutes les applications autour de Windows. Cette stratégie, Microsoft la nomme « One Windows » c'est-à-dire créer un seul écosystème regroupant les Windows pour smartphones, Xbox, les objets connectés ainsi que les autres projets de Microsoft comme le casque à réalité augmentée Hololens ou le tableau interactif de réunion Surface Hub. Ces applications universelles sont faites pour fonctionner sur plusieurs plates-formes et les classes de périphériques, y compris les smartphones, tablettes, Xbox, et d'autres compatible avec Windows 10. Les applications universelles de Windows, partagent du code entre les plates-formes pour s'adapter aux besoins de l'appareil et des tâches demandées, pour synchroniser les données entre Windows 10 et les différents appareils qui sont distribués par le Windows Store qui est lui aussi unifié. Les applications que Microsoft propose avec Windows 10 sont par exemple : Windows est installé sur presque 90 % des ordinateurs personnels (postes "clients") vendus dans le monde, et dégage actuellement 87 % de marge bénéficiaire. Néanmoins, Windows perd petit à petit quelques parts de marché au profit de l'OS X d’. Linux a grignoté pour sa part une grande part du marché des serveurs, où l'ergonomie est un critère secondaire. Windows reste cependant en 2016, le produit le plus rentable de l’éditeur, suivi de près par la suite Microsoft Office. À ce jour la dernière version de Windows est Windows 10. C’est la première version de Windows qui est officiellement la même sur toutes les plateformes (ordinateur de bureau, ordinateur portable, tablette tactile, "smartphone", montre connectée, casque de réalité virtuelle) bien qu’il s’agisse d’une version modifiée du Windows 10 original. Microsoft a déclaré que c'est la dernière « grande » version disponible sur support physique et que les mises à jour suivantes seront disponibles gratuitement en OTA ("via" Internet) en tant que « "" » nommés "Windows 10.x.x". Une version spécifique, Windows 10 Mobile, sera disponible pour les appareils mobiles à processeurs ARM et dont l'écran fait moins de . Le système pour les tablettes de moins de aura donc une apparence proche de celle de Windows Phone alors que les tablettes de plus de auront obligatoirement une architecture 32 bits ou 64 bits et exécuteront Windows 10 pour PC. Bill Gates a appelé son service d'exploitation Windows (fenêtres), car l'innovation principale du système d'exploitation était l'emploi de fenêtres d'affichage. La famille Windows Phone est un système d’exploitation mobile qui est le principal produit orienté mobiles de la firme. Il inclut des services de Microsoft comme Office, OneDrive, Xbox Live et Bing. Il intègre aussi des fonctionnalités axées vers les médias sociaux tels Facebook et Twitter. Comme Windows Phone est une nouvelle plate-forme, il n'existe aucune compatibilité avec les applications Windows Mobile. Les ventes des portables sous Windows Phone 7 sont limitées, avec seulement 3 % des ventes en 2011. Les ventes de smartphones sous Windows Phone 8 partent dans une meilleure direction pour Microsoft. En effet, en 2013, Windows Phone 8 dépasse les 10 % de parts de marché en Europe et se retrouve même devant iOS en Amérique latine. Windows 10 Mobile est la version mobile du système d'exploitation Windows 10 développé par Microsoft. Windows 10 Mobile succède à Windows Phone 8.1, et est conçu pour les smartphones et les tablettes tactiles d'une diagonale d'écran inférieure à , fonctionnant sur les architectures ARM, ainsi qu'IA-32. Sa sortie est prévue pour fin . Office, la suite bureautique. À l’origine, c’est une suite bureautique de l’éditeur, composée de nombreux logiciels dont le traitement de texte Word, le tableur Excel, le logiciel de présentation PowerPoint, le logiciel de publication Publisher, l’outil de communication et agenda Outlook et la base de données . Depuis 2003, la suite Office s’est largement étendue, avec de nombreux logiciels serveurs comme ou Office est un des logiciels les plus rentables de l’éditeur. Dans les nouvelles versions d'Office, Microsoft axe sa stratégie sur des applications qui hébergent les données dans le Cloud, avec notamment la sortie de la licence Office 365. Cet outil en ligne permet d'avoir accès à de nombreuses ressources, telles que la suite Office 2016 (version en ligne ou locale), SharePoint, Office Online, OneNote, OneDrive, etc., en fonction du niveau de licence acquis. Office Online, est une version en ligne gratuite de Microsoft Office accessible depuis un navigateur web, et dont certaines fonctionnalités sont toutefois réduites par rapport aux logiciels de la suite Office installés sur un ordinateur. Office Online regroupe ainsi les services en ligne "Word Online, Excel Online, PowerPoint Online, OneNote Online mais aussi Outlook.com". La page d'accueil d'Office.com vous permet également d'accéder à vos espaces "Contacts", "Calendrier" et OneDrive. Il combine les fonctionnalités traditionnelles d'Office et des fonctions de co-création en temps réel, de sorte qu'il est possible de collaborer gratuitement avec vos proches et amis sur des documents texte, présentations, feuilles de calcul et bloc-notes partagés. Microsoft propose aussi un drive qui se nomme Microsoft OneDrive qui est un ensemble de services en ligne : stockage et applications Word, Excel, PowerPoint et OneNote, dont les fonctionnalités sont toutefois réduites par rapport aux logiciels installés sur un ordinateur. Ce service a été créé en 2007 et a porté les noms Windows Live Folders, Windows Live SkyDrive, SkyDrive et enfin son nom actuel depuis . Le service peut s'utiliser de deux manières : à travers un navigateur web, en téléchargeant des fichiers sur un serveur, en les récupérant sur son ordinateur au besoin et en les partageant avec des amis ou avec tous les internautes ; ou à travers le logiciel OneDrive qui permet une synchronisation rapide entre OneDrive et les supports informatiques compatibles. Ce service est une manifestation du concept de cloud computing. Début 2012, Microsoft a annoncé l'intégration de SkyDrive dans Windows 8. En , la capacité de stockage est abaissée à et devient payante au-delà, avec des offres allant de 8 à par an permettant d'atteindre jusqu'à . Toutefois, pour les utilisateurs déjà inscrits, il était possible de demander l'extension à gratuitement. Cette possibilité n'existe plus depuis le . À la fin de , à la suite d'un procès perdu contre le groupe audiovisuel britannique British Sky Broadcasting (BSkyB), Microsoft sera contraint de changer le nom de son service de stockage en ligne. Finalement, c'est le que Microsoft annonce le changement de nom en OneDrive. Le le nom de SkyDrive devient officiellement OneDrive. Skype est un logiciel gratuit qui permet aux utilisateurs de passer des appels téléphoniques et vidéo via Internet, ainsi que le partage d'écran. Les appels d’utilisateur à utilisateur sont gratuits, tandis que ceux vers les lignes téléphoniques fixes et les téléphones mobiles sont payants. Il existe des fonctionnalités additionnelles comme la messagerie instantanée, le transfert de fichiers et la visioconférence. Le , Microsoft annonce que les utilisateurs de Windows Live Messenger seront d'ici à quelques mois intégrés dans Skype. Windows Live Messenger sera désactivé le premier trimestre 2013 (exception faite de la Chine). À cela s'ajoute un changement technologique, puisque 80 % de la messagerie instantanée transiteraient par les serveurs de Messenger. En , Skype lance Skype Translator. Cette application permettra la traduction instantanée des communications vocales dans plus de quarante langues. Pour son lancement, les deux premières langues supportées par l'application sont l'anglais et l'espagnol. Skype est désormais intégré à la suite bureautique en ligne qui se nomme Office Online. Le , Microsoft lance Teams pour concurrencer Slack dans son offre Office 365 pour entreprise : un logiciel collaboratif basé sur Skype. En , une nouvelle offre Microsoft 365 est lancée. Elle inclut Office 365, Windows 10 et Enterprise Mobility + Security. C'est une solution destinée aux entreprises ou au secteur de l'éducation. Elle favorise l'aspect collaboratif dans un environnement sécurisé. Influence sur Internet. Microsoft voulait être influent dans le monde d'internet, comme toute société à l'époque, par exemple avec Internet Explorer qui est un navigateur web équipant un peu plus de 60 % des ordinateurs du monde en (selon StatOwl.com). La version actuelle est la avec Windows 8. Une version d’Internet Explorer est disponible gratuitement pour les systèmes Mac OS d’, mais le développement de cette version a toutefois été arrêté en 2003. Néanmoins, le navigateur perd des parts de marché depuis 2004, avec l’arrivée d’autres navigateurs comme Mozilla Firefox, Google Chrome et Safari. Cette baisse coïncide avec l'ajout du "ballot screen" en Europe, un écran obligeant le consommateur à choisir son navigateur web, une mesure imposée par la Commission européenne. Bing est le moteur de recherche développé par la société Microsoft. Il a été rendu public le . Au moment de sa sortie, en 2008, cela révélait un changement dans la stratégie commerciale de Microsoft, qui séparait son moteur de recherche de sa suite d’applications Windows Live. Dans sa version finale, Bing offre les options de recherches suivantes : sites web, images, vidéos, shopping, actualités, cartes, voyages… Selon Microsoft, ce moteur de recherche innove en termes d’algorithmes, qui donne des résultats plus pertinents, mieux organisés et classés en rubriques thématiques. L’objectif pour Microsoft avec ce quatrième moteur de recherche est de mieux concurrencer la suprématie du géant Google, le leader absolu dans ce secteur. Ce dernier compte, à la date d', 65,3 % de part de marché. Lors du lancement de "Bing", Microsoft a prévu un budget communication compris entre 80 et 100 millions de dollars. Ce moteur de recherche est intégré aux pages de MSN et Windows Live. En , un partenariat a été conclu entre Microsoft et Yahoo!. Cet accord prévoit que "Bing" fournisse son algorithme au moteur de recherche Yahoo! Search sur les portails Yahoo!. Concernant MSN, c'est un portail web offrant des sites et services Internet fourni par Microsoft. The Microsoft Network est originellement un service en ligne et fournisseur d'accès à internet commercialisé le , en même temps que la sortie de Windows 95. MSN se présente comme une plateforme interactive, donnant à terme un accès facilité à l'ensemble des produits de Microsoft, comme Outlook.com, Skype, la suite Office en ligne et le service de stockage dématérialisé OneDrive. Facebook et Twitter sont quant à eux intégrés à l'ensemble du site afin de pouvoir communiquer et échanger des informations à tout moment par le biais des réseaux sociaux. MSN se divise désormais en dix univers (actualités, sport, finance, lifestyle, cuisine et vins, divertissement, santé et forme, etc.). En vrac, les internautes peuvent y retrouver aussi bien les derniers résultats sportifs que des avis portant sur plus de de bouteilles de vin, de cuisine illustrées, mais aussi les horaires d'un vol, la météo des jours à venir ou encore les derniers cours de la bourse. Développement et productivité. Microsoft propose aussi plusieurs outils pour les entreprises comme Microsoft SQL Server qui est le système de gestion de base de données (SGBD) phare de Microsoft, codéveloppé avec Sybase jusqu’en 1994. Microsoft Access est le SGBD personnel inclus dans la suite Office, et Extensible Storage Engine est le moteur de SGBD utilisé dans des produits de la marque tels que Exchange ou Active Directory. Plus d'une centaine d'outils périphériques sont disponibles, soit lors de l'installation (SQL Profiler, Database Tuning Advisor, Data Collector…), soit directement sur le site de Microsoft (SQLdiag, SQLioSim, SQL Server Best Practices Analyzer…), soit à travers le site communautaire opensource Codeplex (RML Utilities, PAL, Open DBDiff…). Une instance de SQL Server est une installation de tout ou partie des services SQL Server sur une machine Windows et peut héberger de nombreuses bases de données. Un même OS supportant jusqu'à 50 instances différentes (ce qui n'est pas conseillé en production). SQL Server existe en différentes éditions : CE (Compact Édition : solution embarquée pour les smartphones), Express (plusieurs déclinaisons gratuites), Web (en mode : , auprès d'hébergeurs web), Standard, BI et Enterprise . L'édition Developper, équivalente à l'édition Enterprise, est destinée au développement. Il y a aussi Visual Studio qui est la suite de développement de la firme, incluant divers éditeurs et compilateurs, essentiellement une version améliorée de BASIC nommée Visual Basic, ainsi que des évolutions de C++ et de C#, qui constitue la réponse de Microsoft au langage Java. Cette suite permet aussi de tirer parti des fonctionnalités du .NET Framework. Depuis le , une nouvelle version marque une fusion entre les éditions "Premium" et "Ultimate" pour simplifier le choix : trois éditions sont disponibles : "Community", "Professionnel" et "Enterprise". Le numéro de version interne de Visual Studio 2015 est 14.0 (le symbole codice_1 étant défini comme 1900). Microsoft propose aussi la suite Microsoft Azure (Windows Azure jusqu’en 2014) qui est le nom de la plate-forme applicative en nuage pour entreprise de Microsoft. Son nom évoque le concept de « cloud computing » ou informatique en nuage (l'externalisation des ressources informatiques d'une entreprise vers des datacenters distants). Il s'agit d'une offre d'hébergement (applications et données) et de services (workflow, stockage et synchronisation des données, bus de messages, contacts…). Un ensemble d'API permet d'utiliser et d'accéder à cette plate-forme et aux services associés. Un environnement d'exécution (le « Live Operating Environment ») permet une intégration étroite avec les principaux systèmes d'exploitation existant (Windows, Mac OS et Windows Phone). Le , Microsoft est accusé par la Cnil d'une collecte de données excessive avec son système d'exploitation pour ordinateurs et tablettes. La Cnil met en demeure Microsoft de . Elle lui demande aussi d'assurer de façon satisfaisante la confidentialité des données des utilisateurs. Industrie du jeu vidéo. Microsoft est l’éditeur de nombreux jeux vidéo pour PC dont , , Fable ou . Un service communautaire a été lancé en 2006, « ». Cette gamme accueille plusieurs jeux comme ou "", mais est abandonnée par de grands éditeurs tels THQ, qui justifie son retrait par des . En 2013, le service Games for Windows est abandonné par Microsoft, face à la concurrence d'autres plateformes comme Steam, et pour mettre en valeur les nouveaux services de Microsoft comme le Windows Store qui propose lui aussi des jeux. Il propose également DirectX, une API multimédia (vidéo, son, réseau) pour le développement d’application Windows (principalement des jeux vidéo) et aussi qui permet de visionner des animations vectorielles (faisant ainsi concurrence à ), intégrant de l’audio et de la vidéo. Microsoft Studios, créé en 2002 sous la dénomination "Microsoft Game Studios" (aussi appelé "Microsoft Game Division"), est une société détenue par Microsoft qui développe et édite des jeux vidéo pour les plates-formes Microsoft Windows ou les consoles Xbox, Xbox 360 et Xbox One. La société publie notamment les jeux des studios de développement internes comme 343 Industries ou Rare Ltd., mais aussi des studios de développement tiers comme BioWare ou Bizarre Creations. Le , Microsoft acquiert la société Mojang Studio (à l'origine du jeu Minecraft) pour de dollars. Minecraft est un jeu vidéo indépendant de type « bac à sable » développé par le Suédois Markus Persson alias Notch, puis par le studio de développement Mojang Studio. Ce jeu vidéo plonge le joueur dans un univers réaliste, mais cubique : tout est composé de blocs en 3D pixelisés. Un des principes de base consiste à exploiter les ressources naturelles (minéralogiques, fossiles, animales et végétales) pour en faire de la nourriture, des produits manufacturés ou des matériaux de construction. En , Microsoft annonce le rachat de la plateforme de streaming Beam (renommée Mixer en 2017) afin de permettre aux spectateurs d'interagir avec d'autres joueurs sur des parties de jeux vidéo en direct. Mixer a fermé en 2020 et a fusionné avec Facebook Gaming. Matériel et projet de Microsoft. Xbox, la console de jeu. Microsoft s’est lancé en 2001 dans ce secteur hautement concurrentiel, en sortant sa propre console de jeux vidéo la Xbox et en 2005, la . Elles proposent toutes les deux des centaines de jeux et un mode de jeu en ligne communautaire, le . La permet également de se connecter à Windows Live Messenger, Facebook et Twitter et d’utiliser d’autres services de Microsoft. Elle peut également lire des DVD, des vidéos, ou de la musique. Depuis une récente mise à jour s'inspirant de l'interface de Windows 8, différentes applications sont arrivées sur la console comme Internet Explorer Xbox 360, YouTube, Dailymotion et différentes télés de rattrapage (TF1, Pluzz, Arte, M6…). La Xbox 360 possède environ 30 % des parts de marché sur le marché des consoles de jeux vidéo en . Elle est de plus rentable depuis 2008 pour l’éditeur. Les consoles Xbox au Japon ont peu de succès, contrairement à l'Amérique du Nord. Au Japon, la peine à atteindre un million d’unités vendues en trois ans, alors que la PS3 s’est vendue à presque trois millions en deux ans, et la Wii à sept millions en deux ans. Malgré quelques remontées en 2008 et 2009 grâce notamment à la sortie de plusieurs comme ' ou ', elle reste loin derrière. Néanmoins, cela ne l’empêche pas d’avoir un succès dans le reste du monde. La Xbox One est une console de jeux vidéo de huitième génération développée par Microsoft. Dévoilée le , elle succède à la Xbox 360 et se place en concurrence frontale avec la PlayStation 4 de Sony, et plus indirectement avec la Wii U de Nintendo. Elle est disponible depuis le dans treize pays et depuis dans vingt-six autres pays. D'abord uniquement commercialisée avec Kinect, Microsoft propose la console seule à partir du . La Xbox One S est sortie vers et a été présentée lors de l'E3 2016. La Xbox One S est plus légère, 40 % plus petite que la Xbox One, possibilité de la mettre à la verticale, le bloc d'alimentation est intégré à l'intérieur, la technologie HDR est intégrée & un affichage UHD également. On note également une petite augmentation de puissance par rapport à la Xbox One. Lors de l'E3 2016, Microsoft annonce l'arrivée de la « console la plus puissante au monde » : la Xbox One X, et à l'E3 2017, Microsoft donne la date de mise sur le marché de la console : le . Elle est capable de diffuser de la vraie "4K" & améliore les graphismes en "Full HD". Elle est également la première console à utiliser un système de refroidissement à vapeur et refroidissement liquide. En décembre 2019, Microsoft annonce la Xbox Series X, initialement appelée « Projet Scarlett ». Cette dernière est accompagnée par la Xbox Series S, qui est une entrée de gamme à la Next-Gen. Les deux consoles sortent le 10 novembre 2020 et permettent de jouer à de nombreux jeux développés sur les générations précédentes. Lumia, le smartphone de la firme. Microsoft Lumia (appelé jusqu'en 2014, "Nokia Lumia") est une gamme d'appareils mobiles conçue et commercialisée par Microsoft Mobile et précédemment par Nokia. Lancée en , cette série de smartphones et d'une tablette tactile est le résultat de la coopération des sociétés Nokia, constructeur des téléphones, et Microsoft, concepteur du système d'exploitation Windows Phone. Le nom Lumia vient du mot finnois "lumi", qui signifie « neige ». À la suite du rachat de la branche mobile de Nokia par Microsoft, celui-ci annonce en que désormais la gamme Nokia Lumia s’appellera Microsoft Lumia. Les appareils Lumia, outre les fonctions élémentaires (téléphonie, SMS et MMS), disposent, comme leurs concurrents, d'un écran tactile capacitif multipoint, d'un appareil photo équipé d'une caméra HD, d'un système de géolocalisation intégré, d'un logiciel de cartographie numérique inclus, d'un système d'écoute et de téléchargement de la musique, d'un client Internet, d'applications bureautiques Office, d'une plateforme permettant le téléchargement d'applications mobile (Windows Store). Comme les appareils Lumia utilisent exclusivement Windows Phone, les mises à jour de l'OS sont souvent accompagnées de mises à jour firmware lors du déploiement. Nokia et Microsoft Mobile ont publié plusieurs mises à jour firmware exclusives aux dispositifs Lumia, celles-ci sont nommées grâce à une couleur qui leur est associée, comme : « Lumia Black ». Les mises à jour peuvent contenir des améliorations logicielles de types photographies ou avancées technologiques ; mais aussi des corrections de bugs. En Juillet 2015, Bloomberg a rapporté que Microsoft préparait une restructuration de Microsoft Mobile, qui comprend la gamme Lumia Microsoft. Microsoft a également signalé qu'il commercialisera moins de modèles. Dans le cadre d'une restructuration plus importante du groupe d'ingénierie, Microsoft Devices & Studios a été fusionné avec le Groupe d'ingénierie des systèmes d'exploitation pour former le plus grand groupe d'ingénierie regroupant Windows et les périphériques, et en , il a été annoncé que le chef de la gamme Surface, Panos Panay serait à la tête de la nouvelle organisation Microsoft, qui comprend les Microsoft Lumia ainsi que divers autres produits matériels Microsoft tels que les Band, HoloLens, et Xbox. Microsoft ne produit plus aucun Lumia depuis et n'en vend plus depuis . Surface, tablette et ordinateur. Microsoft Surface est une gamme de tablettes PC conçues et commercialisées par Microsoft. Cela comprend les tablettes PC (Surface et Surface Pro), les ordinateurs portables (Surface Book), et les tableaux interactifs (Surface Hub). La gamme Surface est donc concentrée en trois grandes lignes majeures : Le Surface Hub, le tableau interactif, est considéré comme un produit à part, qui par son prix élevé ciblera les entreprises. Il existe cinq modèles de cette tablette avec sa déclinaison Pro. Les Surface tournent sous Windows RT, Windows 8 et Windows 10. Au mois d'octobre 2015 Microsoft annonce qu'elle sortira son premier ordinateur portable : Le Surface Book, en concurrence direct avec le Macbook d'Apple Band, un bracelet pour faire du sport. Microsoft Band est une montre connectée dévoilée le . Disponible dès le lendemain aux États-Unis, elle est l'une des premières à fonctionner aussi bien avec Windows Phone, Android et iOS. L'utilisation de Microsoft Band avec un Windows Phone permet d'interagir avec Cortana, l'assistant personnel présent dans le système d'exploitation de la firme de Redmond, grâce au microphone intégré. L'appareil se synchronise par le biais de l'application Microsoft Health disponible sur Windows Phone, Android, et iOS. Elle se connecte à un smartphone au moyen du système Bluetooth, mais peut fonctionner de manière autonome puis être synchronisée avec un PC sous Windows ou un Mac. Annoncé le , le Microsoft Band 2 est la seconde génération du bracelet connecté. Tout comme la première génération, il comprend un cardiofréquencemètre optique, un accéléromètre à 3 axes, un gyromètre, un GPS, un microphone, un photodétecteur, des capteurs de réponse corporelle, un capteur à ultraviolets, un thermomètre de peau et un capteur de déplacement capacitif ; il comprend également un nouveau capteur : le baromètre, permettant de mesurer l’altitude. Cortana est directement intégrée au bracelet. Microsoft ne vend plus de Microsoft Band 2 depuis , a supprimé un projet pour un éventuel Band 3 & a supprimé les SDK de développement. HoloLens, un casque de réalité augmentée. Présenté le , HoloLens est un casque de réalité augmentée permettant de simuler des hologrammes qui s’intègrent dans le champ de vision de l’utilisateur. Selon Satya Nadella, dirigeant de la société, le dispositif va faire rentrer l'industrie dans l'ère de . Le développement de Microsoft HoloLens est conduit par l’équipe d’Alex Kipman et s’est fait en partenariat avec la NASA. Le casque est dévoilé par Microsoft lors de la conférence "", le . Le , Microsoft va encore plus loin et montre une démonstration en direct lors d'un événement consacré à l'avenir de Windows 10, baptisé "Build 2015". Le , Microsoft dévoile lors de l’E3 2015 une version de "Minecraft" compatible avec HoloLens. Mojang Studio se livre même à une démonstration en direct sur scène. Le , Microsoft annonce que les kits de développement pour Microsoft HoloLens seront distribués lors du premier trimestre de 2016, pour . Le casque est un ordinateur complet équipé d’une version de Windows adaptée et compatible avec Windows 10. Trois processeurs sont utilisés : le premier est le "CPU" principal, le deuxième est un processeur graphique ("GPU") et le troisième gère les hologrammes (baptisé "HPU" pour « "" »). Des capteurs de mouvements permettent à l’utilisateur de se déplacer en l'utilisant, le son produit par le casque est spatialisé. La simulation des hologrammes fonctionne avec les gestes de l’utilisateur, une commande vocale est aussi disponible, le casque ne nécessite pas d’être connecté à Internet ou à un autre appareil pour fonctionner. Il pèse environ . Intelligence artificielle. En 2017, Microsoft réalise sa première acquisition dans le domaine de l'intelligence artificielle avec une entreprise canadienne, Maluuba. L'équipe chargée de ce projet sera intégrée dans le pôle Intelligence artificielle et développement de Microsoft. La firme a déjà commencé à travailler dans le domaine de l'intelligence artificielle, mais cette acquisition signe une volonté de se développer. En 2019, Microsoft a par ailleurs annoncé son intention d'investir un milliard de dollars dans OpenAI, en échange d'un partenariat privilégié avec OpenAI, lorsque la société commercialisera ses technologies d'intelligence artificielle. Au début de 2023, d'après le média "Semafor" et l'agence Bloomberg News, un investissement supplémentaire de la part de Microsoft à hauteur de dix milliards de dollars serait en cours de négociation. L'objectif en est d'accélérer l'intégration des solutions d'OpenAI dans les logiciels de Microsoft, comme la suite bureautique Microsoft Office. Selon "Semafor", ce nouveau financement prévoit que Microsoft obtienne 75 % des bénéfices d'OpenAI jusqu'à la récupération de son investissement initial. Actionnaires. Liste des principaux actionnaires au : Direction, finances et activités. Dirigeants et Conseil d'administration. La société est dirigée par un conseil d'administration composé principalement de l'extérieur de l'entreprise, comme il est habituel pour les sociétés cotées en bourse. Les membres du conseil d'administration à partir du mois de sont : John W. Thompson, Dina Dublon, Bill Gates, Maria Klawe, David Marquardt, Mason Morfit, Satya Nadella, Charles Noski, Helmut Panke et John W. Stanton. Les membres du Conseil sont élus chaque année lors de la réunion annuelle des actionnaires en utilisant un système de vote à la majorité. Il y a actuellement cinq comités au sein du conseil d'administration, qui supervisent les questions plus spécifiques de l'entreprise. Ces comités comprennent le Comité économique, qui traite des questions comptables avec la société, y compris le Comité des finances et de la comptabilité ; le comité de rémunération, qui approuve la rémunération pour le chef de la direction et d'autres employés de la société ; le Comité des finances, qui gère les questions financières telles que proposer des fusions et acquisitions ; la gouvernance et des candidatures, qui gère diverses questions, y compris des entreprises nomination du conseil d'administration ; et le Comité de conformité antitrust, qui observe les pratiques de l'entreprise et juge si la société a violé les lois antitrust. Bourse, économie et finances de l'entreprise. D’après les comptes annuels, le chiffre d’affaires de Microsoft s’élevait en 2005 à de dollars. C’est-à-dire une augmentation de 8 % depuis 2004. En 2009, le chiffre d’affaires était de de dollars pour de bénéfices. En 2011, le chiffre d'affaires était de de dollars (+16,04 % par rapport à 2009). Le chiffre d’affaires est réparti en sept segments de produits : client, serveur et outils, , , MSN, , . La partie « Client » regroupe notamment Windows XP. Elle rapporte en 2005 de dollars (+6 %) de chiffre d’affaires. Ceci correspond à une augmentation de 12 % du nombre de licences "OEM", mais celle-ci est balancée par une diminution de 9 % du chiffre d’affaires issu des ventes au détail de ces mêmes licences. Ceci indique un changement de la structure du chiffre d’affaires : le système d’exploitation est de plus en plus une vente liée à l’achat du matériel. La partie « Serveur et Outils » contient par exemple, le serveur Exchange. Son chiffre d’affaires est de de dollars (+130 %) en 2005. « » concerne essentiellement les outils bureautiques pour un chiffre d’affaires de de dollars (+3 %) en 2005. Les autres segments sont soit en perte, soit apportent une contribution mineure en regard des . Depuis le , Microsoft est coté en Bourse, au . En , avec une valorisation boursière de 408,68 milliards de dollars, Microsoft est la grosse valorisation boursière au monde. La société, qui auparavant n’avait jamais distribué de dividende, verse par action le . Ce versement de dividende ayant été aidé par une réduction de la taxation concernée de 35 à 15 %. La somme versée en "dividendes" aux actionnaires de Microsoft en 2004 approche donc les USD. Avant même la polémique des années 2000 sur les stock-options, Microsoft fut l'un des premiers grands groupes à renoncer à ce type de rémunération, lui préférant le système d'actions gratuites, plus favorable à une croissance régulière, et étalée dans le temps, du chiffre d’affaires et des bénéfices. Lorsque Microsoft a lancé son public et offre publique initiale (IPO) en 1986, le prix des actions d'ouverture était de ; après la journée de négociation, le prix a clôturé à . En juillet 2010, avec neuf divisions d'actions de la société, des actions IPO serait multiplié par 288 ; Si l'on devait acheter IPO aujourd'hui compte tenu des fractionnements et d'autres facteurs, il en coûterait environ 9 cents. Le prix de l'action a atteint un sommet en 1999 à environ ( tenu des fractionnements). La société a commencé à offrir un dividende le , à partir de huit cents par action pour l'exercice suivi par un dividende de seize cents par action l'année suivante, le passage de chaque année à des dividendes trimestriels en 2005 avec huit cents par action par trimestre et un paiement ponctuel spécial de trois dollars par action pour le deuxième trimestre de l'exercice financier. Bien que la société ait eu des augmentations des distributions de dividendes, le prix de l'action de Microsoft est resté stable pour deux ans. Standard and Poor et Moody's ont tous deux donné une cote de AAA à Microsoft, dont les actifs ont été évalués à de dollars, comparativement à seulement de dettes non garanties. Par conséquent, en , Microsoft a publié une obligation d'entreprise d'un montant de de dollars avec des taux d'emprunt relativement faible par rapport aux obligations d'État. Lieux et centres d’activités. Microsoft possède des infrastructures et des bureaux partout dans le monde, même s'ils sont plus nombreux en Europe, aux États-Unis, en Inde et Chine littorale. Le site de Microsoft France se situe à Issy-les-Moulineaux. Dans ce complexe, travaillent sous les ordres d'Alain Crozier. En , Microsoft annonce la suppression de , soit 14 % des effectifs de l'entreprise. La dernière vague de licenciements touche notamment le service informatique. Environnement et condition de travail. En 2011, Greenpeace a publié un rapport notant les dix premières grandes entreprises de l'informatique dématérialisée sur leurs sources d'électricité pour leurs centres de données. À cette époque la consommation des centres de données représentait 2 % de la consommation électrique mondiale, chiffre en constante augmentation depuis. Phil Radford de Greenpeace a dit . En 2013, Microsoft a consenti à acheter la totalité de la puissance produit par un projet éolien de Texas pour faire fonctionner un de ses centres de données. Microsoft est classé à la dans le Guide du "Greenpeace pour l'Électronique Plus verte", qui classe les 18 fabricants d'électronique selon leurs politiques sur les produits chimiques, toxiques, recyclant et sur le changement climatique. Le campus américain principal de Microsoft a reçu une certification d'argent de la Direction (du Leadership) dans l'Énergie et le Design (la Conception) Environnemental (LEED) le programme en 2008 et il a installé plus de deux mille panneaux solaires en plus de ses constructions de bâtiments dans son campus de la Silicon Valley, produisant approximativement 15 % de l'énergie totale nécessaire pour faire fonctionner le campus. Microsoft se sert des formes alternatives de transition pour l'écologie. Il a créé un des plus grands systèmes de bus privés du monde, qui se nomme « le Connecteur », pour transporter les gens de l'extérieur de l'entreprise pour visiter le campus, « la Navette Connecteur » comporte une grande flotte de voitures hybrides pour économiser le carburant. L'entreprise subventionne aussi le transport public régional. En , Microsoft a pris position pour addition du transport public supplémentaire et le véhicule électrique en libre service ainsi que le pont flottant connectant Redmond à Seattle. Microsoft était le classé numéro 1 dans la liste des Meilleurs Lieux de travail multinationaux du Monde par l'Endroit formidable pour travailler par l'Institut en 2011. Le siège social, d'une façon informelle connu comme « Microsoft Redmond Campus » est localisé à dans Redmond, Washington. Microsoft s'est initialement déplacé sur les terres du campus le , deux semaines avant que l'entreprise ne soit entrée en bourse le . Le siège social a depuis éprouvé des expansions multiples depuis son établissement. Il est évalué pour englober plus de 80 kilomètres carrés () d'espace de bureau et travaillent sur le campus. Investissement et partenariat. Microsoft propose également un programme de formation et certification (Microsoft certified systems engineer, Microsoft certified solution developer, Microsoft Certified Professional). Microsoft présente aussi un programme de distribution gratuite de logiciels pour les étudiants du second degré, appelé MSDN Academic Alliance. En France, Microsoft revendique générer avec son écosystème environ . En 2013, 96 % des revenus mondiaux de Microsoft étaient générés par son écosystème de partenaires équivalent à quatorze millions d'employés. Microsoft signe, en 2007, son premier accord de partenariat avec une université française, l'Université Claude-Bernard-Lyon-I. En France, le nombre de partenaires Gold de l'éditeur a été réduit de moitié à 239 dont douze grossistes, Microsoft annonce investir une enveloppe de de licences, de formations et de primes sur ses partenaires en 2011. Microsoft a investi treize millions d’euros afin de favoriser la réussite du Plan Numérique à l’École, réforme envisagé par la ministre Najat Vallaud-Belkacem. Cette démarche qui s’étendra sur les 18 prochains mois qui consiste notamment à assurer des formations aux enseignants et autres cadres de l’éducation, la mise en place de plateformes collaboratives, des mises à jour matérielles, mais aussi une introduction expérimentale à l’apprentissage du code. Ce partenariat survient quelque temps après la visite de Satya Nadella sur Paris. Début novembre, le PDG de Microsoft avait rencontré le président François Hollande afin de s’entretenir au sujet du Plan Numérique à l’École, mais aussi discuter sur l’avenir des métiers du numérique. L’ambition première du projet est tout logiquement d’amener une modernisation globale du milieu éducatif. Cela passe par une refonte des méthodes d’enseignement, mais aussi par un renouvellement des supports éducatifs. Durant ces cinq prochaines années, le fondateur de Microsoft investira 2 milliards de dollars pour soutenir les technologies vertes. Bill Gates profitera du coup d'envoi de la Conférence de Paris sur le climat (COP21) pour annoncer un investissement massif dans les technologies vertes (« clean tech »). Bill Gates a promis de débourser 2 milliards de dollars de sa poche durant les cinq prochaines années pour contribuer à combattre le réchauffement climatique. D'après le classement établi par Forbes, il demeure en 2015, l'homme le plus riche de la planète avec une fortune évaluée à plus de 79 milliards de dollars. On ne connaît pas encore comment ces fonds seront utilisés, mais ils soutiendront les nouvelles technologies. En 2015, pour concurrencer Google, avec son application Santa Tracker, le NORAD met en place un partenariat avec Microsoft pour l'utilisation de son logiciel cartographique Bing Maps, en contrepartie le NORAD devra faire la promotion du navigateur web Microsoft Edge ainsi que du système d'exploitation Windows 10. Communication. Activité de lobbying. Auprès des institutions de l'Union européenne. Microsoft est inscrit, depuis 2009, au registre de transparence des représentants d'intérêts auprès de la Commission européenne. L'entreprise déclare en 2015, pour cette activité, des dépenses d'un montant compris entre . Elle indique avoir perçu, sur le même exercice, de subventions de l'Union européenne, et remporté auprès de l'UE des marchés à hauteur de . Les organisations Corporate Europe Observatory et LobbyControl indiquent dans une étude publiée en 2021 que Microsoft dépense chaque année environ 5,25 millions d’euros pour tenter d’influencer les décisions de Bruxelles. Aux États-Unis. Selon le "Center for Responsive Politics", les dépenses de lobbying de Microsoft aux États-Unis s'élèvent en 2015 à . Marque et marketing. Selon une étude BVA publiée par Capital le , Microsoft est la marque high-tech préférée des Français, juste devant Apple et Samsung. Au classement général, Microsoft est deuxième derrière Google (rangée dans la catégorie Médias et non high-tech) et devant Ikea. En 2004, Microsoft demande à des Institut de recherche de faire des études indépendantes comparant le coût total de possession de Windows Server 2003 pour Linux. Les études ont conclu que les entreprises trouvent plus facile à administrer Windows que Linux ; ainsi, celles sous Windows auraient administré rapidement une baisse des coûts. Cela a entraîné une vague d'études connexes, menée par le Yankee Group qui a conclu que la mise à niveau d'une version de Windows Server à un autre, coûte une fraction des coûts de commutation à partir de Windows Server pour Linux, bien que les entreprises interrogées aient noté le décroissement de la sécurité et la fragilité des serveurs Linux et le souci de se laisser enfermer dans l'aide de produits Microsoft. Une autre étude, publiée par l'Open Source Development Labs, a affirmé que les études de Microsoft étaient et leur enquête a conclu que le coût total de possession de Linux a été plus faible en raison des administrateurs Linux qui gèrent plusieurs serveurs en moyenne. . Après avoir subi les temps d'arrêt prolongé et de fiabilité, le LSE a annoncé en 2009 qu'il avait l'intention de déposer sa solution Microsoft et passer à un basé sur Linux en 2010. En 2012, Microsoft a embauché un sondeur politique nommé Mark Penn. Il a créé une série de publicités négatives ciblant l'un des principaux concurrents de Microsoft, Google. Les annonces, appelées « Scroogled », pour tenter de faire remarquer au monde que Google est dangereux pour les consommateurs, avec les résultats de recherche truqués pour favoriser les annonceurs payés de Google, que Gmail viole la vie privée de ses utilisateurs, de placer les annonces liées au contenu de leurs courriels ainsi que les résultats commerciaux qui favorisent les produits Google. Du 5 et , Microsoft France met en place une opération de séduction à Paris avec son « Windows Cube », afin de promouvoir son nouveau système Windows 10. Situé sur le parvis de Beaubourg devant le Centre Pompidou, ce lieu permet de découvrir une gamme de nouveaux produits pour Windows 10, et de se familiariser avec ses fonctionnalités telles que Cortana, Windows Hello, le mode Continuum ou encore le navigateur Edge à travers différents pôles expérientiels. Le , Microsoft dévoile le nouveau logo de l'entreprise à l'ouverture de sa Microsoft Store à Boston indiquant le changement de cap de la société et de mise au point du style classique à l'interface moderne qui utilisera la plate-forme Windows, Windows Phone et la Xbox One. Le logo comprend quatre carrées avec les couleurs des produits de Microsoft, c'est-à-dire : Office pour le carré rouge, Xbox pour le carré vert, Windows pour le carré bleu, et Bing pour le carré jaune. Controverses et affaires judiciaires. Microsoft fait l'objet de nombreuses controverses portant sur ses abus de position dominante, et la vente liée de son système d'exploitation dans le commerce. Microsoft est la première entreprise à avoir participé au programme de surveillance PRISM de la NSA, selon les documents obtenus par The Guardian3 et The Washington Post4 en . Des critiques sont également soulevées concernant la vente de services et logiciels à des États totalitaires. Microsoft est condamné plusieurs fois par la Commission européenne, entre 2004 et 2013 pour des abus de position dominante, et écope au total de près de deux milliards d'euros d'amende. |
MD5 Le MD5, pour Message Digest 5, est une fonction de hachage cryptographique qui permet d'obtenir l'empreinte numérique d'un fichier (on parle souvent de "message"). Il a été inventé par Ronald Rivest en 1991. Si l'algorithme MD5 présente un intérêt historique important, il est aujourd'hui considéré comme dépassé et absolument impropre à toute utilisation en cryptographie ou en sécurité. Il est toutefois encore utilisé pour vérifier l'intégrité d'un fichier après un téléchargement. Historique. MD5 ("") est une fonction de hachage cryptographique qui calcule, à partir d'un fichier numérique, son "empreinte numérique" (en l'occurrence une séquence de ou en notation hexadécimale) avec une probabilité très forte que deux fichiers différents donnent deux empreintes différentes. En 1991, Ronald Rivest améliore l'architecture de MD4 pour contrer des attaques potentielles qui seront confirmées plus tard par les travaux de Hans Dobbertin. Cinq ans plus tard, en 1996, une faille qualifiée de « grave » (possibilité de créer des collisions à la demande) est découverte et indique que MD5 devrait être mis de côté au profit de fonctions plus robustes comme SHA-1. En 2004, une équipe chinoise découvre des collisions complètes. MD5 n'est donc plus considéré comme sûr au sens cryptographique. On suggère maintenant d'utiliser plutôt des algorithmes tels que SHA-256, RIPEMD-160 ou . Cependant, la fonction MD5 reste encore largement utilisée comme outil de vérification lors des téléchargements et l'utilisateur peut valider l'intégrité de la version téléchargée grâce à l'empreinte. Ceci peut se faire avec un programme comme "md5sum" pour MD5 et "sha1sum" pour SHA-1. Comme toute fonction de hachage cryptographique, MD5 peut aussi être utilisé pour calculer l'empreinte d'un mot de passe avec la présence d'un "sel" permettant de ralentir une attaque par force brute. Cela a été le système employé dans GNU/Linux. Ainsi, plutôt que de stocker les mots de passe dans un fichier, ce sont leurs empreintes MD5 qui étaient enregistrées (SHA-256, SHA-512 -par défaut- ou DES sont maintenant utilisés), de sorte que quelqu'un qui lirait ce fichier ne pourrait pas découvrir les mots de passe. La commande " des commutateurs et routeurs Cisco, utilisait le hachage MD5 (5 pour indiquer MD5) pour stocker le mot de passe du mode privilégié dans le fichier de configuration de l'équipement. Les dernières versions d'IOS intègrent le hachage SHA256 (4 pour indiquer SHA256). Cependant, il est recommandé aujourd'hui d'utiliser des fonctions de hachage destinées au stockage des mots passe telles que bcrypt, scrypt ou Argon2, car elles ont l'avantage d'être lentes, ce qui ralentit l'adversaire souhaitant attaquer les mots de passe. Le programme permet de casser (inverser la fonction pour) les MD5 triviaux par force brute. Il est incommode pour les clés longues, et ne fonctionne pas toujours si elles contiennent des caractères nationaux spécifiques (cela dépend en fait des dictionnaires utilisés). Les " (à accès direct, et qui font parfois plusieurs gigaoctets) permettent de les craquer souvent en moins d'une seconde. Ces tables utilisent des dictionnaires établis après plusieurs jours, mois ou années de calcul. Ceux-ci ne contiennent pas la totalité des clés MD5 possibles, ni ne sont destinés à un cassage par force brute (une empreinte comporte , ce qui représente environ (formula_1) de combinaisons), mais permettent par examen de l'empreinte d'éliminer de très grandes classes de combinaisons à "ne pas" tester, ce qui accélère la recherche plusieurs milliards de fois. L'efficacité des tables arc-en-ciel diminue si l'empreinte est calculée avec un « sel ». Exemple. Voici l'empreinte (appelée abusivement "signature") obtenue sur une phrase : En modifiant un caractère, cette empreinte change radicalement : Très concrètement, la vérification de l'empreinte ou somme de contrôle MD5 peut être réalisée de la façon suivante : lors du téléchargement d'un programme, on note la série de caractères nommée « Signature MD5 » indiquée sur la page de téléchargement. Quand ce téléchargement est terminé, on lance un utilitaire de calcul MD5 comme "HashCalc", "md5sums" (Windows) ou "md5sum" (Linux), qui indique entre autres la somme de contrôle correspondant au fichier. Si les deux valeurs correspondent, on peut alors raisonnablement considérer que le fichier n'a pas été corrompu (volontairement ou non d'ailleurs). On constate plusieurs fragilités dans ce processus : la page d'origine a pu être modifiée, et l'utilitaire de calcul peut être "adapté" pour fournir la signature attendue. C'est pourquoi il faut impérativement utiliser un utilitaire provenant d'une source de confiance. Il est aussi possible d'utiliser une extension pour le navigateur Mozilla Firefox comme "" afin d'automatiser ce contrôle. Cryptanalyse. À ses débuts, la fonction MD5 était considérée comme sûre, mais au cours du temps, des failles ont été découvertes dans son fonctionnement et durant l'été 2004, il a été cassé par des chercheurs chinois, Xiaoyun Wang, Dengguo Feng, Xuejia Lai (co-inventeur du célèbre algorithme de chiffrement IDEA) et Hongbo Yu. Leur attaque a permis de découvrir une collision complète (deux messages différents qui produisent la même empreinte) sans passer par une méthode de type recherche exhaustive. Sur un système parallélisé, les calculs n'ont pris que quelques heures. Le MD5 n'est donc plus considéré comme sûr, mais l'algorithme développé par ces trois chercheurs concerne des collisions quelconques et ne permet pas de réaliser une collision sur une empreinte spécifique, c'est-à-dire réaliser un deuxième message, à partir de l'empreinte d'un premier message, qui produirait la même empreinte. Un projet de calcul distribué lancé en , , visait à découvrir une collision complète mais a été subitement arrêté après la découverte de l'équipe chinoise. La sécurité du MD5 n'étant plus garantie selon sa définition cryptographique, les spécialistes recommandent d'utiliser des fonctions de hachage plus récentes comme le SHA-256. On sait maintenant générer des collisions MD5 en moins d'une minute lorsque les deux blocs en collisions sont « libres ». On peut aussi générer une infinité de collisions avec un texte T à partir de deux messages M1 et M2 de même longueur qui sont en collision. Il suffit de concaténer M1 et M2 avec T, tel que et , afin d'obtenir une collision complète entre T1 et T2. On ne peut toutefois pas générer une signature particulière et la falsification de documents reste un exercice difficile. Dès 2006, il est par exemple possible de créer des pages HTML aux contenus très différents et ayant pourtant le même MD5. La présence de métacodes de « bourrage » placés en commentaires, visibles seulement dans le source de la page web, trahit toutefois les pages modifiées pour usurper le MD5 d'une autre. La supercherie peut donc être levée si on examine les sources de la page en question. En 2008, le logiciel BarsWF utilise les ressources des instructions SSE2 et des processeurs massivement parallèles d'une carte graphique (CUDA) pour casser du MD5 en force brute à la vitesse annoncée de de clés par seconde. Algorithme. Préparation du message. MD5 travaille avec un message de taille variable et produit une empreinte de . Le message est divisé en blocs de , on applique un remplissage de manière à avoir un message dont la longueur est un multiple de 512. Le remplissage se présente comme suit : Ce remplissage est toujours appliqué, même si la longueur du message peut être divisée par 512. Cette méthode de "" est semblable à celle utilisée dans la plupart des algorithmes de "message digest" des familles MD (comme MD5 ou RIPEMD) ou SHA (SHA-1 ou SHA-512) mais différente de celle de l'algorithme qui utilise une convention dite d'ordonnancement des bits dans chaque octet. La taille du message est codée en . Le message a maintenant une taille en bits multiple de 512, c'est-à-dire qu'il contient un multiple de de . Constantes. MD5 utilise 64 valeurs constantes de mots de 32 bits, notés formula_3. ces nombres représentent des sinus d'entiers. Les valeurs suivantes sont exprimées en notation hexadécimale (base 16). Ils peuvent être obtenus avec la formule formula_4. Boucle principale. L'algorithme principal travaille avec un état sur . Il est lui-même divisé en de (en informatique, on utilise le terme "mot" pour désigner une valeur de 32 bits ou "word" en anglais) : "A", "B", "C" et "D". Ils sont initialisés au début avec des constantes. L'algorithme utilise ensuite les blocs provenant du message à hacher, ces blocs vont modifier l'état interne. Les opérations sur un bloc se décomposent en quatre rondes (étapes), elles-mêmes subdivisées en similaires basées sur une fonction non linéaire "F" qui varie selon la ronde, une addition et une rotation vers la gauche. Les quatre fonctions non linéaires disponibles sont : formula_2 représente les opérateurs booléens XOR, ET, OU et NON, respectivement. Pseudo-code. MD5 peut s'écrire sous cette forme en pseudo-code. //"Note : Toutes les variables sont sur " //"Définir r comme suit : " var "entier"[64] r, k //"MD5 utilise des sinus d'entiers pour ses constantes :" pour i de 0 à 63 faire k[i] := floor(abs(sin(i + 1)) × 2^32) fin pour //"Préparation des variables :" var "entier" h0 := 0x67452301 var "entier" h1 := 0xEFCDAB89 var "entier" h2 := 0x98BADCFE var "entier" h3 := 0x10325476 //"Préparation du message (padding) :" ajouter le bit "1" au message ajouter le bit "0" jusqu'à ce que la taille du message en bits soit égale à 448 (mod 512) ajouter la taille du message initial(avant le padding) codée en ' au message //"Découpage en blocs de :" pour chaque "bloc" de du message subdiviser en de en w[i], 0 ≤ i ≤ 15 //"initialiser les valeurs de hachage :" var "entier" a := h0 var "entier" b := h1 var "entier" c := h2 var "entier" d := h3 //"Boucle principale :" pour i de 0 à 63 faire si 0 ≤ i ≤ 15 alors f := (b et c) ou ((non b) et d) g := i sinon si 16 ≤ i ≤ 31 alors f := (d et b) ou ((non d) et c) g := (5×i + 1) mod 16 sinon si 32 ≤ i ≤ 47 alors f := b xor c xor d g := (3×i + 5) mod 16 sinon si 48 ≤ i ≤ 63 alors f := c xor (b ou (non d)) g := (7×i) mod 16 fin si var "entier" temp := d d := c c := b b := leftrotate((a + f + k[i] + w[g]), r[i]) + b a := temp fin pour //"ajouter le résultat au bloc précédent :" h0 := h0 + a h1 := h1 + b h2 := h2 + c h3 := h3 + d fin pour var "entier" empreinte := h0 concaténer h1 concaténer h2 concaténer h3 //"(en )" |
Monbazillac Monbazillac est une commune française située dans le département de la Dordogne, en région Nouvelle-Aquitaine. Elle a donné son nom au vin blanc liquoreux homonyme. Géographie. Généralités. Située dans le Périgord pourpre et dans l'aire urbaine de Bergerac, à dix kilomètres au sud de Bergerac, la commune de Monbazillac est implantée sur les coteaux qui dominent la vallée de la Dordogne. Connue pour son château du classé monument historique, elle est surtout renommée pour son vin blanc liquoreux. Communes limitrophes. Monbazillac est limitrophe de six autres communes. Au sud-ouest, son territoire est distant d'environ de celui de Singleyrac. Géologie et relief. Géologie. Situé sur la plaque nord du Bassin aquitain et bordé à son extrémité nord-est par une frange du Massif central, le département de la Dordogne présente une grande diversité géologique. Les terrains sont disposés en profondeur en strates régulières, témoins d'une sédimentation sur cette ancienne plate-forme marine. Le département peut ainsi être découpé sur le plan géologique en quatre gradins différenciés selon leur âge géologique. Monbazillac est située dans le quatrième gradin à partir du nord-est, un plateau formé de dépôts siliceux-gréseux et de calcaires lacustres de l'ère tertiaire. Les couches affleurantes sur le territoire communal sont constituées de formations superficielles du Quaternaire et de roches sédimentaires datant du Cénozoïque. La formation la plus ancienne, notée e6b, se compose de molasses inférieures (faciès argileux dominant) (Bartonien supérieur continental). La formation la plus récente, notée Fy3-z, fait partie des formations superficielles de type alluvions subactuelles à actuelles. Le descriptif de ces couches est détaillé dans la feuille « - Eymet » de la carte géologique au 1/ de la France métropolitaine et sa notice associée. Relief et paysages. Le département de la Dordogne se présente comme un vaste plateau incliné du nord-est (, à la forêt de Vieillecour dans le Nontronnais, à Saint-Pierre-de-Frugie) au sud-ouest ( à Lamothe-Montravel). L'altitude du territoire communal varie quant à elle entre et . Dans le cadre de la Convention européenne du paysage entrée en vigueur en France le , renforcée par la loi du 8 août 2016 pour la reconquête de la biodiversité, de la nature et des paysages, un atlas des paysages de la Dordogne a été élaboré sous maîtrise d’ouvrage de l’État et publié en . Les paysages du département s'organisent en huit unités paysagères et 14 sous-unités. La commune est dans le Bergeracois, une région naturelle présentant un relief contrasté, avec les deux grandes vallées de la Dordogne et du Dropt séparées par un plateau plus ou moins vallonné, dont la pente générale s’incline doucement d’est en ouest. Ce territoire offre des paysages ouverts qui tranchent avec les paysages périgourdins. Il est composé de vignes, vergers et cultures. La superficie cadastrale de la commune publiée par l'Insee, qui sert de référence dans toutes les statistiques, est de . La superficie géographique, issue de la BD Topo, composante du Référentiel à grande échelle produit par l'IGN, est quant à elle de . Hydrographie. Réseau hydrographique. La commune est située dans le bassin de la Dordogne au sein du Bassin Adour-Garonne. Elle est drainée par le Gardonnette, le ruisseau de Lespinassat, le ruisseau des Giroux et par divers petits cours d'eau, qui constituent un réseau hydrographique de de longueur totale. La Gardonnette, d'une longueur totale de , prend sa source dans la commune de Bouniagues et se jette dans la Dordogne en rive gauche en limite de Gardonne et de Lamonzie-Saint-Martin, face à Saint-Pierre-d'Eyraud. Elle sert de limite naturelle à la commune au sud sur trois kilomètres, face à Ribagnac. Son affluent de rive droite le ruisseau des Giroux borde la commune au sud-ouest sur deux kilomètres et demi, face à Rouffignac-de-Sigoulès. Au nord-est, le ruisseau de Lespinassat, autre affluent de rive gauche de la Dordogne, prend sa source en limite de Monbazillac et Colombier et leur sert de limite sur plus d'un kilomètre et demi. Gestion et qualité des eaux. Le territoire communal est couvert par le schéma d'aménagement et de gestion des eaux (SAGE) « Dordogne Atlantique ». Ce document de planification, dont le territoire correspond au sous‐bassin le plus aval du bassin versant de la Dordogne (aval de la confluence Dordogne - Vézère)., d'une superficie de est en cours d'élaboration. La structure porteuse de l'élaboration et de la mise en œuvre est l'établissement public territorial de bassin de la Dordogne (EPIDOR). Il définit sur son territoire les objectifs généraux d’utilisation, de mise en valeur et de protection quantitative et qualitative des ressources en eau superficielle et souterraine, en respect des objectifs de qualité définis dans le troisième SDAGE du Bassin Adour-Garonne qui couvre la période 2022-2027, approuvé le . La qualité des eaux de baignade et des cours d’eau peut être consultée sur un site dédié géré par les agences de l’eau et l’Agence française pour la biodiversité. Climat. Le climat qui caractérise la commune est qualifié, en 2010, de « climat océanique altéré », selon la typologie des climats de la France qui compte alors huit grands types de climats en métropole. En 2020, la commune ressort du même type de climat dans la classification établie par Météo-France, qui ne compte désormais, en première approche, que cinq grands types de climats en métropole. Il s’agit d’une zone de transition entre le climat océanique, le climat de montagne et le climat semi-continental. Les écarts de température entre hiver et été augmentent avec l'éloignement de la mer. La pluviométrie est plus faible qu'en bord de mer, sauf aux abords des reliefs. Les paramètres climatiques qui ont permis d’établir la typologie de 2010 comportent six variables pour les températures et huit pour les précipitations, dont les valeurs correspondent à la normale 1971-2000. Les sept principales variables caractérisant la commune sont présentées dans l'encadré ci-après. Avec le changement climatique, ces variables ont évolué. Une étude réalisée en 2014 par la Direction générale de l'Énergie et du Climat complétée par des études régionales prévoit en effet que la température moyenne devrait croître et la pluviométrie moyenne baisser, avec toutefois de fortes variations régionales. Ces changements peuvent être constatés sur la station météorologique de Météo-France la plus proche, « Saint-Laurent Vign », sur la commune de Saint-Laurent-des-Vignes, mise en service en 1962 et qui se trouve à à vol d'oiseau, où la température moyenne annuelle est de et la hauteur de précipitations de pour la période 1981-2010. Sur la station météorologique historique la plus proche, « Bergerac », sur la commune de Bergerac, mise en service en 1988 et à , la température moyenne annuelle évolue de pour la période 1971-2000, à pour 1981-2010, puis à pour 1991-2020. Urbanisme. Typologie. Monbazillac est une commune rurale, car elle fait partie des communes peu ou très peu denses, au sens de la grille communale de densité de l'Insee. Par ailleurs la commune fait partie de l'aire d'attraction de Bergerac, dont elle est une commune de la couronne. Cette aire, qui regroupe , est catégorisée dans les aires de à moins de . Occupation des sols. L'occupation des sols de la commune, telle qu'elle ressort de la base de données européenne d’occupation biophysique des sols Corine Land Cover (CLC), est marquée par l'importance des territoires agricoles (90,6 % en 2018), néanmoins en diminution par rapport à 1990 (93,5 %). La répartition détaillée en 2018 est la suivante : cultures permanentes (76,8 %), zones agricoles hétérogènes (11,5 %), forêts (9,5 %), terres arables (2,3 %). L'évolution de l’occupation des sols de la commune et de ses infrastructures peut être observée sur les différentes représentations cartographiques du territoire : la carte de Cassini (), la carte d'état-major (1820-1866) et les cartes ou photos aériennes de l'IGN pour la période actuelle (1950 à aujourd'hui). Prévention des risques. Le territoire de la commune de Monbazillac est vulnérable à différents aléas naturels : météorologiques (tempête, orage, neige, grand froid, canicule ou sécheresse), feux de forêts, mouvements de terrains et séisme (sismicité très faible). Il est également exposé à un risque technologique, le transport de matières dangereuses. Un site publié par le BRGM permet d'évaluer simplement et rapidement les risques d'un bien localisé soit par son adresse soit par le numéro de sa parcelle. Risques naturels. Monbazillac est exposée au risque de feu de forêt. L’arrêté préfectoral du fixe les conditions de pratique des incinérations et de brûlage dans un objectif de réduire le risque de départs d’incendie. À ce titre, des périodes sont déterminées : interdiction totale du 15 février au 15 mai et du 15 juin au 15 octobre, utilisation réglementée du 16 mai au 14 juin et du 16 octobre au 14 février. En septembre 2020, un plan inter-départemental de protection des forêts contre les incendies (PidPFCI) a été adopté pour la période 2019-2029. Les mouvements de terrains susceptibles de se produire sur la commune sont des tassements différentiels. Le retrait-gonflement des sols argileux est susceptible d'engendrer des dommages importants aux bâtiments en cas d’alternance de périodes de sécheresse et de pluie. 90,8 % de la superficie communale est en aléa moyen ou fort (58,6 % au niveau départemental et 48,5 % au niveau national métropolitain). Depuis le , en application de la loi ÉLAN, différentes contraintes s'imposent aux vendeurs, maîtres d'ouvrages ou constructeurs de biens situés dans une zone classée en aléa moyen ou fort. La commune a été reconnue en état de catastrophe naturelle au titre des dommages causés par les inondations et coulées de boue survenues en 1982, 1996, 1999 et 2018, par la sécheresse en 1989, 1992, 1995, 2005, 2011 et 2017 et par des mouvements de terrain en 1999. Toponymie. En occitan, la commune porte le nom de "". Sur la planète Mars, en , l'une des cibles d'analyses poussées effectuées sur un affleurement rocheux par l'astromobile Curiosity de la NASA, est baptisée d'après la commune. Politique et administration. Rattachements administratifs. Dès 1790, la commune de Monbazillac a été rattachée au canton de Ribagnac qui dépendait du district de Bergerac jusqu'en 1795, date de suppression des districts. Lorsque ce canton est supprimé par la loi du 8 pluviôse an IX () portant sur la « réduction du nombre de justices de paix », la commune est rattachée au canton de Cunéges (devenu canton de Sigoulès en 1817) dépendant de l'arrondissement de Bergerac. Intercommunalité. Fin 2001, Monbazillac intègre dès sa création la communauté de communes de Bergerac Pourpre. Celle-ci est dissoute au et remplacée au par la communauté d'agglomération bergeracoise. Celle-ci fusionne avec la communauté de communes des Coteaux de Sigoulès au pour former la nouvelle communauté d'agglomération bergeracoise. Administration municipale. La population de la commune étant comprise entre 500 et au recensement de 2017, quinze conseillers municipaux ont été élus en 2020. Juridictions. Dans le domaine judiciaire, Monbazillac relève : Démographie. Les habitants de Monbazillac sont appelés les Monbazillacois. Économie. Emploi. En 2015, parmi la population communale comprise entre 15 et 64 ans, les actifs représentent , soit 46,1 % de la population municipale. Le nombre de chômeurs (43) a augmenté par rapport à 2010 (41) et le taux de chômage de cette population active s'établit à 10,7 %. Établissements. Au , la commune compte , dont cinquante-huit au niveau des commerces, transports ou services, quarante-six dans l'agriculture, la sylviculture ou la pêche, huit relatifs au secteur administratif, à l'enseignement, à la santé ou à l'action sociale, cinq dans la construction, et quatre dans l'industrie. Culture locale et patrimoine. Patrimoine naturel. Au sud, la Gardonnette borde le territoire communal sur plusieurs kilomètres. En aval de la route départementale 107, le cours d'eau et ses rives font partie d'une zone naturelle d'intérêt écologique, faunistique et floristique (ZNIEFF) de type I où pousse une plante rare, la fritillaire pintade, ("Fritillaria meleagris") et fréquentée par trois espèces de chauves-souris : le Grand murin ("Myotis myotis"), le Minioptère de Schreibers ("Miniopterus schreibersii") et le Rhinolophe euryale ("Rhinolophus euryale"). |
Moteur de recherche Un moteur de recherche est une application permettant à un utilisateur d'effectuer une recherche locale ou en ligne, c'est-à-dire de trouver des ressources à partir d'une requête composée de termes. Les ressources peuvent notamment être des pages web, des articles de forums Usenet, des images, des vidéos, des fichiers, des ouvrages, des sites pédagogiques, des applications, des logiciels open source. Sur le principe, ils fonctionnent généralement : Certains sites web offrent un moteur de recherche comme principale fonctionnalité ; on appelle alors « moteur de recherche » le site lui-même. Ce sont des instruments de recherche sur le web sans intervention humaine, ce qui les distingue des annuaires. Ils sont basés sur des « robots », encore appelés « "bots" », « "spiders" «, « "crawlers" » ou « agents », qui parcourent automatiquement les sites à intervalles réguliers afin de découvrir de nouvelles adresses (URL). Ils suivent les liens hypertexte qui relient les pages les unes aux autres, les uns après les autres. Chaque page identifiée est alors indexée dans une base de données, accessible ensuite par les internautes à partir de mots-clés. C'est par abus de langage qu'on appelle également « moteurs de recherche » des sites web proposant des annuaires de sites web : dans ce cas, ce sont des instruments de recherche élaborés par des personnes qui répertorient et classifient des sites web jugés dignes d'intérêt, et non des robots d'indexation. Les moteurs de recherche ne s'appliquent pas qu'à Internet : certains moteurs sont des logiciels installés sur un ordinateur personnel. Ce sont des moteurs dits « de bureau » qui combinent la recherche parmi les fichiers stockés sur le PC et la recherche parmi les sites Web — on peut citer par exemple Copernic Desktop Search, Windex Server, etc. On trouve également des métamoteurs, c'est-à-dire des sites web où une même recherche est lancée simultanément sur plusieurs moteurs de recherche, les résultats étant ensuite fusionnés pour être présentés à l'internaute. Historique. Les moteurs de recherche Internet précèdent les débuts du Web fin 1990 : Les moteurs de recherche sont inspirés des outils de recherche documentaire (à base de fichiers inversés, alias fichiers d'index) utilisés sur les mainframes depuis les années 1970, comme le logiciel STAIRS sur IBM. Le mode de remplissage de leurs bases de données est cependant différent, car orienté réseau. Par ailleurs la distinction entre données formatées (« champs ») et texte libre n'y existe plus, bien que commençant depuis 2010 à se réintroduire par le biais du web sémantique. Des moteurs historiques ont été Lycos (1994), Altavista (1995, premier moteur 64 bits) et Backrub (1997), ancêtre de Google. Pour réponde aux besoins des étudiants, des universitaires, chercheurs et ingénieurs, des moteurs spécialisés dédiés aux sujets scientifiques et techniques sont apparus. Fonctionnement. Le fonctionnement d'un moteur de recherche comme tout instrument de recherche se décompose en trois processus principaux : Des modules complémentaires sont souvent utilisés en association avec les trois briques de bases du moteur de recherche. Les plus connus sont les suivants : Optimisation pour les moteurs de recherche. Afin d'optimiser les moteurs de recherche, les webmestres insèrent des métaéléments (métatags) dans les pages web, dans l'en-tête HTML (head). Ces informations permettent d'optimiser les recherches d'information sur les sites web. Financement. Les sites dont la recherche est le principal service se financent par la vente de technologie et de publicité. Le financement par la publicité consiste à présenter des publicités correspondant aux mots recherchés par le visiteur. L'annonceur achète des mots-clés : par exemple une agence de voyages peut acheter des mots-clés comme « vacances », « hôtel » et « plage » ou « Cannes », « Antibes » et « Nice » si elle est spécialisée dans cette région. Cet achat permet d'obtenir un référencement dit « référencement payant » à distinguer du référencement dit « référencement naturel ». Le moteur de recherche peut afficher la publicité de deux manières : en encart séparé ou en l'intégrant aux résultats de la recherche. Pour le visiteur, l'encart séparé se présente comme une publicité classique. L'intégration aux résultats se fait en revanche au détriment de la pertinence des résultats et peut avoir des retombées négatives sur la qualité perçue du moteur. De ce fait, tous les moteurs ne vendent pas de placement dans les résultats. Les moteurs de recherche constituent un enjeu économique. La valeur boursière du holding Alphabet propriétaire de Google, principal moteur de recherche, était de 831 milliards USD en avril 2020. Techniques de détournement. L'importance des enjeux économiques a généré des techniques de détournement malhonnêtes des moteurs de recherche pour obtenir des référencements « naturels », le "spamdexing" (référencement abusif en français). Les techniques les plus pratiquées de "spamdexing" sont : Les techniques de référencement abusif sont pourchassées par les éditeurs de moteurs de recherches, qui constituent des listes noires, provisoires ou définitives. On distingue le "spamdexing", détournement malhonnête, du « SEO », "Search Engine Optimization" (optimisation pour les moteurs de recherche en français). Les techniques de SEO sont commercialisées par des sociétés spécialisées. Vente de technologie. Les grandes organisations (entreprises, administrations) disposent généralement de très nombreuses ressources informatiques dans un vaste intranet. Leurs ressources n'étant pas accessibles depuis Internet, elles ne sont pas couvertes par les moteurs de recherche du web. Elles doivent donc installer leur propre moteur si elles veulent mener des recherches dans leurs ressources. Elles constituent donc un marché pour les développeurs de moteurs de recherche. On parle alors de moteur de recherche pour entreprise (voir plus bas). Il arrive également que des sites web publics utilisent les services d'un moteur de recherche pour étoffer leur offre. On parle alors de « SiteSearch ». Ces logiciels permettent la recherche de contenus dans un ou plusieurs groupes de sites. Ces technologies sont particulièrement exploitées sur les sites de et les sites de vente en ligne. La particularité de ces outils est souvent la complexité de mise en œuvre et les ressources techniques nécessaires disponibles. Il arrive aussi que les grands portails exploitent la technologie des moteurs de recherche. Ainsi Yahoo!, spécialiste de l'annuaire web, a utilisé pendant quelques années la technologie de Google pour la recherche jusqu'à ce qu'elle lance son propre moteur de recherche Yahoo Search Technology en 2004 dont les fondations proviennent de Altavista, Inktomi et Overture, sociétés fondatrices des moteurs de recherche et rachetées par Yahoo!. Évolution vers le web sémantique. De plus en plus de producteurs de contenu, à la suite des recommandations du W3C sur le web sémantique, indexent leurs bases avec des métadonnées ou des taxinomies (ontologies), en vue de permettre aux moteurs de recherche de s'adapter aux analyses sémantiques. Ces formes de recherches et d'analyses de corpus d'informations par voie informatique ne sont encore que des potentialités. Par comparaison avec des recherches plein texte, des recherches réalisées sur le web sémantique doivent être plus conviviales pour l'utilisateur : Il n'existe pas encore à proprement parler de moteur de recherche sémantique qui permette de comprendre une question en langue naturelle et d'adapter une réponse en fonction des résultats trouvés. Quelques tentatives existent néanmoins pour chercher à répondre par des formes intermédiaires à cette problématique du sens dans la recherche d'information : Évolution vers le mix moteur et annuaire. Les recherches d'adresses sur internet. L'abandon progressif des annuaires imprimés conduit les usagers à effectuer les mêmes recherches sur l'internet « profession+localité ». Google a donc acquis en 2010 un fichier d'entreprises (pour la France et un certain nombre de pays), pour effectuer un mixage des données web et annuaire lorsque les requêtes correspondent a une activité localisée. Cette nouvelle tendance se vérifie chez les principaux moteurs de recherche et de nouveaux « outils mixte » voient le jour. Yandex et Baidu n'ont pas encore adopté ce modèle de mixage. Selon une étude réalisée par McKinsey&Co, seulement 65 % des PME françaises disposaient d'une présence sur Internet en 2013. Selon une autre étude, cette proportion atteint 72 % pour les professions libérales (avocats, dentistes, médecins, notaires, huissiers, infirmières...). Les moteurs de recherche qui par définition collectent uniquement des données issues de l'internet, ont donc été obligés d'acquérir et de proposer ces adresses d'annuaire en complément pour satisfaire la recherche d'adresses des internautes. Google a baptisé ces adresses « Google Adresses », puis d'office basculées vers « Google + », actuellement « Google My Business ». Les moteurs de recherche Bing et Google ne communiquent pas l'origine de ces fichiers d'entreprises intégrés, hormis Yahoo! qui est en partenariat avec Pages Jaunes. Méta-moteurs. Les métamoteurs sont des outils de recherche qui interrogent plusieurs moteurs de recherche simultanément et affichent à l'internaute une synthèse pertinente. Exemples : Startpage, Searx, Seeks et Lilo, Framabee. Multi-moteurs. On désigne par « » (ou plus rarement, « super moteur ») une page web proposant un ou plusieurs formulaires permettant d'interroger plusieurs moteurs. Il peut également (mais plus rarement) s'agir d'un logiciel, d'une fonction ou d'un plugin de navigateur web, ou d'une barre d'outils… Le choix d'un des moteurs peut se faire par bouton, bouton radio, onglet, liste déroulante ou autre. Les premières pages de ce type recopiaient le code des formulaires de plusieurs moteurs. Avec l'apparition du JavaScript il est devenu possible de n'avoir plus qu'un seul formulaire. On peut citer par exemple Creative Commons Search, Ecosia, Disconnect, le moteur de recherche de Maxthon, HooSeek (fermé en 2012). Moteurs ou métamoteurs dédiés à la littérature scientifique et technique. Le moteur de recherche le plus connu et le plus utilisé concernant la littérature scientifique et technique est Google Scholar, dont l'algorithme indexe un grand nombre de bases de données et de métadonnées structurées de littérature scientifique et technique et de brevets, mais il existe d'autres moteurs, plus ou moins spécialisés : Moteurs de recherche solidaires ou écologiques. On désigne par « moteur de recherche solidaire », un moteur qui reverse une partie de ses revenus à des causes écologiques, sociales ou humanitaires. Ces moteurs sont nés du constat que les revenus annuels générés par la publicité sur les moteurs de recherche sont assez importants (environ par utilisateur pour Google). Les moteurs de recherches solidaires se distinguent notamment dans la façon de distribuer les revenus générés. Certains moteurs comme Ecosia reversent alors une partie des revenus à une seule et unique cause, alors que des moteurs comme Lilo permettent aux internautes de choisir les projets à financer. Certains moteurs ont également adopté une politique de neutralité carbone, tels que Google, DuckDuckGo et Ecosia. Google affirme qu'il sera neutre en carbone d'ici 2030, en partie en achetant des énergies renouvelables et dès 2017, l'entreprise en rachète autant qu'elle en consomme. Au début des années 2020 Google est le plus gros acheteur privé au monde de ce type d'énergie. Les énergies renouvelables étant essentiellement intermittentes, Google ne peut les utiliser directement ou de façon permanente : une entreprise qui se déclare neutre en carbone utilise dans les faits des « garanties d’origines renouvelables » qui permettent de s'assurer que l'énergie carbonée qu'elle consomme sera compensée par une production équivalente d'énergie renouvelable. Or, selon l'association The Shift Project, le modèle économique de Google nécessite toujours plus de puissance de calcul, de renouveler et d'augmenter son infrastructure, ses réseaux et ses équipements dont la production est une source importante de gaz à effet de serre. Pour l'association négaWatt, la communication de Google se focalise sur l'usage mais éclipse les problèmes environnementaux liés à l'extraction des ressources, du transport et du recyclage. Le moteur de recherche Ecosia utilise 80 % de ses revenus publicitaires pour des projets de reforestation aux quatre coins du monde. Moteurs verticaux. On désigne par « moteurs verticaux » une page web ou un service multimédia qui propose une recherche spécialisée dans un domaine professionnel ou qui est particulièrement ciblé. Cet outil de recherche est spécialisé dans un secteur particulier, tel que les télécommunications, le droit, la biotechnologie, la finance (assurance) ou encore l'immobilier. Son fonctionnement général est basé sur une bases de données constituée à partir des bases de tous les sites spécialisés de l'activité ciblée. Ce type de moteur est utilisé par les professionnels et ciblé sur le consommateur, avec le plus souvent une finalité économique qui dérive sur la géolocalisation. On retrouve ainsi pour le grand public des annuaires, des comparateurs. Il en existe maintenant pour toutes les activités : immobilier, tourisme, recherche d'emploi, recrutement, automobile, loisirs, jeux. Moteur de recherche d'entreprise. L'explosion du nombre de contenus de formats divers (données, informations non structurées, images, vidéos…) disponibles dans les entreprises les poussent à s'équiper de moteur de recherche en interne. Selon une étude menée par MARKESS International en , 49 % des organisations ont déjà recours à un moteur de recherche d'entreprise, et 18 % envisagent son utilisation d'ici à 2010. Ces moteurs de recherches sont en majeure partie intégrés aux postes de travail ou aux outils de gestion électronique des documents, mais ils sont dans un nombre grandissant d'entreprises capables de couvrir à la fois les contenus internes et externes de l'entreprise, ou encore intégrés aux outils de gestion de contenu ou aux solutions décisionnelles. Parmi les acteurs proposant des moteurs de recherche d'entreprise figurent Google, Exalead, PolySpot ou OpenSearchServer. Ressources pour les moteurs de recherche. Les technologies d'analyse du langage, telles que la lemmatisation, l'extraction d'entités nommées, la classification et le clustering permettent d'améliorer grandement le fonctionnement des moteurs de recherche. Ces technologies permettent tout à la fois d'améliorer la pertinence des résultats et d'engager l'internaute dans un processus de recherche plus performant, comme c'est le cas avec la recherche à facettes . Impact environnemental. Selon l'étude de l'ADEME « Internet, courriels, réduire les impacts » publiée en , aller directement à l’adresse d’un site, soit en tapant son adresse dans son navigateur, soit en l’ayant enregistré comme « favori » (plutôt que de rechercher ce site via un moteur de recherche) divise par 4 les émissions de gaz à effet de serre. |
Mento Le mento est la première musique populaire jamaïcaine. Il apparait à la fin du dans les zones rurales de l'île. C'est un des styles musicaux à l'origine du reggae (à travers le ska, le rocksteady et l'early reggae). Histoire du mento. Le mento est tout simplement la musique que les paysans jamaïcains, après leur journée de labeur, aimaient jouer et écouter pour se divertir et oublier un instant la dureté de leur condition de vie. Ce terme décrit également la danse libre qui l'accompagne, et qui plonge ses racines dans les rituels ashantis, et d'autres ethnies ouest-africaines. En raison de la mode du calypso de l'île de la Trinité dans les années 1940, dès 1951 (année marquée par l'ouverture du premier studio d'enregistrement en Jamaïque par Stanley Beresford Brandon Motta) les premiers enregistrements de mento portent le plus souvent l'étiquette plus vendeuse de « calypso ». Les deux plus grands succès de l'américain d'origine jamaïcaine Harry Belafonte, "Day O" et "Jamaica Farewell" sont par exemple des mentos, et non des calypsos, mais ils ont été publiés dans l'album "Calypso", ce qui contribue à la confusion. Ce genre a précédé le ska et le reggae, apparus dans l'après-guerre sous l'influence des musiques populaires des États-Unis. D'origine rurale, le mento utilise traditionnellement des instruments comme le banjo, la guitare, la flûte, le fifre, les maracas, des percussions, mais également un lamellophone basse appelé la rumba box (dérivée de la marimbula) ou thumb piano, le violon, et le saxophone de bambou. Il existe en version urbaine, interprété dans les cabarets et hôtels de Jamaïque, où il connaît une forte influence du jazz (saxophone, trompette, piano, etc.). Les thèmes fréquemment abordés par le mento sont les critiques de la vie sociale et politique, des chants de travail, et des textes à double sens où la sexualité a une grande importance. |
Metatheria Les métathériens (Metatheria) constituent le clade de mammifères thériens regroupant les marsupiaux et toutes les espèces plus proches de ces derniers que des placentaires. C'est le taxon frère des euthériens, dont ils se seraient séparés il y au moins 147,4 millions d'années d'après l'horloge moléculaire. D'après les registres fossiles, ces deux taxons auraient divergé au Jurassique il y a au moins environ 160 millions d'années. Caractéristiques. Les métathériens se distinguent des autres mammifères par divers aspects squelettiques, systémiques (développement, appareils reproducteurs, etc) et écologiques. Squelette. Parmi les caractéristiques des métathériens, ils conservent les os épipubis qui servent, chez beaucoup de femelles des lignées actuelles, au soutien du marsupium lorsqu'il y en a un. Au niveau du crâne, le palais osseux présente une à deux paires de fenêtres supplémentaires par rapport aux euthériens. Le remplacement des dents tend aussi à différer des euthériens. Les fossiles de métathériens primitifs sont caractérisables par leur formule dentaire, typiquement 4.1.3.4 pour le demi-maxillaire et 3.1.3.4 pour la demi-mandibule. Par ailleurs les sparassodontes font montre d'une étonnante convergence évolutive avec les euthériens relativement à la morphologie de leurs dents. Appareils reproducteurs. Chez les mâles, le pénis est généralement bifide et internisé dans le cloaque en dehors de la période de reproduction. Les femelles métathériennes ont deux ovaires, deux trompes de Fallope et deux utérus ayant une ouverture dans deux vagins séparés par une simple cloison dans leur partie antérieure qui débouche dans le sinus uro-génital. Cela est dû à une divergence évolutive d'avec les euthériens concernant le développement des canaux de Wolff et Müller. Les protothériens actuels (monotrèmes) ont assez similairement des appareils reproducteurs dédoublés comme les métathériens. Cerveau. L'organisation du néocortex chez les différentes lignées est grandement diversifée, à l'image des euthériens. Néanmoins il existe des recouvrements entre aires motrices et aires sensorielles, de façon plus importante que chez les euthériens. Écologie, morphologie, et histoire évolutive. La nécessité chez les métathériens d'avoir des membres antérieurs adaptés à la reptation de la larve vers les mamelle, ainsi que la très longue et très précoce période d'allaitement au cours du développement, seraient deux facteurs de survie et développement de l'organisme assez contraignants, qui pourraient contribuer à limiter la diversification morphologique des épaules et des crânes au sein des métathériens, résultant notamment en une moindre occurrence d'espèces adaptées au vol ou à la vie aquatique au sein de ce clade. Histoire évolutive. Les métathériens se sont probablement séparés des euthériens (la branche des mammifères placentaires) au cours du Jurassique (il y a au moins 165 millions d'années), mais aucune trace fossile de métathériens n'est connue datant de cette époque. Cette datation est déduite de l'âge du plus ancien euthérien récemment découvert, "Juramaia". Les métathériens fossiles se distinguent des euthériens par la forme de leurs dents, ils possèdent quatre paires de molaires à chaque mâchoire, tandis que les euthériens (y compris les placentaires) n'ont jamais plus de trois paires. Selon l'utilisation de ce critère, le plus ancien métathérien connu est "Sinodelphys", découvert en Chine et qui vivait il y a environ 125 millions d'années. Cela en fait un contemporain de certaines espèces d'euthériens qui ont été trouvés dans le même secteur. Classification. Les ordres fossiles Et les genres fossiles suivant. |
Ménès (pharaon) Mény (plus connu sous Ménès, son nom grec) est un roi considéré comme le fondateur de la thinite. Généalogie. Il est souvent assimilé au roi Narmer (son prédécesseur) ou parfois au roi Hor-Aha (son successeur). Règne. On situe son règne vers -3150. Son règne se perd dans l'origine des mythes égyptiens qui font de lui le premier homme à avoir régné sur l'Égypte après le dieu Horus et les demi-dieux. Certains voient en lui celui qui a inspiré le mythe d'Osiris. On considère généralement qu'il est le roi appelé Méni (ou Mény) par la liste royale d'Abydos et le canon royal de Turin, le roi Menas cité par Diodore de Sicile, et également Ménès par Manéthon qui lui compte soixante ans de règne. On a retrouvé un nom Ménès sur une tablette du roi Hor-Aha mais c'est peut-être un roi défunt honoré par son successeur. Certaines hypothèses donnent à la racine "mn" (qui, inscrit dans un serekh, forme le nom de ce roi) le sens de « Celui qui établit », alors que d'autres lui donne le sens de « Quelqu'un ». . Il semble qu'il ait apporté une grande prospérité au pays. Il crée des places fortes dans la région de Gaza et une seconde capitale au point de jonction des deux pays à Memphis, qui avec This, dont il est originaire, lui permet de mieux contrôler le pays. Il semble qu'il soit le premier à porter la double couronne, le pschent. Ce fait se renouvèlera à Memphis jusqu'à l'époque grecque. . Sépulture. Il est enterré dans le cimetière (tombe B17-B18) d'Oumm El-Qaab à Abydos. |
Militaire Un militaire est un membre des forces armées, c'est-à-dire d'une institution de défense des intérêts stratégiques d'un État. On emploie également le terme soldat lorsqu'il s'agit d'un combattant, le terme mercenaires étant réservé aux combattants irréguliers recrutés sans statut particulier le temps d'un conflit ou même d'une opération. Les forces militaires sont constituées : Pour acquérir une spécialité ou pour un entraînement général préalable, les militaires suivent des stages de préparation militaire ou de formation militaire. Les militaires comprennent bien souvent des militaires d'active, en fonction effective dans les forces, et des militaires de réserve, entraînés en vue d'une mise à disposition éventuelle. L'une des caractéristiques du militaire est son obéissance à la discipline militaire et aux ordres reçus, tout particulièrement en temps de guerre, circonstances dans lesquelles, d'une façon générale, ses droits personnels sont très limités. Le refus d'obéir ou la désertion sont rigoureusement punis, que ce soit dans une armée de métier ou de conscrits. Il est généralement proscrit, pour un militaire, d'être syndiqué, membre d'une association ou d'un parti politique. De nombreux groupes armés en Afrique, en Asie et en Amérique du Sud intègrent des enfants (dits enfants soldats) à partir de l'âge de six ans. L'UNICEF estime le nombre de ceux-ci à au cours de l'année 2010. Fonctions dans l'armée. Un militaire peut avoir une activité de terrain, de commandement. En effet, la mise en œuvre d'une armée nécessite une composante logistique et commandement militaire importante. Ces différentes fonctions sont souvent désignées comme des « échelons » : échelon de commandement, échelon logistique, échelon opérationnel. Parmi les emplois opérationnels, on distingue : Le commandement militaire épouse généralement la hiérarchie, reflétée par les grades. Budget du personnel militaire. Le coût global d'un militaire pour l'État qui l'emploie (solde, formation, nourriture, logement, assurance, matériels, retraite, pensions d'invalidité, etc.) est extrêmement divers selon les situations. Alors que la grande majorité des soldats de l'Antiquité devaient se payer leur équipement, situation qui prévalut jusqu'au Moyen Âge avec les chevaliers ayant leur propre harnachement, celui-ci est désormais fourni dans l'immense majorité par les armées régulières. Un simple conscrit employé comme fantassin durant les "guerres industrielles" du début du et dans des États du Tiers-Monde coûte évidemment beaucoup moins cher qu'un pilote de combat professionnel des années 2000 dont la formation s'étire sur des années. Cas extrême, un militaire professionnel dans les forces armées des États-Unis, de la signature du contrat d'engagement à la mise en terre, coûte en moyenne cinq millions de dollars américains au département de la Défense en 2005 et ces frais ne cessent d'augmenter. Le déploiement de troupes bien équipées sur les théâtres d'opérations lointains est également onéreux. En 2010, un soldat des Forces canadiennes de la Force internationale d'assistance et de sécurité en Afghanistan, pays enclavé et ne disposant pas d'importantes infrastructures, revient, hors solde, hors acheminement initial, à environ ( ; la dépense par soldat engagé outre-mer se situant en moyenne annuelle à 5,16 millions d’euros dans l’Union européenne en 2011. Pour le soutien et le fonctionnement de base d'un militaire engagé en opérations extérieures, il faut en moyenne, toujours dans l'Union européenne, 16 militaires et 15 civils à domicile (35 militaires et 15 civils en Allemagne, 8 militaires et 2 civils en France, 9 militaires et 4 civils au Royaume-Uni). Les missions d’un militaire (doctrine d’emploi des forces). Dans le cadre de son engagement dans les forces armées de son pays, le militaire s’astreint volontairement à servir la défense des intérêts vitaux du pays, tels qu’ils sont définis par son gouvernement, et sous les ordres de ses supérieurs hiérarchiques (officiers généraux). Les missions que le militaire effectue dans l’armée correspondent à 3 grands axes : Ces 3 grands axes, qui déterminent l’action des forces armées d’un pays, se manifestent par une gamme étendue et variée de missions où le risque suprême de trouver la mort en exerçant son métier - qui est le propre de la profession de militaire - n’est pas conditionné par le caractère vital pour le pays des missions qui lui sont confiées. La défense de l’intégrité du sol et du territoire nationaux figure au premier plan de l’engagement particulier des membres des forces armées, qu’ils soient militaires du rang, officiers, volontaires recrutés dans la population civile ou conscrits. C’est dans une telle éventualité que les militaires s’entraînent à combattre ou bien encore à soutenir les troupes engagées à l’avant du front. Une capacité de riposte permanente qui met aussi le professionnel de la guerre en mesure d’être engagé dans des opérations de moins haute intensité, sur le territoire ou à l’extérieur des frontières. On citera la lutte contre le terrorisme, les menaces chimiques et bactériologiques, la surveillance du ciel, "etc". Cette préparation à l’aptitude au combat offre également l’opportunité au gouvernement d’envoyer les militaires exercer leurs talents en dehors des frontières de leur pays, en les engageant dans des opérations de pacification sous mandat international, ou dans l’action civilo-militaire qui se situe souvent en corollaire de la première option. |
Mario Vargas Llosa Mario Vargas Llosa , né le à Arequipa (région d'Arequipa, au Pérou), est un écrivain péruvien naturalisé espagnol. Auteur de romans et d'essais politiques, il est notamment lauréat du prix Nobel de littérature 2010 . Comme beaucoup d'auteurs hispano-américains, Mario Vargas Llosa s’engage activement en politique, avec des opinions qui passent progressivement du communisme au libéralisme. Candidat à l'élection présidentielle péruvienne de 1990 avec le soutien de la coalition libérale de centre droit Front démocratique, il est battu au second tour par le populiste de droite Alberto Fujimori. En 2021, il est élu à l'Académie française, devenant le premier membre de cette institution à n’avoir jamais écrit un ouvrage en français, bien qu’il parle cette langue couramment et qu’il ait été le premier écrivain étranger à être publié à la Pléiade de son vivant. Biographie. Situation personnelle. Mario Vargas Llosa est issu de la classe moyenne péruvienne. Il est le fils unique d'Ernesto Vargas Maldonado et de Dora Llosa Ureta. Ses parents se séparent quelques mois après sa naissance à la suite de la révélation, par son père, d'une liaison avec une femme allemande qui donnera deux demi-frères au jeune Mario : Ernesto, qui meurt à onze ans d'une leucémie, et Enrique, qui deviendra avocat et citoyen américain. Élevé par sa famille maternelle, Mario Vargas Llosa passe du Pérou à la Bolivie où son grand-père tient une plantation de coton. Sous le gouvernement de José Luis Bustamante y Rivero, l'aïeul se voit offrir un poste diplomatique à Piura. Cet épisode marque le retour des Llosa au Pérou. En 1946, à l'âge de 10 ans, Mario part vivre à Lima où il rencontre son père pour la première fois alors qu'il l'avait longtemps cru mort. Ses parents se remettent ensemble et déménagent à Magdalena del Mar, une banlieue aisée de la capitale. Il est admis à l'école élémentaire catholique "Colegio La Salle". Dans cette école, un religieux de l'ordre salésien, le frère Leoncio, abuse sexuellement de lui alors qu'il a douze ans. À l'âge de 14 ans, il est envoyé en internat à l'Académie militaire de Lima par son père qui ne voit pas d'un bon œil sa vocation poétique naissante. Cet épisode lui laisse un sinistre souvenir et la matière de son livre "La Ville et les Chiens". Il se retire de l'académie militaire et termine ses études à Piura, où il travaille pour le journal local, "La Industria", et assiste à la représentation théâtrale de sa première œuvre dramatique, "La huida del Inca". Il étudie ensuite la littérature et le droit à l'université San Marcos, une faculté publique, exerçant en parallèle différentes professions : correcteur littéraire puis collaborateur aux rubriques cinéma de la revue "Literatura" (1957-1958) et du journal "El Comercio". Durant ses études, il découvre l'œuvre de Jean-Paul Sartre et le marxisme qui le marquent durablement. Il combat également la dictature militaire du général Manuel Odría. Pendant une brève période, il s'implique dans une branche étudiante du Parti communiste péruvien qu'il abandonne en protestation de la ligne stalinienne du mouvement sur l'art et la littérature. La révolution cubaine fait un temps revivre ses espoirs d'une révolution progressiste. Grâce à une bourse d'études, il poursuit son cursus universitaire à l'Université centrale de Madrid où il soutient, en 1958, une thèse de doctorat sur Rubén Darío. Après avoir écrit un recueil de nouvelles remarqué, "Les Caïds" ("Los Jefes", 1959), œuvre qui obtient le Prix Leopoldo Alas, il épouse la belle-sœur de son oncle maternel : sa tante par alliance Julia Urquidi, de dix ans son aînée. Cette relation lui inspire des années plus tard le roman "La Tía Julia y el escribidor" ("La Tante Julia et le scribouillard"). En 1964, il se sépare de Julia Urquidi et se remarie avec sa cousine Patricia Llosa, avec qui il aura trois fils et dont il divorcera cinquante ans plus tard en 2015. Depuis 2015, il est en couple avec Isabel Preysler, mère des enfants de Julio Iglesias et trois fois divorcée. Avec sa première épouse, il s'installe à Paris en 1959 dans l'espoir de recevoir une bourse pour reprendre des études, mais sa demande est rejetée. Le couple reste malgré tout dans la capitale française et Vargas Llosa y travaille en tant que professeur d'espagnol à l'école Berlitz, de negre littéraire, puis journaliste pour l'Agence France-Presse et la télévision. Il se passionne pour la littérature du pays, suit avec intérêt la querelle opposant Sartre à Albert Camus et écrit de manière prolifique. Il part ensuite pour Londres et Barcelone où il côtoie les grandes figures de la Gauche divine. Pendant son séjour en Europe, il se lie d'amitié avec d'autres jeunes auteurs, futurs piliers du boom latino-américain : l'Argentin Julio Cortázar, le Mexicain Carlos Fuentes et le Colombien Gabriel García Márquez. Il retourne à Lima en 1974 et est élu à l'Académie péruvienne un an plus tard. Carrière d’écrivain. Essor latino-américain. Avec Julio Cortázar, Carlos Fuentes, Juan Rulfo, Gabriel García Márquez, Juan Carlos Onetti et José Donoso, Mario Vargas Llosa est considéré comme l'un des grands noms du boom de la littérature latino-américaine des années 1960. À des degrés divers, tous ces auteurs prennent leurs distances avec la narration traditionnelle et revendiquent l'influence des courants littéraires moderniste et postmoderne européens ou nord-américains auxquels ils empruntent des procédés novateurs (détournement des codes fictionnels, multiplicité des points de vue, polyphonie, morcellement de la chronologie, monologue intérieur ou encore flux de conscience sur l'exemple de James Joyce et William Faulkner). Leur style visionnaire, foisonnant et luxuriant a révélé au monde entier la complexité artistique, idéologique et politique du continent sud-américain qu'ils peignent comme une entité pittoresque, morcelée et paradoxale. Style. Dès la parution de son premier roman, Vargas Llosa devient un écrivain reconnu, régulièrement invité dans les universités du monde entier pour y donner des cours et des conférences. À la fois chroniqueur et pourfendeur de l'Amérique latine, il est considéré par une partie de la critique comme le maître du « bouillonnement romanesque ». Contrairement à ses collègues du boom, Vargas Llosa s'écarte totalement du réalisme magique en vigueur. Mais ses récits gardent la spécificité latino-américaine de changer régulièrement de voix pour passer du général au particulier en opposition aux littératures européenne et anglo-saxonne qui ont tendance à partir d'un caractère particulier pour dériver vers le général. Le romancier cherche également à rompre avec la veine indigéniste, dominante dans les lettres sud-américaines visant avant tout à atteindre l'universel dans l'écriture. Techniques et influences. Les ouvrages de Vargas Llosa trahissent l'influence de Faulkner pour les recherches stylistiques et Balzac pour la densité de l'observation psychologique et sociale. Ils se démarquent par un style polyphonique, une ironie mordante et une tonalité dramatico-bouffonne dans l'évocation des mythes et des aspirations des peuples latino-américains écrasés par les dictatures. Ses récits sont identifiables par une fragmentation de la chronologie et la pluralité de narrateurs. Par ailleurs, ses personnages sont inséparables du climat et du cadre culturel, historique et géographique dont ils sont issus. L'action de ses romans débute sur une acmé qui installe une atmosphère oppressante, enfermant les protagonistes dans un engrenage implacable. Par le biais d'une écriture épique, apparemment sans effets, Vargas Llosa retranscrit les mutations brutales d'une civilisation marquée par la violence et le sexe. Dans ses fictions, les pouvoirs politiques (notamment le caudillisme) apparaissent comme le symbole du pourrissement moral de la société. Au fil de son travail romanesque, Vargas Llosa dessine une cartographie métissée et cosmopolite issue de ses voyages et de ses expériences personnelles, le Pérou étant néanmoins un invariant thématique dans ses romans. "La Ville et les Chiens". Vargas Llosa rédige "La Ville et les Chiens" à Paris en 1963, ouvrage qui fait de lui un auteur de renom (prix Biblioteca Breve du roman et prix de la Critique espagnole). Son roman est traduit presque aussitôt dans une vingtaine de langues et se voit salué par la presse étrangère pour son originalité. Vargas Llosa y juxtapose une tradition romanesque classique à des recherches d'écriture novatrices sur le plan narratif et formel. Dans cette œuvre, un réalisme folklorique lié au costumbrismo se mêle à des envolées poétiques proches du symbolisme. Le romancier décrit alors la vie menée par les cadets (les "chiens") et met en contraste l'oppression de la discipline, la violence et les brimades subies par les jeunes gens avec le vent de liberté qui souffle sur la ville. L'auteur est vivement critiqué dans son pays pour s'être attaqué à l'institution militaire. On l'accuse d'être stipendié par l'Équateur pour déstabiliser l'armée péruvienne et cent exemplaires du roman sont brûlés lors d'une cérémonie expiatoire dans la cour du collège militaire de Lima. Cependant, le livre n'est pas interdit à la vente et connaît un grand succès public au Pérou. Fresques et romans policiers. Dans "La Maison verte" (1966), l'auteur évoque, avec un grand souci du détail et un impressionnant souffle narratif, la vie dans la lointaine forêt péruvienne et la zone urbaine de Piura. Il y met en scène une maison close dans laquelle se croisent divers personnages. Ce roman lui vaut à nouveau le prix de la Critique, puis le prix international de littérature Rómulo Gallegos en 1967. Vargas Llosa y approfondit sa technique expérimentale de « narrations télescopiques » et de « vases communicants », selon ses propres termes, qu'il tire de Faulkner. Ce procédé consiste à entrecroiser simultanément plusieurs histoires se déroulant en divers lieux et époques. "Conversation à la Cathédrale" (1969), variation kaléidoscopique sur la figure du père et portrait corrosif des dirigeants péruviens emprunte sa structure au roman policier. Comme conteur expérimenté, l'auteur continue d'entrelacer histoires, situations, temporalités, personnages et décors de manière vertigineuse. Il s'agit de l'ouvrage qui lui a demandé le plus de travail et qu'il indique qu'il choisirait de sauver s'il fallait n'en garder qu'un. "Pantaléon et les visiteuses" (1973) se conçoit comme une satire paillarde, burlesque et subversive du fanatisme militaire et religieux au Pérou. "La Guerre de la fin du monde" (1982), qui traite de la politique brésilienne au et de la guerre de Canudos, rencontre un immense succès critique et public, marquant le sommet de sa carrière de romancier. "Qui a tué Palomino Molero ?" (1986) est un roman policier consacré aux différences sociales et aux violences politiques péruviennes. Dans cette œuvre, Vargas Llosa donne un court , à Talara, Piura (département), au nord du Pérou. Vargas Llosa a poursuivi dans cette même veine en écrivant des romans policiers ancrés dans la société péruvienne, ses inégalitées économiques et sociales, sa corruption et ses violences, avec Lituma dans les Andes (Lituma en los Andes, 1993), "Le héros discret" (El héroe discreto, 2013) et "Aux cinq rues" (Cinco Esquinas, 2016). Ces romans se déroulent pour certains dans la capitale, Lima, et pour d'autres dans des provinces lointaines et pauvres du Pérou, comme Junín ou Piura, et s'inscrivent parfois dans le contexte politique au Pérou, marqué notamment par les violences de l'organisation terroriste d'extrême gauche dite du Sentier lumineux ou le régime autoritaire. Les deux gendarmes ('Guardia Civil'), le lieutenant (puis capitaine) Silva et le caporal (puis sergent, puis lieutenant) Lituma, sont des personnages récurrents de ces romans, tout comme certains des personnages d'une des nouvelles de "Les Caïds" (1959), de "La Maison verte" (1966) et de la pièce de théatre "La Chunga" (1986) qui se déroulent à Piura. Registre intimiste et "La Fête au bouc". En dehors des grandes fresques, Vargas Llosa s'essaie à un registre intimiste et semi-autobiographique avec "La Tante Julia et le Scribouillard" (1977) et "Éloge de la marâtre" (1990). "La Fête au bouc" (2000), qui évoque les derniers jours du dictateur dominicain Rafael Leonidas Trujillo, revient à la polyphonie, au genre épico-politique et à la peinture romanesque du pouvoir dans le pur esprit ibéro-américain. En effet, l'ouvrage est caractéristique du roman du dictateur, représenté entre autres par Miguel Ángel Asturias ("Monsieur le Président"), Augusto Roa Bastos ("Moi, le Suprême") et Gabriel García Márquez ("L'Automne du patriarche"). "Le héros discret" (2013) fonde la chronique du Pérou actuel, de sa grande bourgeoisie à ses classes les plus défavorisées, et brosse un portrait au vitriol d'une société gangrenée par la corruption, la pauvreté, les inégalités sociales et la culture de masse. Essais et pièces de théâtre. Vargas Llosa a également écrit des pièces de théâtre et des essais littéraires comme "L'Orgie perpétuelle" (1975) et "La Tentation de l'impossible" (2008), consacrés respectivement à Gustave Flaubert et Victor Hugo. Il a, de plus, publié des mémoires ("Contre vents et marées", "Le Poisson dans l'eau") et des réflexions politiques sur l'Amérique latine ("La Voie de la liberté"). En 2012, il signe un essai intitulé "La civilización del espectáculo" dans lequel il fustige la société de divertissement contemporaine et le dépérissement des arts. Membre de l’Académie française. Le , Mario Vargas Llosa est élu dès le premier tour au de l'Académie française, laissé vacant par la mort de Michel Serres : il obtient , contre une pour le réalisateur Frédéric Vignale, un vote blanc et deux nuls. Cette élection est considérée comme une surprise, l'écrivain étant âgé de , soit dix années de plus que la limite fixée en 2010 pour intégrer l’institution, et du fait qu’il devient ainsi le premier académicien à n’avoir jamais publié en français . Par ailleurs, avant lui, seul François Mauriac, élu à l’Académie en 1933 et prix Nobel de littérature en 1952, avait été récipiendaire du prix suédois. Sa nomination ne fait cependant pas l'unanimité, une tribune de chercheurs et d'universitaires est publiée le 8 décembre 2021 dans le journal "Libération", lui reprochant notamment son lien avec l'extrême droite péruvienne. La cérémonie de réception a eu lieu le 9 février 2023, en présence, notamment, de , ex-roi d'Espagne. Engagement politique. Mario Vargas Llosa est d'abord séduit par le communisme et déclare son soutien à la guérilla péruvienne, considérant la lutte armée « seul recours » pour changer les choses au Pérou. Mais la révolution cubaine, qu'il soutient sans réserve au départ, le déçoit tellement qu'il se convertit résolument au libéralisme. Le Printemps de Prague en 1968 et ses lectures d'Alexandre Soljenitsyne, Raymond Aron et Jean-François Revel le confortent dans son changement radical d'opinion, l'éloignant complètement de l'idéal révolutionnaire. Dès lors, il ne cesse de critiquer de façon virulente le castrisme ou encore la Révolution sandiniste au Nicaragua. Son positionnement est qualifié d'« ultra libéral » par l'universitaire Serge Audier. Son parcours intellectuel est influencé par quatre auteurs : Adam Smith, Karl Popper, Friedrich Hayek et Isaiah Berlin. Il lit également avec avidité les ouvrages d'économie de Milton Friedman et apporte son soutien aux politiques austéritaires de Ronald Reagan et Margaret Thatcher. Au Pérou, il fonde le mouvement de droite libérale "Libertad". Candidat libéral à l'élection présidentielle péruvienne de 1990, il est nettement battu au second tour, malgré l'appui des médias et des élites (sa campagne électorale est la plus chère de l'histoire du Pérou), par un quasi-inconnu d'origine japonaise, Alberto Fujimori, contre lequel ses partisans tentent de monter la population péruvienne en stigmatisant la communauté asiatique. À la suite de cette défaite, il quitte le Pérou pour s'établir en Espagne, à Madrid. Vargas Llosa, qui a demandé et obtenu la nationalité espagnole en 1993 du gouvernement de Felipe González, reconnaît qu'il se sent autant espagnol que péruvien. Cette obtention d'une deuxième nationalité, trois ans seulement après avoir été candidat à l'élection présidentielle de son pays, suscite des réactions très négatives au Pérou. Ainsi, dans la conférence du en tant que lauréat du prix Nobel, il déclare : . Devant l'Académie de Stockholm, il déclare également, à propos de ses positions : . Partageant sa vie entre l'Europe et l'Amérique du Sud, il continue de soutenir la politique de rigueur des gouvernements conservateurs occidentaux, notamment de José María Aznar en Espagne et Silvio Berlusconi en Italie. Il se tourne vers des positions néo-conservatrices sur les questions internationales, justifiant l'invasion de l'Irak en 2003 et le coup d’État militaire en 2009 contre le gouvernement de gauche de Manuel Zelaya au Honduras. Grand aficionado, Mario Vargas Llosa prend la tête d'un mouvement de défense de la corrida, qu'il considère comme une culture de masse à protéger. En 2012, il publie ainsi un manifeste indiquant : L’écrivain Bryce Echenique, le poète Antonio Cisneros, le juriste Diego García Sayán ainsi qu’un groupe d'intellectuels et d'artistes s’associent à lui. En septembre 2007, Vargas Llosa participe à la fondation du parti centriste espagnol Union, progrès et démocratie (UPyD). Lors de l’élection présidentielle péruvienne de 2011, il appuie le candidat nationaliste de gauche Ollanta Humala contre la candidate Keiko Fujimori, fille de l'ancien président Alberto Fujimori (condamné pour corruption), son adversaire à l’élection présidentielle de 1990. Dans le cadre des troubles politiques qui suivent le référendum de 2017 sur l'indépendance de la Catalogne, il se positionne contre l'indépendance en prenant la parole à la fin d'une manifestation. En , il démissionne du PEN club international à la suite de la prise de position de cette organisation d'écrivains en faveur de la remise en liberté immédiate des indépendantistes Jordi Sànchez et Jordi Cuixart. En 2017, il s'oppose à la grâce accordée à Alberto Fujimori par le président Pedro Pablo Kuczynski. En vue du second tour de l'élection présidentielle péruvienne de 2021, il appelle cependant à voter pour Keiko Fujimori afin de faire barrage au candidat de gauche radicale Pedro Castillo, qu'il considère comme une menace plus redoutable pour la démocratie et l’économie du pays que son adversaire de droite. En 2021, il accélère son virage vers la droite et l’extrême-droite en soutenant une candidate de la droite populiste au Pérou, puis en soutenant José Antonio Kast, candidat de l'extrême droite au Chili qui se revendique héritier de la dictature de Pinochet. En 2022, il déclare sa préférence pour le candidat d’extrême-droite brésilien Bolsonaro face à Lula . Amitié brisée avec Gabriel García Márquez. Après avoir fait l'éloge de "Cent ans de solitude", qualifié de d'Amérique latine, Vargas Llosa se lie d'amitié avec Gabriel García Márquez lorsqu'il le rencontre à l'aéroport de Caracas le . Les deux auteurs participent alors au international de littérature ibéro-américaine et le Péruvien reçoit le prix Rómulo Gallegos pour "La Maison verte", récompense que le Colombien obtient cinq ans plus tard pour "Cent ans de solitude". Toutefois, Vargas Llosa refuse de reverser l'argent de la distinction au régime castriste comme il y est incité alors que García Márquez financera un mouvement révolutionnaire vénézuélien grâce au prix. En 1971, Vargas Llosa publie "García Márquez : Histoire d’un déicide", livre critique dans lequel il fait part de son admiration pour son aîné. Les deux complices sont par ailleurs un temps voisins à Barcelone. Cette relation amicale très forte s'achève brutalement le lorsqu'à la première des "Survivants des Andes", García Márquez reçoit un coup de poing en plein visage de la part de Vargas Llosa dans le hall d'un cinéma de Mexico. Les motifs de cette querelle restent flous mais seraient d'ordre privé : soit il s'agirait de la relation difficile, en raison d'infidélités répétées, entre l'écrivain péruvien et sa seconde épouse Patricia Llosa dont García Márquez aurait pris la défense, soit d'une liaison qu'aurait eue l'auteur colombien avec elle. D'autres raisons moins triviales, notamment la divergence de points de vue politiques, sont évoquées. Les deux anciens amis, qui ne se reverront plus, refusent de révéler la moindre information sur le sujet. Durant 35 ans, Vargas Llosa fait interdire toute nouvelle publication de son livre sur García Márquez. Après la mort de ce dernier en 2014, le Péruvien affirme avoir noué un pacte avec lui pour garder à jamais le silence sur la cause de cette amitié brisée. Reconnaissant à son ex-complice d'avoir tenu sa promesse jusqu'à la fin, il affirme vouloir en faire autant et laisser les historiens et biographes faire la vérité sur cette affaire. Controverses fiscales. En , son nom, ainsi que celui de son ex-épouse Patricia Llosa Urquidi, figure parmi des documents du cabinet panaméen Mossack Fonseca révélés dans le cadre des "Panama Papers". Il s'en justifie en expliquant : « De nos jours, il faut combattre [l'évasion fiscale] avec la loi et en réduisant les impôts. Il y a des pays où les impôts sont comme des expropriations. [...] Il faut respecter la loi pour que la démocratie fonctionne, mais il faut que la loi soit réaliste et pas irréelle. Il y a des lois qui vous poussent à transgresser la loi », estime-t-il. Selon lui, l'évasion fiscale serait même bénéfique pour le développement de certains pays : « C’est le cas du Panama comme ce fut avant le cas de la Suisse, grâce au système qui permet de créer des sociétés pour des personnes étrangères. » Il apparait également dans les "Pandora Papers" en 2021 en tant que bénéficiaire d'une société enregistrée en 2015 dans les Îles Vierges britanniques, qui avait pour but de gérer ses droits d'auteur ainsi que le produit de ventes immobilières réalisées à Madrid et Londres. Distinctions. Mario Vargas Llosa est membre de l'Académie royale espagnole. Il a reçu les récompenses les plus prestigieuses de la littérature hispanophone et mondiale, notamment le prix Rómulo Gallegos en 1967, le prix Cervantes en 1994, le prix Jérusalem en 1995 et, en 2005, le "Irving Kristol Award" de l'American Enterprise Institute. Il prononce alors un discours remarqué, "Confessions d'un libéral" ("Confessions of a Liberal"). Le , il reçoit le prix Nobel de littérature pour , selon l'explication de l'Académie suédoise. La même année, il est titré marquis de Vargas Llosa par le roi d'Espagne, . En 2016, il devient le premier auteur de langue étrangère à entrer de son vivant dans la Bibliothèque de la Pléiade. Après Milan Kundera et Michel Houellebecq, Vargas Llosa reçoit, le , le grand prix littéraire Château La Tour Carnet, distinction prestigieuse et généreusement dotée, créée par le mécène Bernard Magrez, propriétaire de grands crus. Après Javier Cercas, Ahmet Altan et Erri De Luca, Vargas Llosa reçoit, le 9 novembre 2021, le prestigieux prix André-Malraux pour son livre "Temps sauvages". Doctorats "honoris causa". Plusieurs universités lui ont décerné un doctorat "honoris causa", dont : |
Mitsubishi est un important conglomérat ("keiretsu") japonais, composé de plus de 300 sociétés. Ancien "zaibatsu", constituant la colonne vertébrale du complexe militaro-industriel japonais jusqu'en 1945, le conglomérat est considéré comme un "keiretsu" depuis la fin de l'occupation du Japon par les États-Unis. Fondation. Créée en 1870 par Iwasaki Yatarō, elle est d'abord une entreprise de transport maritime exploitant des bateaux à vapeur. Le nom Mitsubishi, vient du pavillon des bateaux de la société, qui représente trois losanges ("Mitsu-" Trois et "-bishi" mâcre nageante, macle ou losange). C'est en 1873 que la compagnie prend le nom de "Mitsubishi Shokai" et commence à investir dans l'exploitation minière avec l'achat de la mine de cuivre de Yoshioka, de l'importante mine de charbon de Takashima en 1881, qui représentera 91,6 % des bénéfices totaux du groupe en 1885, et de la mine d'argent d'Ikuno en 1896. Sous l'impulsion de son fondateur, Mitsubishi deviendra un des zaibatsu les plus puissants du Japon. À partir de la fin du , la compagnie (qui gère à elle seule la moitié du trafic maritime japonais) entre dans une phase de diversification qui aboutira à la création de diverses entités dont : Pendant les guerres menées par le Japon en Asie l'entreprise, en symbiose avec l'armée japonaise, s'occupait du commerce entre le Japon, la Chine et le Manchoukouo, et en particulier de l'importation de l'opium persan, participant ainsi à l'intoxication massive du continent chinois. Démilitarisation. À la fin de la Seconde Guerre mondiale, le Japon est occupé par les Américains. Le général MacArthur gouverne le pays. Les États-Unis veulent éliminer les "zaibatsu", les principaux groupes du complexe militaro-industriel japonais, tels Mitsubishi (qui avait produit, entre autres, les fameux chasseurs Zero). L'administration prononce donc la dissolution du groupe, avec interdiction de se reformer, le . D'autres groupes, tel Sumitomo, subiront le même sort. Les différentes sociétés du groupe Mitsubishi ont interdiction de conserver des liens financiers et leur emblème est même interdit. Ce dernier reviendra progressivement. Officiellement, depuis cette époque, les sociétés n'ont plus qu'un seul lien : une ancienne maison, où se retrouvent régulièrement les présidents pour distribuer des subventions (autorisées) aux partis politiques et décider des filiales autorisées ou non à porter le nom et l'emblème Mitsubishi. Mais de fait, très lentement, on assiste, de-ci, de-là, à des regroupements ou rapprochements. Situation contemporaine. Les sociétés Mitsubishi sont considérées comme traditionnelles, plutôt productrices de biens et services haut de gamme. Elles sont en général très attentives à leur image de marque. Beaucoup travaillent en grande partie pour les administrations. Liste des entreprises Mitsubishi. "Selon le site officiel, en :" |
Méga Méga (symbole M) est le préfixe du Système international d'unités, qui multiplie par 10 (un million) l'unité qui le suit (exemple : 1 mégapixel = 1 million de pixels). Il est parfois abrégé, comme dans « mégohm » ( = ). |
Mythologie romaine La mythologie romaine ou latine est l'ensemble des légendes et des mythes de la Rome antique. D'origine indo-européenne, la mythologie romaine a emprunté au fil des siècles des conceptions religieuses et culturelles aux pays qui ont été peu à peu intégrés dans la sphère de Rome : la Grèce, l'Égypte, la Syrie, la Gaule, etc. Les Romains se sont approprié puis ont adapté ces mythologies pour créer un ensemble syncrétique qui se manifeste dans la religion romaine. Mythologie gréco-romaine. La majorité des divinités du panthéon romain a très tôt subi l'influence de la Grèce antique et les divinités locales (ou « indigètes »), à quelques rares exceptions, ont souvent été assimilées à leurs homologues grecs. Pour cette raison, les articles consacrés aux dieux romains sont traités avec leurs équivalents grecs. Rome ayant largement assimilé la culture hellénistique, il est difficile de cerner les croyances des premiers Romains. Pourtant, les dieux de Rome ont des noms originaux qui les différencient de leurs homologues grecs : certes, à l'époque impériale, de nombreux dieux romains ont absorbé beaucoup d'attributs de dieux grecs ; néanmoins, l'étude minutieuse des noms romains de ces dieux ainsi que des cultes qui leur sont liés permet parfois de retrouver la nature première de ces anciennes divinités, qui étaient à l'origine proprement italiques. Malgré cette assimilation des Dieux romains, certains conservent tout de même des spécificités qui sont propres à leurs origines, en plus de leurs attributs grecs. Mythologie spécifiquement romaine. Si on considère à tort la mythologie romaine comme négligeable par rapport à la mythologie grecque, c'est parce que les mythes romains portent principalement sur l'histoire de Rome, tandis que les mythes grecs sont axés sur les dieux et les héros. Mais malgré l'absence de cosmogonie ou de théogonie d'origine romaine, la mythologie romaine n'en existe pas moins, notamment à travers un grand nombre de récits de fondations de cités. Des chercheurs tels que Georges Dumézil et T. P. Wiseman insistent également sur le fait que les notions de mythe et d'histoire ne sont nullement exclusives l'une de l'autre dans la Rome antique, et qu'il est donc possible de parler de mythologie romaine, même si elle s'est construite en bonne partie sur des récits conçus comme historiques. Divinités romaines. Les divinités des premiers Romains ("numina") ont rapidement disparu en raison de leur caractère abstrait qui s'oppose à l'anthropomorphisme grec. Malgré l'influence hellénistique, plusieurs divinités locales ont subsisté, notamment dans le culte de Janus, de Saturne, de Quirinus et le culte privé de Vesta ou des dieux Lares. Vulcain. Vulcain, identifié au dieu grec Héphaïstos est le dieu forgeron. Ses attributs sont un marteau, une enclume et une tenaille. Ses fonctions sont de protéger contre le feu destructeur et de veiller au feu civilisateur, et son épouse est la déesse Vénus. Vulcain est le seul enfant de Junon et Jupiter. Son corps est difforme, mais, il réussit à épouser Vénus, la déesse de la beauté. Janus et Saturne. Janus est une des seules divinités des premiers Romains ayant subsisté. Profondément lié au mythe de l'âge d'or, Janus serait le roi latin ayant accueilli Saturne lors du règne de celui-ci sur terre. Après la modification du panthéon romain, Janus gardera une place moindre, celle de dieu des passages et de protecteur de Rome en temps de guerre. Saturne, plus tard assimilé à Cronos (à ne pas confondre avec Chronos dieu du temps), est également honoré durant les Saturnales. Quirinus. Dieu archaïque, Quirinus est originellement le protecteur des citoyens romains (les Quirites) et, associé à Jupiter et Mars, fait partie de la triade primitive de la mythologie romaine. Il sera plus tard assimilé à Romulus divinisé. Faunus. Protecteur des troupeaux contre les loups (d'où son second nom Lupercus), il sera honoré durant les Lupercales jusqu'en 496. On parlera ensuite de faunes, pluralité qui les associera aux satyres grecs et qui assimilera Faunus à Pan. Culte du foyer. La plupart des divinités des premiers Romains liées au foyer demeurent dans le culte romain : les Romains vénèrent les Lares et les Pénates, ainsi que les ancêtres morts (mânes). Selon la légende, les Pénates originels proviendraient de Troie. C'est Énée qui, en s'enfuyant avec son père Anchise sur le dos et son fils Iule à la main, les aurait emportés. À Troie, ils avaient, semble-t-il, le même rôle que celui qui leur fut dévolu à Rome. Le culte public de Vesta, plus tard assimilé à Hestia, est également hérité des croyances anciennes (la mère de Romulus et Rémus est une vestale). Mythes romains. Rome possède ses propres mythes, souvent liés à sa fondation et à son histoire. Elle assimilera ensuite les mythes grecs mais gardera ses mythes fondateurs au centre de sa culture. Mythe de l'âge d'or. La période de l'âge d'or, également appelée « règne de Saturne » est la période durant laquelle Saturne, détrôné par son fils, Jupiter, fut accueilli en Italie par le roi Janus avec qui il partagea le pouvoir. Cette période fut marquée par une prospérité et une équité absolues : les hommes vivaient de cueillette sans avoir à travailler, ne connaissaient pas la guerre et vivaient en harmonie avec les dieux et la nature. Les cultes de Saturne et de Janus viennent de cette légende. Le mythe d'Énée fait partie des légendes de la fondation de Rome. Il décrit le voyage d'Énée depuis sa fuite de Troie jusqu'à son arrivée dans le Latium. Commandée par Auguste à Virgile, l"'Énéide" a surtout pour but de montrer le caractère divin de Rome et l'ascendance divine de la "gens" Julia (à laquelle appartient Auguste). La légende donne également à Rome une revanche sur la Grèce en montrant que Troie n'a pas été détruite mais qu'au contraire, les survivants ont fondé une cité puissante capable de l'anéantir. Cette perspective de propagande laisse penser que Virgile a remodelé la légende afin de satisfaire les demandes d'Auguste, mais l'épopée s'appuie d'abord sur la tradition qui donnait pour ancêtres au peuple romain Énée et les derniers Troyens. Rémus et Romulus. Cette légende, probablement la plus célèbre de la mythologie romaine et narrée de nombreuses fois par les auteurs latins, est à l'origine des institutions romaines : le meurtre de Rémus par Romulus montre la prédominance de la patrie sur les liens du sang, l'enceinte ("pomœrium") de Rome tracée par Romulus, demeurera sacrée (sauf pour les triomphes). La légende donne également une origine divine à Rome, Mars étant le père des jumeaux. Les légendes de l'histoire de Rome. Les nombreuses légendes qui entourent l'histoire de Rome consolident de même les institutions romaines. Elles sont racontées aux jeunes romains et constituent la seule littérature enfantine de l'époque. Certaines vantent la "uirtus" latine (vertu et courage), ce sont les "exempla" ; d'autres expliquent la fondation de Rome, ce sont les mythes fondateurs. On peut citer parmi les plus célèbres celles de l'enlèvement des Sabines, de Tarpéia (peine de mort pour les traîtres), de Clélie, d'Horatius Coclès et de Mucius Scaevola, de Lucrèce (fin de la royauté à Rome) et celle du combat des Horaces et des Curiaces. Articles consacrés aux divinités romaines. Il est important de préciser certains points avant d'aborder cette liste d'articles consacrés aux divinités romaines. Tout d'abord, les dieux et déesses présentés comme « équivalents » d'un dieu grec ne le sont que par syncrétisme, et possédaient avant cela des caractères propres et souvent très différents de leurs homologues grecs. Cependant, l'influence de la culture grecque a fait que de nombreux dieux romains, dont la figure originelle nous est aujourd'hui difficile à entrevoir, ont récupéré les attributs de dieux grecs et en sont devenus les stricts homologues. Ainsi dans les articles sur les dieux romains, ce sont souvent les attributs de dieux grecs qui leur sont associés, tant la confusion a profondément influencé la culture populaire. Certes, les dieux romains de l'époque impériale avaient acquis une ressemblance indéniable avec les dieux grecs, mais il faut garder à l'esprit que les premiers avaient eu leur signification propre avant cette association, et sont donc largement plus que de pâles copies. La mythologie romaine, particulièrement dans le cadre du culte impérial, possédait de nombreuses « vertus », personnifications divines de vertus associées aux empereurs déifiés : Divinités spéciales. En 1896, Hermann Usener publie une étude sur les dénominations des divinités, et relève bien d'autres noms, liés à des rites agricoles de "Sondergötter" : Vervactor, Reparator, Imporcitor, Occator, Subruncinator, Messor, Sternculinius... |
Mars Mars est originellement le nom du dieu de la guerre dans la mythologie romaine. De cela proviennent plusieurs noms : "Mars" peut aussi faire référence à : Toponyme. Odonyme. Des places, voies, sites ou édifices contiennent ce mois dans leur nom, avec ou sans quantième. |
Écran d'ordinateur Un écran d'ordinateur est un périphérique de sortie vidéo d'ordinateur. Il affiche les images générées par la carte graphique de l'ordinateur. Grâce au taux de rafraîchissement d'écran élevé, il permet de donner l’impression de mouvement. Il permet donc de travailler agréablement, de visionner de la vidéo, des films, de jouer à des jeux vidéo, de saisir des textes, etc. Un écran à cristaux liquides (LCD) se compose d'une dalle (qui est le support des images), des circuits vidéo dont un multiplexeur électronique et une alimentation stabilisée. Types d'écrans. Écrans cathodiques. Type d'écran le plus ancien : les écrans à tube cathodique (ou écran CRT, qui est une abréviation de l'anglais "Cathode Ray Tube") sont analogiques. Ils ont un angle de vision large et un rendu des couleurs fidèle mais ils sont lourds, volumineux et grands consommateurs d'énergie. Ils consomment deux à trois fois plus de courant qu’un écran LCD. Leur durée de vie moyenne est d'environ soit si l’écran reste allumé par jour. Les écrans cathodiques sont toujours utilisés en mode paysage, mis à part quelques exceptions, comme les écrans des Xerox Alto, et de certains écrans Apple comme celui des Macintosh IIsi de secrétariat. Comme pour les écrans de télévisions, l'année 2009 a signé l'arrêt de production des écrans à tube cathodique. Écrans plats numériques. Les écrans plats sont de plus en plus utilisés. Ils affichent environ couleurs, étendues par tramage à couleurs. En général, les deux premiers chiffres du numéro de modèle d'un écran plat indiquent la diagonale en pouces. Ces écrans ont pour avantage un encombrement réduit. Le temps de latence de plus en plus faible permet (pour certains modèles, en dessous de ) d’utiliser des jeux d’action, tels que les FPS, sans avoir à subir des traînées d’affichage lors de mouvements rapides. Ces traînées étaient un frein à leur utilisation dans le grand public. De par leur poids réduit, ils sont plus faciles à pivoter, ce qui permet plus facilement d'utiliser soit l'écran en mode portrait, soit l'écran en mode paysage. Cette fonctionnalité est prise en charge par Windows et X.Org, ainsi que la plupart des cartes graphiques. Elle nécessite cependant un écran adapté en termes d'angle de vue comme de pieds. Sous Windows, la combinaison de touches ctrl + alt + flèches de directions offre la possibilité d'orienter l'écran. Caractéristiques. Mat et brillant. Deux gammes d'écrans plats sont disponibles: Tous les écrans cathodiques sont brillants. Rafraîchissement d'écran. La fréquence de rafraîchissement est définie par le nombre d'images s'affichant sur l'écran par seconde. Cette valeur varie généralement entre 23,976 et plus de 500,5 Hz sur de nouveaux écrans très haut de gamme. Plus cette fréquence est élevée, meilleur est le confort visuel. Il est possible d'overcloker la fréquence de rafraîchissement d'un écran mais cela menace la stabilité et est souvent limité par la connectique utilisée. Technologie de dalle. Le type de dalle pour un moniteur influe sur la réactivité de l'écran et la gamme de couleurs qu'il affiche. Il existe quatre familles de dalles : Dimensions. Depuis 2007, les ventes de moniteurs de diagonale supérieure à 20 pouces () ont fortement augmenté, ces écrans sont principalement au format 16/10, ou 16/9, désormais très rarement au format 4/3, 21/9 ou 5/4. Avant 2007, le format d'image 4/3 était prédominant pour une diagonale inférieure à . Ce changement de format permet d'optimiser la découpe industrielle des dalles, afin de réduire les coûts de production. Pour des raisons économiques et de rentabilité, le format des écrans d'ordinateur suit donc le format des télévisions. Le pouce est généralement utilisé pour exprimer la taille de la diagonale l'écran. Un pouce correspond à . Un "écran de " est en réalité un "écran de ", taille déjà classique pour les tubes des téléviseurs dans les années 1950. Ces tailles sont approximatives et on trouve sous le nom de « » des écrans allant de 41 à . Le tableau de droite donne quelques correspondances. Le code pénal français interdit l'utilisation d'unités de mesure différentes de celles établies par les lois et réglementations en vigueur (article R643-2), ceci afin de garantir une information juste du client ; en l'occurrence, la France est liée par la Convention du Mètre. Ici, la loi est contournée habilement, le nombre de pouces désignant alors une « classe d'appareils », d'où la valeur élastique constatée du « pouce ». Écrans et environnement. La fabrication des écrans implique la consommation de terres rares et d'éléments toxiques et écotoxiques. Plus ou moins selon leurs types, et selon qu'une mise en veille soit utilisée, les écrans sont aussi consommateurs d'énergie. D'autres enjeux environnementaux et de soutenabilité sont ceux de leur analyse du cycle de vie, et de leur réutilisation, d'un usage partagé (par exemple dans les espaces de "coworking") et du recyclage et de la valorisation de leurs composants en fin de vie, quand ils deviennent des DEEE. Écrans et santé. L'utilisation des écrans ou de certains écrans a suscité des controverses dans le domaine de la santé . Effets physiologiques. Les problématiques considérées sont essentiellement la posture face à l'écran, et ses effets sur le dos, ainsi que les effets éventuels des rayonnements sur la vue ou leur contribution au smog électromagnétique dont les effets sont discutés. En conséquence, certains Agences et organismes de santé au travail recommandent d'installer un écran suffisamment haut pour qu'il soit en face des yeux lorsque l'on est assis en position droite et de limiter leur temps d'usage, pour les enfants notamment. |
Martin Scorsese Martin Scorsese ( ; ), né le dans le Queens à New York, est un réalisateur, acteur, scénariste et producteur de cinéma italo-américain. De parents d'origine sicilienne, il passe son enfance dans le quartier new-yorkais de qui lui inspire de nombreux films. Il obtient la Palme d'or au Festival de Cannes 1976 pour "Taxi Driver", le Prix de la mise en scène aussi à Cannes, en 1986, pour "After Hours", le Lion d'argent à la Mostra de Venise 1990 pour "Les Affranchis". Il est président du jury au Festival de Cannes 1998. Après six nominations, Scorsese remporte, en 2007, pour "Les Infiltrés" (""), trois Oscars : Oscar de la meilleure réalisation, meilleur film et meilleure adaptation. Il est récipiendaire de l' pour sa contribution au cinéma. Il est le fondateur de la et le président de la , une organisation à but non lucratif dédiée à la préservation du patrimoine cinématographique et à la prévention contre la décomposition des pellicules de films en stock. L’œuvre de Scorsese, reconnue pour sa force et son audace, aborde des thèmes divers tels que l'identité italo-américaine, les interprétations catholiques du bien et du mal, de la culpabilité, de la rédemption, du machisme, de la grandeur et de la décadence, de la perdition et de la violence. Scorsese est considéré par la critique internationale comme l'un des cinéastes américains les plus importants et influents de sa génération grâce à des classiques tels que ', ', ' et "Casino," tous interprétés par Robert De Niro, ainsi que "Les Affranchis", "Gangs of New York", "Silence", "La Dernière tentation du Christ", "New York, New York", ', ', ', entre autres. Il a obtenu une maîtrise en réalisation cinématographique à la à New York et a remporté, en plus de son Oscar et de nombreux prix dans les festivals internationaux, des récompenses aux , aux BAFTA et aux . Biographie. Jeunesse. Martin Charles Scorsese est né de l'union de (née Cappa) et de , tous les deux acteurs, dans le quartier de , dans l'arrondissement du Queens à New York, au sein d'une famille sicilienne catholique traditionaliste. Asthmatique et frêle, le jeune Martin ne peut pratiquer de sport et ses parents l'emmènent fréquemment au cinéma. Épris d'une foi profonde, il se destine d'abord à une vie religieuse et entre au séminaire en 1956 afin d'être ordonné prêtre. Jugé trop jeune (il n'est alors âgé que de 14 ans) et indiscipliné pour s'engager si tôt dans le ministère sacerdotal, il est renvoyé au bout d'un an. Il termine ses études à la "Cardinal Hays School" (dans le Bronx) puis intègre l'université de New York (NYU) en 1960 où il fréquente les cours de cinéma de la et obtient une maîtrise en 1966. Il sera d'ailleurs professeur dans cette université de 1968 à 1970. Débuts prometteurs. Il réalise plusieurs courts métrages, dont le très remarqué ', qui remportent de nombreux prix. Puis il signe son premier long métrage, ', sorti le , soit trois ans après le premier tour de manivelle. Ce film marque la rencontre avec l'un de ses acteurs fétiches, Harvey Keitel. Il participe en tant que monteur et assistant réalisateur au film ' de Michael Wadleigh sur le Festival de en 1969. Au début des années 1970, Martin Scorsese déménage à et obtient un emploi de monteur à la . Il rencontre alors le producteur Roger Corman qui lui offre la possibilité de tourner son premier film hollywoodien : "Bertha Boxcar" (') avec Barbara Hershey et David Carradine. Carrière exemplaire. Rencontre avec Robert De Niro et premier Oscar. Encouragé par John Cassavetes à poursuivre un style de réalisation plus personnel, Scorsese commence à travailler sur le film "", qui relate le parcours de deux jeunes ambitieux de . Première œuvre du réalisateur acclamée par la critique, ce film est aussi le théâtre de la rencontre la plus importante de sa carrière : celle avec l'acteur Robert De Niro qui devient désormais son alter ego à l'écran. Le cinéaste s'apprête à devenir l'une des têtes de proue du Nouvel. L'année suivante, Francis Ford Coppola lui ouvre les portes des studios Il rencontre son premier succès public avec le drame intimiste "Alice n'est plus ici" qui dénote l'influence de Cassavetes et permet à Ellen Burstyn d'obtenir l'Oscar de la meilleure actrice, en 1975, pour son interprétation de femme au foyer malheureuse. "Taxi Driver", palme d'or au Festival de Cannes 1976. Dès son film suivant, il obtient la Palme d'or au Festival de Cannes, en 1976. ', drame psychologique sur fond de difficile réinsertion des anciens combattants de la guerre du Viêt Nam, est interprété par Robert De Niro, Jodie Foster et Harvey Keitel. Ce film, écrit par Paul Schrader, assoit définitivement l'univers scorsesien : faune new-yorkaise, personnages à la dérive, confusion du bien et du mal, violence cathartique et questionnement métaphysique. ' reçoit également quatre nominations aux Oscars en 1977. 1978, premier film de concert : "La Dernière Valse". Fort de ce nouveau succès, l’année suivante, Scorsese et De Niro se retrouvent une nouvelle fois pour ' avec Liza Minnelli, qui raconte une histoire d'amour mouvementée entre une chanteuse et un saxophoniste en quête de gloire. Le film est un cuisant échec commercial. En 1977, Minnelli propose malgré tout à Scorsese de mettre en scène un spectacle à , ', mais il abandonne au bout de quelques semaines car cette expérience lui déplaît. Le cinéaste cohabite alors avec Robbie Robertson, ex-guitariste et leader du groupe , avec lequel il passe des nuits blanches à regarder des films, fréquenter des cocktails et discuter musique et cinéma. Époque à laquelle Scorsese est sérieusement dépendant de la cocaïne. En 1978 sort le documentaire "La Dernière Valse" ("") consacré au dernier concert du groupe de Robbie Robertson. Scorsese a filmé ce concert le jour de 1976 au de . Parmi les invités du Band, figurent Neil Young, Joni Mitchell, Ringo Starr, Neil Diamond, Van Morrison, Eric Clapton et Bob Dylan. Fan du groupe, Scorsese toutes les chansons avant le concert. Deux années sont nécessaires pour la sortie de "La Dernière Valse" en salles. Le réalisateur tourne par ailleurs des interviews et des morceaux supplémentaires tout au long des années 1977 et 1978. Il en sort fatigué sur le plan intellectuel, physique et psychologique en raison de sa forte consommation de cocaïne. 1980 : "Raging Bull". C'est dans un état physique et psychologique épouvantable qu'il se remet à l'ouvrage, bien épaulé par Robert De Niro, pour réaliser l'un de ses chefs-d'œuvre : '. Le film, porté par une grande intensité dramatique, manifeste un usage très personnel du noir et blanc, des mouvements de caméra et des ralentis. Pour sa performance mémorable dans le rôle du boxeur Jake LaMotta, Robert De Niro reçoit l'Oscar du meilleur acteur. Désormais considéré comme l'un des cinéastes américains les plus inventifs et les plus audacieux, Scorsese enchaîne les films remarqués : "La Valse des pantins" en 1983, satire du milieu télévisé et de la célébrité, ' en 1985 qui narre l'errance nocturne d'un informaticien dans la jungle new-yorkaise puis "La Couleur de l'argent", en 1986, qui prend l'univers du billard en toile de fond. Ce dernier film, interprété notamment par Tom Cruise, vaut à Paul Newman l'unique Oscar du meilleur acteur de sa carrière. 1988 : "La Dernière Tentation du Christ". Martin Scorsese réalise ensuite son rêve d'enfant en 1988 en signant un film sur le Christ : "La Dernière Tentation du Christ" ("") adapté du roman éponyme de Níkos Kazantzákis. Le film fait scandale car il met en scène Jésus rêvant sur la croix qu'il échappe à la crucifixion. Se déroule alors en rêve une vie heureuse dans laquelle Jésus devient un patriarche entouré d'enfants. Des manifestations ont lieu un peu partout où le film sort et le cinéma Espace Saint-Michel à Paris est incendié ; un des attentats perpétrés à la sortie du film a fait un mort. Pour autant, le film concourt aux Oscars et Scorsese reçoit sa seconde nomination pour la « meilleure réalisation ». Parallèlement à sa carrière et en grand amoureux de l'histoire du cinéma, il crée en 1990 avec sept de ses amis. Cette fondation a pour but d'encourager la restauration et la préservation du patrimoine cinématographique mondial. 1990 : "Les Affranchis". S'ensuivent le film de gangsters "Les Affranchis" en 1990 (qui vaut l'Oscar du meilleur second rôle à Joe Pesci) et le thriller "Les Nerfs à vif" en 1991, deux succès, avec de nouveau Robert De Niro. La même année, il est récompensé par la "Cinémathèque américaine" pour l'ensemble de son œuvre. En 1992, il crée , une fondation qui restaure et exploite les grands classiques du cinéma, puis réalise son premier film à costume avec Daniel Day-Lewis, Michelle Pfeiffer et Winona Ryder, "Le Temps de l'innocence", d'après le roman éponyme d'Edith Wharton, publié en 1920. L'œuvre est un nouveau succès critique et public qui croule sous une pluie de nominations aux Oscars. Mais le cinéaste rate à nouveau la statuette. 1995 : "Casino", "Kundun" et présidence du Festival de Cannes 1998. Avec "Casino" en 1995, Scorsese retrouve le monde des gangsters dans une grandiose épopée sur l’ascension et la chute du patron d’un grand hôtel-casino de Las Vegas, inspiré de Frank Rosenthal, dans les années 1970. Il retrouve pour la huitième fois, et dernière jusqu'à "The Irishman", Robert De Niro, mais aussi Joe Pesci et Sharon Stone qui remporte le Golden Globe de la meilleure actrice dans un film dramatique et reçoit une nomination à l'Oscar de la meilleure actrice. Après "Casino", il termine son fameux documentaire de quatre heures sur le cinéma américain avec Michael Henry Wilson, "Un voyage avec Martin Scorsese à travers le cinéma américain", commandé par le pour célébrer le centenaire de la naissance du cinéma. Puis, Martin Scorsese est honoré de la prestigieuse récompense du "" par l' en 1997, pour l'ensemble de sa carrière. Entre les films "Kundun" en 1997, qui évoque la jeunesse du dalaï-lama et "À tombeau ouvert" avec Nicolas Cage, en 1999, il préside le jury du Festival de Cannes 1998 qui décerne à l'unanimité la Palme d'or à "L'Éternité et Un Jour" de Theo Angelopoulos. Mais l'image forte de cette édition reste la remise du Grand prix à Roberto Benigni pour "La vie est belle" au cours de laquelle l'acteur-réalisateur italien se jette aux pieds de Scorsese avant de le prendre dans ses bras et de le soulever de joie. De "Gangs of New York" aux "Infiltrés". Lors du festival de Cannes 2002, il est président du jury des courts métrages. L'année 2002 marque une nouvelle date essentielle dans la carrière du réalisateur, puisqu'à l'occasion du film ', fresque épique et flamboyante sur les premières guerres de clans dans le New York du , Scorsese rencontre Leonardo DiCaprio avec lequel il tourne deux autres films consécutivement : ', en 2004, qui s'inspire de la vie de Howard Hughes et vaut à Cate Blanchett l'Oscar du meilleur second rôle pour son interprétation de Katharine Hepburn, puis "Les Infiltrés", en 2006, porté par une distribution de premier ordre : Jack Nicholson, Matt Damon, Mark Wahlberg, Alec Baldwin ou encore Vera Farmiga. Grâce à ce dernier film, remake du film hongkongais ' réalisé par Andrew Lau et Alan Mak, il obtient le plus grand succès public de sa carrière et remporte le Golden Globe de la meilleure réalisation avant de triompher aux Oscars du cinéma. "Les Infiltrés" gagne en effet quatre statuettes en 2007 : Meilleur film, Meilleure réalisation, Meilleur scénario adapté (William Monahan, d'après ' de Siu Fai Mak et Felix Chong) et Meilleur montage (Thelma Schoonmaker dont c'est le troisième trophée remporté grâce à un film de Scorsese, après ' et '). L'année suivante, sort son documentaire très personnel sur les , axé sur l'enregistrement d'un spectacle du mythique groupe de rock britannique : "". 2010 : "Shutter Island" et la Fondation David Lynch. En 2010, il retrouve pour la quatrième fois l'acteur Leonardo DiCaprio dans ", adaptation du thriller du même nom de Dennis Lehane. Le , Martin Scorsese participe à un gala de bienfaisance en faveur de la Fondation David Lynch au à New York, il parle par vidéo de son expérience de la méditation transcendantale qu'il pratique depuis plusieurs années : ". Scorsese dit qu'il ne lui est pas possible d'imaginer le genre de stress qui affecte les anciens combattants qui sont victimes de trouble de stress post-traumatique et il demande au public de soutenir la Fondation David Lynch. 2011 : "George Harrison: Living in the Material World". " est un documentaire sur la vie de George Harrison. Scorsese et Harrison sont liés par la musique et la spiritualité, pratiquant tous deux la Méditation transcendantale. Le nom du film " ("Vivre dans le monde matériel") est emprunté au titre de l'album studio de l'ex- George Harrison. Olivia Harrison participe activement à l'élaboration à ce film en fournissant notamment de nombreux documents personnels. Martin Scorsese et Olivia Harrison choisissent symboliquement pour la première du film, le théâtre de la petite ville de , dans l'État américain de l'Iowa, qui est le siège d'une université fondée par Maharishi Mahesh Yogi (que George Harrison avait rencontré en 1967 et suivi en Inde en 1968), le public était composé de cinq cents méditants. Cette projection exclusive est offerte en soutien à la Fondation David Lynch dans son entreprise à enseigner la Méditation transcendantale aux écoliers des quartiers difficiles, aux détenus des prisons, aux anciens combattants, aux sans-abris, aux Amérindiens et aux autres populations à risque. 2011 : "Hugo Cabret". Scorsese tourne à Paris "Hugo Cabret" qui sort en salles en . Le film est une adaptation libre du roman "L'Invention de Hugo Cabret" de Brian Selznick qui évoque la vie de Georges Méliès, et lui rend hommage. Georges Méliès y est interprété par Ben Kingsley. A l'heure actuelle, son plus gros budget (plus de 170 millions de dollars), et c'est la première fois qu'il tourne un film pour enfants. Scorsese utilise la technologie 3D. Succès critique, le film aura par contre peu de succès auprès du public". Hugo Cabret" vaut au cinéaste un nouveau Golden Globe et gagne ensuite cinq Oscars lors de la , en 2012. 2013 : "Le Loup de Wall Street" et présidence du Festival de Marrakech 2013. En , il entame le tournage de "Le Loup de" (""), d'après les mémoires du courtier en bourse Jordan Belfort, incarné par Leonardo DiCaprio, pour sa avec le réalisateur. Le film est sorti fin 2013, avec un scénario racontant l'ascension et la chute de ce courtier véreux au début des années 1990. En 2013, il est l'un des producteurs délégués du film franco-américain "Malavita", avec Robert De Niro, de Luc Besson. Fin 2013 il préside le jury du Festival international du film de Marrakech. Depuis 2015. Du au , la Cinémathèque française accueille une exposition entièrement dédiée à Martin Scorsese, conçue à Berlin par la Deutsche Kinemathek. Des œuvres, objets et photographies issus de sa collection et des archives personnelles, ainsi que de Robert De Niro ou Paul Schrader, sont exposés. Il s'agit de la première exposition mondiale qui lui est consacrée. La Cinémathèque organise également, à cette occasion, une rétrospective intégrale de son œuvre, et une rencontre avec le cinéaste a lieu le . Fin , il commence le tournage d'un projet de longue date, "Silence". Dans cette adaptation du roman homonyme de Shūsaku Endō, il dirige à nouveau Liam Neeson, aux côtés de plus jeunes acteurs comme Andrew Garfield et Adam Driver. Le film sort en première vision au Vatican en novembre 2016. En , il est annoncé comme le réalisateur d'un film sur la vie de Mike Tyson, avec le rôle-titre tenu par Jamie Foxx. En , le Prix Lumière lui est décerné à Lyon par l'Institut Lumière « pour l’ensemble de son œuvre, pour sa cinéphilie généreuse, pour son inlassable combat en faveur de la sauvegarde du cinéma du passé, pour ses fictions, pour ses documentaires, pour son amour de la musique, pour sa bienveillance à l’égard des jeunes cinéastes du monde entier ». En sort "The Irishman", marquant son retour dans le film de gangsters. En , l'Université de New York établit un institut cinématographique à son nom avec l'aide des donateurs George Lucas et Mellody Hobson. Acteurs et collaborateurs récurrents. Au fil du temps, Martin Scorsese s'est entouré de nombreux acteurs avec lesquels il a pu travailler à plusieurs reprises. Robert De Niro a tourné dans neuf de ses films et dans ' produit par Scorsese. Grâce à leur collaboration, il a gagné l'Oscar du meilleur acteur pour son interprétation du boxeur Jake LaMotta dans '. Harvey Keitel est considéré comme le premier acteur fétiche du réalisateur, puisqu'il a tourné six fois sous sa direction dont leur premier film respectif "" en 1969. Leonardo DiCaprio tient également le rôle principal dans 5 de ses films : ', ', "Les Infiltrés", "" et "Le Loup de". Cette longue collaboration avec le réalisateur lui a permis de gagner le Golden Globe du meilleur acteur dans un film dramatique pour son interprétation d'Howard Hughes dans "" et d'être nommé à l'Oscar du meilleur acteur pour ce même film. Il a ensuite gagné le Golden Globe du meilleur acteur dans un film musical ou une comédie pour son interprétation du trader Jordan Belfort dans "Le Loup de" et d'être nommé à l'Oscar du meilleur acteur. Joe Pesci et Frank Vincent figurent tous deux dans la distribution de "", "Les Affranchis" et "Casino". Jodie Foster et Daniel Day-Lewis ont joué deux fois sous sa direction. Pour ses scénarios, il collabore avec Paul Schrader qui a écrit ', ', "La Dernière Tentation du Christ" et "À tombeau ouvert". Thelma Schoonmaker est sa monteuse attitrée puisqu'elle s'est occupée du montage de la plupart de ses films et documentaires. Barbara De Fina, son ex-femme, a produit tous ses films à partir de "La Couleur de l'argent" jusqu'à "À tombeau ouvert". Pour la musique de ses films, Scorsese utilise fréquemment des musiques préexistantes, avec l'aide de son ami et superviseur musical Robbie Robertson. En revanche, pour les musiques originales, il a souvent fait appel à Elmer Bernstein (3 films) et Howard Shore (6 films à ce jour). Enfin, les directeurs de la photographie Robert Richardson et Michael Ballhaus ont éclairé la majorité de ses films. |
Mythologie égyptienne Les Égyptiens de l'Antiquité ont cherché à interpréter tous les phénomènes qu'ils pouvaient observer à travers le prisme de croyances séculaires. La notion de cycle y est essentielle : Mythe de la création. La grande diversité du culte de l'Égypte antique se retrouve également dans les mythes de la création qui varient en fonction des régions (ou même des villes) et de leurs dieux tutélaires : Rê, Isis, Seth, Horus, Anubis. Ainsi, ce n'est pas une, mais plusieurs cosmogonies (mythes de la création du Monde) qui coexistaient dans les différentes parties du royaume. Les plus connues sont celles d'Héliopolis, d'Hermopolis, de Thèbes et de Syène (Éléphantine-Assouan). Les cosmogonies admettent toutes l'existence d'un principe créateur, mais chaque nome voit dans son dieu tutélaire le démiurge à l'origine de cette création. La cosmogonie la plus répandue est celle d'Héliopolis qui a pour créateur un démiurge solaire (Rê sous l'une de ses formes) et donne une généalogie divine descendant jusqu'au dieu pharaonique Horus. Mythe osirien. Pour les anciens Égyptiens, l'univers n'était au commencement qu'un grand océan primordial nommé le Noun. C'est du Noun que naquit Atoum, le soleil. Atoum engendra Shou (le dieu du souffle) et Tefnout (la déesse de l'humidité). Shou sépara le ciel de la terre. Ainsi naquirent Nout (la déesse du ciel) et Geb (le dieu de la terre). De l'union de Nout et Geb naquirent trois fils : Osiris, Horus l'Ancien et Seth, et deux filles, Isis et Nephtys. Geb offrit le pouvoir sur terre à Osiris qui fut le premier des pharaons. Il régna aux côtés de sa sœur et épouse Isis. Son règne empreint de bonté, de justice et de sagesse rendit Seth fou de jalousie. Il complota contre son frère. Il invita son frère à un grand banquet. Seth proposa alors que chacun des convives se couche dans un magnifique coffre. Celui qui serait aux mesures du coffre le gagnerait. Osiris se couche alors dans le coffre : il est à ses dimensions (piège de Seth). Les convives se jettent tous sur le coffre et y enferment Osiris. Seth le jette dans le Nil. Grâce à l'aide de Nephtys, Isis la magicienne réussit à retrouver le corps de son mari et à le cacher dans un marais. Seth l'apprend et, furieux, arrive à retrouver le corps, et le déchire en quatorze ou seize morceaux selon les versions. Avec l'aide de sa sœur Nephtys et d'Anubis, Isis retrouve les morceaux éparpillés dans toute l'Égypte, sauf son sexe, mangé par un poisson. Ils reconstituent alors Osiris le temps d'une union d'où naquit Horus (le dieu des pharaons). Horus vainquit Seth après maints duels et régna sur l'Égypte. Osiris, lui, devint le roi du royaume des morts. Mythe de la mort. Chez les Égyptiens de l'Antiquité, les cérémonies et croyances liées à la mort représentaient une part importante de leur vie. Les préoccupations liées à la mort au cours de l'Égypte antique étaient d'ordre religieux et constituaient une étape importante de la vie du pharaon, incarnation des dieux sur terre, qui devait après son décès vivre auprès des dieux dans un repos éternel. Les Égyptiens considéraient qu'après le décès, l'âme du défunt pouvait renaître et accéder au « "royaume des morts" » et au "repos éternel". Le mythe de la mort peut être décomposé en deux parties : Voyage vers l'au-delà – embaumement. Dans la mythologie égyptienne, le corps est divisé en plusieurs parties dont le djet, qui correspond au corps, et le ka, qui correspond au double spirituel accompagnant le corps depuis la naissance de l'individu jusqu'à son décès. Pour que le défunt puisse accéder au royaume de l'au-delà par l'intermédiaire de son ka, l'embaumement du djet est nécessaire. En effet, si le corps n'est pas embaumé, le djet devient le khat après la mort et ne peut accéder au repos éternel. Le rite de l'embaumement fut créé par Isis, aidée par Anubis, lorsqu'elle reconstitua le corps de son époux Osiris afin de lui redonner vie. Ce rite symbolise donc la "renaissance" du défunt et l'accès au « royaume des morts » et au repos éternel. Les statues et offrandes présentes aux côtés du défunt dans son sarcophage permettent de l'accompagner dans son chemin vers le jugement de l'âme. Ce chemin vers l'au-delà est pris en compte dans l'architecture des pyramides. En effet, au sein des pyramides, les couloirs s'élevant vers les sommets de la pyramide et le ciel depuis la chambre funéraire du défunt, semblent être des passages permettant à l'âme de s'élever et d'atteindre le royaume des morts Le livre des morts des Anciens Égyptiens, placé aux côtés du défunt, avait pour but de le guider vers le royaume des morts et de le préparer au jugement de l'âme à l'aide de prières. Jugement de l'âme. La pesée de l'âme (psychostasie) consiste à mettre le cœur du défunt sur une balance et de l'autre côté une plume (représentant la déesse Maât) ; si le cœur est plus léger (ce qui signifie que le cœur n'est pas entaché de péchés), le défunt peut rejoindre le royaume des morts. Sinon, il se fera dévorer par un monstre (la plupart du temps symbolisé par la déesse Taouret ou par Ammout qui a une tête de crocodile, un corps de lion et un arrière-train d'hippopotame.) et son âme sera perdue à tout jamais. Osiris ne devint dieu du royaume des morts qu'après avoir passé avec succès l'épreuve de la pesée de l'âme. Les défunts voulaient donc s'identifier à Osiris pour atteindre le royaume des morts et reposer en paix. Mythe du cycle du jour. Le mythe décrit le combat que mène Rê chaque nuit contre les « forces du chaos » représenté par le serpent Apophis afin de permettre la réapparition du soleil chaque matin sur le « monde d'en haut ». Rê étant considéré comme le dieu du soleil, entre autres, lorsque le soleil disparaissait chaque soir à l'horizon, le dieu Rê changeait de moyen de transport pour adopter une barque sacrée et traverser le Nil souterrain. Au cours de ce périple, Rê traversait les douze portes correspondant aux douze heures de la nuit (de 5 h du soir à 5 h du matin) dans le monde souterrain, la Douât, et devait déjouer les pièges des forces du chaos tentant de renverser à tous moments la barque du dieu du soleil. Il est aidé en cela par le dieu Seth qui, se tenant à la proue de la barque solaire, lance ses traits sur Apophis. Ce périple avait pour but la renaissance du dieu Rê chaque matin ramenant ainsi la lumière aux habitants du « monde d'en haut ». Cette "renaissance" de Rê, représentée par le lever du soleil, était considérée également comme la renaissance du monde et le signe que le dieu Rê avait triomphé des forces du chaos durant son périple. On retrouve également la notion des douze portes au sein des pyramides d'Égypte dont le couloir menant au sarcophage est constitué de douze encadrements de porte, correspondant à chacune des heures de la nuit. Ce combat entre le dieu Rê et Apophis, chaque nuit, dès le coucher du soleil, et conduisant à un nouveau lever de soleil, chaque matin, constitue donc le mythe du cycle du jour dans la mythologie égyptienne. Après la mort de Rê, c'est la déesse Bastet qui combattit le serpent Apophis dans le douat. |
Master boot record Le ou MBR (parfois aussi appelé zone amorce ou enregistrement d'amorçage maître) est le nom donné au premier secteur adressable d'un disque dur (, et , ou en adressage logique) dans le cadre d'un partitionnement Intel. Sa taille est de . Le MBR contient la table des partitions (les primaires) du disque dur. Il contient également une routine d'amorçage dont le but est de charger le système d'exploitation, ou le chargeur d'amorçage () s'il existe, présent sur la partition active. Structure du MBR. À l' du MBR, le mot codice_1, appelé "nombre magique" ou , doit impérativement être présent pour que le BIOS charge et exécute la routine de démarrage présente dans le MBR. En effet, après la phase de test du BIOS (appelée POST), le BIOS lit le premier secteur des périphériques amorçables qui ont été définis par l'utilisateur à l'aide du programme SETUP (section ). Lorsqu'il trouve un périphérique contenant le , il charge le code d'amorçage à l'adresse mémoire 0x7C00 et l'exécute. La main est alors donnée au chargeur d'amorçage () par ce code d'amorçage. Réparation, sauvegarde, et restauration du MBR. Microsoft Windows. Sous MS-DOS et les versions grand public de Windows jusqu'à Windows Millenium, il est possible de recréer la routine de du MBR sous DOS à l'aide de la commande Fdisk /MBR, pour les versions plus récentes et Windows 10 la commande est bootrec /fixmbr. Le est ainsi réécrit. Cela permet d'éliminer certains virus de (si la commande est exécutée depuis une disquette ou une clé USB, car les virus de détournent souvent l'), de restaurer un MBR endommagé (le PC ne démarre plus), ou de supprimer un chargeur de démarrage installé dans le MBR (exemples : LILO, GRUB, si une distribution Linux a été installée parallèlement à Windows). Sous Windows XP, la commande à utiliser pour restaurer le MBR est codice_2. Elle est accessible depuis la console de récupération. Sous Windows Vista et , la commande à utiliser pour restaurer le MBR est codice_3. Elle est accessible depuis la console de récupération. UNIX et GNU/Linux. Sous Linux, l'utilitaire Boot-Repair permet de restaurer le MBR. Sous UNIX et Linux, la commande "codice_4" permet de copier n'importe quelle portion d'un fichier. On peut donc l'utiliser pour sauvegarder le MBR d'un disque, ou pour le restaurer. Celui-ci se trouve sur les octets du disque. Cette opération est risquée, si l'utilisateur se trompe de disque à copier ou à restaurer. Par exemple, restaurer le MBR d'un disque dur sur un autre disque, remplacera la table des partitions du second disque par celle du premier. Il y a de fortes chances que votre second disque soit alors illisible. La seule exception à cette règle concerne le cas où les deux disques durs sont les mêmes ainsi que leur partitionnement (cas fréquent dans un parc de machines en entreprise). Dans l'exemple qui suit, on sauve le MBR du disque codice_5 dans un fichier nommé codice_6 à l'aide de la commande codice_4 : codice_8 On le restaure de cette manière (codice_6 est le fichier qui a été sauvegardé ci-dessus) : codice_10 Pour ne sauver que le programme et le désassembler : Si la table de partition n'a pas changé, on peut très bien ne recharger que les octets du MBR (en indiquant codice_11). En général, l'installation d'un système GNU/Linux modifie le MBR initial pour qu'il pointe sur le chargeur d'amorçage de Linux (GRUB, LILO). Sur certains systèmes (dits tatoués), il est impossible de démarrer Windows lorsque le MBR est modifié. Il faut donc utiliser une méthode d'installation différente pour faire cohabiter les deux systèmes, ou bien restaurer le MBR d'origine lorsqu'on veut réinstaller un système Windows. . Avenir du MBR. Du fait de ses limitations — il ne gère pas les disques de plus de (en secteurs de 512 octets) —, le système de partitions MBR est remplacé la plupart du temps depuis 2013 par le système GPT. |
Mandrake Mandrake peut désigner : |
Musique française La musique française est née au Moyen Âge, avec le genre proche du plain-chant grégorien, nommé organum. Elle s'est ensuite développée sous l'égide de l'école de Notre-Dame ou de l'Ars antiqua avec le conduit, un chant de procession. À cette époque, les troubadours et les trouvères affirmaient davantage l'indépendance de l'art lyrique face au clergé. Puis dans les classes aisées s'est développée l'école de l'Ars nova autour de la création de motets et de messes, mais aussi de chansons profanes, dédiées à la distraction. La Renaissance a vu se développer la polyphonie et le chant. À partir du tournant du au , début de la période de la musique baroque, on vit apparaître de nouveaux genres comme l'air de cour, le ballet de cour, et la suite de danses. La musique instrumentale prit davantage d'importance. L'opéra fut introduit en France par Jean-Baptiste Lully dans les années 1670. Enfin, les chants régionaux, militaires, marins, religieux, ouvriers et paysans ont fait leur réapparition dans le patrimoine musical français ces dernières années, notamment grâce au Chœur Montjoie Saint Denis. Musique classique. Musique médiévale. Les troubadours et les trouvères étaient parfois de simples artistes invités dans les cours des nobles, qui firent de ceux-ci des mélomanes en ramenant la musique aux affaires (de cœur) humaines par le moyen de chansonnettes. Cet engouement musical suscita la vocation des jongleurs, ces musiciens itinérants qui n'étaient que les interprètes de compositions créées par les précédents, et qui n'hésitaient pas à parler la langue vulgaire. Dans les siècles qui suivirent l'Ars nova, la création musicale va s'affiner et se complexifier, mais elle se fera toujours loin du peuple, qui lui préférera les chants à boire, les chants de table, les chants de travail ou les chants à danser, pratiqués sur des instruments moins « nobles », et donc plus proches de la nature. Musique baroque. La période baroque voit se développer différents genres autour du ballet à la cour de France : Musique traditionnelle et folklorique. Si on ne peut exactement dater l'apparition de la musique traditionnelle ou folklorique car elle est essentiellement de transmission orale, des instruments tels que la cornemuse semblent avoir une longue histoire au sein des divers peuples formant la France. De toute évidence, une musique régionale a pu se développer en même temps que les patois, loin des villes et des classes aisées. Il est probable que le métier de musicien ambulant fut très tôt apprécié par les campagnes où ses chansonnettes venaient compléter celles existant déjà dans les divers corps de métiers. Plus récemment, le Chœur Montjoie Saint Denis, fondé en 1979, a largement contribué à la redécouverte des chants régionaux, militaires, marins, religieux, ouvriers et paysans. Types de musiques régionales. Il existe aux quatre coins de la France des musiques régionales, propres à des langues régionales, des traditions. Ces musiques se rattachent parfois à des genres plus vastes comme la musique germanique pour l'alsacienne ou la musique celtique pour la bretonne par exemple. Malgré leurs parentés internationales, elles se déclinent néanmoins de façon particulière en France. Les musiques à danser trouvent une richesse et une origine souvent localisable dans les régions de france. Mais ces danses ont tellement voyagé, parfois dans toute l'Europe et même au-delà, qu'elles constituent un vaste patrimoine qui ne demande qu'à être partagé. Musiques régionales Musiques d'outremer Instruments de musique. Vents : Cordes : Percussions : Musique de film. Depuis l'Assassinat du duc de Guise (1908) dont la musique est composée par Camille Saint-Saëns jusqu'aux dernières productions des années 2010, plusieurs générations de compositeurs se sont succédé. 1890s 1900s 1920s 1930s 1940s 1950s 1960s 1970s 1980s Musique populaire. Bien que l'origine des musiques populaires remonte au , c'est au qu'elles prennent leur essor, avec d'une part des genres propres à la France, et d'autre part, des genres importés. Toutefois « l'exception » française, avec sa politique de soutien de l'identité culturelle nationale, se retrouve même dans ces genres importés qui sont interprétés avec un style français. Ce n'est pas simplement le fait de chanter en français qui distingue ici les artistes, mais bien un style musical ou une instrumentation spécifique. Chanson française. La chanson française est un style typique de la musique française, et est très populaire en France. Les artistes classiques les plus importants sont : Charles Trenet, considéré comme le père de la chanson moderne après le renouveau de rythmes et de mots qu'il apporta dans les années 1930, Édith Piaf, Monique Serf (Barbara), Georges Brassens, Jacques Brel, Léo Ferré, Jean Ferrat, Claude Nougaro, Annie Cordy, Charles Aznavour, Mireille Mathieu, Dalida, Frida Boccara, Gilbert Bécaud, Serge Gainsbourg, Salvatore Adamo, et Brigitte Fontaine. Pendant les années 1970, dans des styles variés, des artistes ont renouvelé la chanson française : Johnny Hallyday, Michel Sardou, Claude François, Joe Dassin, Serge Lama, Sheila, Dalida, Frida Boccara, Eddy Mitchell, Jacques Dutronc, Françoise Hardy, Véronique Sanson, Renaud, Francis Cabrel, Alain Souchon, Jacques Higelin, Bernard Lavilliers, Alain Chamfort, et aussi dans les années 1980 (Mylène Farmer, Alain Bashung, Étienne Daho, Têtes Raides), jusque maintenant (Vanessa Paradis, Jason Kouchak, Matthieu Chedid, Jean-Louis Murat, Miossec, Mathieu Boogaerts, Daniel Darc, Vincent Delerm). Le côté plus commercial et populaire de la « chanson » est appelé « variété », et comprend des artistes comme Francis Cabrel, Alain Souchon, Laurent Voulzy, et Jean-Jacques Goldman. Plus récemment, le succès de l'émission Star Academy a engendré une nouvelle génération d'artistes de musique populaire comme Jenifer et Nolwenn Leroy. Mylène Farmer a inspiré des artistes pop rock comme Zazie, Alizée et Lorie, et des chanteuses comme Shy'm, Nadiya et Ophélie Winter. À partir des années 1990, de nombreux artistes Français se distinguent à l'international par leur créativité en musique électronique, qui signe la naissance de la musique house Française que l'on surnomme la French Touch. |
Moyen Age |
Miséricorde (homonymie) Miséricorde peut désigner : |
Mâchicoulis Un mâchicoulis est une galerie formant un encorbellement, soit en position mitoyenne ou en couronnement d'une enceinte militaire (tour, courtine, rempart) et dont le plancher ajouré permettait, si besoin, de lancer divers projectiles au pied du mur, zone souvent vulnérable. Ce système de défense active en maçonnerie, surtout sous la forme de « mâchicoulis sur consoles » se répand à la fin du Moyen Âge (seconde moitié du ) en remplacement de celui des hourds en bois. Étymologie. Le terme est mentionné pour la première fois en 1402-1404, c'est-à-dire postérieurement à la technique elle-même, sous la forme "machecoleis", « galerie extérieure de pierre, en encorbellement et percée d'ouvertures destinées au tir plongeant ». Le mot est issu du moyen français *"machecolis" dérivé à l'aide du suffixe "-is" [?]. Il est attesté en latin médiéval sous la forme "machecollum". Il s'agit d'un probable composé du vieux français "macher" « battre, frapper, meurtrir » et de col (cou en vieux français). Les projectiles lancés des mâchicoulis étaient effectivement destinés à « briser le cou » des assaillants. Historique. Les mâchicoulis sont des structures en pierre taillée pourvues d'ouvertures carrées ou de larges rainures pratiquées dans le sol, qui garnissent un chemin de ronde d'une tour ou d'une courtine, et permettent d'en défendre le pied, notamment pour éviter le travail de sape. Les mâchicoulis sont une transposition en pierre des hourds et des bretèches de bois que l'on élevait sur les murailles ou les tours dans les premiers temps du Moyen Âge. Ces dispositifs architecturaux durables en encorbellement ne semblent pas avoir existé dans les fortifications grecques et romaines. Ils sont apparus à la fin du premier millénaire dans des fortifications byzantines puis arabes (présence de bretèches à mâchicoulis discontinues sur accès) et ont perduré en tant qu'organes défensifs fonctionnels jusqu'à la première moitié du . Ils sont notamment attestés en Syrie vers 1120. Le système a également été utilisé dans les constructions des croisés en Terre sainte et en Europe, comme aux Pays-Bas, où il subsiste : le Muiderslot, au château de Wijk bij Duurstede et dans la porte des Écluses "(Sassenpoort)" à Zwolle. Dans les châteaux-palais de la Renaissance française, le mâchicoulis est un élément décoratif rappelant la fonction défensive du château fort des siècles précédents. Il s'agit alors de faux mâchicoulis qui n'ont plus aucune fonction militaire (il n'y a plus d'ouvertures pour lancer des projectiles). Les châteaux japonais possédaient aussi des , littéralement des "fenêtres pour jeter des pierres". Typologie. On en distingue trois types : Légende et réalité. Contrairement à ce que montrent les films de guerre se déroulant au Moyen Âge et les topos hérités de l'historiographie du , lors du siège d'un château les défenseurs ne jetaient pas d'huile bouillante sur les assaillants du haut des remparts. En effet, c'était un aliment rare et cher à l'époque. Les défenseurs jetaient toutes sortes de projectiles, pierres, poutres, parfois de la poix, du soufre, ou du sable rougi. L'eau et le bois de chauffe étant des ressources rares lors d'un siège, leur emploi a dû être fortement limité. Les mâchicoulis étaient plutôt utilisés pour des tirs à l'arc plongeants. Ou pour jeter des pierres, des charognes pour propager des épidémies ou des tonneaux remplis d'excréments. Le pied des remparts était d'ailleurs parfois oblique et non vertical. Ce qui provoquait un ricochet des projectiles jetés du haut des remparts, pour un effet encore plus dévastateur. |
Moyen Âge Le Moyen Âge est une période de l'histoire de l'Europe, s'étendant de la fin du à la fin du , qui débute avec le déclin de l'Empire romain d'Occident et se termine par la Renaissance et les Grandes découvertes. Située entre l'Antiquité et l'époque moderne, la période est souvent subdivisée entre le haut Moyen Âge ( à ), le Moyen Âge central (-) et le Moyen Âge tardif (-). La dépopulation, la désurbanisation et les migrations de l'Antiquité tardive se poursuivent durant le haut Moyen Âge et les envahisseurs ou migrants barbares fondent de nouveaux royaumes sur les territoires de l'ancien Empire romain d'Occident. La période est marquée par de profonds changements sociétaux et politiques ; la rupture avec l'Antiquité classique n'est cependant pas complète. La partie orientale de l'Empire romain survit aux bouleversements géopolitiques de la période et reste une puissance de premier plan sous le nom d'Empire byzantin. Il perd cependant une grande partie de ses territoires au Moyen-Orient et en Afrique du Nord au profit des califats musulmans au . À l'ouest, la plupart des royaumes incorporèrent de nombreuses institutions romaines, tandis que l'expansion du christianisme fut marquée par la construction de nombreux monastères. Sous la dynastie carolingienne, les Francs établissent un empire couvrant la plus grande partie de l'Occident chrétien au avant de décliner du fait des tensions internes et des attaques Vikings au nord, hongroises à l'est et sarrasines au sud. Après l'an mil, durant le Moyen Âge central, la population européenne augmente fortement grâce à des innovations techniques, qui permettent un accroissement des rendements agricoles. La société se réorganise selon les systèmes de la seigneurie, l'organisation des paysans en communautés cultivant la terre pour le compte des nobles, et de la féodalité, la structure politique par laquelle les chevaliers et la basse-noblesse servaient dans l'armée de leur suzerain en échange du droit d'exploiter leurs fiefs. Cette dernière institution connaît un déclin à la fin du Moyen Âge du fait des efforts de centralisation menés par les différents souverains dont l'autorité se renforce aux dépens de celle des seigneurs locaux. Les croisades, lancées pour la première fois au sont des expéditions militaires menées au nom de la foi catholique ; elles sont principalement destinées à reprendre le contrôle de la Terre sainte aux musulmans, mais visent également les croyances jugées hérétiques en Europe. La vie intellectuelle est marquée par la scolastique cherchant à concilier la foi et la raison et par l'apparition d'universités dans les grandes villes. La philosophie de Thomas d'Aquin, les peintures de Giotto, la poésie de Dante et de Chaucer, les récits de Marco Polo et l'architecture des grandes cathédrales gothiques comme celle de Chartres sont parmi les plus grandes réalisations de cette période. Le Moyen Âge tardif est marqué par des famines, la peste noire et les guerres qui réduisent fortement la population de l'Europe occidentale tandis que l'Église catholique traverse de profondes crises politiques. Les changements culturels et technologiques de la période transforment néanmoins la société européenne et ouvrent la voie à la Renaissance et à l'époque moderne. Définition. Le Moyen Âge est l'une des trois principales périodes historiques utilisées pour analyser l'histoire de l'Europe avec l'Antiquité et l'époque moderne. Les auteurs médiévaux divisaient l'Histoire en périodes inspirées de la Bible comme les « six âges du monde » et considéraient que leur époque était la dernière avant la fin du monde. Lorsqu'ils évoquaient la période dans laquelle ils vivaient, ils la qualifiaient de « moderne ». Dans les années 1330, l'humaniste et poète Pétrarque qualifiait l'époque pré-chrétienne d"antiqua" (« ancienne ») et la période chrétienne de "nova" (« nouvelle »). Le Florentin Leonardo Bruni fut le premier historien à utiliser un découpage en trois périodes dans son ' de 1442 car il considérait que le développement de l'Italie l'avait fait changer d'époque par rapport à celle de Pétrarque. L'expression de « Moyen Âge » apparut pour la première fois en latin en 1469 sous la forme de ' (« saison intermédiaire ») dans l'avant-propos de l'Éloge de Nicolas de Cues par Giovanni Andrea Bussi puis de " (« moyen âge ») en 1604. La division en trois périodes de l'histoire fut popularisée au par Christoph Cellarius et est depuis devenue la norme. La date admise le plus communément pour le point de départ du Moyen Âge est l'année 476, quand le dernier empereur romain d'Occident fut déposé, et celle-ci fut proposée pour la première fois par Bruni. La fin du Moyen Âge est généralement située à la fin du mais selon le contexte, la date exacte peut varier. On peut par exemple citer la chute de Constantinople en 1453, le premier voyage de Christophe Colomb en 1492 ou le début de la Réforme protestante en 1517. Les historiens français utilisent souvent la fin de la guerre de Cent Ans en 1453 pour marquer le terme de la période tandis qu'en Grande-Bretagne et en Espagne, c'est respectivement la bataille de Bosworth en 1485 et la prise de Grenade en 1492 qui sont plus fréquemment mentionnées. Ces dates symboliques ne marquent pas à elles seules un changement d'époque et l'historiographie contemporaine considère que la période de la Renaissance allant du début du au milieu du marque la transition du Moyen Âge à l'époque moderne. De la même manière, il n'y eut pas de passage brutal de l'Antiquité au Moyen Âge mais un processus assez long appelé Antiquité tardive s'étendant de la fin du au milieu du . Une définition plus large est donnée par Jacques Le Goff, défenseur d'un « "long" Moyen Âge » occidental qui s'étendrait du (l'installation du christianisme) au (la révolution industrielle en Grande-Bretagne et la Révolution française), contestant l'idée que la Renaissance aurait mis fin à la culture médiévale. Le Moyen Âge est lui-même subdivisé en trois parties : le haut Moyen Âge de la fin du à la fin du , le Moyen Âge central ou classique du début du à la fin du et le bas Moyen Âge ou Moyen Âge tardif du début du à la fin du . Fin de l'Empire romain. L'Empire romain atteignit son extension territoriale maximale au mais il perdit progressivement le contrôle de ses territoires frontaliers durant les deux siècles qui suivirent. Les problèmes économiques et les pressions extérieures provoquèrent une grave crise politique au durant laquelle les empereurs accédaient au pouvoir par la force et en étaient rapidement chassés. Les dépenses militaires augmentèrent fortement notamment du fait des guerres contre les Sassanides en Orient. La taille de l'armée doubla mais sa composition vit la disparition progressive de l'infanterie lourde au profit de la cavalerie et de l'infanterie légère tandis que les légions furent remplacés par des unités plus petites. Cet accroissement des dépenses militaires entraîna une augmentation des impôts et un appauvrissement des classes inférieures comme les décurions. Pour faire face à ces difficultés, l'empereur Dioclétien () décida en 286 de diviser administrativement l'Empire en deux moitiés, l'une orientale et l'autre occidentale qui furent à leur tour subdivisées en deux. Chacune de ces quatre régions possédait un empereur qui formaient la Tétrarchie. Malgré cette gouvernance quadruple, il ne s'agissait pas d'un éclatement de l'Empire et les zones correspondaient plus à des zones d'influence ou à des théâtres militaires qu'à des entités indépendantes. Après une guerre civile, Constantin () réunifia l'Empire en 324 mais il fut contraint de réinstaurer une tétrarchie peu avant sa mort. Il décida de faire de Byzance qu'il renomma Constantinople la nouvelle capitale de l'Empire. Grâce aux réformes de Dioclétien, la bureaucratie et la défense de l'Empire fut améliorée mais elles ne résolurent pas les problèmes structurels qu'il connaissait dont notamment une imposition excessive, une démographie déclinante et les agressions extérieures. La situation politique resta instable tout au long du et l'affaiblissement de la défense des frontières causées par les luttes de pouvoir entre empereurs permit à des « tribus barbares » de s'implanter au sein de l'Empire. La société romaine s'éloigna de plus en plus de ce qu'elle était durant la avec un écart grandissant entre riches et pauvres et un déclin des petites villes. Une autre évolution importante de la période fut la conversion de l'Empire au christianisme qui devint religion officielle en 381. Cette christianisation ne se fit pas sans difficultés et fut marquée par de nombreuses persécutions et l'opposition entre les différents courants théologiques. En 376, les Ostrogoths, qui fuyaient l'avancée des Huns, furent autorisés par l'empereur Valens () à s'installer dans la province romaine de Thrace dans les Balkans. La gestion par les Romains de leur implantation et de leur admission en tant que peuple fédéré fut calamiteuse et les Ostrogoths se mirent à piller la région. Alors qu'il tentait de ramener l'ordre, Valens fut tué lors de la bataille d'Andrinople en 378 et les Ostrogoths s'implantèrent de manière autonome au sein de l'Empire. En 400, les Wisigoths envahirent l'Empire d'Occident et pillèrent Rome en 410. D'autres peuples firent de même et les « invasions barbares » virent la migration de nombreuses populations essentiellement germaniques dans toute l'Europe. Les Francs, les Alamans et les Burgondes s'installèrent dans le nord de la Gaule, les Angles, les Saxons et les Jutes s'implantèrent en Grande-Bretagne tandis que les Wisigoths et les Vandales fondèrent respectivement des royaumes en Hispanie et en Afrique du Nord. Ces mouvements de population étaient en partie causés par l'avancée vers l'ouest des Huns qui, menés par Attila (), pillèrent les Balkans en 442 et 447, la Gaule en 451 et l'Italie en 452. Les Huns restèrent menaçants jusqu'en 453 quand l'Empire hunnique s'effondra à la mort de son chef. Ces invasions bouleversèrent profondément la nature culturelle, politique et démographique de l'Empire romain d'Occident. Au , la partie occidentale de l'Empire se divisa en petites entités autonomes gouvernées par les tribus qui s'y étaient installées au début du siècle. Les empereurs de cette période avaient généralement peu d'influence et la plus grande partie du pouvoir appartenait à des généraux d'origine barbare comme Stilicon (d. 408), Aspar (d. 471) ou Ricimer (d. 472). La déposition du dernier empereur romain d'Occident, Romulus Augustule par le chef ostrogoth Odoacre en 476, est traditionnellement utilisée pour marquer la fin de l'Empire romain d'Occident et par extension celle de l'Antiquité. Même s'il survécut aux invasions barbares, l'Empire romain d'Orient, devenu Empire byzantin, fut fortement affecté et fut incapable de reprendre le contrôle des territoires perdus. Au , l'empereur Justinien () parvint à reconquérir l'Afrique du Nord et la péninsule italienne mais ces territoires furent reperdus au siècle suivant. Haut Moyen Âge. Évolution de la société. La structure politique de l'Europe occidentale changea profondément avec la fin de l'Empire romain d'Occident. Même si les mouvements de populations durant cette période ont été qualifiés d'« invasions », il ne s'agissait pas d'expéditions militaires mais de migrations concernant des peuples entiers. Les structures romaines en Occident ne disparurent néanmoins pas brusquement car ces barbares ne représentaient que 5 % de la population d'Europe occidentale. Le mélange des élites barbares et romaines notamment par le biais du christianisme donna naissance à une nouvelle société intégrant des éléments des deux cultures. La disparition de la bureaucratie romaine entraîna cependant l'effondrement du système économique romain et la plupart des nouvelles entités politiques finançaient leurs armées de manière décentralisée par le biais de chefs locaux et du pillage plutôt que de manière centralisée par l'impôt. La pratique de l'esclavage déclina mais avec la ruralisation de la société, il fut remplacé par le servage. En Europe occidentale, de nouvelles entités apparurent dans les anciens territoires de l'Empire romain. Les Ostrogoths menés par Théodoric (d. 526) s'installèrent en Italie à la fin du et créèrent un royaume caractérisé par une coopération entre Italiens et Ostrogoths du moins jusqu'à la fin du règne de Théodoric. Le premier royaume burgonde fut détruit par les Huns en 436 et un nouveau fut fondé dans les années 440 dans l'actuel est de la France. Dans le nord de la Gaule, les Francs formèrent plusieurs royaumes indépendants qui furent unifiés et christianisés par Clovis (). Dans les îles Britanniques, les Anglo-Saxons s'installèrent aux côtés des Britto-romains mais l'actuelle Angleterre resta divisée en plusieurs royaumes. Au sud, les Wisigoths et les Suèves formèrent respectivement des royaumes dans l'est et l'Ouest de la péninsule Ibérique tandis que les Vandales s'installèrent en Afrique du Nord. Profitant du chaos causé par les attaques byzantines en Italie, les Lombards supplantèrent le royaume ostrogoth à la fin du . Plus à l'est, des peuples slaves s'installèrent en Europe centrale et orientale dans les anciens territoires des tribus germaniques même si les circonstances de ces migrations restent en grande partie inconnues. Sur le plan linguistique, le latin fut progressivement remplacé par des langues apparentées mais distinctes regroupées sous l'appellation de langues romanes tandis que le grec resta la langue dominante de l'Empire byzantin et que les Slaves apportèrent leurs propres langages en Europe de l'Est. Survivance byzantine. Alors que l'Europe occidentale se fragmentait en de multiples nouveaux royaumes, l'Empire romain d'Orient conserva globalement son intégrité territoriale et son économie resta dynamique jusqu'au début du . La Perse étant également menacée par des peuples nomades venant d'Asie centrale, une paix relative exista une grande partie du entre les Byzantins et les Sassanides. Sur le plan politique, l'influence de l'Église était bien plus forte dans l'Empire byzantin qu'en Europe occidentale et les questions doctrinales influençaient fréquemment les décisions des dirigeants. Le droit romain de tradition orale fut codifié par Théodose II () en 438 et une autre compilation fut menée par Justinien sous la forme du "" en 529. Justinien supervisa également la construction de la basilique Sainte-Sophie à Constantinople et son général Bélisaire (d. 565) reprit l'Afrique du Nord aux Vandales et l'Italie aux Ostrogoths. Cette reconquête ne fut pas complète car la détérioration de la situation économique causée par une épidémie de peste en 542 l'empêcha de mener de nouvelles offensives jusqu'à la fin de son règne. À sa mort, les Byzantins avaient repris le contrôle d'une grande partie de l'Italie, de l'Afrique du Nord et du sud de l'Espagne. Les historiens ont cependant critiqué les conquêtes de Justinien qui épuisèrent les finances de l'Empire et le rendirent probablement trop étendu pour être défendu efficacement ; l'Italie fut ainsi envahie par les Lombards quelques années plus tard et tous les autres territoires furent perdus dans la première moitié du . L'Empire byzantin fut également menacé par l'installation des Slaves dans les provinces de Thrace et d'Illyrie au milieu du tandis que dans les années 560, les Avars turcophones migrèrent jusqu'au nord du Danube. À la fin du siècle, ces derniers étaient devenus la puissance dominante en Europe orientale et les empereurs byzantins devaient régulièrement payer des tributs pour éviter leurs attaques. Ils restèrent une menace jusqu'à la fin du et l'arrivée des tribus hongroises dans le bassin du Danube. L'empereur Maurice () parvint à stabiliser la situation en Europe mais les Sassanides de Khosro II () profitèrent de l'instabilité causée par son renversement pour envahir l'Égypte, le Levant et une partie de l'Asie mineure. L'empereur Héraclius () organisa une contre-attaque victorieuse avec notamment l'appui d'auxiliaires turcs dans les années 620 et il parvint à récupérer tous les territoires perdus en 628. Société occidentale. En Europe occidentale, le essentiellement oral disparut et si le degré d'alphabétisation resta élevé chez les élites, savoir lire devint plus une compétence pratique qu'un signe de statut social. La littérature de l'époque devint majoritairement d'inspiration chrétienne et au , Jérôme de Stridon (d. 420), l'un des Pères de l'Église, rêva que Dieu lui reprochait de plus lire Cicéron que la Bible. Les textes classiques continuèrent néanmoins d'être étudiés et certains auteurs comme Augustin d'Hippone (d. 430), Sidoine Apollinaire (d. 486) et Boèce (d. 524) devinrent des références durant tout le Moyen Âge et jusqu'à nos jours. La culture aristocratique délaissa les études littéraires, tandis que les liens familiaux et les valeurs de loyauté, de courage et d'honneur conservèrent une place importante. Ces liens pouvaient mener à des conflits au sein de la noblesse qui pouvaient être réglés par les armes ou par l'argent. En raison du faible nombre de documents écrits sur le monde paysan avant le , la vie des classes inférieures est bien moins connue que celle de la noblesse et la plupart des informations est issue de l'archéologie ou des textes juridiques et des écrivains des classes supérieures. L'organisation foncière n'était pas uniforme en Europe occidentale et certaines régions étaient fragmentées en de nombreuses propriétés tandis que dans d'autres, les grandes exploitations étaient la norme. Ces différences créèrent une grande variété de sociétés rurales et cela influa sur les relations de pouvoir ; certaines communautés étaient dominées par l'aristocratie tandis que d'autres disposaient d'une large autonomie. La population rurale n'était pas non plus répartie de manière uniforme et des villages de plusieurs centaines d'habitants pouvaient cohabiter avec des fermes isolées dispersées dans toute la campagne. La société du Haut Moyen Âge était moins figée qu'à la fin de l'Empire romain et via le service militaire auprès d'un seigneur local, une famille de paysans libres pouvait accéder à l'aristocratie en quelques générations. La fin de l'Empire romain et le début du haut Moyen Âge virent une diminution importante de la population et la taille des villes se réduisit fortement. Rome passa ainsi de près d'un million d'habitants au à environ à la fin du . Les temples romains furent convertis en églises chrétiennes tandis que d'autres constructions et monuments furent utilisés comme sources de matériaux de construction. L'apparition de nouveaux royaumes entraîna à l'inverse une croissance démographique dans les villes choisies comme capitales. Les migrations et les invasions de l'Antiquité tardive bouleversèrent les réseaux commerciaux établis par les Romains autour de la Méditerranée. Les produits importés furent donc remplacés par des productions locales en particulier pour les régions éloignées de la Méditerranée comme la Gaule et la Grande-Bretagne et seuls les produits de luxe continuèrent à être transportés sur de longues distances. Expansion de l'islam. L'Empire byzantin et la Perse connurent un grand foisonnement religieux au . En plus du christianisme et de ses nombreux courants idéologiques, le judaïsme et le zoroastrisme étaient également influents, tandis que des cultes polythéistes existaient dans la péninsule arabique. Dans les années 610 et 620, Mahomet fonda une nouvelle religion, l'islam, et unifia les tribus arabes. Profitant du chaos provoqué par la guerre entre l'Empire byzantin et la Perse, les Arabes annexèrent les seconds entre 637 et 642 et chassèrent les premiers du Levant en 634-635 et de l'Égypte en 640-641. Ils envahirent également l'Afrique du Nord à la fin du et la péninsule ibérique qu'ils appelèrent Al-Andalus dans les années 710. L'expansion musulmane en Europe cessa au milieu du avec l'échec du siège de Constantinople en 718 et la défaite face aux Francs à Poitiers en 732. Une autre raison de cet arrêt fut l'effondrement de la dynastie des Omeyyades en 750 et son remplacement par les Abbassides. Ces derniers installèrent leur capitale à Bagdad et se préoccupèrent plus du Moyen-Orient que de l'Europe. Le monde musulman était également traversé par des tensions internes et les Abbassides perdirent le contrôle de l'Espagne au profit de l'émirat de Cordoue tandis que l'Afrique du Nord et l'Égypte devinrent respectivement gouvernées par les Aghlabides et les Toulounides. Église et monachisme. Le christianisme était un important facteur d'unité entre l'est et l'ouest de l'Europe mais la conquête arabe de l'Afrique du Nord rompit les liens maritimes entre les deux régions. Des différences théologiques et politiques émergèrent alors et au milieu du , les divergences concernant l'iconoclasme, le célibat des prêtres, le contrôle étatique de l'Église et la liturgie (en grec à l'est et latin à l'ouest) devinrent particulièrement profondes. La rupture fut officialisée en 1054 lorsque le pape Léon IX et le patriarche de Constantinople Michel Cérulaire s'excommunièrent mutuellement après des affrontements au sujet de la suprématie pontificale et de questions d'ordre théologiques et liturgiques. La Chrétienté fut ainsi divisée en deux avec une branche occidentale qui devint l'Église catholique et une branche orientale qui forma l'Église orthodoxe. La structure ecclésiastique apparue sous l'Empire romain resta globalement inchangée malgré les bouleversements de l'Antiquité tardive mais la Papauté avait peu d'influence et peu d'évêques suivaient son autorité religieuse ou politique. Avant 750, les papes se préoccupaient essentiellement des controverses théologiques avec les Byzantins et sur les 850 lettres du pape (pape 590-604) qui nous sont parvenues, la vaste majorité concernait les affaires en Italie et à Constantinople. La christianisation de l'Europe occidentale, déjà bien avancée à la fin de l'Empire romain, se poursuivit et des missions furent notamment envoyées en Grande-Bretagne en 597 pour évangéliser les Anglo-Saxons. Les comme Colomban (d. 615) furent particulièrement actifs entre les et ils fondèrent des missions en Angleterre puis dans l'actuelle Allemagne. Le haut Moyen Âge vit l'émergence du monachisme en Europe occidentale dont le concept avait été développé par les Pères du désert d'Égypte et de Syrie. Les moines vivaient généralement de façon autonome et se concentraient sur la vie spirituelle en appliquant les enseignements cénobitiques développés par Pacôme le Grand (d. 348) au . Les idéaux monastiques se répandirent en Europe occidentale grâce aux hagiographies comme la "Vie d'Antoine". Au , Benoît de Nursie (d. 547) rédigea la règle de saint Benoît qui détaillait les responsabilités administratives et spirituelles d'une communauté de moines dirigée par un abbé. Les moines et les monastères eurent un impact considérable sur la vie politique et religieuse et servaient de gestionnaires pour les biens de la noblesse, de centres de propagande et de soutien au pouvoir royal dans les régions conquises et de bases pour l'évangélisation. Ils étaient les principaux et parfois les seuls centres intellectuels d'une région et la plupart des textes antiques qui nous sont parvenus ont été copiés dans des monastères durant le haut Moyen Âge. Les moines comme Bède (d. 735) furent également les auteurs de nouveaux travaux en histoire, en théologie et dans d'autres domaines. Tout au long du Moyen Âge, les moines ne représentèrent cependant qu'une très faible proportion de la population, en moyenne moins de 1 %. Empire carolingien. En Grande-Bretagne, les descendants des envahisseurs anglo-saxons fondèrent les royaumes rivaux de Northumbrie, de Mercie, de Wessex, et d'Est-Anglie, tandis que des entités plus petites en Écosse et dans le Pays de Galles restaient sous le contrôle des Bretons et des Pictes natifs de l'archipel. Le paysage politique irlandais était encore plus fragmenté avec près de 150 rois locaux d'autorité variable. Durant les , le royaume franc dans le nord de la Gaule se désintégra en plusieurs royaumes, l'Austrasie, la Neustrie et la Bourgogne gouvernés par des membres de la dynastie mérovingienne descendant de Clovis. Les deux premiers furent fréquemment en guerre durant le et ces affrontements furent exploités par Pépin de Landen (d. 640), le maire du palais d'Austrasie, qui devint le principal conseiller du roi. Ses descendants devinrent à leur tour rois ou servirent comme régents ou conseillers. L'un d'eux, Charles Martel (d. 741), mit un terme aux incursions musulmanes au nord des Pyrénées après la bataille de Poitiers en 732. Les successeurs de Charles Martel, formant la dynastie carolingienne prirent le contrôle des royaumes d'Austrasie et de Neustrie lors d'un coup d'État organisé en 753 par Pépin III (). Cette accession au pouvoir fut accompagnée d'une propagande représentant les Mérovingiens comme des souverains incapables et cruels et qui vantait les exploits de Charles Martel et la grande piété de sa famille. Comme cela était la tradition à l'époque, le royaume de Pépin III fut partagé à sa mort entre ses deux fils Charles () et Carloman (). Quand ce dernier mourut de causes naturelles, son frère profita de la situation pour réunifier les possessions de son père. Charles, généralement appelé Charles le Grand ou Charlemagne, entreprit une politique d'expansion agressive qui permit d'unifier une grande partie de l'Europe occidentale au sein de l'Empire carolingien s'étendant sur la majeure partie de l'actuelle France, du nord de l'Italie et de l'ouest de l'Allemagne moderne. Sa cour à Aix-la-Chapelle fut le centre d'un renouveau culturel appelé Renaissance carolingienne qui vit un épanouissement des arts et de la culture. Sur le plan linguistique, le latin classique utilisé depuis l'Empire romain évolua vers une forme plus adaptée aux besoins de l'administration et du clergé qui fut appelée latin médiéval. La minuscule caroline apparut également pour remplacer l'onciale romaine ; plus ronde, elle facilitait la lecture et se diffusa rapidement dans toute l'Europe. Charlemagne encouragea des évolutions de la liturgie grâce à Benoît d'Aniane en imposant les pratiques romaines et le chant grégorien dans les églises. En 774, Charlemagne battit les Lombards et la fin de cette menace marqua le début des États pontificaux qui existèrent jusqu'à l'unification italienne au . Son couronnement comme empereur d'Occident par le pape le jour de Noël de l'année 800 fut considéré comme une renaissance de l'Empire romain d'Occident tandis que ce nouveau titre permettait à Charlemagne de se placer au même niveau que l'empereur byzantin. L'Empire carolingien restait cependant très décentralisé et l'administration impériale était composée d'une cour itinérante tandis que le territoire était subdivisé en centaines de comtés. Les activités des fonctionnaires locaux étaient contrôlées par des représentants impériaux appelés "missi dominici" (« envoyés du seigneur »). La société restait très rurale et ne comptait que quelques villes tandis que le faible commerce était limité aux îles britanniques et à la Scandinavie. Réorganisation de l'Europe. Juste avant de mourir, Charlemagne couronna empereur son unique fils Louis () mais son règne fut marqué par les luttes de pouvoir entre ses fils. Avant sa mort, il divisa l'Empire entre son fils aîné Lothaire (d. 855) qui obtint la Francie orientale située à l'est du Rhin et son plus jeune fils, Charles (d. 877) qui reçut la Francie occidentale, tandis qu'un troisième fils, Louis (d. 876), fut autorisé à régner sur la Bavière sous la suzeraineté de Charles. Le partage fut contesté après la mort de Louis et au terme d'une guerre civile de trois ans, les frères s'accordèrent sur le traité de Verdun. Charles obtint les territoires occidentaux correspondant à une grande partie de la France actuelle, Louis reçut la Bavière et les territoires orientaux de l'Empire aujourd'hui situés en Allemagne tandis que Lothaire conserva son titre d'empereur et régna sur la Francie médiane située entre les possessions de ses deux frères. Ces royaumes furent à leur tour divisés et toute cohésion interne disparut. La dynastie carolingienne s'éteignit en Francie orientale en 911 avec la mort de Louis IV et le choix de Conrad sans lien de parenté. Elle perdura plus longtemps en Francie occidentale mais fut finalement remplacée en 987 par la dynastie capétienne avec le couronnement de Hugues Capet (). La désintégration de l'Empire carolingien s'accompagna de nouvelles vagues de migrations. Les Vikings originaires de Scandinavie pillèrent les côtes britanniques et continentales de la mer du Nord et s'y installèrent au début du . En 911, le chef viking Rollon (d. 931) fut autorisé par le roi franc Charles III () à s'installer dans ce qui devint la Normandie. Depuis cette base, les Normands lancèrent des expéditions militaires notamment en Angleterre avec Guillaume le Conquérant (d. 1087) et jusque dans le sud de l'Italie avec Robert Guiscard (d. 1085). À l'est, les frontières des royaumes francs furent la cible de nombreuses attaques hongroises jusqu'à ce que ces derniers ne soient battus à la bataille du Lechfeld en 955 et se sédentarisent dans la plaine de Pannonie. Les actions des dirigeants locaux pour faire face à ces invasions entraînèrent la formation de nouvelles entités politiques. En Angleterre anglo-saxonne, le roi Alfred le Grand () négocia avec les envahisseurs vikings le partage du territoire et céda une bonne partie du Nord et de l'Est de l'Angleterre. Au milieu du , ses successeurs reprirent certains territoires et restaurèrent la domination anglaise sur le sud de la Grande-Bretagne. Plus au nord, Kenneth MacAlpin (d. 860) rassembla les Pictes et les Écossais au sein du royaume d'Alba. Au début du , la dynastie ottonienne s'imposa dans le royaume de Germanie qui avait succédé à la Francie orientale et combattait les Hongrois. () renforça son pouvoir et en 962, il fut couronné empereur du Saint-Empire romain germanique. En Espagne, les chrétiens qui avaient été repoussés au nord de la péninsule par l'expansion musulmane s'étendirent progressivement vers le sud aux et fondèrent les royaumes de León et de Navarre. Les activités des missionnaires en Scandinavie aux facilitèrent l'émergence de royaumes comme la Suède, le Danemark et la Norvège. En plus de l'Angleterre et de la Normandie, les Vikings s'installèrent en Islande et dans ce qui devint la Russie. Dans cette région, ils développèrent un important réseau commercial en s'appuyant sur le réseau fluvial de la région et ils tentèrent même de prendre Constantinople en 860 et 907. Malgré ces attaques, la situation de l'Empire byzantin, ébranlée par les attaques musulmanes, s'améliora durant les règnes des empereurs Léon VI () et Constantin VII () de la dynastie macédonienne. Le commerce fut relancé et les réformes de l'administration et de l'armée permirent à l'empereur Basile II () de progresser sur tous les fronts. La cour impériale fut le centre d'une renaissance culturelle avec des auteurs comme Jean Géomètre (d. 1000). Les missionnaires venant à la fois de l'ouest et de l'est convertirent les Moraves, les Bulgares, les Polonais, les Hongrois et les slaves de la Rus' de Kiev et ces conversions contribuèrent à la formation de nouveaux États sur les terres de ces peuples comme la Moravie, la Bulgarie, la Pologne ou la Hongrie. Art et architecture. Peu de grands bâtiments en pierre furent construits entre les mais l'Empire carolingien raviva le concept de basilique dont la principale caractéristique était la présence d'un transept perpendiculaire à une grande nef. Elles comportaient également une tour-lanterne au-dessus de la croisée du transept et une façade monumentale généralement située à l'extrémité ouest du bâtiment. La cour de Charlemagne semble avoir été responsable de l'introduction des sculptures monumentales dans l'art chrétien et à la fin du haut Moyen Âge, les représentations humaines presque grandeur nature comme la croix de Gero s'étaient répandues dans les plus grandes églises. L'art carolingien était destiné à un petit groupe de personnes appartenant à la cour ainsi qu'aux monastères et aux églises qu'elle soutenait. La volonté carolingienne était de retrouver les formes et la splendeur de l'art romain et byzantin, tandis que l'art anglo-saxon cherchait à associer les formes et les motifs celtiques avec ceux venant de la Méditerranée. Les œuvres religieuses du haut Moyen Âge qui nous sont parvenues sont essentiellement des manuscrits enluminés et des ivoires utilisés dans des pièces d'orfèvrerie qui ont depuis été fondues. Les objets en métaux précieux étaient les plus prestigieux mais ils ont presque tous été perdus hormis quelques croix comme la croix de Lothaire et des reliquaires. D'autres ont été retrouvés lors de découvertes archéologiques médiévales comme les trésors de Sutton Hoo en Angleterre anglo-saxonne, de Gourdon en France mérovingienne, de Guarrazar en Espagne wisigothique et de Nagyszentmiklós en Roumanie près du territoire byzantin. De nombreux livres enluminés nous sont parvenus comme le Livre de Kells et les Évangiles de Lindisfarne anglo-saxons ou le Codex Aureus de Saint-Emmeran carolingien qui est l'un des rares à avoir conservé sa première de couverture en or et incrustée de pierres précieuses. Développements militaires. Durant le Bas-Empire, les Romains cherchèrent à développer une force de cavalerie efficace et la création d'unités de cataphractaires lourdement protégés d'inspiration orientale fut une des solutions proposées. Cependant, en l'absence d'étrier, qui ne fut introduit en Europe que vers le , l'efficacité de la cavalerie en tant qu'unité de choc était limitée car il n'était pas possible de transférer toute l'énergie du cavalier et de sa monture dans les coups portés sans risquer d'être désarçonné. La cavalerie était donc essentiellement légère et était souvent composée d'archers équipés de puissants arcs composites. La composition des armées barbares n'était pas uniforme et certaines tribus comme les Anglo-Saxons étaient majoritairement composées de fantassins tandis que les Wisigoths et les Vandales intégraient une plus grande proportion de cavaliers. L'importance de l'infanterie et de la cavalerie légère commença à décliner au début de la période carolingienne du fait de la domination croissante de la cavalerie lourde grâce à l'utilisation des étriers. Une autre avancée technologique qui eut des implications au-delà du domaine militaire fut le fer à cheval qui permit aux chevaux d'être utilisés sur tous les types de terrains. L'art de la guerre fut également marqué par l'évolution de la spatha romaine qui s'allongea et s'affina pour donner naissance à l'épée médiévale tandis que l' fut progressivement remplacée par la cotte de mailles et l' plus flexibles. L'emploi de milices levées parmi la population déclina durant la période carolingienne avec une plus grande professionnalisation de l'armée. Une exception fut l'Angleterre anglo-saxonne où les armées restaient composées de levées régionales appelées "fyrds" commandés par les élites locales. Moyen Âge central. Le Moyen Âge dit « classique » ou « central », qui s'étend aux , , est la période comprise entre le « haut Moyen Âge » et le « bas Moyen Âge ». Cette époque est marquée par une augmentation rapide de la population en Europe, entraînant des changements sociaux et politiques considérables, profitant à l'économie européenne à partir de 1250. La crise de la fin du Moyen Âge et la pandémie de peste noire marquent la fin du Moyen Âge classique et voient la stagnation de l'économie ainsi que le déclenchement de plusieurs guerres (dont la guerre de Cent Ans). C'est ce que l'on appelle la « grande dépression médiévale » théorisée par Guy Bois qui marque le début de l'entrée dans le Moyen Âge tardif par opposition avec la Renaissance. Société et économie. Le Moyen Âge central vit une forte croissance démographique. Les historiens estiment que la population européenne passa de 35 à 80 millions entre 1000 et 1347 et suggèrent que cela fut lié à l'amélioration des techniques agricoles, à un climat plus favorable, à l'accroissement des surfaces cultivées grâce aux défrichements et à l'absence d'invasions. Plus de 90 % de la population restait composée de paysans et ces derniers se regroupèrent dans des petites communautés appelées seigneuries. Ils étaient souvent assujettis à des nobles à qui ils devaient des services et un loyer en échange du droit de cultiver la terre. Le nombre de paysans libres était faible et ils étaient comparativement plus nombreux au sud qu'au nord de l'Europe. Les nobles, ceux portant des titres et les simples chevaliers, exploitaient les seigneuries et les paysans ; ces terrains ne leur appartenaient cependant pas entièrement et un suzerain les autorisaient à les utiliser via le système féodal. Durant les , ces terres ou fiefs devinrent héréditaires et ne furent plus divisés entre tous les héritiers du propriétaire comme cela était le cas pendant le haut Moyen Âge mais étaient intégralement transmis au fils aîné. La domination de la noblesse reposait sur son contrôle de la terre et des châteaux, son service militaire dans la cavalerie lourde et sur diverses protections et exemptions fiscales. Les châteaux forts, initialement construits en bois puis en pierre, commencèrent à être construits aux en réponse aux désordres de la période et offraient une protection contre les envahisseurs et les seigneurs rivaux. Ces fortifications étaient l'un des facteurs du maintien du système féodal car elles garantissaient une certaine autonomie des seigneurs face aux rois et aux autres suzerains. La noblesse était subdivisée en plusieurs strates. Les rois et la haute-noblesse contrôlaient de vastes domaines et avaient autorité sur d'autres nobles. Cette basse-noblesse avait moins d'influence et possédait de plus petites propriétés avec moins de serfs. En dessous, les chevaliers était la classe inférieure de la noblesse car ils ne pouvaient pas posséder de terres et devaient servir d'autres nobles ; certains, comme les ministériels étaient techniquement des serfs avec le statut de chevalier. Le clergé était également divisé et était composé du clergé séculier vivant au milieu des laïcs et du clergé régulier, qui suivait une règle religieuse comme les moines. La plupart des membres du clergé régulier était issue de la noblesse qui fournissait également le haut de la hiérarchie du clergé séculier. À l'inverse, les prêtres des paroisses avaient généralement une ascendance paysanne. Les citadins se trouvaient dans une position intermédiaire car ils ne s'intégraient pas à la division traditionnelle de la société en trois ordres à savoir la noblesse, le clergé et la paysannerie. Poussée par la croissance démographique, la population urbaine augmenta fortement aux même si elle ne dépassa probablement pas les 10 % de la population totale. Durant le haut Moyen Âge, les juifs habitaient principalement en Espagne et des communautés apparurent en Allemagne et en Angleterre aux . Les juifs disposaient d'une relative protection en Espagne musulmane, tandis que dans le reste de l'Europe, ils subissaient des pressions pour les contraindre à se convertir au christianisme et étaient parfois victimes de pogrom comme lors de la Première croisade. La majorité était confinée dans les villes car ils n'avaient pas le droit de posséder des terres et de nombreuses professions marchandes leur furent progressivement interdites. En plus des juifs, d'autres minorités religieuses existaient aux marges de l'Europe, comme les païens à l'est ou les musulmans au sud. Au Moyen Âge, les femmes étaient officiellement subordonnées à un homme pouvant être leur père, leur époux ou un autre membre de la famille. Les veuves, qui avaient généralement une plus grande autonomie, devaient également faire face à des restrictions. Les activités féminines se limitaient habituellement aux tâches domestiques et à l'éducation des enfants. À la campagne, elles participaient aux moissons, à l'élevage des animaux et pouvaient obtenir des revenus supplémentaires en filant ou en brassant chez elles. Les citadines devaient aussi s'occuper du foyer mais elles pouvaient également avoir une activité marchande, même si ces opportunités étaient variables selon les régions et les périodes. Les femmes de la noblesse avaient souvent la possibilité de déléguer leurs tâches à des domestiques et pouvaient gérer les domaines et les affaires courantes en l'absence d'un proche mâle mais elles étaient communément exclues des questions militaires ou gouvernementales. Le seul rôle ouvert aux femmes dans l'Église était celui de nonne car il leur était interdit de devenir prêtre. En Italie et dans les Flandres, la croissance des villes qui disposaient d'une relative autonomie stimula la croissance économique et favorisa l'émergence de nouvelles formes commerciales. Les villes marchandes autour de la mer Baltique se rapprochèrent pour former une ligue commerciale appelée Hanse, tandis que les républiques maritimes italiennes comme Venise, Gênes et Pise s'affrontèrent pour le contrôle du commerce en Méditerranéenne. Des grandes foires furent créées notamment dans le Nord de la France pour permettre les échanges entre marchands venant de toute l'Europe. L'accroissement du commerce donna naissance à de nouvelles techniques financières visant à faciliter les échanges comme la comptabilité en partie double et les lettres de crédit, tandis que la frappe de l'or reprit en Italie puis dans les autres pays. Des routes commerciales s'établissent entre les grandes villes d'Europe occidentale, telle la route commerciale Bruges-Cologne qui permet aux marchands flamands de rallier le port fluvial de Cologne ou la foire d'Aix-la-Chapelle. Renforcement des États. Le Moyen Âge central vit la formation des actuels États d'Europe occidentale. Les rois de France, d'Angleterre et d'Espagne renforcèrent leur pouvoir et instaurèrent des institutions durables. De nouveaux royaumes tels que la Hongrie et la Pologne devinrent les puissances dominantes en Europe centrale après leur conversion au christianisme. Après avoir été longtemps attachée à l'indépendance par rapport aux souverains laïcs, la Papauté revendiqua une autorité temporelle sur l'ensemble du monde chrétien ; cette monarchie papale atteignit son apogée au sous le pontificat d'Innocent III (pape 1198-1216). Au début de la période, l'Allemagne était gouvernée par la dynastie ottonienne qui s'opposait à de puissants ducs comme ceux de Saxe ou de Bavière, dont les territoires remontaient à l'Antiquité tardive. En 1024, celle-ci fut remplacée par la dynastie franconienne et l'un de ses membres, l'empereur Henri IV (), affronta la Papauté au sujet de la nomination des évêques lors de la querelle des Investitures. Ses successeurs continuèrent à se battre contre Rome et la noblesse allemande et une période d'instabilité suivit la mort sans héritiers d'Henri V () jusqu'à ce que Frédéric Barberousse devienne empereur (). Même s'il gouverna efficacement, les problèmes fondamentaux perdurèrent et continuèrent d'affecter ses successeurs comme son petit-fils (), qui fut excommunié à deux reprises. À l'est, le milieu du fut marqué par les conquêtes mongoles, dont les troupes écrasèrent les armées polonaises, hongroises et germaniques lors des batailles de Legnica et de Mohi en 1241. Préoccupé par leur crise de succession, les Mongols se replièrent, même s'ils réalisèrent d'autres attaques jusqu'à la fin du siècle. De leur côté, les principautés russes devinrent des vassaux des Mongols puis de la Horde d'or, à qui ils devaient des tributs. Au début de la dynastie capétienne, le roi de France ne contrôlait réellement que quelques territoires en Île-de-France mais son autorité s'élargit tout au long des . Parmi les seigneurs les plus puissants figuraient les ducs de Normandie ; l'un d'eux, Guillaume le Conquérant () conquit l'Angleterre et créa un empire avec des possessions des deux côtés de la Manche, qui dura sous diverses formes jusqu'à la fin du Moyen Âge. Les rois d'Angleterre Henri II () et Richard () appartenant à la dynastie Plantagenêt régnaient ainsi sur l'Angleterre et sur une grande partie du sud-ouest de la France grâce au mariage du premier avec Aliénor d'Aquitaine (d. 1204) ; ces territoires formaient l'Empire angevin. En 1204, le frère cadet de Richard , Jean (), perdit la Normandie et les possessions anglaises du nord de la France lors d'une guerre avec le roi de France Philippe Auguste (). Cela causa des tensions au sein de la noblesse anglaise et les impôts exigés par Jean pour financer la reconquête des territoires perdus menèrent à la signature de la "Magna Carta" garantissant les droits et les privilèges des hommes libres en Angleterre. Son fils Henri III () fut contraint à de nouvelles concessions qui limitèrent l'autorité royale. À l'inverse, les rois de France continuèrent de réduire l'influence des nobles, intégrèrent de nouveaux territoires au domaine royal et centralisèrent l'administration. Sous Louis IX (), le prestige royal atteignit de nouveaux sommets alors que le roi servait de médiateur pour les disputes dans toute l'Europe ; il fut d'ailleurs canonisé par le pape Boniface VIII en 1297 (pape 1294-1303). En Écosse, les tentatives d'invasions anglaises provoquèrent une série de guerres dans la première moitié du qui permirent au royaume de conserver son indépendance. En Espagne, les royaumes chrétiens qui avaient été confinés au nord-ouest de la péninsule commencèrent à repousser l'influence musulmane vers le sud lors de ce qui fut appelé la "". Vers 1150, le Nord chrétien s'était réorganisé en cinq grands royaumes : León, Castille, Aragon, Navarre et Portugal. Le Sud musulman, initialement uni au sein du califat de Cordoue, se fragmenta dans les années 1030 en de nombreux royaumes indépendants appelés "taïfas" jusqu'à ce que les Almohades ne restaurent un pouvoir central dans les années 1170. Les forces chrétiennes continuèrent de progresser et elles prirent Séville en 1248. Croisades. Au , les Turcs seldjoukides originaires d'Asie centrale envahirent une grande partie du Moyen-Orient en occupant la Perse dans les années 1040 ainsi que l'Arménie et le Levant dans les décennies qui suivirent. En 1071, l'armée turque écrasa les forces byzantines à la bataille de Manzikert et captura l'empereur Romain IV (). Cette défaite eut d'importantes conséquences pour l'Empire Byzantin qui perdit certaines de ses provinces les plus peuplées et les plus prospères et fut contraint à la défensive. Les Turcs subirent également des revers avec une série de guerres civiles et la prise de Jérusalem par les Fatimides d'Égypte en 1098. La volonté de reprendre les Lieux Saints aux musulmans et les demandes d'aides de l'empereur byzantin Alexis () motivèrent le lancement de la Première croisade par le pape Urbain II (pape 1088-1099) lors du concile de Clermont en 1095. Le pape promit d'accorder des indulgences à tous ceux qui participeraient, et des dizaines de milliers de personnes venant de toutes les couches sociales et de toute l'Europe se mirent en route vers la Terre sainte. Jérusalem fut prise en 1099 et les croisés consolidèrent leurs conquêtes en fondant les États latins d'Orient mais la cohabitation avec les voisins musulmans fut difficile et dégénéra régulièrement en conflits. De nouvelles croisades furent donc lancées par la Papauté pour les soutenir, comme la Troisième destinée à reprendre Jérusalem capturée par Saladin (d. 1193) en 1187. La Quatrième croisade porta un coup sévère à ce mouvement et affaiblit la Papauté. Les armateurs vénitiens transportant les croisés détournèrent l'expédition vers Constantinople et la prise de la ville en 1204 entraîna la création d'un Empire latin de Constantinople. L'Empire byzantin fut gravement affecté et même s'il reprit la ville en 1261, il ne se releva jamais complètement de cette attaque. Les croisades suivantes furent toutes de plus faible envergure et menées à l'initiative de monarques individuels comme Louis IX de France pendant les Septième et Huitième croisades. Elles furent incapables d'enrayer l'isolement des États croisés, qui furent tous repris par les musulmans en 1291. L'une des conséquences des croisades fut l'apparition d'ordres hospitaliers comme les Hospitaliers ou d'ordres militaires comme les Templiers , qui associaient la vie monastique avec la sauvegarde des croisés ou avec le service militaire. Les croisades espagnoles s'intégrèrent dans le mouvement de la " avec la formation de nouveaux ordres militaires comme ceux de Calatrava et de Santiago. Les croisades ne furent pas uniquement lancées en direction du Proche-Orient et certaines visèrent les cultes jugés hérétiques par l'Église catholique comme le catharisme actif dans le sud de la France au ou le hussitisme en Bohême au . Des expéditions appelées croisades baltes furent également menées contre les païens d'Europe orientale. Les Chevaliers Porte-Glaive étaient actifs dans les actuels pays baltes dès le début du et ils furent intégrés à l'ordre Teutonique. Initialement fondé dans les États croisés, ce dernier concentra ses activités dans la région de la Baltique et créa une théocratie avec son siège à Marienbourg en Prusse aux dépens de la Pologne et de la Lituanie. Vie intellectuelle. Au , les développements philosophiques et théologiques entraînèrent une grande activité intellectuelle. Les débats opposaient ainsi les réalistes et les nominalistes sur le concept d'universaux. Les échanges philosophiques furent également stimulés par la redécouverte des travaux d'Aristote sur l'empirisme et le rationalisme, et des universitaires comme Pierre Abélard (d. 1142) et Pierre Lombard (d. 1164) introduisirent la logique aristotélicienne dans la théologie. Le début du vit l'émergence des écoles de cathédrales dans toute l'Europe occidentale et le transfert des lieux de savoir des monastères vers les villes. Ces écoles furent à leur tour supplantées par les universités qui furent créées dans les grandes villes européennes. L'association de la philosophie et de la théologie donna naissance à la scolastique visant à concilier la théologie chrétienne avec la philosophie antique et qui culmina dans les travaux de Thomas d'Aquin (d. 1274) et de sa ". La culture de la noblesse fut marquée par le développement des idéaux chevaleresques et de l'amour courtois. Cette culture s'exprimait en langue vernaculaire plutôt qu'en latin et comprenait des poèmes, des récits et des chants populaires propagés par des troubadours et les ménestrels. Les histoires étaient souvent rédigées sous la forme de chansons de geste relatant des épopées chevaleresques telles que la "Chanson de Roland" ou la "Chanson d'Antioche". Des récits historiques et religieux furent également produits comme l' de Geoffroy de Monmouth (d. 1155) sur l'histoire légendaire de l'Angleterre et notamment celle du Roi Arthur. D'autres travaux étaient plus historiques comme la ' d'Otton de Freising (d. 1158) sur la vie de l'empereur Frédéric Barberousse ou la " de Guillaume de Malmesbury (d. 1143) sur les rois d'Angleterre. Le développement du droit civil fut stimulé par la redécouverte au du " de Justinien et le droit romain fut enseigné à partir de 1100 environ à l'université de Bologne, l'une des plus anciennes d'Europe. Cela entraîna la rédaction et la standardisation des codes juridiques dans toute l'Europe. Le droit canon fut également développé et vers 1140, le moine Gratien, enseignant à Bologne, rédigea le décret de Gratien qui uniformisait les différentes règles canoniques. Les travaux des scientifiques musulmans influencèrent également la pensée européenne avec notamment le remplacement de la numération romaine par le système décimal de notation positionnelle et l'invention de l'algèbre qui permirent des études mathématiques plus approfondies. L'astronomie s'appuya sur la traduction du grec vers le latin de l"Almageste" de Ptolémée, tandis que la médecine profita des travaux de l'école de Salerne. Technologie et armement. Les virent le développement d'innovations technologiques comme la généralisation des moulins à vent et à eau et l'invention de l'horloge mécanique, des spiritueux, de l'astrolabe et des lunettes de vue. La mobilisation de nombreuses formes d'énergie se généralisa et s'intensifia : hydraulique, thermique, éolienne, animale. La rotation des cultures, qui fut progressivement adoptée dans toute l'Europe, accrut l'usage de la terre et donc la production agricole. L'apparition de la charrue facilita l'exploitation des sols lourds, tandis que le collier d'épaule permit l'utilisation de chevaux de trait plus puissants que les ânes. La construction des cathédrales et des châteaux témoigna des progrès des technologies de construction permettant l'édification de grands bâtiments en pierre ainsi que d'autres structures comme des hôtels de ville, des habitations, des ponts et des granges dîmières. Les techniques de construction navale s'améliorèrent grâce aux bordages à clin et à franc-bord à la place des mortaises et tenons utilisés depuis l'époque romaine. L'utilisation des voiles latines et du gouvernail d'étambot permit d'accroître la vitesse et la manœuvrabilité des navires. Sur le plan militaire, la domination de la cavalerie lourde s'estompa avec l'apparition de fantassins spécialisés comme les piquiers, les archers et les arbalétriers. Cela entraîna l'accroissement des protections avec des heaumes protégeant complètement le visage et l'utilisation de bardes pour les chevaux. Du fait du nombre important de châteaux forts, la guerre de siège se développa avec la réutilisation de modèles antiques comme la catapulte ou le bélier et l'invention de nouveaux engins comme le trébuchet. L'utilisation de la poudre à canon est attestée en Europe dès la fin du et les armes à feu comme les canons et les armes portatives se répandirent durant le Moyen Âge tardif. Art et architecture. Au , l'architecture des monastères et des églises reprenait les styles utilisés dans la Rome antique, d'où le terme d'architecture romane. À la suite des premières constructions suivant le roman primitif, de nombreuses églises en pierre furent construites avec une remarquable homogénéité dans toute l'Europe avant l'an mil. Le style se composait d'épais murs de pierre, de petites ouvertures surmontées d'arches semi-circulaires et, notamment en France, de voûtes en arc. Les grands portails décorés de reliefs colorés représentant des scènes mythologiques devinrent un élément central des façades. Les murs intérieurs étaient également peints et un suivaient un schéma commun avec des scènes du Jour du jugement sur le mur occidental du transept, un Christ en gloire à l'est et des scènes bibliques dans la nef ou, dans le cas de l'abbaye française de Saint-Savin-sur-Gartempe, sur sa voûte en berceau. L'art roman, en particulier son orfèvrerie, connut son apogée avec l'art mosan et des artistes comme Nicolas de Verdun (d. 1205) ; les fonts baptismaux de la collégiale Saint-Barthélemy de Liège sont un exemple de ce style presque classique et contrastent par exemple avec le chandelier de Gloucester presque contemporain. À partir du , les bâtisseurs français développèrent l'architecture gothique marquée par l'utilisation de croisées d'ogives, d'arcs-boutants et de larges vitraux. Elle fut largement utilisée dans la construction de cathédrales avec des exemples remarquables à Chartres et Reims en France et à Salisbury en Angleterre. Les vitraux étaient des éléments essentiels des cathédrales qui continuaient à posséder des peintures murales ayant aujourd'hui presque entièrement disparu. Durant cette période, la réalisation des enluminures des manuscrits passa progressivement des monastères à des ateliers laïcs et les livres d'heures à destination des laïcs se développèrent. L'orfèvrerie commença à faire appel à l'émail de Limoges pour les reliquaires et les croix. En Italie, les innovations de Cimabue (d. 1302) et de Duccio (d. 1318) sur la peinture sur panneau et les fresques furent suivies par celles de Giotto (d. 1337) et donnèrent naissance au mouvement de la Pré-Renaissance. La musique médiévale était principalement de nature religieuse ; le chant grégorien en était la principale forme et il se diversifia durant le Moyen Âge central avec l'apparition de l'organum, du conduit et du motet. La notation musicale fut également inventée à cette période. Vie ecclésiastique. La réforme monastique devint un sujet important au car les élites commencèrent à s'inquiéter de l'accumulation de richesses par les monastères, tandis que la Papauté critiquait leur corruption. L'abbaye de Cluny fondée dans le centre de la France en 909 fut créée sur la base d'un respect rigoureux des règles monastiques. Elle cherchait à maintenir un niveau élevé de vie spirituelle en se plaçant sous la protection de la Papauté et élisait son propre abbé sans interférence de la part des laïcs ; elle disposait ainsi d'une indépendance économique et politique par rapport aux seigneurs locaux. Cluny gagna rapidement une réputation d'austérité et de rigueur et elle fut rapidement imitée dans toute l'Europe. Ces évolutions inspirèrent des changements dans le clergé séculier. Ceux-ci furent initiés par le pape Léon IX (pape 1049-1054) et l'idée d'indépendance cléricale fut la cause de la querelle des Investitures de la fin du . Le pape Grégoire VII (pape 1073-85) et l'empereur Henri IV s'opposèrent initialement sur la question de la nomination des évêques mais la dispute s'élargit au sujet du célibat des prêtres et de la simonie. L'empereur considérait que la protection de l'Église était une de ses prérogatives et voulait conserver le droit de nommer les évêques de son choix mais la Papauté insista sur l'indépendance de l'Église par rapport aux seigneurs laïcs. Le concordat de Worms de 1122 permit de résoudre une partie de ces questions mais la querelle marqua une étape importante dans la création d'une monarchie papale séparée mais égale aux autorités laïques et elle renforça les princes allemands aux dépens de l'empereur. Le Moyen Âge central vit également le développement de nouveaux mouvements religieux comme les ordres monastiques des Chartreux et des Cisterciens. Ces ordres furent créés en réponse aux inquiétudes des laïcs qui estimaient que le monachisme bénédictin ne répondait plus à leurs besoins et qui voulaient revenir au monachisme ermite plus simple des débuts du Christianisme. Les pèlerinages furent ainsi encouragés ; les anciens sites comme Rome, Jérusalem et Saint-Jacques-de-Compostelle accueillirent un plus grand nombre de visiteurs, tandis que de nouveaux lieux comme Monte Gargano et Bari se développèrent. Au , les ordres mendiants comme les Franciscains et les Dominicains, ayant fait vœu de pauvreté et se consacrant entièrement à la vie religieuse, furent approuvés par la Papauté. À l'inverse, les Vaudois, les Umiliati et les Cathares, qui cherchaient également à , furent qualifiés d'hérétiques, persécutés voire éliminés avec l'aide de l'Inquisition médiévale. Moyen Âge tardif. Société et économie. Les premières années du furent marquées par la transition de l'optimum médiéval vers le petit Âge glaciaire. Les années 1313-1314 et 1317-1321 furent particulièrement pluvieuses dans toute l'Europe et l'échec des récoltes provoqua une série de famines dont la plus importante, est celle de la Grande famine de 1315-1317, fit plusieurs millions de morts. Ce changement climatique qui s'accompagna d'une baisse des températures entraîna une détérioration de la situation économique.Ces difficultés furent suivies en 1347 par une épidémie de peste surnommée la Peste noire. Originaire d'Asie, la maladie se répandit rapidement à toute l'Europe et tua probablement un tiers de la population en quelques années. Les villes furent particulièrement touchées en raison de la forte densité de population ; la ville de Lübeck en Allemagne perdit ainsi 90 % de ses habitants. De vastes régions furent dépeuplées et les seigneurs avaient du mal à trouver assez de serfs pour cultiver leurs exploitations. Les terres les moins productives furent abandonnées et les survivants se concentrèrent sur les zones les plus fertiles. Si le servage déclina en Europe de l'Ouest, il se renforça à l'est car les seigneurs l'imposèrent à leurs sujets qui étaient jusqu'alors libres. Du fait du manque de main-d'œuvre, les salaires des ouvriers augmentèrent en Europe occidentale mais les autorités répondirent en adoptant des mesures pour limiter cet accroissement, comme l'Ordonnance des Travailleurs de 1349 en Angleterre. Ces tensions entraînèrent des soulèvements comme la Grande Jacquerie française de 1358 ou la révolte des paysans anglais de 1381. Le traumatisme de la peste noire entraîna un renforcement de la piété qui se traduisit par l'apparition des flagellants, tandis que les juifs furent accusés d'être responsables de l'épidémie. La fut initiée dans le nord de l'Italie avec l'apparition des premières banques facilitant les échanges commerciaux. Les bénéficiaires de ces développements, comme les Fugger en Allemagne, les Médicis en Italie ou des individus comme Jacques Cœur en France, accumulèrent d'immenses fortunes et une large influence politique. Le système financier de l'Incanto des galées du marché permit la création de l'Arsenal de Venise employant des milliers d'employés et produisant des galères sur un rythme presque industriel. Les guildes se développèrent dans les villes et des organisations reçurent des monopoles sur le commerce de certains produits comme le Staple avec la laine en Angleterre. À l'inverse, les foires déclinèrent avec le développement de routes maritimes entre la Méditerranée et l'Europe du Nord et des villes comme Bruges devinrent des places financières de premier plan avec la création des premières bourses. Après la dépopulation causée par la Peste noire, les villes connurent une forte croissante démographique. Vers 1500, Venise, Milan, Naples, Paris et Constantinople comptaient chacune plus de , tandis qu'une vingtaine d'autres dépassaient les . Naissance des États-Nations. Le bas Moyen Âge vit l'apparition de puissants États-Nations monarchiques comme l'Angleterre, la France, l'Aragon, la Castille et le Portugal. Les nombreux conflits internes renforcèrent l'autorité royale sur les seigneurs locaux mais le financement des guerres nécessitait l'augmentation des impôts et la création de méthodes de collecte plus efficaces. Le besoin d'obtenir le consentement des contribuables accrut les pouvoirs d'assemblées représentatives comme les États généraux en France et le Parlement d'Angleterre. Tout au long du , les rois de France cherchèrent à étendre leur autorité aux dépens de la noblesse mais les tentatives destinées à prendre le contrôle des possessions anglaises dans le sud-ouest de la France déclenchèrent la guerre de Cent Ans. Le début de ce conflit fut à l'avantage des Anglais, qui remportèrent les batailles de Crécy, de Poitiers et d'Azincourt et s'emparèrent de larges portions du territoire français. Ces défaites causèrent de graves troubles au sein du royaume de France, qui se traduisirent par les actions des grandes compagnies et la guerre civile entre Armagnacs et Bourguignons. La situation se retourna néanmoins au début du avec les succès de Jeanne d'Arc (d. 1431), qui permirent aux Français de reprendre l'ascendant. À la fin de la guerre en 1453, les Anglais ne possédaient plus sur le continent que la ville de Calais mais l'économie française avait été fortement affectée par les combats. Le conflit contribua à forger des identités nationales des deux côtés de la Manche. Les affrontements témoignèrent également de l'évolution des technologies militaires et l'arc long anglais souverain au début du conflit montra son infériorité face à l'artillerie de campagne à la fin de la guerre comme lors de la bataille de Castillon en 1453. Dans le territoire de l'actuelle Allemagne, le Saint-Empire continua d'exister mais le choix de l'empereur se faisant par élection après la Bulle d'or de 1356, aucun véritable État-Nation ne put se constituer autour d'une dynastie durable et l'Empire resta un regroupement lâche de plusieurs centaines d'entités. À l'est, les royaumes de Pologne, de Hongrie et de Bohême se renforcèrent, tandis que les principautés russes commencèrent à émerger du joug tatar. Dans la péninsule ibérique, les royaumes chrétiens continuèrent de reprendre des territoires aux musulmans malgré les rivalités et les crises de succession. En Angleterre, la fin de la guerre de Cent Ans fut suivie par une longue guerre civile appelée guerre des Deux-Roses, qui ne se termina que dans les années 1490 avec la victoire de la maison Tudor d'Henri VII () lors de la bataille de Bosworth en 1485. La Scandinavie fut unifiée par l'union de Kalmar durant tout le mais le mécontentement de la concernant la centralisation au Danemark et le bain de sang de Stockholm en 1520 entraînèrent la désintégration de l'union trois ans plus tard. Effondrement de l'Empire byzantin. Même si les empereurs de la dynastie des Paléologues reprirent Constantinople aux croisés en 1261, l'Empire n'était plus composé que d'une petite portion des Balkans autour de Constantinople et de territoires côtiers au sud de la Mer Noire et autour de la Mer Égée. Ses anciennes possessions dans les Balkans avaient été divisées entre les nouveaux royaumes de et de Bulgarie. La situation byzantine se détériora encore plus avec l'émergence en Asie mineure au de la tribu turque des Ottomans, qui s'étendit vers l'ouest tout au long du . La Bulgarie devint un vassal en 1366 tout comme la Serbie après la défaite de Kosovo en 1389. Inquiets de cette expansion sur des terres chrétiennes, les Européens de l'ouest déclarèrent une croisade mais leur armée fut battue à la bataille de Nicopolis en 1396. Au début du , l'Empire byzantin se réduisait à quelques territoires autour de Constantinople et la ville fut finalement prise par les Ottomans de Mehmed II en 1453. Controverses au sein de l'Église catholique romaine. Sur le plan religieux, le fut marqué par la Papauté d'Avignon de 1305-1378, durant laquelle le pape résida dans la ville du même nom dans le sud de la France. Cette situation était liée à l'affrontement entre le pape Boniface VIII et le roi Philippe IV le Bel concernant l'autorité pontificale. Après la mort rapide du successeur de Boniface VIII, le conclave désigna Clément V (pape 1305-1314), qui refusa de se rendre à Rome et fit venir la Curie à Avignon quatre ans plus tard. Durant cet exil, parfois qualifié de , la Papauté passa sous l'influence grandissante de la Couronne de France. Le pape Grégoire XI (pape 1370-1378) décida de retourner à Rome en 1377 mais les conflits en Italie et l'autoritarisme réformateur de son successeur Urbain VI (pape 1378-1389) provoquèrent le Grand Schisme d'Occident. Durant cette période qui dura de 1378 à 1418, il y eut deux puis trois papes rivaux, chacun soutenu par des États différents. Après un siècle de troubles, l'empereur Sigismond organisa en 1414 le concile de Constance, qui déposa deux des papes rivaux et désigna Martin V (pape 1417-1431) comme seul pape. En plus de ce schisme, l'Église catholique était traversée par des controverses théologiques. Le théologien anglais John Wyclif (d. 1384) fut ainsi condamné pour hérésie après avoir traduit la Bible en anglais et avoir rejeté la doctrine de la transsubstantiation. Ses écrits influencèrent le mouvement des Lollards en Angleterre et des Hussites en Bohème. Cette dernière révolte fut aussi inspirée par les travaux du moine Jan Hus, qui fut brûlé vif pour hérésie en 1415. Les accusations d'hérésie furent également détournées pour servir des besoins politiques, et la dissolution de l'Ordre du Temple en 1312 permit le partage de leur fortune entre le roi Philipe IV de France et les Hospitaliers Le rejet de ces évolutions théologiques par la Papauté éloigna le clergé des laïcs et ce fossé fut accentué par l'accroissement du commerce des indulgences et le pontificat marqué par les excès et le népotisme d'Alexandre VI (pape 1492-1503). Des mystiques comme maître Eckhart (d. 1327) ou Thomas a Kempis (d. 1471) rédigèrent des travaux appelant les laïcs à se concentrer sur leur vie spirituelle intérieure, ce qui posa les bases de la Réforme protestante du . Aux côtés du mysticisme, les croyances concernant la sorcellerie se répandirent ; l'Église ordonna l'éradication de ces pratiques en 1484 et elle publia le " (« Marteau des Sorcières ») en 1486, qui servit de base à la chasse aux sorcières. Vie intellectuelle. Le Moyen Âge tardif connut une réaction contre la scolastique menée par l'Écossais Jean Duns Scot (d. 1308) et l'Anglais Guillaume d'Ockham (d. 1348), qui s'opposaient à l'application de la raison à la foi. Ockham insista sur le fait que le fonctionnement différent de la foi et de la raison permettait la séparation entre la science et la théologie. Dans le domaine juridique, le droit romain s'imposa dans les secteurs auparavant régulés par le droit coutumier sauf en Angleterre, où le système de " resta dominant. L'éducation restait principalement centrée sur la formation du futur clergé. Les apprentissages des bases comme la lecture ou le calcul continuaient de se faire en famille ou auprès du prêtre du village mais les études supérieures du trivium (grammaire, rhétorique et dialectique) se faisaient dans les écoles de cathédrales et dans les universités se trouvant dans les villes. L'emploi des langues vernaculaires s'accrut avec des auteurs comme Dante (d. 1321), Pétrarque (d. 1374) et Boccace (d. 1375) en Italie, Geoffrey Chaucer (d. 1400) et William Langland (d. 1386) en Angleterre et François Villon (d. 1463) et Christine de Pizan (d. 1430) en France. Les ouvrages de nature religieuse continuaient de représenter la majorité des éditions et étaient généralement rédigés en latin mais la demande d'hagiographies en langues vernaculaires s'accrut chez les laïcs. Cette évolution fut alimentée par le mouvement "" et la formation des Frères de la vie commune mais également par les travaux des mystiques allemands comme Maître Eckhart et Jean Tauler (d. 1361). Le théâtre du Moyen Âge était très souvent de nature religieuse même si les formes étaient plus variées. Les drames liturgiques côtoyaient les farces, les moralités et à la fin de la période, les mystères. À la fin du Moyen Âge, le développement de la presse typographique entraîna la création de maisons d'édition dans toute l'Europe et facilita la production des livres. Les taux d'alphabétisation s'accrurent mais restèrent néanmoins à un niveau assez bas ; on estime ainsi qu'un homme sur dix et une femme sur cent savaient lire en 1500. Dès la fin du , des explorateurs européens comme le Vénitien Marco Polo (d. 1324) cherchèrent de nouvelles routes commerciales vers l'Asie. L'attrait des richesses et des produits d'Extrême-Orient dont l'approvisionnement était contrôlé par les marchands arabes et vénitiens poussa à la recherche de voies maritimes permettant de contourner leur monopole. À partir de 1415, le prince portugais Henri le Navigateur (d. 1460) encouragea l'exploration maritime des côtes occidentales de l'Afrique et les îles Canaries, les Açores et le Cap-Vert furent découverts avant sa mort. L'introduction de navires plus performants comme les caravelles permit aux navigateurs portugais de longer les côtes africaines jusque dans l'hémisphère sud et en 1486, Bartolomeu Dias franchit le cap de Bonne-Espérance et la pointe sud de l'Afrique. Deux ans plus tard, Vasco de Gama arriva en Inde et ramena avec lui un chargement d'épices dont la valeur était considérable en Europe. Les expéditions portugaises furent imitées par d'autres pays européens et en 1492, le marin génois Christophe Colomb découvrit l'Amérique pour le compte de la Couronne d'Espagne, tandis que l'Angleterre finança le voyage de Jean Cabot (d. 1499) qui explora les actuelles provinces maritimes du Canada en 1497. Technologie et armement. L'infanterie et la cavalerie légère continuèrent à se répandre aux dépens de la cavalerie lourde. Les armures devinrent de plus en plus perfectionnées avec l'apparition d'armures de plates offrant une meilleure protection contre les armes à feu. Les armes d'hast devinrent l'armement standard de l'infanterie et leur utilisation fut notamment illustrée par les mercenaires suisses et germaniques. La composition des armées évolua également avec l'emploi grandissant de mercenaires comme les condottieres recrutés par les . À l'inverse, le bas Moyen Âge vit l'apparition des premières unités professionnelles permanentes comme les compagnies d'ordonnance françaises. L'élevage de moutons à laine longue autorisa la réalisation de textiles plus résistants tandis que le remplacement de la quenouille traditionnelle par le rouet permit d'accroître fortement la production du filage. L'habillement fut révolutionné par l'apparition de boutons permettant un meilleur ajustement des vêtements. Les moulins à vent furent améliorés par la création de moulin-tours qui pouvaient pivoter afin d'être utilisés quelle que soit la direction du vent. L'apparition du haut fourneau en Suède vers 1350 accrut la production et la qualité du fer. Les premiers brevets furent créés en 1447 à Venise pour protéger les droits des inventeurs. Art et architecture. En Italie, le Moyen Âge tardif correspondit avec les périodes culturelles du Trecento et du Quattrocento, qui virent la transition vers le mouvement de la Première Renaissance. À l'inverse, l'Europe du Nord et l'Espagne poursuivirent l'utilisation de l'art gothique, qui devint de plus en plus élaboré jusqu'à la fin de la période. Ces raffinements donnèrent naissance au gothique international, dont les plus beaux exemples furent Les Très Riches Heures du duc de Berry dont la réalisation s'étala sur tout le ou la coupe de sainte Agnès. Le Primitif flamand représenté par des artistes comme Jan van Eyck (d. 1441) et Rogier van der Weyden (d. 1464) rivalisa avec les mouvements picturaux de l'Italie. Le mécénat se développa chez les classes marchandes d'Italie et des Flandres, qui commandèrent des peintures, des bijoux, du mobilier et des faïences. La production de soie se développa en Italie et dans le sud de la France, et cela permit aux élites et aux églises de ne plus dépendre des importations byzantines ou musulmanes. L'industrie de la tapisserie se développa en France et dans les Flandres avec des productions comme la "Tenture de l'Apocalypse" ou "La Dame à la licorne". Dans les églises et les cathédrales, les tombes et les caveaux devinrent plus élaborés, tandis que les retables et les chapelles se répandirent. À partir des années 1450, les livres imprimés se répandirent même s'ils restaient coûteux ; environ d'incunables furent réalisées avant 1500. En Europe du Nord, des petits ouvrages xylographiés, les incunables xylographiques, presque tous religieux, devinrent accessibles même aux paysans, tandis que les techniques de taille-douce s'adressaient à une clientèle plus aisée. En musique, l'ars nova polyphonique représenté notamment par les poètes français Philippe de Vitry (d. 1361) et Guillaume de Machaut (d. 1377) remplaça l'ars antiqua caractérisé par le plain-chant. Image du Moyen Âge. Le Moyen Âge est fréquemment caricaturé et présenté comme qui plaçait . Cette perception est en partie liée à l'héritage de la Renaissance et des Lumières, quand les intellectuels se définissaient en opposition à cette période. Ceux de la Renaissance, notamment Pétrarque, considéraient le Moyen Âge comme une période de déclin par rapport à la civilisation et à la culture du monde antique qu'ils tenaient en haute estime, tandis que les philosophes des Lumières, pour qui la raison était supérieure à la foi, méprisaient le Moyen Âge et l'importance accordée à la religion. Ainsi, ce que l'on retient trop souvent du Moyen Âge, de sa civilisation, des structures politiques et sociales, des genres de vie et des relations humaines, a été dicté, il y a maintenant déjà très longtemps, par des œuvres de pure propagande, élaborées consciencieusement puis reprises par des foules de polygraphes appliqués à seulement copier, de sorte que de nombreux clichés se retrouvent encore ici ou là dans de simples manuels pour école primaire, dans de beaux livres illustrés destinés à un large public cultivé, et même dans des études plus spécialisées, commentaires par exemple d'ouvrages littéraires ou artistiques. Cette vision a commencé à être réévaluée à partir du avec notamment le développement du médiévalisme, qui se traduisit par le style néogothique en architecture, le préraphaélisme en peinture ou le développement de fêtes médiévales. La redécouverte des renaissances médiévales a poussé certains historiens à réévaluer le rôle de la raison durant cette période. Edward Grant écrivit ainsi que . De même, David C. Lindberg avança que . Cependant, la période a fait encore l'objet, pendant tout le et une bonne partie du de nombreuses idées reçues, à travers certaines notions plus spécifiques. Pierre Riché remet les choses en place sur les fameuses « Terreurs de l'an mille », légende tenace datant de la Renaissance et née sous l'influence des écrits d'un moine gyrovague du , Raoul Glaber, sans référence à d'autres sources ; cette légende a été amplifiée par les historiens du , parmi lesquels Michelet ; Pierre Riché décrit plutôt la période de l'an mille comme une période de stabilité et de prospérité. L'image négative de la féodalité s'est répandue pendant les Lumières, a culminé au moment de la Révolution lors de l'abolition des privilèges, puis a fait l'objet au de catalogues d'anecdotes dramatiques et d'abus insupportables, mais sans analyse systématique du phénomène dans son contexte. Une idée fausse, propagée au et toujours très répandue, rapporte que tout le monde au Moyen Âge croyait que la Terre était plate. En réalité, les universitaires médiévaux connaissaient la rotondité de la Terre, et Lindberg avance . D'autres idées fausses, comme , ou , sont citées par l'historien Ronald Numbers comme des exemples de légendes populaires toujours considérées comme des vérités historiques, même si elles ne sont pas soutenues par les travaux universitaires. |
Mythologie La mythologie (du grec , de , « parole », et , « discours ») est soit un ensemble de mythes liés à une civilisation, une religion ou un thème particulier, soit l'étude de ces mythes. Les chercheurs qui étudient les mythologies sont appelés « mythologues ». Comprise comme ensemble de mythes, la notion de mythologie est généralement utilisée pour décrire des ensembles de récits et de figures divines, humaines ou monstrueuses brassés par les systèmes religieux des civilisations anciennes ou de sociétés traditionnelles, éloignées dans l'espace ou dans le temps. Comprise comme l'étude des mythes, la mythologie remonte également à l'Antiquité, dans la mesure où les Grecs anciens portent très rapidement un regard critique sur leurs propres mythes, ce qui amène à des interprétations liées à une volonté de réécriture réaliste ou moralisante, via des courants tels que l'évhémérisme et la pratique du commentaire allégorique. Mais ce n'est qu'au que les études mythologiques se constituent en une discipline à prétention scientifique, dans le contexte du développement des sciences sociales, en particulier de l'anthropologie. C'est aussi à ce moment que naît la mythologie comparée, conçue d'abord sur le modèle de la linguistique comparée. De cette évolution sont issus les principaux courants des études mythologiques aux , tels l'interprétation ritualiste, l'approche d'inspiration psychanalytique ou structuraliste. La mythologie comme ensemble de mythes. Tout comme la notion de mythe, le terme « mythologie » provient de la Grèce et a d'abord été utilisé dans le contexte de la culture grecque ancienne. Par la suite, les deux notions ont été appliquées à toutes sortes de cultures parfois radicalement différentes. Cela peut poser des problèmes de méthode lorsqu'on étudie ces cultures, dans la mesure où l'emploi de ces notions revient à supposer d'emblée que l'ensemble des religions, cultes et récits ancestraux fonctionnent exactement de la même façon que ceux de la mythologie grecque, alors que des études plus attentives ont révélé souvent des différences profondes d'une culture à l'autre. De plus, on parle généralement "des" mythologies au pluriel : la question de savoir dans quelle mesure on peut les rassembler sous un concept unifié est un problème complexe, qui relève de la mythologie comparée. Les mythologies du monde. Aujourd'hui, nous parlons couramment de « mythologies » pour désigner les récits religieux des peuples anciens ou exotiques, éloignés dans le temps ou dans l'espace. Le terme est employé de façon extrêmement large, au point d'être parfois synonyme de « folklore ». Voici pour exemple une liste de « mythologies », par région du monde : Vecteurs et sources de la mythologie. Les mythologies se sont transmises dans le temps et l'espace par différents vecteurs : De nos jours, bon nombre de mythologies sont encore vivantes, au sens où, indépendamment du problème complexe de la croyance, les récits mythiques continuent à se transmettre par l'intermédiaire de ces différents supports et continuent à évoluer au fil des réécritures et de l'apparition de nouvelles variantes. Ces différents supports et vecteurs de transmission constituent autant de sources sur lesquels se fondent les mythologues pour délimiter un corpus mythologique afin de l'étudier. Selon l'approche adoptée pour l'étude, on y inclut parfois des œuvres et des développements modernes, considérés comme autant de variantes récentes des mêmes mythes. Mythologie, mythe et concepts voisins. La notion de mythologie fait partie d'un vaste ensemble de termes que le langage courant utilise souvent de façon interchangeable, mais qui ne sont pas synonymes. Le sens donné à ces termes, tout particulièrement au mot mythe, varie considérablement selon que l'on parle de leur usage dans le langage courant ou du sens qu'ils revêtent en tant que notions chez les différents auteurs qui se sont consacrés aux études mythologiques. Les distinctions qui suivent ne peuvent donc être qu'indicatives, mais elles permettent tout de même de distinguer les notions employées par les sciences humaines (mythologie, mythe, folklore) des termes qui correspondent souvent à des genres littéraires (conte, fable, épopée) ou des notions littéraires (fiction). Utilités, utilisations, récupérations. Les frontières entre la mythologie et des domaines tels que les arts, les sciences et la politique sont particulièrement poreuses. Cela s'explique en partie par le fait qu'aux époques anciennes, les distinctions que nous faisons aujourd'hui entre la religion, l'histoire et les sciences, n'existaient pas ou étaient très différentes. En Grèce, par exemple, la mythologie avait à la fois une valeur religieuse (elle parlait des dieux et de leur culte) et culturelle, en renseignant sur des questions d'ordre philosophique (la création du monde, l'apparition des hommes et des femmes, l'amour, la mort, etc.) et historique (pour les Anciens, des personnages tels que Thésée ou Héraclès avaient réellement existé au même titre que plus tard Solon ou Périclès), mais aussi sur l'histoire des sciences (elle proposait des explications sur l'apparition des sciences et des techniques, attribuées à tel dieu ou à tel héros). Les arts y puisaient leurs sujets, mais on utilisait aussi la mythologie à l'école (les mythes fournissaient des sujets d'exercices de rhétorique), et les hommes politiques et les orateurs incluaient les mythes parmi les exemples qu'ils utilisaient pour illustrer leurs discours. De nos jours, on conçoit plutôt une mythologie comme un ensemble cohérent et refermé sur lui-même, qui relève presque exclusivement de la fiction (on ne lui prête plus de valeur historique ou scientifique, par exemple). Mais en dehors de ces différences dans les distinctions entre disciplines et domaines de pensée entre les époques anciennes et l'époque contemporaine, les mythologies ont toujours fait l'objet d'utilisations et de réappropriations conscientes dans divers domaines et à des fins très variables. La mythologie dans la philosophie et l'alchimie. Dès l'Antiquité, avec les philosophes présocratiques, et aussi dès l'apparition de l'alchimie en Occident, représentée entre autres par Zosime, Pseudo-Démocrite et Olympiodore, les mythes sont commentés en un sens philosophique, hermétique ou alchimique. Dans l'optique alchimique, par exemple, tous les récits cosmologiques de la création du monde représentent uniquement le Grand Œuvre, comme en témoigne une très abondante littérature :Ici de suite font la ronde / Les premiers quatre âges du monde, / C'est à savoir l'âge doré, / De ce métal tant honoré, / Sur qui commence l'œuvre fine, / Et sur lequel même elle affine.On peut citer, par époque, un auteur emblématique parmi bien d'autres : Les noms des métaux, par exemple, mais aussi bien d'autres termes alchimiques sont tirés directement de la mythologie gréco-romaine : une intoxication au plomb s'appelle "saturnisme" ; le cuivre "(cuprum)" doit son nom à "Cypris", surnom de Vénus ; le mercure, au dieu homonyme ; l'hermétisme, à "Hermès" ; etc. Les mythologies dans les arts. Les mythologies sont un véritable vivier pour les arts. Dès l'Antiquité, les sources les plus fameuses grâce auxquelles nous connaissons les mythologies sont souvent des œuvres d'art, de l'épopée à la céramique en passant par la sculpture. Très tôt, les artistes, à commencer par les poètes, n'ont pas hésité à se réapproprier les mythes pour proposer leur propre vision de la mythologie dont ils avaient hérité. Au Moyen Âge et à la Renaissance, et jusqu'aux époques modernes et contemporaines, les différentes mythologies n'ont jamais cessé, dans toutes les parties du monde, de susciter d'innombrables reprises, réécritures et réinventions de la part des artistes (voyez par exemple Peinture mythologique). Certaines œuvres sont si bien passées à la postérité qu'elles ont exercé une influence durable sur les mythes qu'elles traitaient (ainsi les tragédies de Sophocle ont beaucoup influencé notre vision de l'histoire d'Œdipe, et la tétralogie de Wagner la représentation des dieux germaniques et nordiques). Inversement, certaines œuvres qui, au départ, étaient de pures inventions littéraires conçues sur le modèle des mythes, se sont si bien intégrées à l'imaginaire collectif qu'elles sont presque considérées comme des mythologies à part entière de nos jours (ainsi la matière de Bretagne médiévale, et en particulier le cycle arthurien, sont, au départ, une création littéraire développée par un nombre croissant d'auteurs, mais constituent à présent la légende arthurienne). De nos jours encore, d'innombrables artistes empruntent leurs sujets aux diverses mythologies ou s'en inspirent. Enjeux politiques des mythologies. Mais les mythologies ont aussi constitué de tout temps un enjeu politique crucial. Les hommes politiques convoitant le pouvoir se dotaient ainsi de généalogies prestigieuses (par exemple, vers la fin de la République romaine, la famille de Jules César disait descendre d'Ascagne, fils d'Énée, fils de prince de Troie et fondateur légendaire de Rome dans la mythologie romaine). À une échelle plus large, les interprétations historiques des mythes étaient souvent lourdes d'enjeux politiques. Les traités diplomatiques et les alliances militaires entre cités grecques se fondaient sur des parentés légendaires. À l'époque classique, la guerre de Troie est relue comme un affrontement entre l'Europe et l'Asie dans le contexte des guerres médiques entre les cités grecques et l'empire perse. Au Moyen Âge, les royautés européennes se dotent d'origines prestigieuses : ainsi la royauté française prétend-elle à son tour descendre des Troyens (c'était le sujet de "La Franciade", l'épopée en vers que Ronsard avait entreprise à la demande du roi Henri II et qui resta inachevée). Au , le naturaliste et professeur Olof Rudbeck (dit « l'Ancien ») compose un volumineux traité patriotique identifiant l'Atlantide platonicienne à la Suède et la langue d'Adam au suédois, afin de glorifier son pays (l'ouvrage suscite rapidement des critiques acerbes, et certains développements sont mentionnés par Diderot dans l'article « Étymologie » de l'Encyclopédie comme exemples d'étymologies fantaisistes). Au , l'essor des nationalismes s'accompagne d'un vif regain d'intérêt pour la mythologie et le folklore, mis en avant comme des éléments importants de l'identité culturelle des peuples, donc des identités nationales. Dans la première moitié du , les mythologies, tout comme l'Antiquité en général, font l'objet de récupérations par les régimes totalitaires naissants qui s'en servent pour édifier l'idéologie sur laquelle ils fondent leur glorification de la nation. Ainsi, le nazisme détourne massivement les recherches en mythologie comparée, en linguistique et en anthropologie pour élaborer son idéologie glorifiant la race aryenne (le terme vient des études sanskrites et de la grammaire comparée, où il désigne au départ un groupe linguistique). Cette récupération détourne en particulier des éléments issus de la mythologie germanique et de la mythologie grecque pour reconstruire un passé idéalisé et une imagerie de propagande. La mythologie est aussi fréquemment utilisée par les ouvrages d'ésotérisme et par les doctrines élaborées par les sectes, qui l'utilisent dans le cadre de raisonnements pseudo-scientifiques. Mythologies et religions aujourd'hui. Parler de mythologie à propos des religions contemporaines, par exemple de mythologie biblique, a pu être considéré par certains croyants comme une offense envers leur foi, voire une manifestation d'intolérance. En effet, la notion de mythe relève de nos jours de la fiction, ce qui remet en cause la vérité à laquelle prétendent les récits sacrés des religions actuelles. Cela pose le problème des différents « régimes de vérité » propres aux mythes, d'une part, aux croyances religieuses en général, d'autre part, la vérité de la foi n'étant pas nécessairement la vérité historique. Outre les analyses de Paul Veyne à ce sujet dans le domaine grec, le problème de la croyance en histoire des religions a été abordé de manière plus large par Max Weber, avec la notion de désenchantement du monde, et par Rudolf Bultmann, avec la notion de démythologisation qu'il a appliquée aux récits du Nouveau Testament. Cependant, la plupart des livres sacrés des religions contemporaines, qu'elles relèvent du monothéisme ou du polythéisme, s'enracinent dans les religions premières, et les récits qui les soutiennent constituent des mythologies. L'hindouisme est un bon exemple de religion polythéiste qui s'appuie sur une mythologie riche (voyez Mythologie hindoue) remontant à des épopées sanskrites telles que le "Mahābhārata" ou le "Rāmāyana", qui mettent en scène des divinités dont le culte est toujours très vivace de nos jours. En Occident, les récits de la Bible sur la création du monde, de même que les miracles, ont longtemps prétendu à une vérité historique, dont la remise en cause exposait à des accusations d'athéisme. Au , Spinoza dut publier le "Traité théologico-politique" sans nom d'auteur, de crainte des poursuites que son interprétation des Écritures aurait pu lui attirer. Mais au début des années 1870, le déchiffrement des premières tablettes sumériennes et akkadiennes entraîne la redécouverte des récits mésopotamiens sur le Déluge, en particulier l'histoire d'Uta-Napishtim relatée dans l'épopée de Gilgamesh, qui présente des similarités de structure et de détail frappantes avec le récit du Déluge biblique : il devient alors impossible de nier que les récits de l'Ancien Testament n'ont pas été inventés "", mais s'inscrivent dans un courant littéraire beaucoup plus ancien qui remonte à la mythologie mésopotamienne. Les récits du Nouveau Testament, de leur côté, posent le problème de l'existence historique de Jésus, que les tenants de la thèse mythiste assimilent à une figure mythologique qui n'aurait pas réellement existé ; cette thèse est cependant très loin de faire l'unanimité parmi les spécialistes du christianisme ancien. La mythologie comme étude des mythes. Depuis le au moins, un "mythologue" est un chercheur spécialisé dans les études mythologiques. Dans son sens étymologique, l'adjectif "muthologos" qualifiait, en grec ancien, une personne qui inventait des récits fabuleux (le mot "muthos" ayant alors la connotation négative de « récits mensongers »). Cependant, les auteurs, anciens et parfois modernes, qui se sont consacrés au rassemblement et à la compilation des mythes, sont plus couramment appelés mythographes, tandis que le mythologue se propose comme but premier d'étudier les mythes, et non de les transmettre ou de les modifier. Au , les mythologues étaient souvent philologues de formation. Cependant, le développement progressif de l'anthropologie et son importance croissante dans les études mythologiques ont fait que les mythologues ont à présent plus souvent des formations d'anthropologues. L'étude moderne des mythes relève de disciplines académiques (anthropologie, histoire de l'art, humanités classiques, folkloristique, psychologie, théologie et religion comparée) qui justifient l'interdisciplinarité de la mythologie comme science. Au sein des études mythologiques, on distingue l'étude des mythes d'un peuple donné (par exemple la mythologie grecque) et la mythologie comparée, qui étudie les relations entre les mythes de différentes cultures. Histoire des études mythologiques. Dans l'Antiquité. Dévalorisation et « rectifications » des mythes. Le professeur de sanskrit propose dans son ouvrage "" que les grands mythes de l'humanité remontent au paléolithique mais, toutes proportions gardées, on peut faire remonter l'origine de la mythologie comme étude des mythes à l'Antiquité. En Grèce, les Grecs eux-mêmes, par réaction au caractère invraisemblable, voire immoral, de certains mythes, ont commencé à étudier les récits mythiques pour y trouver une signification cachée, souvent afin de rendre compte de ces aspects absurdes, voire les éliminer en élaborant des versions corrigées ou plus vraisemblables des mythes. En effet, à partir du , le mot "muthos" (« récit ») se trouve progressivement dévalorisé par rapport au mot "logos", qui en était à l'origine le synonyme : "logos" se trouve associé davantage au récit véridique et rationnel, tandis que "muthos" prend une connotation péjorative et prend le sens de « racontar, récit mensonger ». Ce glissement de sens s'opère sous l'influence des philosophes présocratiques tels que Xénophane de Colophon, qui s'insurgent contre les propos tenus par des poètes comme Homère et Hésiode au sujet des dieux et contre les faiblesses trop humaines qu'ils leur prêtent. Cette remise en cause du contenu des mythes amorce un mouvement qui aboutit soit à les corriger pour les faire correspondre à la dignité et à la perfection des dieux, soit à expliquer leurs absurdités par un sens caché plus satisfaisant. La « rectification » des mythes s'observe chez les poètes et les auteurs en général, et chez les commentateurs. Chez les auteurs eux-mêmes, elle peut devenir une sorte de moteur créatif pour l'élaboration de nouvelles variantes des mythes. Dès l'époque archaïque, le poète Pindare prend explicitement ses distances par rapport aux dires de certains de ses prédécesseurs et affirme qu'il ne faut prêter aux dieux que de belles actions : par exemple, dans la première "Olympique", il refuse d'accorder crédit au récit du banquet cannibale au cours duquel les dieux auraient mangé Pélops, fils de Tantale, avant de le ressusciter, et préfère dire à la place que le jeune homme avait été enlevé par Poséidon qui en était tombé amoureux, et que l'histoire du cannibalisme n'est qu'une calomnie répandue par des voisins mal intentionnés. Du côté des commentateurs, les mythographes des époques postérieures entreprennent eux aussi de corriger les mythes : ainsi Palaiphatos, au , rédige des versions rationalisées des mythes ; sa méthode consiste principalement à éliminer tous les éléments merveilleux, qu'il juge contraires à la vraisemblance, et à ramener les récits à des intrigues compatibles avec une supposée vérité historique. Mais la remise en cause du contenu des mythes donne aussi naissance à l'exégèse des textes qui les relatent. Ainsi, à peu près à la même époque où Xénophane et d'autres critiquent violemment les poètes pour les actions indignes qu'ils prêtent aux dieux, Théagène de Rhégium est le premier à avoir recours à l'allégorie pour justifier Homère et « sauver » le texte tel qu'il est : selon lui, les luttes entre les dieux symbolisent la lutte entre les éléments naturels et d'autres phénomènes cosmiques. Cette interprétation amorce les lectures allégoriques d'Homère et les interprétations philosophiques des mythes, qui se multiplient par la suite. Platon et les mythes. À l'époque classique, Platon formule, dans plusieurs de ses dialogues, des critiques contre les mythes et contre les poètes qui les racontent. Ces remises en cause se font dans des contextes très variés. Dans le "Lysis", Ctésippe se moque des récits inventés par Hippothalès en l'honneur de Démocratès, récits évoquant Héraclès et Zeus, et qui ne sont selon lui que des « histoires comme en racontent les vieilles femmes ». Au début du "Phèdre", Socrate donne à Phèdre son point de vue sur les mythes et leurs rectifications en prenant pour exemple l'enlèvement de la nymphe Orithye par Borée. Socrate reconnaît qu'il serait banal d'en douter, car beaucoup de gens savants doutent déjà de ce genre d'histoires ; mais, après avoir donné une rapide interprétation du mythe de l'enlèvement d'Orithye en le ramenant à un événement réel mais anecdotique : Orithye serait tombée des rochers à cause du vent et se serait tuée. Il indique que, s'il fallait se lancer dans la rectification de tous les mythes, on se trouverait submergé par un travail bien trop énorme : « Si on est sceptique et si on veut ramener chacun de ces êtres [les créatures merveilleuses des mythes, comme les Gorgones ou Pégase] à la vraisemblance, et cela en faisant usage de je ne sais quelle science grossière, la chose demandera beaucoup de loisir. » Socrate préfère donc s'en remettre à la tradition et s'employer plutôt à se connaître lui-même, selon le précepte de Delphes « "Gnothi seauton" ». Dans le même temps, Platon a recours dans ses dialogues à des récits qui ressemblent à des mythes. Certains, comme l'allégorie de la caverne, sont plutôt des allégories permettant d'expliquer, de façon imagée, des raisonnements ou des interactions entre notions abstraites. Mais d'autres sont présentés explicitement comme des mythes qui sont supposés se fonder sur des faits réels, par exemple le mythe de l'androgynie raconté par Aristophane dans "Le banquet", le mythe d'Er à la fin de "La République", ou encore le fameux mythe de l'Atlantide dans le "Timée" et le "Critias". Les commentateurs s'accordent cependant à dire que ces mythes ne sont pas de véritables mythes préexistants qu'il se serait contenté de raconter ou de modifier (par exemple, on ne trouve aucune allusion à l'Atlantide avant Platon), mais des inventions de Platon, des fictions littéraires. L'évhémérisme. Au début de la période hellénistique, le mythographe Évhémère donne naissance à l'évhémérisme, un courant de pensée qui part du principe que les dieux étaient au départ des personnages réels, qui ont été divinisés après leur mort. Les mythes donnent alors lieu à des interprétations historiques, qui cherchent à reconstituer des événements réels à partir des récits mythiques, en supprimant les éléments merveilleux, jugés invraisemblables et expliqués par la divinisation des personnages ou par des déformations du souvenir de l'événement au fil du temps. Fin de l'Antiquité et Moyen Âge. Après Évhémère, l'étude des mythes consiste longtemps à rechercher un deuxième sens derrière le canevas d'un récit donné : les aventures des dieux, des héros et des créatures mythologiques sont ainsi interprétées comme des allégories représentant les interactions entre les puissances de la nature (interprétations physiques) ou des notions abstraites (interprétations philosophiques). Pendant tout le Moyen Âge, les interprétations de ce genre sont encore le principal expédient pour expliquer des mythes. Au cours des premiers siècles , le développement du christianisme entraîne une lutte entre les chrétiens et les partisans du paganisme. Dans ce contexte, les auteurs chrétiens utilisent, entre autres, les mythes pour dévaloriser les dieux païens, en reprenant les mêmes arguments déjà utilisés à l'époque classique par les païens eux-mêmes pour rejeter ces récits qui prêtent aux divinités des actes immoraux et honteux. C'est le cas, au , d'auteurs tels que Tertullien, dans le livre II de son traité "Ad Nationes" ("Aux peuples") qui argue du fait que les mythes sont des fables honteuses et absurdes inventées par les philosophes et les poètes pour montrer que les dieux païens sont de faux dieux. Cependant, la mythologie continue d'être enseignée et transmise, car il est nécessaire de la connaître pour comprendre et étudier les œuvres de la culture classique : les auteurs chrétiens se rendent compte très tôt, dès le , qu'ils ne peuvent pas se permettre d'ignorer complètement la culture classique, toute païenne qu'elle soit, car c'est elle qui a développé les sciences, la philosophie et la rhétorique, dont les chrétiens ont besoin pour nourrir leurs propres réflexions. L'attitude dominante des auteurs chrétiens consiste donc à conserver l'héritage antique et à l'utiliser dans l'élaboration d'une littérature proprement chrétienne, écartant ainsi l'accusation d'inculture et d'ignorance utilisée contre les chrétiens par les tenants du paganisme jusqu'à l'époque de Julien au . Ainsi, la mythologie gréco-romaine, bien que méprisée et ramenée au statut de recueil disparate d'histoires absurdes, continue à être transmise après que le christianisme a supplanté le paganisme dans l'empire romain. Lorsque les mythes ne sont pas rejetés comme immoraux, ils sont récupérés à l'aide d'interprétations allégoriques qui assimilent dieux et héros à des figures chrétiennes. Ainsi, le médiéviste Philippe Walter évoque-t-il la naissance d'une qui se développe sur les restes des croyances païennes des mythologies gauloise, celtique ou nordique : Époque moderne (Renaissance et ). À la Renaissance, plusieurs philosophes étudient la mythologie selon des démarches diverses. L'un des recueils de mythes grecs les plus connus au Moyen Âge, la "Genealogia deorum gentilium" ("Généalogie des dieux païens") de Boccace, composée avant 1530, accompagne les récits de mythes d'interprétations allégoriques et philosophiques. En 1532, Georg Pictorius publie la "Theologia mythologica", qui s'intéresse également aux mythes dans une perspective allégorique. La "Mythologie" de l'érudit vénitien Natalis Comes, publiée en 1551, a recours, comme Boccace, à une approche philosophique. Au début du , le philosophe italien Giambattista Vico publie "La Science nouvelle" (première édition en 1725). Il y élabore une théorie cyclique de l'Histoire, selon laquelle toute civilisation s'élabore au fil de trois âges : divin, héroïque, humain, avant de retourner à la barbarie dont elle est issue. À peu près au même moment (en 1724), le philosophe français Fontenelle publie un essai "De l'origine des fables" (le mot « fable » est alors couramment utilisé pour désigner les mythes) où il dénonce l'absurdité des mythes et attribue leur origine à l'ignorance des premiers hommes, source de leur croyance dans le surnaturel. Au début de la seconde moitié du siècle, "L'Encyclopédie" de Diderot et D'Alembert adopte une approche similaire dans les articles « Fable » et « Mythologie ». L'apparition de la mythologie est en partie expliquée par une théorie de la communication dans laquelle le mythe, dont le contenu est compris dans une logique d'opposition entre vérité et mensonge, tient beaucoup de la rumeur et aboutit comme elle à l'élaboration d'un savoir faux. Époque contemporaine (). Au : les débuts de l'anthropologie et la naissance de la mythologie comparée. Au début du , le philosophe allemand Schelling développe une philosophie des mythes dans plusieurs ouvrages à la fin de sa vie, dans la continuité de sa réflexion sur l'absolu, Dieu et les religions. Ses réflexions influenceront en partie la philosophie de Heidegger, tandis que Hegel s'en distanciera. L'étude des mythes au est sous-tendue par les convictions des mythologues concernant la notion de progrès de la pensée humaine au fil du temps. L'une des théorisations les plus influentes de ce concept est le positivisme d'Auguste Comte, avec sa loi des trois états. Dans cet esprit, les mythes sont représentatifs d'un état ancien et dépassé de la pensée humaine, qui aurait fait place à une pensée rationnelle. Cette théorie conduisait également à une comparaison et à un classement entre les peuples à l'époque contemporaine, les peuples sans écriture et les communautés où l'on observait des mythologies encore vivantes étant considérés comme primitifs et inférieurs à la civilisation occidentale. Cet ethnocentrisme se développe dans le contexte de la colonisation et de l'idéologie colonialiste, et conduit parfois ces chercheurs jusqu'au racisme scientifique. Ces présupposés et les interprétations auxquelles ils conduisent sont remis en cause puis entièrement abandonnés dans la seconde moitié du (l'une des publications importantes dans cette remise en cause étant le livre de Claude Lévi-Strauss "La Pensée sauvage"). Les mythologues du ont eu cependant le mérite de poser peu à peu les bases de disciplines telles que l'anthropologie et la sociologie. À la même époque, un regain d'intérêt se manifeste pour la Grèce antique, considérée comme le lieu de naissance de la raison scientifique. Dans l'esprit des antiquisants d'alors, un « miracle grec » ou un « génie grec » auraient rendu possibles le développement des sciences et le haut degré de civilisation atteint par les anciens Grecs, à la différence de la plupart des autres peuples antiques, conçus comme primitifs. Dans ce contexte, la mythologie grecque représente un paradoxe, voire un « scandale » : comment expliquer en effet la coexistence, chez les anciens Grecs, d'une civilisation scientifiquement brillante et le fait que, selon le mot de Max Müller, « les Grecs attribuent à leurs dieux des choses qui feraient frissonner le plus sauvage des Peaux-Rouges » ? Comme Marcel Detienne l'a montré en 1981 dans "L'Invention de la mythologie", l'étude des mythes se constitue en science autour de 1850, avec la volonté d'expliquer le caractère absurde et scandaleux des mythes grecs. Ce n'est que progressivement que l'on se rend compte que la mythologie grecque témoigne d'aspects tout aussi « primitifs » que les croyances des peuples sans écriture que les premiers ethnologues et anthropologues commencent à étudier en détail au même moment. La prétendue supériorité des Grecs n'existe donc pas, et les historiens des religions commencent à étudier conjointement les cultes et mythes grecs et ceux d'autres populations anciennes ou de peuples sans écriture contemporains. Dans le monde anglo-saxon, la notion de progrès est développée par le courant de l'évolutionnisme, dont l'un des fondateurs est l'anthropologue américain Lewis Henry Morgan. L'un des premiers à s'intéresser à la religion et aux mythes dans cette perspective est le britannique Edward Tylor, qui publie "La Civilisation primitive" ("Primitive Culture", 1873-74), ouvrage dans lequel il donne l'une des premières définitions ethnologiques de la notion de culture. Tylor distingue trois stades chronologiques dans le développement de la pensée religieuse : l'animisme, le polythéisme et enfin le monothéisme, qui en constituerait le stade final. Au début du , James George Frazer se rattache également à ce courant de pensée : son ouvrage majeur, "Le Rameau d'or" ("The Golden Bough"), paraît pour la première fois en 1890 et connaît de nombreuses rééditions augmentées. En Allemagne, l'intérêt pour la grammaire et la philologie, au moment où la linguistique se constitue en discipline rigoureuse, conduit au développement de la grammaire comparée, qui aboutit elle-même à la comparaison des pensées religieuses des différents peuples du monde. L'étude du sanscrit, la langue ancienne de l'Inde alors colonisée par la France et l'Angleterre, connaît en Allemagne un succès sans commune mesure en Europe : le sanscrit est alors considéré comme la langue la plus ancienne du monde, la plus précieuse pour l'étude de la famille des langues indo-européennes et la plus susceptible d'apporter une réponse au problème de l'origine des langues. C'est dans ce contexte que le philologue et orientaliste Max Müller fonde la mythologie comparée, où il est l'un des premiers à étudier en détail les relations entre les mythes de différents peuples. Les premières ébauches d'études comparatistes sont rapidement dépassées, notamment à cause des étymologies aventureuses sur lesquelles elles se fondent dans le cadre de la linguistique naissante, mais elles suscitent un intérêt croissant et durable. Max Müller analyse la mythologie en général comme une maladie du langage : selon lui, c'est une mauvaise compréhension de certains énoncés qui donne naissance à des récits fabuleux. L'intérêt porté au sanscrit s'explique en partie par le fait que les études mythologiques pensent alors pouvoir expliquer les mythes en retrouvant la version la plus ancienne, « originelle » (en allemand le "Urmythus", de même que les philologues de l'époque pouvaient rechercher le Urtext d'une œuvre antique). C'est dans cet esprit que les philologues et les antiquisants rassemblent des quantités de documentation parfois considérables dans le but de reconstituer la formation progressive des cultes et des mythes qui leur sont attachés. La possibilité même de retrouver une « version originelle » d'un mythe, et l'idée selon laquelle retrouver la version première d'un mythe suffirait à l'expliquer, sont remises en cause puis abandonnées au siècle suivant. En France, après la création de la sociologie par Auguste Comte, la seconde moitié du voit le développement de l'anthropologie : les œuvres d'Émile Durkheim puis de l'ethnologue Marcel Mauss, qui travaillent sur la notion de fait social et de fait social total, et qui s'intéressent notamment à la place de la religion et de la magie dans les sociétés, contribuent à redéfinir le cadre théorique dans lequel s'inscrivent les études mythologiques. L'archéologue Salomon Reinach se spécialise dans l'histoire des religions : en 1905, dans son ouvrage de vulgarisation sur ce thème, "Orpheus", il présente, sur le même plan, les religions païennes antiques et les monothéismes contemporains. Son œuvre la plus achevée, "Cultes, mythes et religions", regroupe des conférences et des essais parus dans des publications diverses, et contribue à une approche anthropologique des mythes en les analysant, dans la lignée de Frazer, via les concepts de tabou et la notion de totémisme. Les premières pages de son essai "Totems et tabous" dressent une rapide synthèse de l'histoire de l'étude des mythes. Les théories de Max Müller influencent plusieurs autres historiens des religions s'intéressant aux mythologies, dont l'historien anglais George William Cox, auquel Stéphane Mallarmé emprunte sa théorie des mythologies pour son livre "Les Dieux antiques". Selon Mallarmé, les mythes, fondés sur une origine commune, se seraient constitués au cours des migrations, à mesure que les langues des différentes tribus se différenciaient et donnaient lieu à des malentendus. Des phrases simples comme « le soleil se lève » ou « le temps dévore les jours qui passent », en sanscrit, auraient ainsi donné naissance aux mythes de Zeus et de Chronos. Au tournant du : l'approche psychanalytique. Dans les années 1890-1900, Sigmund Freud fonde la psychanalyse, dont il explore, à la fin de sa carrière, les développements possibles en anthropologie et en histoire des religions. Au cours de ses recherches, il est amené à employer certains mythes comme instruments de réflexion dans l'élaboration de ses modèles de l'appareil psychique, en particulier l'histoire d'Œdipe pour la formulation du fameux complexe d'Œdipe. Il est également amené, dans des ouvrages comme "Totem et tabou" (1913), à réaliser de véritables interprétations mythologiques doublées d'analyses de la psychologie des sociétés alors dites « primitives ». Ces interprétations ont été fortement contestées au cours des années suivantes : l'interprétation par Freud des mythes d'Œdipe ou de Prométhée ou celle de la Genèse biblique réduisent la signification de ces mythes au seul « code sexuel » selon une logique allégorique. Cette approche a été critiquée par plusieurs mythologues, dont Claude Lévi-Strauss, qui en relève notamment le caractère tautologique (Freud ne retrouvant dans le mythe que ce qu'il y a mis lui-même), et Jean-Pierre Vernant et Pierre Vidal-Naquet, qui en dénoncent les erreurs et l'anachronisme. La psychanalyse se constitue malgré tout en une nouvelle approche possible des mythes, qui donne lieu à plusieurs développements distincts. Les travaux de Carl Gustav Jung, qui développe la théorie de la psychologie analytique, le conduisent à s'intéresser entre autres aux études mythologiques. Selon Jung, la psyché d'un individu est influencée non par sa seule histoire personnelle, mais aussi par les représentations que véhicule sa culture. Jung élabore le concept d'inconscient collectif et la théorie des archétypes, des catégories symboliques brassées par l'inconscient collectif et qui apparaîtraient notamment dans les mythes. Cette théorie s'inscrit dans la lignée des réflexions sur l'imaginaire et ont influencé les travaux de Gaston Bachelard et de Gilbert Durand dans ce domaine. Les concepts jungiens ont fait l'objet de nombreuses critiques (cf. les sous-parties qui leur sont consacrées dans les articles correspondants). Dans la seconde moitié du siècle, le psychanalyste et pédagogue Bruno Bettelheim, dans son ouvrage "Psychanalyse des contes de fées" publié en 1976, applique les grands concepts de la psychanalyse freudienne aux contes, dont il distingue le rôle de celui des mythes. Dans le même temps, le mythologue américain Joseph Campbell développe, avec le monomythe, une approche de mythologie comparée qui n'est pas psychanalytique, mais reste très influencée par les archétypes jungiens, dans la mesure où elle recherche des universaux dans l'ensemble des mythologies du monde et affirme pouvoir les ramener à une structure narrative unique chargée d'une symbolique universelle. Lévi-Strauss et le structuralisme. Au , le structuralisme adopte une approche entièrement différente en renonçant à chercher une signification univoque cachée derrière les mythes et en étudiant plutôt la façon dont les différentes versions d'un même récit peuvent s'articuler entre elles, selon des rapports dits de "transformation", c'est-à-dire de permutations entre éléments et relations au sein du mythe. Dans cette approche, le mythe a une fonction non pas étiologique (il n'a pas de version originale) mais symbolique : il constitue pour la société qui le produit une ossature indispensable à sa cohésion face à l'ensemble des éléments de son environnement qu'elle n'est pas à même d'expliquer (la mort, la violence, les conflits, le cosmos, etc.). L'analyse structurale en mythologie est lancée en particulier par l'article de Claude Lévi-Strauss « La Structure des mythes » publié en anglais en 1955 puis repris en français sous ce titre dans son ouvrage "Anthropologie structurale" en 1958. Par rapport aux approches précédentes, cette nouvelle approche présentait l'avantage d'accorder une attention plus rigoureuse aux cultures étudiées. Le mythologue ne tente plus de retrouver ou de reconstruire une version originelle du mythe qui serait supposée l'expliquer. Et surtout, sans nier l'existence de réseaux de significations dans les récits mythiques, le chercheur ne tente plus de ramener le sens d'un récit à une seule signification simpliste (tel récit symbolise le cycle des saisons, tel récit l'accession à l'âge adulte, etc.), mais observe la façon dont différents « codes » s'articulent à l'intérieur d'un même ensemble de variantes (par exemple, le fait qu'on trouve, dans un récit, une plante dotée de connotations bien précises dans la culture en question, ne doit pas empêcher d'intégrer à l'étude d'autres éléments du récit sans rapport avec la botanique). Lévi-Strauss lui-même a développé cette méthode en étudiant la mythologie amérindienne. L'approche structurale des mythes n'est cependant pas dépourvue de présupposés. Un premier reproche formulé par ses critiques est l'accusation de réduire les mythes à une simple trame narrative, qui est supposée avoir existé telle quelle, hors de tout contexte, sous la forme de récits oraux transmis de génération en génération et d'une communauté à l'autre. Les différences entre les variantes d'un même récit sont étudiées comme autant d'opérations logiques, qui montreraient une « pensée mythique », collective et spontanée, à l'œuvre dans ces récits. Un deuxième reproche adressé au structuralisme est qu'il propose des explications trop intemporelles, qui ne rendraient pas compte de l'évolution historique des mythes (de fait, ce que l'on peut reconstituer des transformations d'un récit au fil du temps dépend beaucoup des sources dont on dispose pour l'étude). Un troisième reproche consiste à refuser de réduire les mythes à de simple trames de récits détachées de tout contexte d'énonciation. Cette dernière critique a conduit certaines études à prêter davantage attention aux contextes littéraires, artistiques et culturels des différentes évocations des mythes, selon une approche pragmatique. Après les travaux de Lévi-Strauss, le structuralisme a donné lieu à toutes sortes d'études, notamment, dans le domaine de la mythologie grecque, aux travaux des chercheurs du centre Louis Gernet, à l'EHESS, initiés par Jean-Pierre Vernant et impliquant des chercheurs tels que Pierre Vidal-Naquet, Marcel Detienne ou Françoise Frontisi-Ducroux. Dans le domaine des études classiques, des publications telles que "Mythe et pensée chez les Grecs. Études de psychologie historique" de Jean-Pierre Vernant (1965) contribuent à renouveler profondément l'approche de la mythologie grecque en l'abordant sous l'angle des systèmes de pensée et en combinant les apports de l'histoire, de l'anthropologie, de la psychologie et de la linguistique. Les études mythologiques au début du. Grâce aux nouvelles approches développées par le structuralisme et par l'anthropologie historique, les études mythologiques ne se limitent plus à une approche herméneutique des mythes et s'enrichissent beaucoup en se rapprochant de plus en plus de l'anthropologie (ce dont témoignent les travaux récents de chercheurs tels que Claude Calame ou Florence Dupont, très influencés par l'approche anthropologique). Certains chercheurs prennent leurs distances par rapport à l'approche structuraliste et la remettent en cause, pour adopter notamment une approche pragmatique attentive aux contextes divers dans lesquels sont évoqués les figures et les récits mythiques. Les études littéraires des périodes postérieures à l'Antiquité s'intéressent, de leur côté, aux métamorphoses des figures, des récits et des thèmes hérités des mythologies antiques. Les mythologies ont-elles un fondement commun ? Le problème d'un éventuel fondement commun aux différentes mythologies du monde relève de la mythologie comparée. Le poète et romancier Robert Graves, qui a été profondément influencé par l'étude de James George Frazer "Le Rameau d'or", considère que les mythes sont créés par les nombreux besoins culturels. Les mythes légitiment les fondements culturels d'une tribu, d'une ville ou d'une nation en les reliant à des vérités universelles. Par exemple, les mythes justifient l'occupation d'un territoire par un peuple particulier. Robert Graves suppose que les premières cultures étaient matriarcales et fait remonter de nombreux mythes et rites au culte d'une déesse-mère. Cependant, ces présupposés théoriques lui ont valu des critiques de la part des autres mythologues, et il est considéré plutôt comme un mythographe. Au , l'un des représentants les plus radicaux de l'idée que tous les mythes ont un fondement commun est Joseph Campbell. Son livre "Le Héros aux mille et un visages", paru en 1949, décrit les idées fondamentales qu'il a continué à élaborer jusqu'à sa mort en 1987 et qui forment la théorie du monomythe. Selon Campbell, l'ensemble des mythes peuvent se ramener à un schéma narratif unique, celui du voyage du héros. Cette théorie a suscité de nombreuses critiques de la part des historiens et des anthropologues. En revanche, si son application aux mythologies des peuples anciens ou exotiques pose de nombreux problèmes, la théorie du monomythe a exercé une influence indéniable sur l'élaboration d'œuvres fictives cherchant à revêtir un caractère « mythique », en particulier les films hollywoodiens, l'ouvrage de Campbell ayant fait l'objet d'adaptations à l'attention des scénaristes. Il a donc constitué un outil de création pour les fictions ambitionnant de devenir des mythes contemporains. Développements récents de la notion de mythologie. Dans les sociétés contemporaines, la notion de mythologie, en lien avec la notion de mythe, est toujours extrêmement vivante et s'est enrichie de plusieurs sens nouveaux. Fictions à ambition mythologique. Dans le domaine culturel, outre les emplois de la notion de mythe pour qualifier des personnages de fiction devenus particulièrement populaires (voyez à Mythe), on en est venu à parler de mythologies pour désigner des univers de fiction particulièrement riches et développés qui prennent les mythologies pour modèle et ambitionnent d'en créer artificiellement de nouvelles. J. R. R. Tolkien, par exemple, ambitionnait de créer une « mythologie pour l'Angleterre » en élaborant la Terre du Milieu. Cependant, contrairement aux mythologies « premières », qui mettent en jeu toutes sortes de notions et de problématiques complexes, ces mythologies nouvelles relèvent clairement de la fiction, parce qu'elles ont un auteur et une origine bien identifiés, et parce qu'elles ne donnent jamais lieu à des croyances religieuses (ce qui ne les empêche pas de proposer, comme toute fiction peut le faire, des réflexions d'ordre moral ou philosophique parfois très élaborées). Ces fictions à ambition mythologique se caractérisent par le fait qu'elles s'inspirent, de manière plus ou moins directe et plus ou moins explicite, des mythologies « premières », via la reprise, le réagencement et la transformation d'éléments qui leur sont empruntés (personnages, peuples et créatures merveilleux, et parfois même intrigues entières, mais aussi parfois, plus indirectement, des thèmes et des questionnements sur les origines du monde). C'est la présence d'éléments de ce genre qui caractérise, par exemple, la fantasy mythique. L'intérêt persistant pour la mythologie chez les créateurs de fictions contemporains a donné lieu à la création de fictions qui se fondaient non pas seulement, de manière directe, sur les mythologies anciennes ou exotiques, mais aussi, de manière indirecte, sur les études auxquelles avaient donné lieu ces mythologies. Ainsi, de nombreux scénaristes hollywoodiens ont utilisé le livre de Joseph Campbell, "Le Héros aux mille et un visages", comme un véritable mode d'emploi pour l'écriture d'histoires à ambition « mythique » supposées atteindre plus facilement un public plus large, et donc remporter un succès plus grand. De fait, certains grands succès de la fin du , comme les films "Star Wars" ou plus tard "Le Roi lion", ont été conçus à l'aide de ce livre. La différence est donc très nette entre ces fictions à ambition mythologique et les mythologies dont elles s'inspirent, puisque ces mythologies contemporaines sont, au moins au départ, l'œuvre de créateurs qui réalisent un travail conscient sur les mythes et utilisent les acquis des études mythologiques pour produire de nouvelles fictions ambitionnant d'égaler leurs modèles au moyen d'univers toujours plus vastes et d'histoires toujours plus nombreuses. Le développement d'un même univers à l'aide de plusieurs histoires utilisant des supports différents (livres, films, BD, etc. mettant à profit les jeux d'intertextualité) apparaît comme l'un des moyens privilégiés par lesquels la fiction tente, en mobilisant les talents de créateurs toujours plus nombreux et en atteignant un public toujours plus large, de passer dans la culture populaire et d'en devenir une référence privilégiée, pour se hausser ainsi au statut de mythologie vivante. L'activité des artistes cherchant consciemment à élaborer des mythologies entières est nommée « mythopoeïa » dans la critique anglo-saxonne, en référence au titre d'un poème de composé vers 1931. Mythologies personnelles. Dans un sens voisin, on parle de « mythologie personnelle » ou de « mythologie individuelle » à propos de l'univers d'un artiste (écrivain, peintre, cinéaste, etc.) pour désigner les jeux d'échos ou de symboles discernables dans son œuvre, en particulier dans le cas d'artistes contemporains (et cela même lorsque l'artiste en question ne s'attache pas à développer un monde imaginaire cohérent semblable aux « mondes secondaires » de la science-fiction ou de la fantasy). Le terme de mythologie peut être employé soit "a posteriori" par les commentateurs pour qualifier certains aspects de l'œuvre d'un artiste (on pourra parler, par exemple, de la « mythologie nervalienne »), soit par l'artiste lui-même, de manière délibérée : ainsi, certains artistes contemporains disent élaborer des mythologies individuelles, par exemple Christian Boltanski, qui donne ce titre à une section d'une de ses expositions en 1972. Cette notion est en relation avec celle, un peu différente, de « mythe personnel », introduite dans les études littéraires par une analyse de Charles Mauron en 1963, qui baptise ainsi les structures inconscientes qu'il se propose de dégager à partir des métaphores obsédantes présentes dans les textes de plusieurs auteurs, dans une approche critique guidée par la psychanalyse. Dans l'art contemporain, la notion de mythologie personnelle est très liée à celles d'autobiographie et d'autofiction en littérature, et, dans les arts visuels, à celles d'autoportrait ou de photobiographie. Canular et "fakelore". Certaines fictions vont jusqu'à tenter de créer leurs propres mystères en se faisant passer pour vraies ou pour fondées sur des événements réels : il s'agit alors d'un emploi du canular au service de la fiction. Par exemple, certains croient que le film de l'auteur de fiction Clive Barker "Candyman" est basé sur une histoire vraie, et de nouvelles histoires ont grandi autour du mythe. Il en va de même pour des films comme "Le Projet Blair Witch" ou d'autres histoires du même type. Lorsque la frontière entre fiction et réalité est entièrement brouillée à dessein par le ou les créateurs de la fiction, cela peut aboutir à ce que le folkloriste américain Richard M. Dorson a qualifié en 1950 de "fakelore", c'est-à-dire un folklore créé artificiellement, mais présenté comme authentique. L'élaboration artificielle de mythologies est aussi utilisée, en sortant du simple cadre d'une fiction, par des mouvements religieux ou philosophiques qui ont recours aux mythes comme instruments d'affirmation de leurs croyances et de leurs valeurs. Par exemple, la wicca, principale représentante de la mouvance du néopaganisme, se réfère à une Grande Déesse fortement inspirée par les études mythologiques du et par les écrits de mythologues comme Robert Graves sur la supposée existence d'un culte préhistorique universel de la déesse-mère. Cet emploi de mythologies artificielles rejoint la dimension idéologique de la notion de mythologie. Roland Barthes : mythologies et idéologies. Le mot de « mythologie » est également employé de nos jours pour se rapporter à un système de valeurs contemporain, rarement remis en question, particulièrement lorsqu'il est vu comme idéologique ou socialement construit (par exemple, « mythologie de l'amour »). Dans les années 1950, le penseur structuraliste français Roland Barthes publia une série d'analyses sémiotiques de tels mythes modernes et du processus de leur création, rassemblées dans son livre "Mythologies". L'ouvrage a fait date et suscité plusieurs reprises ou continuations. Géomythologie. La géomythologie est une discipline historico-scientifique formalisée au début des années 1970 par la géologue Dorothy Vitaliano, qui cherche à expliquer l'origine des mythes recelant la trace d'événements géologiques, d'éléments paléontologiques ou géomorphologiques. Voir aussi. Articles connexes. D'autres articles connexes sont listés dans l'article Mythe. |
Maya Maya est un nom commun ou propre qui peut avoir plusieurs significations : Ethnologie. En ethnologie : |
Modèle OSI Le modèle OSI (de l'anglais "") est une norme de communication, en réseau, de tous les systèmes informatiques. C'est un modèle de communications entre ordinateurs proposé par l'ISO (Organisation internationale de normalisation) qui décrit les fonctionnalités nécessaires à la communication et l'organisation de ces fonctions. Histoire. Le modèle OSI a été conçu dans les années 1970, sur fond de rivalités entre trois architectures de conceptions différentes : la DSA lancée par CII-Honeywell-Bull innove dans l'informatique distribuée en mettant en avant les mini-ordinateurs Mitra 15 puis Mini 6, tandis que Decnet, de DEC, et SNA d'IBM donnent une plus grande place au site central, contrôlant l’ensemble des ressources matérielles et logicielles, les utilisateurs y accédant pour une "session" via des terminaux passifs. Hubert Zimmermann est recruté en 1971 à l'INRIA par Louis Pouzin pour développer le Datagramme, technologie qui suscite un enthousiasme international, appuyée par la CII. Responsable et secrétaire du groupe de travail "Architecture informatique", au sein de l'International Organization for Standardization, il est le concepteur de la première version de l’architecture OSI, selon Vinton Cerf, avec le renfort du spécialiste des bases de données Charles Bachman. Dès 1975, les PTT ont en effet combattu le datagramme et le réseau Cyclades, pour lui préférer Transpac. C'est en que Charles Bachman présente son modèle de communication en 7 couches dans le document ISO/TC97/SC16/N34. Les grands opérateurs télécoms européens, alors tous publics, la combattent. C'est à cause de ce retard et de son contexte trop peu ouvert, que la norme OSI sera supplantée par TCP/IP dans le domaine de l'Internet naissant, puisqu'il sera finalement adopté par le réseau Arpanet le (en remplacement du protocole ). L'OSI devient une norme en 1984 : la norme ISO 7498:1984 du qui sera révisée en 1994 sous la norme ISO/IEC 7498-1:1994, à un moment où il lui manque encore une vraie couche Internet ; Aperçu. La norme complète, de référence ISO 7498, est globalement intitulée « Modèle basique de référence pour l'interconnexion des systèmes ouverts (OSI) » et est composée de quatre parties : La version de cet article ainsi que les articles consacrés à chacune des couches du modèle se concentrent sur la partie 1, révision de 1994. L'UIT-T en a approuvé le texte à l'identique sous le numéro de recommandation X.200 en 1994. Le texte de la norme proprement dite est très abstrait car il se veut applicable à de nombreux types de réseaux. Pour la rendre plus compréhensible, en plus de présenter la norme, cet article fait des liens avec les réalisations concrètes telles qu'on les trouve dans un ordinateur, c’est-à-dire des piles protocolaires concrètes (un « système réel » au sens de la section 4). De plus, la norme n'indique pas de mécanismes propres à assurer les fonctions définies alors que cet article le fait. Les exemples de services et surtout de protocoles sont pris dans le monde dit "IP" (probablement le plus connu mais aussi le plus éloigné de l'esprit de la norme), le monde RNIS (y compris la seconde génération, plus connue sous le nom ATM) et parfois le monde OSI (qui ne fait pas que des modèles). Les combinaisons offertes par le modèle sont beaucoup plus nombreuses que celles réalisées dans des piles de protocoles existantes, on ne peut donc pas donner d'exemple réel pour toutes les fonctions. Présentation de la norme. L'objectif de cette norme est de spécifier un cadre général pour la création de normes ultérieures cohérentes. Le modèle lui-même ne définit pas de service particulier et encore moins de protocole. Concepts et terminologie : services, protocoles et interfaces. Le modèle est essentiellement une architecture en couches définies et délimitées avec les notions de service, de protocole et d'interface. Les détails d'un service varient bien sûr d'une architecture de réseau à l'autre. La classification la plus grossière se fait selon que le service fonctionne en mode connecté ou non. Malgré cette variabilité, les fonctions communes ont des noms conventionnellement constants. Ces noms ne proviennent toutefois pas directement de ISO 7498-1. Les données fournies à une primitive de service sont appelées (N)-SDU (« ») où N est l'indication de la couche, son numéro dans la norme, parfois une lettre tirée du nom de la couche. Les messages d'un protocole sont appelés PDU (« »). Architecture en couches. Le modèle comporte sept couches succinctement présentées ci-dessus de bas en haut et détaillées dans leurs articles respectifs. Ces couches sont parfois réparties en deux groupes. Les trois couches inférieures sont plutôt orientées communication et sont souvent fournies par un système d'exploitation et par le matériel. Les quatre couches supérieures sont plutôt orientées application et plutôt réalisées par des bibliothèques ou un programme spécifique. Dans le monde IP, ces quatre couches sont rarement distinguées. Dans ce cas, toutes les fonctions de ces couches sont considérées comme faisant partie intégrante du protocole applicatif. Par ailleurs, les couches basses sont normalement transparentes pour les données à transporter, alors que les couches supérieures ne le sont pas nécessairement, notamment au niveau présentation. Dans une telle architecture, une « entité » de niveau (N+1) envoie des données avec la primitive codice_8 à l'entité de niveau (N) en lui fournissant comme données un (N+1)-PDU qui sera à son tour encapsulé dans un (N)-PDU. Côté récepteur, chaque entité analyse l'enveloppe protocole correspondant à sa couche et transmet les données à la couche supérieure sous la forme d'une primitive codice_8. Certaines fonctions comme la détection des erreurs de transmission, leur correction et le contrôle de flux peuvent être présentes dans plusieurs couches. Ces fonctions sont décrites globalement plus loin. Caractérisation résumée des couches. La caractérisation donnée ici est tirée du chapitre 7 de ISO 7498-1. La description originelle donne en plus, pour chaque couche, les fonctions de manipulation de commandes ou de données significatives parmi celles décrites plus bas. Il existe différents moyens mnémotechniques pour les retenir plus facilement. Quelques précisions. Lorsque les services réseau et transport fonctionnent tous les deux en mode connecté, il n'y a pas toujours de distinction claire entre ces deux services. Il y a toutefois deux cas où cela est très simple : Les fonctions communes. Fiabilisation des communications. L'un des rôles majeurs des couches 2 à 4, présentes dans nombre de piles protocolaires, est la construction d'une connexion exempte d'erreurs de transmission. Cela signifie que les données transmises sont reçues sans corruption, perte, réordonnancement ni duplication. Cela implique qu'au moins une couche, et en pratique plusieurs, fasse de la détection d'erreur, de la correction d'erreur ou de la retransmission de données et du contrôle de flux. Les contrôles de flux des couches 2 et 3 peuvent sembler redondants, mais ce n'est pas nécessairement le cas. En effet, le contrôle de flux au niveau 2 garantit l'asservissement seulement sur une ligne. Mais si une machine est dotée de plusieurs interfaces, c'est le cas notamment de tous les routeurs, et qu'il n'y a pas de contrôle de flux sur au moins une des interfaces, il y a un risque de saturation dans l'entité de niveau réseau. Ce cas se présente en particulier dans les réseaux X.25 où le contrôle de flux est une option, négociée à l'ouverture de la connexion. Fonctions de transformation. En plus de la structure en couche, le modèle définit aussi une série de mécanismes standards de manipulation de commandes ou de données, utilisées pour la réalisation d'un service. Cette section définit les plus courantes. Ces transformations sont décrites par paire d'opérations inverses l'une de l'autre. Limitations du modèle et utilisations étendues. Cette section illustre quelques cas où une architecture réseau ne peut entrer complètement dans le cadre du modèle OSI. Le modèle prévoit que dans une pile concrète, il y ait un et un seul protocole par couche. Il y a toutefois des cas où cela est quasi impossible, en particulier lors de l'interconnexion de réseaux hétérogènes, c’est-à-dire utilisant des jeux de protocoles différents. Par exemple, un tunnel simple permet de relier 2 réseaux homogènes en traitant un réseau d'un autre type comme une connexion point à point. C'est cette technique qui est utilisée pour relier temporairement une machine isolée à Internet (hors-lignes xDSL) : Un modem gère une connexion téléphonique entre 2 machines distantes, donc une connexion de niveau 3 dans la pile RNIS, et l'utilise pour transmettre des trames PPP, protocole de niveau 2 alors que dans une pile canonique, cela serait des PDU de niveau transport (4). Il y a aussi des situations où deux protocoles de même niveau sont utilisés simultanément, car la combinaison du service fourni et du service attendu de la couche inférieure l'exige. Ainsi, dans le monde IP, les protocoles SSL et TCP fournissent tous deux un service de communication point à point entre processus, SSL pouvant se substituer à TCP, mais le seul protocole standard réalisant le service attendu par SSL pour fonctionner est TCP. On superpose donc SSL sur TCP. Dans certaines architectures réseau, le service offert aux machines d'extrémité n'est pas suffisant pour satisfaire les besoins internes au réseau. Par exemple, dans un réseau ATM, le service réseau est en mode connecté. Il faut donc une pile protocolaire capable de transporter la signalisation (les messages de gestion des connexions) mais le service offert par cette pile n'est pas accessible aux machines d'extrémité. Pour modéliser cela, on superpose au découpage « horizontal » en couche, un découpage « vertical » en « plan » dans lequel les piles protocolaires sont indépendantes. Ainsi, un modèle de réseau ATM est constitué de 3 plans : le plan usager pour les données ordinaires, le plan de contrôle pour le transport de la signalisation et un plan de gestion pour la supervision interne au réseau. Les réseaux téléphoniques (réseaux fixes RNIS et réseaux UMTS) ont aussi un découpage en plan similaire. Le monde IP et le modèle OSI. S'il y a bien une correspondance grossière entre les protocoles de la pile IP et les couches du modèle, on ne peut pas considérer que la pile IP soit vraiment compatible avec le modèle OSI. En particulier, la séparation des couches dans la pile IP est nettement plus approximative. En voici 2 illustrations. Pour être conforme au modèle, un protocole d'une pile ne doit pas dépendre des protocoles des autres couches, mais uniquement du service fourni. À titre d'exemple de non-conformité, considérons la détection des erreurs dans une pile IP. Les 2 protocoles TCP et UDP ont dans leur en-tête une somme de contrôle pour la détection des erreurs. Le calcul de cette somme fait intervenir une partie de l'en-tête IP. Les protocoles TCP et UDP ne sont donc pas indépendants de IP. Cela se remarque notamment au fait que lors de passage de IP version 4 à IP version 6, il faut redéfinir la façon de calculer ces sommes de contrôle alors que les protocoles eux-mêmes n'ont pas réellement changé. Lorsqu'un datagramme UDP, protocole de niveau transport en principe, arrive à une adresse (paire <adresse IP, numéro de port>) alors qu'il n'a pas de processus destinataire, l'erreur est signalée à l'émetteur en lui envoyant un paquet ICMP indiquant « port inaccessible ». Or ICMP est en principe un protocole de niveau réseau. La machine recevant ce paquet doit donc examiner la partie donnée de ce paquet pour déterminer le processus devant recevoir la notification d'erreur. Différence de protocole et perte de transparence des données sont deux cas de mauvaise séparation des couches. Notons à cette occasion que TCP utilise en revanche un mécanisme normal pour cette situation : la levée de l'indicateur RST dans le message d'erreur. Le modèle TCP/IP. Le modèle TCP/IP (appelé aussi modèle Internet), qui date de 1976, a été stabilisé bien avant la publication du modèle OSI en 1984. Il présente aussi une approche modulaire (utilisation de couches) mais en contient uniquement quatre : Aujourd'hui, c'est le modèle TCP/IP, plus souple, qui l'emporte sur le marché. Le modèle OSI, plus rigoureux, est principalement utilisé pour certaines applications critiques, ou pour ses fonctionnalités permettant de garantir une qualité de service. Notoriété du modèle abstrait OSI. Le découpage en 7 couches du modèle OSI reste cependant apprécié par les ingénieurs réseau, car il organise les discussions et concepts en permettant d'étager les normes inhérentes aux services applicatifs. On trouve souvent une correspondance avec le modèle abstrait OSI, ce qui lui confère une véritable universalité, qui était à la fois une contrainte et un objectif pour ses concepteurs. Ainsi le Web, qui dessert mondialement tout internaute, et considéré comme le nec plus ultra des réseaux Internet (TCP/IP), est découpable comme suit : La notoriété de ce modèle trouve un prolongement humoristique dans le jargon informatique, où l'expression « Couche 8 » désigne l'entité supérieure qu'est l'utilisateur humain du système, encore appelé « ICC (interface chaise-clavier) » ou « Code 18 / Code 45 » (en référence à la distance moyenne, exprimée en pouces ou en centimètres, séparant un utilisateur de son écran). |
Miysis Miysis est un dieu de la mythologie égyptienne. Miysis est un dieu de la guerre, successeur de Sekhmet lors du Nouvel Empire, qui lutte aux côtés de Rê chaque nuit contre le serpent Apophis. Fils de Bastet, la déesse féline, on le représente sous les traits d'un prince à tête de lion. Il est le premier dieu à être apparu lors du Nouvel Empire. Dieu de Léontopolis (l'actuelle Tel Moqdam), on élevait dans son temple un lion vivant, symbole du dieu, qui était enterré dans une nécropole toute proche. Il est parfois assimilé au dieu Sopdou. Attributs. Successeur de Sekhmet dans le rôle de dieu de la guerre, Miysis est également le gardien et seigneur des horizons. Il est celui qui aide Rê à combattre Apophis chaque nuit et est également le protecteur du pharaon lors des batailles. Durant la gouvernance grecque sur l’Égypte, on lui a attribué la capacité de Sekhmet de commander aux vents et aux tempêtes. Dans ses représentations courantes, il est montré debout, portant une épée ou un couteau et il peut parfois être montré couronné de l'atef ou du disque solaire et prend par moments l'apparence d'un lion dévorant un captif. Origine. Les égyptologues retracent l'origine de Miysis à la domination nubienne, sa présence étant une potentielle assimilation d'une divinité nubienne durant le Nouvel Empire, les deux civilisations ayant été extrêmement proches déjà par le passé. Durant la dominance grecque de la région, il a par la suite été attesté d'un temple de Miyis dans l'annexe d'un temple de Sekhmet auparavant attribuée à la déesse chatte Bastet dans la cité de Léontopolis. Il y a une analogie évidente entre la déesse guerrière Sekhmet et Miysis dont il est le pendant masculin et successeur dans la lutte contre les ennemis de l’Égypte. Phonologie. On peut également voir une analogie phonétique entre Mahes et Mars et Arès, respectivement les dieux romains et grecs de la guerre. |
Maison-Blanche La Maison-Blanche () est la résidence officielle et le bureau du président des États-Unis. Elle se situe au 1600, NW à Washington D.C. Le bâtiment en grès d'Aquia Creek et peint en blanc, construit entre 1792 et 1800, s'inspire de l'Architecture georgienne. Il est le lieu de résidence, de travail et de réception de tous les présidents américains depuis John Adams, deuxième président des États-Unis, qui y entre en 1800. L'expression « Maison-Blanche » est souvent employée pour désigner, par métonymie, l'administration du président. Elle est le symbole du pouvoir exécutif et de la puissance politique américaine. Son actuel résident est Joe Biden, des États-Unis. De son inauguration en 1800 à l'année 1942, la demeure subit de nombreuses modifications : des reconstructions à la suite d'incendies (1814 et 1929), de réaménagements fonctionnels par les présidents successifs ou d'extensions avec notamment la construction de l'aile ouest en 1901 et de l'aile est en 1942. À partir de cette date, si l'on excepte la modernisation des installations et la construction de quelques aménagements de sécurité ou de loisir (piscine, terrain de golf et jardins notamment), l'aspect de la Maison-Blanche n'évolue pratiquement plus. Son emprise au sol s'agrandit avec le temps avec l'adjonction, au sud, de jardins situés dans un espace autrefois public. Aujourd'hui, le complexe de la Maison-Blanche comprend la résidence présidentielle (, le bâtiment central historique dans lequel la famille présidentielle réside et où se tiennent un certain nombre de réceptions officielles et quelques réunions), l'aile Ouest (où se trouvent les bureaux de l'administration présidentielle, dont le Bureau ovale, la et la ) et l'aile Est (où se trouvent le bureau de la et le secrétariat social de la Maison-Blanche), ainsi que le , grand bâtiment situé juste en face de l'aile Ouest et qui abrite des bureaux de l'administration présidentielle et le bureau du vice-président des États-Unis. Le complexe inclut également un jardin au nord donnant sur Pennsylvania Avenue et un parc au sud sur lequel se pose l'hélicoptère présidentiel . La Maison-Blanche et ses jardins font partie d'un plus grand ensemble, le parc du Président () qui comprend aussi le Lafayette Square au nord, de l'autre côté de Pennsylvania Avenue, et l'Ellipse au sud. Ces deux espaces, ouverts au public, sont gérés par le . Histoire. Premières résidences officielles. Après son investiture en , le président George Washington occupe deux hôtels particuliers à New York : le au 3 Cherry Street (d' à ) et l' au 39-41 Broadway (de février à ). Une loi fédérale datant de , le , désigne la ville de Philadelphie comme capitale provisoire pour une période de dix ans. Ce délai correspond au temps nécessaire à la construction de la nouvelle capitale fédérale : Washington. La ville de Philadelphie loue alors l'hôtel particulier de Robert Morris, au 190 High Street (aujourd'hui le 524-30 Market Street), pour devenir la résidence officielle du président Washington. À la même époque, l'État de Pennsylvanie construit un palais présidentiel à quelques pâté de maisons de là dans l'espoir que Philadelphie soit finalement désignée comme capitale fédérale permanente. George Washington occupe l'hôtel de Market Street de à , en y apportant des modifications qui influenceront le style de la future Maison-Blanche. Le président Adams décide également d'occuper cet hôtel après avoir refusé de s'installer au palais présidentiel (acheté "in fine" par l'université de Pennsylvanie). Concours architectural. La nouvelle capitale de la jeune République est située sur un terrain cédé par les États de Virginie et du Maryland. Ces derniers transférèrent la propriété du terrain au gouvernement fédéral à la suite du compromis conclu avec le président George Washington. Le Congrès chargea les commissaires du District de Columbia de construire la nouvelle ville sous la direction du président. L'architecte de la Maison-Blanche fut choisi lors d'un concours qui opposa neuf propositions, dont une fut soumise anonymement par Thomas Jefferson. Le président Washington se rendit sur place le pour prendre sa décision, avec l'urbaniste Pierre Charles L'Enfant. Selon les registres, le passage en revue des différents projets et la sélection du finaliste furent très brefs. Le choix s'est porté sur le projet de James Hoban, un Irlandais de Charleston. La majorité des autres projets architecturaux étaient maladroits et naïfs. Washington n'était pas tout à fait satisfait par l'œuvre originale d'Hoban, car il trouvait que le bâtiment était trop petit, manquait d'ornements et ne serait pas digne d'un chef d'État. Sur ses recommandations, la maison fut agrandie de près de 30 % et il fut ajouté un grand hall de réception, l'actuelle . La construction de cette dernière est probablement inspirée de la grande salle de réception de . Influences architecturales. Le bâtiment est d'inspiration classique dont les sources pourraient se chercher de façon directe ou indirecte chez l'architecte romain Vitruve ou encore chez Andrea Palladio, architecte italien de la Renaissance qui eut une influence considérable sur toute l'architecture occidentale. Le bâtiment dessiné par Hoban est largement inspiré des deux premiers étages de , un palais ducal situé à Dublin et qui est désormais le siège de la Chambre basse du Parlement irlandais. Beaucoup d'autres bastides irlandaises de l'époque georgienne ont été désignées comme sources probables d'inspiration pour la façade sud en arc de cercle, ou encore, pour des détails d'intérieur comme les anciennes niches de la . Bien qu'il n'existe aucun document prouvant ces influences, ils sont officiellement cités dans le guide de la Maison-Blanche et dans des publications de l'Association historique de la Maison-Blanche. Le premier guide officiel de la Maison-Blanche, publié en 1962, suggère un lien entre le plan d'Hoban pour le portique sud, et le château de Rastignac, une demeure néoclassique située à La Bachellerie, en Dordogne. Cette bâtisse fut construite entre 1812 et 1817, sur les bases des plans antérieurs de la Maison carrée d'Arlac, dans la banlieue de Bordeaux (1785-1789). Le lien entre les deux bâtiments a été contesté par le fait qu'Hoban n'a jamais visité la France. Cependant, il est avéré que Thomas Jefferson a visité l'École spéciale d'architecture de Bordeaux en 1789 où il vit les croquis de Mathurin Salat, l'architecte du château de Rastignac. À son retour aux États-Unis, il partagea sa découverte avec Washington, Hoban, Monroe et Benjamin Henry Latrobe. Il faut également songer à l'hôtel de Salm, construit de 1782 à 1787 à Paris par l'architecte Pierre Rousseau, qui est l'actuel Palais de la Légion d'honneur, et que Thomas Jefferson avait connu lorsqu'il était ambassadeur à Paris. Construction. La construction commença avec la pose de la première pierre le , bien qu'il n'y ait eu aucune cérémonie officielle. Le journal tenu par le commissaire chargé de la construction du District de Columbia relate ainsi que les fondations ont été réalisées par des esclaves et The White House Historical Association note que la proximité des deux États esclavagistes de Virginie et du Maryland a dans cette région alors peu peuplée et que les responsables de la construction . Une grande partie du travail sur la maison a été exécuté par des immigrants européens qui, pour la majeure partie d'entre eux, ne possédaient pas encore la nationalité américaine. Les murs de grès ont été érigés par des immigrants écossais, tout comme la rose en haut-relief et les guirlandes qui surplombent l'entrée nord. Quant aux briques et aux plâtreries, elles ont été réalisées par des immigrants irlandais et italiens. La construction initiale s'est étalée sur huit années pour un coût de (ce qui correspondrait à environ de dollars, en valeur de 2005). La Maison-Blanche accueillit son premier locataire, le président John Adams dès le , alors que la construction n'était pas encore achevée. Une fois les travaux terminés, le grès poreux fut enduit d'un mélange de chaux, de colle, de caséine et de plomb, pour donner finalement au bâtiment sa couleur et son nom. Appellation. À l'origine, la demeure était appelée « palais présidentiel » ou « manoir présidentiel ». L'épouse du président Madison, Dolley Madison, l'appelait le « château du président ». La première apparition du terme de « Maison-Blanche » apparaît en 1811. Durant la guerre de 1812, le bâtiment fut partiellement détruit par des incendies, et un mythe voit l'origine de l'appellation « Maison blanche » dans la peinture blanche utilisée pour la reconstruction. Le nom de « Manoir exécutif » fut souvent employé dans des contextes officiels jusqu'à ce que le président Theodore Roosevelt établisse le nom formel en 1901 en faisant figurer « Maison-Blanche-Washington » sur l'en-tête de son papier à lettres. Grand communicateur, il désirait en effet créer une « marque » forte. Le président Franklin Roosevelt le modifia par la suite en « La Maison-Blanche » avec l'inscription « Washington » centrée en dessous. Cette convention perdure encore aujourd'hui. Bien qu'elle ne fût construite que plusieurs années après la présidence de George Washington, certains, et en premier lieu le comté de New Kent en Virginie, suggèrent que le nom provient de celui de la maison où vécut l'épouse de Washington, Martha Custis Washington : située dans le comté. En effet, c'était, semble-t-il, un endroit cher aux époux. Évolution du bâtiment. De l'inauguration, en 1800, à l'incendie de 1814. John Adams fut le premier président à résider pour quelques mois dans le bâtiment, à partir du . Deux jours après son emménagement, il écrivit une lettre à sa femme Abigail, dans laquelle on trouve une prière pour le bâtiment : Franklin Delano Roosevelt a fait inscrire cette bénédiction d'Adams sur les rideaux de la (salle à manger d'État). Adams n'y a vécu que très brièvement avant que n'emménage Thomas Jefferson, qui s'est beaucoup intéressé aux améliorations à apporter à la Maison-Blanche. Avec l'aide de Benjamin Henry Latrobe, il dessina les plans des colonnades Est et Ouest : de petites ailes qui permettent de garder les activités domestiques à l'abri des regards. De nos jours, les vestibules de Jefferson relient la résidence aux ailes Est et Ouest. En août 1814, pendant la guerre anglo-américaine de 1812, une très grande partie de la ville fut brûlée par les troupes britanniques en représailles de l'incendie du Parlement du Haut-Canada, lors de la bataille de York (l'actuelle Toronto). La Maison-Blanche fut très endommagée et seuls les murs extérieurs restèrent debout. Une légende veut qu'après une reconstruction intérieure, les murs des façades aient été peints en blanc pour masquer les dégâts causés par la fumée lui donnant du coup le nom de « Maison-Blanche ». Cependant, on prétend qu'il n'en fut rien puisque la maçonnerie fut tellement affaiblie par l'incendie qu'il fallut abattre ces murs. Parmi les décombres de la Maison-Blanche, seuls deux objets ont pu être récupérés : une peinture de George Washington sauvée par la future Première dame, Dolley Madison, et une boîte à bijoux renvoyée au président Roosevelt, en 1939, par un Canadien qui avoua que son père l'avait subtilisée à Washington. Le reste du butin de guerre fut irrémédiablement perdu lors du naufrage de la flotte britannique menée par le HMS . Les navires qui reliaient Prospect à Halifax furent en effet pris au cœur d'une tempête dans la nuit du . Après l'incendie, Latrobe et Hoban conçurent un nouveau plan et suivirent l'avancement des travaux de reconstruction. Le portique sud a été construit en 1824 et celui du nord en 1830, et, bien que des portiques semblables aient été proposés par Latrobe au cours de la reconstruction après l'incendie de 1814, ceux qui furent édifiés ont été conçus par Hoban. Contrairement à une idée répandue, le portique nord n'a pas été copié sur un autre bâtiment de Dublin, le (désormais, la résidence du président d'Irlande), dont le portique est postérieur à la conception des portiques de la Maison-Blanche. On peut noter une variation de l'ordre ionique sur les colonnes du portique nord, par l'incorporation de roses entre les volutes. Ceci a été fait pour relier le nouveau portique à l'entrée, au-dessus de laquelle sont gravées des roses. Le portique sud a été construit en 1829. La similitude entre ce portique et un portique elliptique avec les escaliers incurvés du château de Rastignac est fréquemment soulignée comme une source probable. Les décorations des deux portiques ont été réalisées par des artisans italiens venus à Washington pour aider à la construction du Capitole des États-Unis. La construction de l'aile Ouest. La Maison-Blanche fut la cible d'attaque le quand le président de l'époque, John Tyler, mit son véto à un projet de loi concernant l'établissement de la deuxième banque des États-Unis. Le rassemblement devant la Maison-Blanche de membres du Parti libéral en colère tourna à l'émeute. Celle-ci est à ce jour la plus violente démonstration de force ne s'étant jamais déroulée devant la Maison-Blanche de toute l'histoire des États-Unis. À l'époque de la guerre de Sécession, la Maison-Blanche commença à manquer de place. Il y eut également des contestations au niveau de sa localisation, juste au nord d'un canal et d'une zone marécageuse, propices au développement du paludisme et d'autres maladies. Le général de brigade Nathaniel Michler fut chargé de trouver des solutions à ces interrogations. Il proposa d'abandonner la Maison-Blanche en tant que résidence, pour qu'elle ne serve plus qu'à l'administration. Il préconisa alors que la famille présidentielle s'installe sur un nouveau domaine, au parc de Meridian Hill, à Washington. Ce plan fut rejeté par le Congrès. Quand Chester Alan Arthur prend ses fonctions en 1881, il ordonne qu'une rénovation de la Maison-Blanche soit réalisée dès que la veuve du précédent président, Lucretia Garfield, déménage. Arthur inspecte le travail presque tous les soirs et fait plusieurs suggestions. Il est demandé à Louis Comfort Tiffany d'envoyer des créateurs pour l'aider. Plus de vingt wagons de meubles et d'articles ménagers sont retirés du bâtiment et vendus aux enchères publiques. Seuls sont sauvés les portraits de John Adams et de Martin Van Buren. Une proposition émerge même pour construire une nouvelle résidence au sud de la Maison-Blanche, mais elle échoue faute d'appui. À l'automne 1882, les travaux effectués sur le couloir principal comprennent la teinte des murs couleur olive pâle avec des carrés de feuilles d'or et la décoration du plafond en or et argent avec des traceries colorées qui représentent les lettres « USA ». La est peinte en rouge sombre de Poméranie et son plafond est orné d'étoiles d'or, d'argent et de cuivre, ainsi que de bandes rouges, blanches et bleues. Un miroir d'une quinzaine de mètres, orné de pierres de chez Tiffany, soutenu par des colonnes de faux marbre, remplace les portes en verre qui séparent le couloir principal à partir du vestibule septentrional. En 1891, la femme du président Benjamin Harrison, Caroline, proposa de construire des extensions à la Maison-Blanche : une aile nationale à l'est pour une galerie d'art historique et une aile pour les fonctions officielles à l'ouest. La conception fut confiée au colonel Theodore A. Bingham, qui suivit scrupuleusement les recommandations de madame Harrison. En 1901, Theodore Roosevelt emménagea dans la Maison avec sa famille nombreuse, révélant ainsi un manque de place criant. Le cabinet McKim, Mead and White fut engagé pour mener les rénovations et la construction des extensions dont celle de l'aile Ouest. Pendant les travaux, qui durèrent près de quatre mois en 1902, la famille présidentielle avait élu domicile au . Dès 1909, le président Taft requit davantage de place. L'architecte Nathan Wyeth fut chargé d'agrandir l'aile Ouest, avec notamment l'ajout du bureau ovale en 1910. Sous le mandat de Coolidge, un quatrième étage est élevé. En 1942, pendant la Seconde Guerre mondiale et sous l'administration Roosevelt, l'aile Est et un bunker () sont aménagés pour faire face à un éventuel bombardement. La reconstruction de Truman. Après des décennies de mauvais entretien et la construction d'un quatrième étage sous l'administration Coolidge, la structure de brique et grès était en piteux état et menaçait de s'effondrer. Au mois d', une section du plancher s'effondra, obligeant la fermeture de la chambre et de la salle de bain de Truman. Une rénovation nécessitant le démantèlement complet des espaces intérieurs, la construction d'une nouvelle armature en acier et la reconstruction des salles originales dans la nouvelle structure fut indispensable. Les travaux seront exécutés par l'entrepreneur John McShain de 1949 à 1951, obligeant, dès 1948, le président Truman à abandonner provisoirement la Maison-Blanche pour s'installer de l'autre côté de la rue, à Blair House. Seule la nouvelle aile Ouest resta opérationnelle durant les travaux, obligeant Truman à traverser "Pennsylvania Avenue" chaque matin et après-midi pour se rendre au Bureau ovale. On profita alors de cette restructuration pour apporter quelques modifications au plan initial (notamment au rez-de-chaussée), la plus importante étant la reconfiguration de l'escalier principal () dont le palier débouche désormais sur le hall d'entrée (), au lieu du hall central (). La climatisation a également été ajoutée, tandis que deux sous-sols additionnels ont été creusés afin de fournir l'espace nécessaire pour des salles de travail, une chambre de stockage et un abri anti-aérien. Bien que la Maison-Blanche ait été sauvée par cette reconstruction, la majorité des éléments ayant une valeur historique furent néanmoins sacrifiés. Ainsi, la majorité des plâtres originaux, dont certains dataient des travaux de 1814-1816, étaient trop endommagés pour pouvoir être réinstallés (tout comme le robuste lambris original de style Beaux-Arts, dans l'). Tandis que l'armature originale en bois de la maison servit pour le lambrissage de la salle Vermeil, de la bibliothèque, de la salle des Porcelaines et de la salle des Cartes. La famille Truman reprit possession de la Maison-Blanche à partir du . La restauration Kennedy. Jacqueline Kennedy, la femme du président John Fitzgerald Kennedy (1961-1963), a mené la plus importante des redécorations de l'intérieur de la Maison-Blanche, l'ayant trouvé négligé. Elle fit transformer l'intérieur de nombreuses pièces afin de leur rendre leur aspect du , utilisant souvent des meubles de grande qualité entreposés et oubliés dans les sous-sols. Henry Francis du Pont, du musée Winterthur, a dirigé le (Comité des Beaux-Arts de la Maison-Blanche). Des recherches furent conduites pour l'utilisation et la décoration des premières pièces principales de la maison. Chaque pièce fut décorée dans un style correspondant à différentes périodes des débuts de la République : le style fédéral pour la , le style Empire français pour la , le style Empire américain pour la , le style Louis pour la et le style victorien pour la . Des meubles anciens, ainsi que des tissus et des objets décoratifs ont été acquis, sur la base de documents historiques de chaque période. Une grande partie des antiquités, des peintures et des autres améliorations de la période Kennedy proviennent de riches donateurs, parmi lesquels la famille Crowninshield, Jane Engelhard, Jayne Wrightsman et la famille Oppenheimer. Le Bureau du conservateur de la Maison-Blanche () est créé. La restauration Kennedy a eu comme conséquence de donner (re)naissance à une Maison-Blanche majestueuse qui rappelait l'intérêt des présidents Madison et Monroe pour la France. La quasi-totalité de l'inspiration française provient du décorateur d'intérieur, Stéphane Boudin de la maison Jansen à Paris. Ce cabinet d'architecture d'intérieur a également conçu les intérieurs pour Elsie de Wolfe, Lady Olive Baillie, les familles royales de Belgique et d'Iran, la Reichsbank allemande pendant la période du national-socialisme et le château de Leeds dans le Kent. Le premier guide de la Maison-Blanche a été réalisé sous la direction du conservateur Lorraine Waxman Pearce, sous la supervision de Jacqueline Kennedy. La vente de ces guides aide à financer les restaurations. Pour financer les travaux, la Première dame réussit à réunir en trois ans 1,5 million de dollars (dons, prêts de tableaux). Le 14 février 1962, elle apparaît dans une émission télévisée afin de présenter le résultat de la rénovation de la Maison-Blanche aux Américains. Avec 46,5 millions de téléspectateurs, le programme rafle 75 % de l'audience. Création du Comité de préservation de la Maison-Blanche. Le Comité des Beaux-Arts des Kennedy est devenu par un ordre exécutif de Lyndon B. Johnson, après approbation du Congrès, le Comité pour la préservation de la Maison-Blanche. Sa mission consiste à maintenir l'intégrité historique de la Maison-Blanche. Le comité travaille en collaboration avec la famille du président, représentée par la première dame, le conservateur et l'huissier en chef de la Maison-Blanche. Depuis la création du comité, chacune des familles présidentielles a effectué des changements au sein des appartements familiaux. Cependant, les changements afférents aux salles d'État doivent être approuvés au préalable par le comité. Sous l'administration Nixon, Pat Nixon a totalement remis à neuf la , la et la , en collaboration avec Clement Conger. Avec plus de 600 objets nouvellement introduits, il s'agit de la plus importante acquisition réalisée sous une administration. Son mari choisit de créer une salle de presse moderne à l'emplacement de l'ancienne piscine de Franklin Delano Roosevelt. Nixon ajoute également une salle de quilles dans le sous-sol de la Maison-Blanche. Sous l'administration Carter, des ordinateurs et la première imprimante laser sont installés à la Maison-Blanche. L'utilisation de l'ordinateur s'accroit de plus en plus sous l'administration Reagan. Reagan fait également retirer une innovation de l'ère Carter : un ensemble de panneaux solaires monté sur le toit et alimentant un chauffe-eau. De nouvelles transformations sont entreprises dans les années 1980 par Nancy Reagan, l'épouse du président Ronald Reagan. La Maison-Blanche obtient le statut de musée en 1988. Dans les années 1990, Hillary Clinton fit refaire certaines pièces par un décorateur de l'Arkansas, Kaki Hockersmith. L'administration Clinton vit ainsi une rénovation de l', de la , de la et de la . Une nouvelle restauration de la , de la et de l' sous l'administration du président George W. Bush. En 2010, Barack Obama décide de réinstaller des panneaux solaires sur le toit de la résidence. La Maison-Blanche est un des quelques bâtiments du gouvernement à Washington accessible aux personnes en fauteuil roulant. Des aménagements furent en effet effectués pendant la présidence de Franklin Delano Roosevelt qui devait se déplacer en fauteuil roulant, à la suite d'une poliomyélite. D'ailleurs, dans les années 1990, à l'initiative de la directrice du Bureau des Visiteurs, une rampe d'accès fut ajoutée au corridor de l'aile Est. Elle facilite l'accès aux personnes à mobilité réduite pour les visites et les évènements spéciaux, par le biais de l'entrée sécurisée du côté est. Le président ne sort de la résidence qu'en convois de voitures ou en hélicoptère. Le président Dwight David Eisenhower fut le premier président à voyager en hélicoptère depuis la Maison-Blanche. Composition du bâtiment. Complexe de la Maison-Blanche. De nos jours, le petit groupe de bâtiments de la présidence est connu sous le nom de "Complexe de la Maison-Blanche". Il comprend le bâtiment central appelé résidence exécutive (), encadré par l'aile Est et l'aile Ouest (). Le , un grand immeuble qui abrite le Bureau exécutif du président des États-Unis et le bureau du vice-président et situé à proximité immédiate de l'aile Ouest est quelquefois inclus sous ce terme. Le fonctionnement de tout les jours de la Maison-Blanche est coordonné par l'huissier en chef de la Maison-Blanche (). Il est difficile de se rendre compte de la taille de plus de de la Maison-Blanche, car une grande partie est souterraine ou cachée par le paysage. Elle comporte : Environ réparties en seize services travaillent à la Maison-Blanche. Cinq chefs travaillent à temps plein dans les cuisines de la résidence. La résidence exécutive. Le bâtiment original et historique de la Maison-Blanche se trouve au centre du complexe. Les deux colonnades (Est et Ouest), dessinées par Thomas Jefferson, servent à connecter le bâtiment principal aux deux ailes latérales. La résidence comprend les appartements du président, ainsi que les salles de cérémonie et de réceptions officielles. Elle comprend quatre étages plus deux sous-sol à fonction technique et de stockage. Le rez-de-chaussée, le (rez-de-chaussée côté sud, mais en sous-sol côté nord, la résidence exécutive ayant été construite sur une butte). Ce niveau comporte : Lors de la rénovation Truman, le rez-de-chaussée a été agrandi, en creusant des espaces sous le portique nord qui abritent différents ateliers (menuiseries, fleuriste, etc.) et réserves, ainsi qu'une piste de bowling. L'accès à l'aile Ouest (via la ) et à l'aile Est (via le ) se fait à cet étage. Le premier étage, le est l'étage de réception. Il se compose : Il ouvre d'un côté sur le portique Nord (entrée principale en rez-de-chaussée) et de l'autre côté sur le balcon Sud au avec un accès au jardin par un double escalier. Le deuxième étage, le , est l'étage de résidence de la famille présidentielle. Il accueille : Au sud, il ouvre sur le balcon Truman (), qui fut rajouté au portique Sud sous la présidence Truman. Avant la construction de l'aile Ouest, le bureau du président et la salle de réunion du Cabinet se trouvaient à cet étage. Le troisième étage, le , est l'étage de détente pour la famille présidentielle. Il accueille : Peu visible de l'extérieur, il ouvre sur le toit-terrasse qui ceinture l'étage. Il s'agissait au départ de simples combles servant de logement pour les domestiques et de réserves. Il fut progressivement aménagé et agrandi pour l'usage privé de la famille présidentielle. L'aile Ouest. L'aile Ouest () abrite le bureau du président et de ses principaux collaborateurs (soit près de 50 personnes). Le reste de l'équipe présidentielle a un bureau dans un bâtiment adjacent, mais en dehors de la Maison-Blanche, le , désormais officiellement dénommé l'Eisenhower Executive Office Building et quelques-uns dans l'aile Est. L'aile Ouest compte un rez-de-chaussée où se trouvent les principales pièces dont le bureau ovale et la , un petit étage (qui ne couvre ni le bureau ovale, ni la ) et un sous-sol où se trouve la . L'aile Ouest fut construite à l'origine pour le président Theodore Roosevelt en 1902. Avant la construction de cette aile, le président et son personnel travaillaient au deuxième étage de l'actuelle résidence exécutive. Mais Théodore Roosevelt avec ses six enfants et son personnel se trouvait trop à l'étroit et fit donc construire cette aile supplémentaire à l'emplacement des serres de la Maison-Blanche. Il le fit relier au corps principal du bâtiment par une colonnade qui prolongeait la colonnade construite sous Thomas Jefferson. Ce bâtiment ne devait alors qu'être temporaire. À cette époque, le bureau du président se trouvait dans une pièce carrée au centre de cette nouvelle aile (à l'emplacement de l'actuelle ). Dès lors, le bâtiment principal va principalement être destiné à abriter des chambres et des salons de réception, tandis que les ailes accueilleront les bureaux. En 1909, le président William Howard Taft fit transformer et agrandir l'aile Ouest et modifia l'intérieur du bureau présidentiel. Un point important de cette transformation fut sa forme ovale, rappelant les deux pièces ovales de la résidence exécutive et qui, étant donné sa forme, fut surnommé le « Bureau ovale ». Le plan ovale était également un hommage au bureau du premier président américain George Washington à Philadelphie et du symbole de démocratie de l'époque. Le , la veille de Noël, cette aile fut en partie détruite par un incendie. Quand Franklin Delano Roosevelt devint président en 1933, il lança la troisième et dernière grande reconstruction et réorganisation, avec la construction d'un nouveau bureau ovale. Il détestait l'emplacement central d'origine parce qu'il manquait de fenêtres et qu'il recevait presque toute sa lumière par des lucarnes. Le nouveau bureau, placé dans le coin sud-est de l'aile, donnait aussi au président une plus grande intimité : il pouvait maintenant se déplacer entre le bâtiment principal et l'aile Ouest sans être vu de tout son personnel, comme c'était le cas avec le bureau précédent. Franklin Roosevelt fit également construire une piscine pour lui permettre de s'exercer et de lutter contre sa maladie et fit installer des micros cachés qui enregistraient discrètement les conciliabules et entretiens privés des interlocuteurs ou des conseillers du président, ce réseau d'écoute étant poursuivi par ses successeurs, ce qui causa la perte de Richard Nixon qui refusa de communiquer aux commissions d'enquête du scandale du Watergate les bandes d'enregistrements sur ses conversations avec des conseillers. En 1969, pour s'adapter au nombre de plus en plus important de journalistes accrédités à la Maison-Blanche, le président Richard Nixon décida de faire recouvrir la piscine inutilisée. La piscine est désormais la salle de presse de la Maison-Blanche, la , où le porte-parole du président donne des points de presse quotidiens (une piscine extérieure sera plus tard construite au sud de l'aile Ouest). Elle a subi en 2007 une profonde rénovation avec l'installation de fibres optiques et d'écrans LCD pour afficher les tableaux et les graphiques pour un coût estimé à 8 millions de dollars. Nixon fit également renommer la pièce qui se trouvait à l'emplacement du bureau présidentiel avant l'incendie de 1929 en , en l'honneur des deux présidents Roosevelt : Théodore Roosevelt qui construisit l'aile Ouest et Franklin Roosevelt qui la réaménagea et fit construire l'actuel bureau ovale. La était autrefois surnommée la , car Franklin Roosevelt y avait des aquariums et John Kennedy y exposait ses trophées de pêche. Traditionnellement, un portrait de Franklin Roosevelt était accroché au manteau de la cheminée de la "Roosevelt Room" durant une administration démocrate et un portrait de Theodore Roosevelt lors d'une administration républicaine (l'autre tableau se retrouvant alors sur un des murs latéraux, parmi d'autres). Cependant, le président Clinton conserva sur le dessus de la cheminée le portrait de Theodore Roosevelt. Le portrait de Frankin Roosevelt lui fut retiré, avec d'autres tableaux, lors de la rénovation de la pièce en 2006 sous le second mandat Bush. Il fut réinstallé au début de la présidence Obama. L'aile abrite également à l'étage du bureau ovale la , où le Cabinet présidentiel (équivalent du gouvernement) se réunit. Il est situé le long de la colonnade, séparé seulement du bureau ovale par le secrétariat du président. Au sous-sol de l'aile Ouest, se trouve la , aménagée en 1961, où sont traitées les crises en temps réel ainsi que les renseignements. Il s'agit d'une salle sécurisée, mais non d'un bunker, le bunker de la Maison-Blanche se trouve sous l'aile Est et abrite le Centre opérationnel d'urgence présidentiel. La permet au président de commander les forces américaines ou de suivre leurs opérations grâce à des systèmes de télécommunications sophistiqués. C'est dans cette pièce que John F. Kennedy avait géré la crise des missiles soviétiques à Cuba en 1962. Elle fut entièrement rénovée, agrandie et modernisée sous le mandat de George W. Bush permettant d'y tenir des réunions avec audio ou visioconférences sécurisées avec plusieurs autres entités gouvernementales ou militaires aux États-Unis ou outre-mer. Elle est entourée de bureaux annexes où quinze personnes travaillent à son fonctionnement et au renseignement dont six appartiennent à la CIA. L'aile Est. L'aile Est () est une structure de deux étages qui, comme son nom l'indique, se trouve sur le côté est de la résidence exécutive. Une première aile Est fut construite en 1902 sous la présidence de Theodore Roosevelt. Elle servait alors d'entrée publique pour la Maison-Blanche. Elle se composait principalement d'un hall et d'un couloir menant à la résidence exécutive, bordé par un grand vestiaire. Le bâtiment tel qu'il existe aujourd'hui fut construit en 1942 sous la présidence de Franklin Roosevelt, essentiellement pour masquer l'abri antiaérien qui venait d'être construit en dessous, abri devenu le Centre d'opération présidentiel (Presidential Operation Center ou COP), un bunker étanche et équipé en communications pour servir de centre d'opérations. C'est dans celui-ci que le vice-président Dick Cheney fut dirigé précipitamment par le Secret Service lors des attentats du 11 septembre 2001 (le président George W. Bush se trouvait alors en déplacement en Floride). Le vestiaire fut transformé en théâtre et salle de projection. Par la suite, les services de la correspondance et de calligraphie de la Maison-Blanche () s'y installèrent, ainsi que la première femme ayant été employée par Eleanor Roosevelt pour tenir le secrétariat social de la Maison-Blanche (), chargée des évènements sociaux du président et de la Maison-Blanche. Depuis Rosalynn Carter, en 1977, elle abrite également, par intermittence, des bureaux du personnel administratif au service de la Première dame ( : « le bureau de la Première Dame des États-Unis »). Une colonnade fermée, l' la relie à la résidence exécutive, au long de laquelle se trouve un petit théâtre - salle de projection. Cette colonnade donne sur le , pendant du "Rose Garden" de l'aile Ouest. Les personnes participant aux visites guidées de la Maison-Blanche entrent par cette aile, dans un lobby où sont accrochés les portraits des présidents et des premières dames, puis elles traversent la , empruntent la colonnade Est jusqu'au foyer des visiteurs, une pièce assurant la jonction entre la colonnade et le rez-de-chaussée de la résidence exécutive. Les jardins. La Maison-Blanche et ses jardins couvrent environ . La résidence exécutive et les deux ailes séparent deux jardins : un jardin au nord nommé (pelouse Nord) donnant sur "Pennsylvania Avenue" et un grand jardin au sud nommé (pelouse Sud). Avant la construction du portique nord, la plupart des évènements publics avaient lieu sur la pelouse au sud. Jefferson est à l'origine de l'aménagement paysager et du choix des plantations sur les pelouses du sud et du nord. Il prévoyait notamment de planter de grands arbres afin de rendre la maison invisible depuis la . Dans la seconde moitié du , des serres de plus en plus grandes ont été construites à l'ouest de la maison, à l'emplacement de l'actuelle aile Ouest. À cette époque, la pelouse nord était agrémentée de massifs de fleurs en terrasse. Bien que les jardins de la Maison-Blanche aient accueilli bon nombre de jardiniers au cours de son histoire, la composition générale date de 1935 et est conçue par Frederick Law Olmsted Jr., sous le mandat du président Franklin D. Roosevelt. Sous l'administration Kennedy, le "Rose Garden" (« La Roseraie »), qui borde la colonnade Ouest, est redessiné par Rachel Lambert Mellon. La petite pelouse centrale nouvellement créée ouvre sur le rez-de-chaussée de l'aile Ouest. Elle accueille par beau temps les conférences de presse ou d'autres évènements présidentiels. La colonnade Est, quant à elle, est bordée par le "Jacqueline Kennedy Garden", du nom de celle qui en est à l'origine. Le week-end du , un orme d'Amérique centenaire a été déraciné au nord du bâtiment, pendant l'une des nombreuses tempêtes qui ont balayé la côte orientale du pays (provoquant d'importantes inondations). Cet orme apparaît au verso des billets de américains. Il semble que cet arbre ait été planté entre 1902 et 1906, sous l'administration de Theodore Roosevelt. Les jardins accueillent également de très anciens magnolias à grandes fleurs, plantés par John Adams et Andrew Jackson. La grande pelouse sud () s'étend devant la Maison-Blanche jusqu'à l'Ellipse, un parc public situé, entre la Maison-Blanche et le National Mall. Elle est bordée d'arbres de chaque côté. Ouverte en partie au public jusqu'à la Seconde Guerre mondiale, elle fait désormais partie de l'enceinte fermée de la Maison-Blanche. Cette pelouse Sud sert pour certains évènements officiels comme les parades des cérémonies d'arrivée des visites d'État ou pour des évènements festifs comme la traditionnelle course aux œufs de Pâques (). Une route en ellipse découpe une pelouse centrale. "Marine One", l'hélicoptère présidentiel, décolle et atterrit sur cette pelouse. La route en ellipse est bordée par une piste souple pour le jogging installée sous l'administration Clinton. On trouve également un vert de golf sur le côté de la pelouse centrale du côté de l'aile Ouest tandis que de l'autre côté de la route, toujours côté ouest, se trouvent une piscine découverte (l'ancienne piscine couverte créée sous Franklin Roosevelt située sous la colonnade Ouest est devenue la salle de presse de la Maison-Blanche sous Nixon), un terrain de tennis et basket et un petit jardin d'enfants. Sécurité. La Maison-Blanche est l'un des rares palais gouvernementaux dans le monde qui est régulièrement ouvert aux visites du public. Créée initialement comme une maison devant être ouverte au peuple, l'accès à la Maison-Blanche a longtemps été assez ouvert. Au fil du temps et des menaces, la sécurité s'est considérablement renforcée, outre une zone spéciale de protection aérienne au-dessus de Washington (protégeant également les autres bâtiments fédéraux), le périmètre clôturé autour de la Maison-Blanche s'est élargi, incluant désormais à l'ouest le "Old Executive Office Building" et la rue le séparant de la Maison-Blanche () et à l'est le bâtiment du Trésor et sa rue (). À la suite de l'attentat d'Oklahoma City en 1995, il est décidé de fermer à la circulation automobile la partie de Pennsylvania Avenue longeant le nord de la Maison-Blanche, à partir du . Cette voie était donc fermée depuis l'est du parc Lafayette jusqu'à la . Depuis, la fermeture à la circulation a été étendue jusqu'à la et , une petite rue séparant l'est de la Maison-Blanche du bâtiment du département du Trésor, a été fermée au public. Cette rue servait pour la file d'attente des visites guidées de la Maison-Blanche. La fermeture aux automobiles de la Pennsylvania Avenue a été critiquée par des groupes de défense des droits civiques à Washington. Selon eux, cette fermeture entrave la circulation inutilement et entre en contradiction avec le plan historique de la ville. Quant aux considérations de sécurité, ils notent que la Maison-Blanche est beaucoup plus éloignée de la rue que bon nombre d'autres bâtiments fédéraux critiques. Mais la fermeture à la circulation est définitive, un réaménagement complet de cette partie de l'avenue la transformant en une vraie voie piétonne pavée et intégrant différentes mesures de sécurité a été achevé en 2004. La sécurité du complexe de la Maison-Blanche est assurée par le Secret Service et l'United States Park Police. Plusieurs intrusions ont eu lieu au cours de l'histoire de la Maison-Blanche, parmi lesquelles : Le "Secret Service" publie des rapports sur les incidents et la sécurité de la Maison-Blanche. Ouverture au public de la Maison-Blanche. Depuis son inauguration, la Maison-Blanche a une tradition d'ouverture au public. En effet, le président Jefferson a ouvert les portes de la résidence présidentielle le jour de sa deuxième investiture en 1805. Ce jour-là, de nombreuses personnes qui avaient assisté à son investiture au Capitole, l'ont suivi pour le féliciter dans la . Cependant, au fil du temps, certaines de ces opérations portes ouvertes se sont révélées un peu turbulentes : en 1829, le président Andrew Jackson a dû s'installer dans un hôtel après que citoyens eurent décidé de célébrer son investiture. Ses assistants ont finalement dû appâter la foule vers l'extérieur à l'aide de cocktails de jus de fruits et de whisky. Cette tradition s'est malgré tout perpétuée jusqu'en 1885, jusqu'à ce que Grover Cleveland organise une revue de troupes militaires en face de la Maison-Blanche, au lieu des traditionnelles portes ouvertes. Jefferson autorisait également les visites guidées de sa demeure, pratique qui a perduré jusqu'à nos jours, excepté en temps de guerre, et a initié les traditionnelles réceptions annuelles du Nouvel An et du Jour de l'Indépendance (jour de la fête nationale américaine). Ces réceptions ont disparu au début des années 1930, même si le président Bill Clinton a tenté de rétablir, lors de son premier mandat, l'opération portes ouvertes du jour de l'an. L'accessibilité de la Maison-Blanche a malgré tout été conservée sous d'autres formes. Le président Abraham Lincoln se plaignait notamment qu'il était constamment ennuyé par des demandeurs d'emploi attendant pour obtenir un rendez-vous ou des faveurs, ou encore d'excentriques pourvoyeurs de conseils comme le « général » Daniel Pratt. Lincoln acceptait ces perturbations plutôt que de prendre le risque de s'aliéner l'associé ou l'ami d'un politicien puissant. Les visites furent brièvement interrompues après l'assassinat de John Kennedy en novembre 1963, mais reprirent assez rapidement. À la suite des attentats du 11 septembre 2001, les visites furent interrompues avant d'être partiellement rétablies en . Les personnes désireuses de visiter la Maison-Blanche ne peuvent désormais le faire qu'en groupe après appel à leur représentant au Congrès et s'être soumis à une enquête de sécurité sur leur passé. Les visites se font de à du mardi au samedi. Les visites sont gérées par le . Elles débutent au , situé dans l'immeuble du Trésor, le , juste à l'est de Maison-Blanche, centre qui abrite également des expositions permanentes et temporaires accessibles à tous (collection d'environ objets). Ce centre est géré par la (Association historique de la Maison-Blanche). Le site Internet de la Maison-Blanche. La Maison-Blanche possède son propre site officiel à l'adresse Whitehouse.gov. Il a été conçu sous l'administration Clinton et mis en ligne le . Deux versions différentes du site se sont succédé au cours de sa présidence. Il a été remplacé en 2001 par le site de la présidence Bush. Ces différentes versions sont désormais archivées par la National Archives and Records Administration, les Archives nationales des États-Unis, et consultables en ligne sur les sites des bibliothèques présidentielles des anciens présidents. Elles font ainsi partie des premiers exemples de conservation de médias numériques. Le site reprend l'activité de la présidence et des évènements de la Maison-Blanche ainsi que l'actualité de la "First Lady", du vice-président et de son épouse. Quelques minutes seulement après la prestation de serment de Barack Obama, le , le site de l'ancienne présidence a été remplacé par le site officiel de la nouvelle, l'adresse demeurant inchangée. Il existe bien sûr des versions pastiches du site ou des détournements de flux. On peut notamment citer le site "whitehouse.com qui était à l'origine un site de divertissement politique pour adulte qui est apparu en 1997 ou également le site "whitehouse.org qui était une parodie du site officiel et qui dénigrait non seulement l'administration Bush,mais également la famille présidentielle et les proches du président. Répliques de la Maison-Blanche. Sous la présidence Truman, plusieurs ambassades et consulats américains ont été conçus sur le modèle de la Maison-Blanche. À Atlanta en Géorgie, un modèle presque à l'échelle existe, mais l'extérieur est moins précis. Il appartient au constructeur immobilier Fred Milani, un citoyen américain né en Iran. À l'est de la ville d'Hangzhou en Chine, l'homme d'affaires et magnat du tourisme, Huang Qiaoling a construit pour son usage en 1999 un modèle en béton. Ce modèle est presque exact du point de vue des dimensions extérieures, mais s'écarte de l'original sur quelques détails (notamment l'angle d'attaque du portique nord). Il manque également des détails gravés sur le montant des fenêtres et au-dessus des portes. La disposition des pièces dans cette copie est également fantaisiste dans la mesure où le bureau ovale est placé dans la résidence centrale, à l'emplacement de la "Blue Room" dans la version originale. En face de cette réplique est reproduite une miniature de l'obélisque du "Washington Monument". Il a aussi fait construire une réplique du mont Rushmore à l'échelle 1:3, au dos duquel sont logés les employés. Une réplique en miniature de la Maison-Blanche et reproduisant ses principales pièces a été construite par John et Jan Zweifel et fait souvent l'objet d'expositions itinérantes à travers tous les États-Unis. Elle est sinon en partie visible au "President Hall of Fame" à Clermont en Floride. Il existe aussi un autre modèle réduit à l'échelle 1:25, dans le parc Minimundus à Klagenfurt en Autriche, qui est d'une extrême précision et comprend les colonnades et les ailes est et ouest. Le roi Fahd d'Arabie saoudite a fait construire un palais, réplique de la Maison-Blanche, à Marbella, en Espagne. Animaux. Depuis John Adams, premier président à occuper la Maison-Blanche en 1800, tous les présidents, à l'exception de Chester Alan Arthur(1881-1885) et de Donald Trump , ont eu des animaux avec eux à la Maison-Blanche. Theodore Roosevelt (1901-1909) était probablement celui qui en eut le plus : ours, lézard, cochon, blaireau, poules, perroquet, cochons d'Inde et une multitude de chiens et chats et William Howard Taft (1909-1913) avait une vache nommée Pauline, qui lui fournit du lait durant tout son mandat. Les animaux de compagnie présents à la Maison-Blanche furent assez vite médiatisés et connus des Américains, participant à la « mythologie » du lieu. Parmi les plus célèbres on peut citer Fala, le Scottish Terrier de Franklin D. Roosevelt (1933-1945), Punshinka, fille de la chienne astronaute soviétique Strelka, donnée en signe de paix par Nikita Khrouchtchev à John F. Kennedy (1961-1963), ou Barney, le scottish terrier de George W. Bush à qui le site Internet de la Maison-Blanche consacrera régulièrement des pages dédiées avec informations, photos et vidéos. La recherche et l'arrivée à la Maison-Blanche du premier chien de la famille Obama, un chien d'eau portugais nommé Bo, provoqua un engouement médiatique et un important buzz sur Internet. Aliments produits à la Maison-Blanche. En , Michelle Obama installe un potager sur la pelouse sud, chose qui n'existait plus depuis la présidence de Franklin D. Roosevelt. Elle installe aussi une ruche afin de produire son propre miel. Barack Obama fait brasser de la bière nommée "", composée de miel venant des ruches de la Maison-Blanche. Pendant la campagne pour sa réélection, il dévoile la recette de cette bière. Culture populaire. La Maison-Blanche apparaît, en partie détruite, dans la bande-dessinée de la série "Jour J", "Les Fantômes d’Hispaniola" (2018). Photographe officiel. Le photographe officiel de la Maison-Blanche est Adam Schultz. |
Mémoire vive La mémoire vive, parfois abrégée avec l'acronyme anglais RAM ("Random Access Memory"), est la mémoire informatique dans laquelle peuvent être enregistrées les informations traitées par un appareil informatique. On écrit "mémoire vive" par opposition à la mémoire morte. L'acronyme RAM date de 1965. Caractéristiques générales. Les caractéristiques actuelles de cette mémoire sont : Désignations. Il y a deux types principaux de mémoire vive : Technique. La mémoire informatique est un composant d'abord réalisé par des tores magnétiques, puis par l'électronique dans les années 1970, qui permet de stocker et relire rapidement des informations binaires. Son rôle est notamment de stocker les données qui vont être traitées par l'unité centrale de traitement (UCT), soit un microprocesseur dans la plupart des appareils modernes. On peut accéder à la mémoire vive alternativement en lecture ou en écriture. Il existe également des mémoires associatives, largement utilisées dans les techniques de mémoire virtuelle pour éviter des recherches séquentielles de pages et accélérer ainsi les accès. Organisation. Les informations peuvent être organisées en mots de 8, 16, 32 ou . Certaines machines anciennes avaient des mots de taille plus exotique. Par exemple, Détection et correction d'erreurs. Afin d'assurer la fiabilité de l'information enregistrée en mémoire, on ajoute des bits supplémentaires à chaque mot de mémoire. Par exemple, Les fabricants recommandent d'utiliser de barrettes de mémoire avec l'ECC pour celles ayant une capacité d' ou plus, en particulier celles utilisées dans les serveurs, permettant de détecter les erreurs et de les corriger à la volée. Dans la pratique, les ordinateurs personnels les utilisent très rarement. Temps d'accès. Le temps d'accès à un mot de la mémoire vive est de quelques dizaines ou centaines de nanosecondes tandis que celui d'un dispositif de disque dur est de quelques millisecondes (c'est-à-dire dix mille à cent mille fois plus lent) et celui d'un dispositif à semi-conducteur est intermédiaire. En revanche, il n'est possible avec ces derniers, de lire et écrire que par blocs de mots. Adressage de la mémoire. Un circuit intégré de mémoire ne comporte que le nombre de bits d'adresse mémoire nécessaire pour accéder aux mots de mémoire qu'il contient. L'unité centrale de traitement comporte beaucoup plus de bits d'adresse mémoire qu'un simple circuit intégré de mémoire afin d'adresser davantage de mémoire. Ces bits supplémentaires sont décodés par un circuit spécialisé, nommé décodeur d'adresse ou sélecteur, pour sélectionner le circuit intégré de mémoire approprié grâce à une broche de celui-ci nommé . Divers types de mémoire vive. Mémoire vive statique. Une mémoire vive statique est une mémoire vive qui n'a pas besoin de rafraîchissement. " (SRAM)". Cette mémoire utilise le principe des bascules électroniques pour enregistrer l'information. Elle est très rapide, mais est cependant chère et volumineuse. Elle consomme moins d'électricité que la mémoire dynamique. Elle est utilisée pour les caches mémoire, par exemple les caches mémoire L1, L2 et L3 des microprocesseurs. " (DPRAM)". Cette mémoire est une variante de la "Static Random Access Memory" ("SRAM") où on utilise un port double qui permet des accès multiples quasi simultanés, en entrée et en sortie. " (MRAM)". Cette mémoire utilise la charge magnétique de l'électron pour enregistrer l'information. Elle possède un débit de l'ordre du gigabit par seconde, un temps d'accès comparable à de la mémoire DRAM () et elle est non-volatile. Étudiée par tous les grands acteurs de l'électronique, elle a commencé à être commercialisée en 2006, mais reste en 2020 confinée à un marché de niche. " (PRAM)". Cette mémoire utilise le changement de phase du verre pour enregistrer l'information. Elle est non-volatile. Elle a commencé à être commercialisée en 2012. Mémoire vive dynamique. Une mémoire vive dynamique est une mémoire vive qui a besoin de rafraîchissement. La simplicité structurelle d'une mémoire vive dynamique (DRAM) (un pico-condensateur et un transistor pour un bit) permet d'obtenir une mémoire dense à faible coût. Son inconvénient réside dans les courants de fuite des condensateurs : l'information disparaît à moins que la charge des condensateurs ne soit rafraîchie avec une période de quelques millisecondes, d'où le terme de "dynamique". A contrario, les mémoires vives statiques (SRAM) n'ont pas besoin de rafraîchissement, mais utilisent plus d'espace et sont plus coûteuses. |
Mozilla Application Suite Mozilla Application Suite (connue à l'origine sous le nom Mozilla (), distribuée sous le nom Mozilla Suite et ayant pour nom de code SeaMonkey) était une suite Internet libre multiplateforme notamment composée d'un navigateur web, d'un client de messagerie, d'un lecteur de nouvelles, d'un éditeur HTML et d'un client IRC. Son développement a démarré avec Netscape Communications Corporation, avant leur rachat par AOL avec comme base le code source de Netscape Communicator. Le développement a été mené de 1998 à 2003 par la Mozilla Organization, devenue la Mozilla Foundation en 2003. Pour les versions 1.7.x, la suite était composée des éléments suivants : Les versions 6 et 7 de Netscape étaient basées sur la suite Mozilla. Le développement de cette dernière s'est officiellement arrêtée sur la version 1.7.13 car la fondation Mozilla a décidé de se concentrer par la suite sur le développement de Firefox et Thunderbird. Cependant la suite logicielle continue d'exister puisqu'une communauté a repris le projet avec les mêmes codes source mais toutefois sous un nouveau nom pour éviter les confusions : SeaMonkey. Histoire et développement. Le projet Mozilla. Le , Netscape a donné le code source de son navigateur conformément à une licence libre et a créé une organisation informelle, mozilla.org, pour superviser le développement. L'idée était de créer un successeur à la série Netscape Communicator 4 en association avec des talents extérieurs. Maintenant, Mozilla est devenu le terme générique se référant au logiciel client Internet libre créé par Netscape. Ainsi, le terme de "Mozilla" désigne un ensemble de technologies et non une seule en particulier. Mozilla.org (prononcer « Mozilla point org » ou l'Organisation Mozilla) est le groupe de personnes qui coordonnent le projet. Après la dissolution des équipes de développement de Netscape par AOL en 2003, une nouvelle structure a été mise en place pour soutenir le projet. Il s'agit de la Fondation Mozilla, une association à but non lucratif basée en Californie et regroupant une bonne partie de Mozilla.org. Celle-ci a été dotée des moyens d'embaucher un certain nombre de développeurs. Des antennes locales ont également été ouvertes comme Mozilla Europe ou Mozilla Japon. Historique des sorties. Ce tableau reprend quelques dates de sorties importantes dans l'histoire du projet Mozilla. C'est sur Mozilla 1.7, dernière version stable (ou plus précisément sa dernière révision 1.7.13), que sont basés les nouveaux logiciels développés par la fondation, comme Firefox et Thunderbird. La dernière version de développement est Mozilla 1.8β1, parue le . Le , La fondation Mozilla annonce son intention de ne finalement pas éditer de version 1.8 de sa suite logicielle (voir le plan de transition vers un projet communautaire) pour se concentrer sur les nouveaux produits grand public à présent arrivés à maturité. La dernière version stable en restera donc la 1.7. Fonctionnalités. Mozilla est une suite internet tout-en-un possédant de nombreuses fonctionnalités utilisées sur Internet. Utilisabilité. Mozilla permet la navigation par onglet, ce qui permet aux utilisateurs d'ouvrir plusieurs pages web simultanément dans une même fenêtre du navigateur. Cette fonctionnalité a été écrite à l'aide de l'extension populaire MultiZilla pour Mozilla comme une base. Mozilla fait aussi partie des navigateurs à avoir très tôt adopté le blocage personnalisable des fenêtres intruses. Mozilla a également de nombreuses fonctionnalités aidant les utilisateurs à trouver des informations. Notamment, Mozilla fonctionne avec une recherche progressive qui s'effectue au fur et à mesure que l'utilisateur saisit le mot de sa recherche, le navigateur se place alors directement sur la partie de la page web contenant la première occurrence et la surligne au fur et à mesure. Mozilla permet également de définir des mots-clés associés aux marque-pages, ce qui permet d'aller sur le site web concerné en ne tapant dans la barre d'adresse que le mot-clé au lieu de toute l'adresse. Ce système permet aussi de faire de une recherche lorsqu'un paramètre est donné en plus du mot-clé. Par exemple taper « google Apple » dans la barre d'adresse reviendra à faire une recherche sur Apple à l'aide du moteur de recherche Google. Pour le composant gérant les courriels et les groupes de nouvelles, un filtre bayésien permet de se débarrasser du pourriel après une période d'apprentissage. Personnalisation. Mozilla a apporté le modèle d'extension, qui s'est développé par la suite et a été repris par Firefox et Thunderbird. Grâce aux extensions, (installées via XPInstall) les utilisateurs peuvent activer de nouvelles fonctionnalités comme la navigation via les mouvements de la souris, le blocage des publicités, le basculement de serveur mandataire et des outils de débogage. Ce système d'extension peut être vu comme une base permettant de tester de nouvelles fonctionnalités. Parfois, une extension ou une partie de celle-ci devient partie intégrante du produit officiel (par exemple le système de navigation par onglet de MultiZilla est devenue une partie intégrante du navigateur Mozilla). Mozilla permet également à l'utilisateur de personnaliser l'apparence de l'interface à l'aide de paquets formés de CSS et d'images. Le site web Mozilla Add-ons en propose de nombreux. Au-delà de l'ajout de nouveaux thèmes, les utilisateurs peuvent aussi personnaliser l'interface en ajoutant ou en retirant certains boutons et barres d'outils. De plus, Mozilla enregistre la plupart de ces préférences dans une liste accessible par les utilisateurs depuis la barre d'adresse en tapant . Certaines préférences sont uniquement accessibles de cette façon, comme l'activation des icônes pour les marque-pages. Le respect des normes. La fondation Mozilla a porté une certaine attention aux respects des normes existantes et en particulier celles du W3C. Mozilla respecte notamment les normes basiques comme celles du HTML, XML, XHTML, CSS, JavaScript, DOM, MathML, DTD, XSL et XPath. Mozilla gère également les images PNG et la transparence variable. Mozilla a également mis en œuvre la grande partie des CSS niveau 2 et commencé l'implémentation de certains modules du niveau 3. En revanche Mozilla n'a pas réussi le test Acid2 pour ce qui concerne le HTML, les CSS, et la gestion des PNG. Le client de messagerie et de groupe de nouvelles gère les protocoles POP et IMAP. Il gère également le protocole LDAP. La rédaction et la lecture de courriel en HTML sont tous les deux gérés. Une suite multiplateforme. Mozilla peut fonctionner sur un grand nombre de plateformes. Sur le site de distribution principal, Mozilla est disponible pour les systèmes d'exploitation suivants : Mozilla utilise le même format sur différentes plateformes pour sauvegarder les profils des utilisateurs (qui contiennent leurs configurations personnelles du navigateur), ce qui permet ainsi à un même profil d'être utilisé par plateformes, du moins si ces dernières peuvent y accéder (par exemple, si un profil est sauvegardé sur une partition FAT32, il sera accessible à la fois depuis Windows et depuis Linux). Cette possibilité est particulièrement intéressante pour les utilisateurs ayant les deux systèmes d'exploitation en dual boot sur leur machine. Toutefois, cela peut causer certains problèmes, en particulier avec les extensions. Internationalisation et régionalisation. Du fait que le projet concerne des personnes du monde entier, le navigateur est traduit dans de nombreuses langues (plus de 36) comme le Chichewa. Comme les messages et textes affichés aux utilisateurs sont enregistrés en tant que chaînes de caractères dans des fichiers de propriétés à l'aide de DTD, le processus d'internationalisation et de régionalisation peut être facilement effectué avec un simple éditeur de texte, même par les simples utilisateurs n'ayant aucune connaissance en programmation. Les outils de développement web. Mozilla est fourni avec trois outils de développement web : DOM Inspector (uniquement disponible pour le navigateur de la suite Mozilla), Venkman et JavaScript Console. Cette dernière est plus avancée que les consoles habituellement fournies avec les autres navigateurs. Venkman est un débogueur JavaSript difficile à utiliser mais convenable. Ces trois outils installés d'office peuvent être retirés (sauf la console JavaScript) dans les options d'installations. Critiques. Le reproche principal qui a été fait à Mozilla est l'usage des ressources (voir logiciel lourd). Certains composants, comme Mozilla Composer, ne sont pas vraiment utiles à tous les utilisateurs. Les fenêtres de configuration proposent également des options qui ne sont pas utilisées habituellement pas les utilisateurs lambda. Certains ont fait remarquer que Mozilla prenait plus de temps à démarrer que les autres navigateurs, ce qui vient peut-être du fait de l'utilisation de sa propre mise en œuvre d'interface graphique XUL. Les autres navigateurs basés sur Gecko comme K-Meleon qui utilisent l'interface graphique native de la plateforme sur laquelle ils sont exécutés démarrent généralement plus rapidement que Mozilla. Les critiques habituelles déplorent également le fait que Mozilla utilise bien plus de mémoire que les autres navigateurs. Les utilisateurs qui passent de IE à Mozilla rencontrent parfois des problèmes lors de l'affichage de certains sites web qu'ils n'avaient pas auparavant. Ces problèmes sont en fait pour la grande majorité dus au fait que ces sites utilisent du code spécifique à Internet Explorer (ne respectant pas les normes) ou des applet ActiveX. L'entrée sur le marché et la fin du projet. De 1998 à 2004, le nombre d'utilisateurs mondiaux de Mozilla est passé d'un nombre négligeable à environ 3 %. Ses utilisateurs sont pour la plupart d'anciens utilisateurs de Netscape ne voulant pas devenir dépendants d'AOL et des utilisateurs avancés souhaitant suivre l'avancement de Gecko. Depuis la fondation Mozilla a pris la décision de se concentrer sur le développement d'applications indépendantes comme Firefox et Thunderbird. Ainsi beaucoup de nouvelles fonctionnalités et de nouveautés sont uniquement disponibles avec ces nouvelles applications indépendantes. De plus la sortie de Firefox 1.0 et son projet Spread Firefox visant à répandre son usage mondial poussent de plus en plus d'utilisateurs à passer du navigateur de l'ancienne suite internet à Mozilla Firefox. Et finalement comme aucune nouvelle version ne sortira après la 1.7.13, ses développeurs souhaitent le voir remplacé progressivement par les nouveaux navigateurs utilisant le moteur de rendu Gecko et notamment par Firefox. Courant 2006, le nombre d'utilisateurs mondiaux de la suite Mozilla diminue progressivement et représente environ 1 %. Toutefois, pour les personnes ayant apprécié l'ensemble des fonctionnalités de cette suite et souhaitant continuer de l'utiliser, les codes source du projet ont été transférés à une communauté qui poursuit son développement. Cette prolongation est désormais renommée SeaMonkey et son numéro de version reprend à 1.0 pour éviter les confusions avec les projets officiellement développés par la Fondation Mozilla. Les logiciels basés sur Mozilla. La fondation Mozilla propose plusieurs produits dont le produit phare est longtemps resté une suite logicielle Internet disponible sur la majorité des systèmes d'exploitation, entre autres GNU/Linux, FreeBSD, OpenBSD, NetBSD, DragonFly BSD, Unix, Mac OS et Windows. Celle-ci se voit à présent plus souvent appelée suite Mozilla ou Mozilla Suite. Son nom de code SeaMonkey a par ailleurs été repris pour désigner le projet consistant à continuer le développement de cette suite intégrée après l'annonce de son abandon par la Fondation. La Fondation propose aujourd'hui des produits plus ciblés, se concentrant principalement sur les deux premiers : Son moteur de rendu HTML Gecko est utilisé depuis la version 6 de Netscape, dans Epiphany (navigateur du projet GNOME), à partir de la version 8 du navigateur du fournisseur d'accès AOL sous Mac OS X, et dans beaucoup d'autres navigateurs (Galeon, Beonex, K-Meleon, Salamander, Skipstone). Konqueror, le navigateur du bureau KDE peut également utiliser Gecko comme moteur à la place de KHTML, le moteur par défaut. Une des parties les plus complexes de Gecko, le gestionnaire de vues "(view manager)", est même reprise dans la version de KHTML (renommée Webcore) utilisée par Safari, le navigateur d'Apple pour Mac OS X. Dans d'autres catégories de logiciels, on peut citer l'éditeur HTML Nvu, développé pour Linspire, qui est basé sur le composeur de Mozilla. Certains produits utilisent même les composants de Mozilla pour réaliser des produits qui ont peu en commun avec des navigateurs. Par exemple, ActiveState utilise des technologies Mozilla pour faire son IDE Komodo, et OEONE utilise des technologies Mozilla pour construire un environnement d'exploitation. L'environnement de développement. Mozilla est aussi un environnement de développement dans lequel il est possible de créer des applications allant de la plus ordinaire (comme des pages web) à la plus sophistiquée, comme Mozilla, en passant par des applications de messagerie électronique et de messagerie instantanée. En effet, de la volonté de Netscape de bénéficier d'un environnement de développement identique sur toutes les plateformes sont nées un ensemble de technologies réutilisables par d'autres logiciels désirant bénéficier de cet avantage. En plus de son moteur de rendu, on peut penser à XUL, son langage de description d'interfaces utilisateur basé sur XML, bien avant le XAML développé par Microsoft pour son système d'exploitation, Windows Vista. D'autres parties importantes de ce projet sont NSPR (Netscape Portable Runtime), une bibliothèque d'abstraction permettant à toutes les plateformes d'être vues de la même façon par Mozilla, et XPCOM, une structure de composants logiciels multiplateformes similaire à Microsoft COM et programmable en C++, JavaScript, Python, Perl, Ruby (un support .Net est prévu par le biais de Mono à une date ultérieure). |
Morphopsychologie La morphopsychologie est une pseudo-science qui prétend établir des correspondances entre la morphologie des traits du visage d'un individu et sa psychologie. Ignorant la méthode scientifique, aucun de ses postulats n'a été vérifié. Elle est l'objet de critiques récurrentes la classant dans les catégories « ésotérisme » ou « pseudo-science » et a été dénoncée comme une de la personnalité humaine par le physicien Sébastien Point. Elle n'a donc rien à voir avec les théories de la personnalité développées dans le cadre de la psychologie scientifique. Histoire. Le principe d'une méthode basée sur l'idée que le visage révèle le caractère ou la psychologie d'une personne est introduite par Johann Kaspar Lavater avec la physiognomonie et prolongée dans les domaines de la phrénologie de Franz Joseph Gall et Johann Gaspar Spurzheim, des types morphologiques de Carl Gustav Jung, de la caractérologie de Gerardus Heymans, Enno D. Wiersma, René Le Senne, de la prosopologie de Roger Ermiane, des types morphologiques selon les feuillets embryonnaires de William H. Sheldon. L'inventeur, en 1937, de la « morphopsychologie » est le docteur Louis Corman, ancien médecin chef du service psychiatrique de l'adulte à l'hôpital Saint-Louis, et fondateur du service de psychiatrie de l'enfant à l'hôpital Saint-Jacques de Nantes. Société de morphopsychologie. Corman a fondé, en 1980, la Société française de morphopsychologie qui édite une revue trimestrielle, délivre un titre de morphopsychologue SFM et supervise ses professeurs agréés. Il fonde ensuite l'Association des morphopsychologues conseils, qui développe les applications professionnelles de la discipline. Cette association n'existe plus aujourd'hui. Au , la morphopsychologie est extrêmement discréditée. Le consensus scientifique la désigne comme une pseudo-science, et les morphopsychologues souvent comme des charlatans. Elle a extrêmement peu de voix dans l'espace public. Cependant, elle n'a pas totalement disparu pour autant, et il arrive en de très rares occasions que des morphopsychologues soient interrogés par des médias grands publics. Par exemple, après les Combats de Culiacán du , des combats extrêmement violents qui ont opposé les forces de l'ordre mexicaines à une faction du Cartel de Sinaloa pour libérer un de ses principaux chefs arrêté, Ovidio Guzmán, "El Universal", un journal conservateur qui a l'un des plus grands tirages du Mexique, a soumis une photo du visage de Guzmán à une morphopsychologue, Adriana Cano. Celle-ci l'a décrit comme un "leader bien organisé [...] mais dépressif" en se basant uniquement sur les traits de son visage. Ce genre de prise de parole dans les médias grand public reste toutefois extrêmement rare. Dans une étude publiée dans la revue « nature » , les auteurs, Alexander Kachur, Evgeny Osin, Denis Davydov, Konstantin Shutilov et Alexey Novokshonov s’expriment en ces termes : « Il existe de nombreuses preuves que les indices morphologiques et sociaux d'un visage humain fournissent des signaux de personnalité et de comportement humains. ». |
DOS On appelle généralement DOS () le système d'exploitation PC-DOS, ainsi que la variante MS-DOS vendue par Microsoft pour les compatibles PC. Il en existe des clones postérieurs, tels DR-DOS de et . Jusqu'au début des années 1990, DOS était le type de système le plus utilisé sur compatibles PC. Ce système en ligne de commande était rudimentaire : pas de multitâche, pas de mémoire virtuelle, gestion du seul mode segmenté du microprocesseur x86. Il existe d'autres systèmes sans relation directe qui contiennent le mot "DOS" (AMSDOS, AmigaDOS, Apple DOS, ProDOS, DOS sur ), mais leur nom est éclipsé. Histoire. L'origine de DOS remonte à , lors du lancement de l'IBM PC () par IBM. La société avait demandé à Digital Research, créateur de CP/M qui dominait le marché à l'époque, de porter son système sur le PC, mais devant le peu d'empressement de son directeur Gary Kildall, elle s'était adressée également à Bill Gates fondateur de Microsoft. Microsoft était réputé pour ses interpréteurs BASIC, mais n'avait rien dans ses cartons pour écrire rapidement un système d'exploitation. L'entreprise porte alors son choix sur le QDOS (pour ) créé par une petite firme de Seattle, qu'elle lui rachète pour et améliore petit à petit. La version vendue à IBM s'appellera PC-DOS. Elle ne diffère de la version distribuée par Microsoft que par deux choses. IBM commercialisa le PC à parité avec trois systèmes d'exploitation (tous trois payants) au choix de l'utilisateur : Par la suite, PC-DOS faisant plus des deux tiers des ventes de système pour PC à lui seul, Microsoft demanda et obtint qu'il soit facturé d'emblée avec chaque PC vendu. La « taxe Microsoft » était créée. MS-DOS est longtemps resté la base des systèmes d'exploitation grand public de Microsoft, bien que l'installation de Windows en modifie "in-situ" des portions de plus en plus grandes. En 1995, date d'apparition de Windows 95, il devint invisible pour les utilisateurs car l'interface graphique était directement lancée au démarrage. MS-DOS est resté une sous-couche des versions grand-public de Windows (comme Windows 98 et Me) jusqu'à l'avènement de Windows XP qui marque son abandon réel par Microsoft au profit du système NT. Le DOS en était alors à sa version 8. Les versions récentes de Windows possèdent toujours un « interpréteur de commandes » (), dont les commandes sont héritées de celles de MS-DOS et qui permet d'exécuter des programmes Windows en mode texte, ainsi que des programmes MS-DOS grâce à un émulateur intégré (NTVDM). Cependant, cet interpréteur (cmd.exe) n'est pas celui de MS-DOS à proprement parler (command.com), et certains anciens programmes DOS ne peuvent s'exécuter dans cet interpréteur, car non pris en charge par NTVDM (notamment lorsqu'un programme a besoin d'accéder directement à un périphérique, ce qui est interdit par le mode protégé des Windows récents). Depuis Windows 8, cet émulateur n'est plus fourni. MS-DOS n'étant plus maintenu par Microsoft, un autre DOS a été développé, il s'agit de FreeDOS, un logiciel libre. IBM, pour sa part, dispose d'un DOS 7, qui sait lire les systèmes de fichiers FAT32 et qui lui est utile pour certains travaux ponctuels. Un autre DOS ayant existé est DR-DOS, l'héritier de CP/M distribué par Digital Research, qui fut ensuite racheté par Novell. Plusieurs versions de Windows étaient toutefois programmées pour détecter le DR-DOS et émettre un grand nombre de messages d'erreurs inquiétants (comme : « La table ... ne se trouve pas à la bonne place en mémoire ») qui finirent par atteindre leur but, qui était d'en détourner le possesseur de PC. Versions. Pour les versions de PC-DOS, voir : Principales commandes DOS. Il existe « 2 » niveaux de commande dans MS/DOS : Les commandes par défaut dépendent de l'interpréteur de commande. L'interpréteur de commande par défaut est le programme COMMAND.COM. Celui-ci peut être remplacé par un autre interpréteur de commande dans le fichier CONFIG.SYS avec une ligne shell=. Des interpréteurs de commandes alternatifs ont été développés : Les principales commandes utilisées sont : |
Media Media est le pluriel du mot latin "medium" dérivé de l'adjectif "medius" signifiant "milieu", "moyen". Par extension le mot désigne un objet positionné au milieu, dans l'entre-deux, jouant un rôle d'intermédiaire. |
MDC MDC est un sigle qui peut signifier : MDC est un code qui peut signifier : |
MNR Le sigle MNR peut désigner : |
Mouvement national républicain Le Mouvement national républicain (MNR), anciennement Front national-Mouvement national puis Mouvement national, est un parti politique français, créé en 1999 par Bruno Mégret. Né d'une scission avec le Front national, il est considéré comme d'extrême droite par de nombreux observateurs, bien qu'il se réclame de la . Histoire. Origine. Condamné en 1998 à deux ans d'inéligibilité pour avoir agressé la candidate socialiste Annette Peulvast-Bergeal, Jean-Marie Le Pen ne peut se présenter aux élections européennes de 1999. En , il confie la direction de la liste du parti à sa femme, Jany, et non à son numéro deux, pourtant très influent au sein du parti et pressenti, Bruno Mégret. À ce conflit de personnes (doublé d'un conflit générationnel), s'ajoute une rivalité idéologique : Mégret ne souhaite plus cantonner son parti à un rôle de contestation mais le transformer en . Enclin à acquérir une respectabilité en contractant des alliances avec la droite parlementaire (RPR), la stratégie de Mégret implique une du discours frontiste et diverge de plus en plus de celle de Jean-Marie Le Pen, ce dernier choisissant de multiplier les déclarations . La crise atteint son paroxysme le , lors du conseil national qui réunit les 300 responsables les plus importants du parti à la maison de la Chimie pour préparer la campagne des européennes. Ce jour-là, les mégretistes se saisissent de la suspension de deux d'entre eux, Nathalie Debaille et Hubert Fayard (suspension déguisée en licenciement économique), par le président frontiste, pour faire éclater la contestation au grand jour et conspuer Jean-Marie Le Pen. Son implication dans cette opération provoque la révocation de Mégret de la délégation générale du parti, le , puis son exclusion, le . Parallèlement, les amis de Mégret essaient en premier lieu, afin de se protéger par avance d'exclusions, de prendre le contrôle du Front national en organisant, le , un dans un hôtel parisien. Ce conseil, s'appuyant sur un mouvement de pétitions réclamant l'organisation d'un , convoque un congrès du Front national, lequel se tient à Marignane (Bouches-du-Rhône), du au . Lors de cette scission du Front national, une majorité de cadres et d'élus du FN (60 % des cadres, soit 140 conseillers régionaux sur 275 et 62 secrétaires départementaux) décident de suivre Mégret. Les scissionnistes portent à leur tête Bruno Mégret en tant que , et adoptent, à l'issue de leur congrès, un changement de dénomination pour le mouvement : Front national-Mouvement national. Le , la justice, saisie par Jean-Marie Le Pen, président du FN (appelé, pour éviter toute confusion, ), constate que les formes légales de convocation d'un congrès du mouvement n'étaient pas réunies (la convocation d'un congrès étant une prérogative statutaire du seul président, dans laquelle le Conseil national, instance purement consultative du parti, n'avait aucun droit), et constate par la même occasion qu'étaient toutes les décisions incluant le conseil national du et celles ayant suivi (congrès du Front national, dépôt de modifications de dirigeants et de changement de statuts auprès d'une sous-préfecture des Hauts-de-Seine, etc.). Dans l'urgence, à l'approche des élections européennes de , le nouveau parti de Bruno Mégret modifie l'intitulé de sa liste pour les élections européennes en l'appelant . La création formelle du nouveau parti intervient le , à La Baule, lorsque le comité national vote le changement de nom du parti en , à la suite de quoi les formalités légales sont remplies. Premières échéances électorales (1999-2001). Aux élections européennes de 1999, le MNR (alors MN) se présente pour la première fois à une élection. Concurrencé par la liste Pasqua-Villiers, qui devance la liste RPR-DL, le MNR obtient 3,28 %, contre 5,69 % pour le FN. Le score du MNR aux élections municipales de 2001 constitue une réussite partielle. Il devance le FN et s'implante dans plusieurs villes, notamment dans le Sud (Marignane, Vitrolles, Marseille) et en Île-de-France (Romainville, Montreuil). Au niveau national, le parti obtient plus de conseillers municipaux que le FN. Tentative de rapprochement avec le FN (2002-2004). Le Front national prend sa revanche lors des scrutins de 2002. Plus célèbre et médiatisé que Bruno Mégret, Jean-Marie Le Pen fait un meilleur score à la présidentielle, se qualifiant pour le second tour. Entre les deux tours, Brunot Mégret appelle à voter en faveur de Jean-Marie Le Pen. Aux élections législatives qui suivent, le MNR se résigne à présenter des candidats à la suite de l'échec d'une tentative avortée de rapprochement avec le FN. Ses scores sont relativement faibles, mais suffisants pour lui permettre d'atteindre le seuil de financement public, ce qui lui procure une manne financière bienvenue alors que les comptes de campagne de Bruno Mégret à la présidentielle sont rejetés. Lors des élections régionales de 2004, le MNR se présente seul, le FN continuer à considérer les cadres du MNR comme des . Le MNR est dans l'incapacité à atteindre le seuil de 10 % dans les régions où il se présente et perd donc ses élus régionaux. Devant l'intransigeance du FN, il appelle à voter pour l'UMP au second tour, mais continue à être considéré comme un parti d'extrême droite. L'UMP ne fit aucun geste en retour. Effondrement et rapprochement avec le MPF (2005-2007). À l'occasion du référendum français sur le traité établissant une constitution pour l'Europe, le MNR fit campagne pour le non, mais au contraire du MPF de Philippe de Villiers, ne bénéficia d'aucun regain médiatique. Un peu avant le référendum, en , le MNR fut victime d'une scission d'une poignée de cadres qui créèrent le Parti populiste, actif essentiellement dans les Hauts-de-Seine. Les partants souhaitaient se rapprocher du FN. Dans la perspective de l'élection présidentielle de 2007, Philippe de Villiers se déclara candidat en 2005. Le MNR, qui observe alors la droitisation du discours de Villiers, et partage ainsi certains de ses points de vue (par exemple, Philippe de Villiers a repris la dénonciation de l'islamisation, islamisation que le MNR dénonçait depuis longtemps), tente de se rapprocher de lui. Mais le MPF ne tient pas à se compromettre par un rapprochement qui pourrait valoir à son président la qualification d'homme d' et donc décline l'offre. Alors que l'Union patriotique, voulue par Jean-Marie Le Pen, était proposée par lui surtout à de Villiers, afin de pouvoir le qualifier de diviseur s'il la refusait, Bruno Mégret décide d'en profiter et se rapproche alors de Jean-Marie Le Pen, s'engageant à le soutenir à la présidentielle de 2007. Toutefois, certains au FN voient d'un mauvais œil ce rapprochement. À la suite de l'élection présidentielle, où Le Pen a perdu beaucoup de voix par rapport à 2002, Bruno Mégret s'en prend à la stratégie mise en place par Marine Le Pen et estime que la dédiabolisation aurait dû se faire sur le terrain des et non dans le programme ; ainsi, il critique l'esprit de la visite sur la dalle d'Argenteuil. Le MNR, dans la foulée de l'élection présidentielle, propose au FN le principe d'une candidature unique FN-MNR pour les élections législatives de 2007. 50 à 60 circonscriptions verraient un candidat du MNR se présenter, dans les autres, un candidat FN se présenterait, soutenu par le MNR. Le FN refuse cette proposition et fait une contre-offre : tout le monde pourra se présenter n'importe où, et si au second tour, un candidat FN et un candidat MNR sont qualifiés, alors le moins bien placé se désistera. Cette contre-proposition est purement théorique dans la mesure où, vu le mauvais état du MNR et le recul du FN, il n'y avait aucune chance d'avoir deux candidats de la droite nationale qualifiés pour le second tour. Le MNR décide alors de mettre sur place l'Alliance patriotique, en proposant aux partis tiers (MPF, DLR, etc.) le principe d'une candidature unique. Finalement, seul le MPF accepte le principe, et des arrangements locaux sont conclus avec lui ; dans 35 circonscriptions, le candidat MNR pressenti se désiste, dans 35 autres, c'est le candidat MPF. Ces accords ne sont toutefois pas véritablement rendus publics, et il n'y a aucun appel à voter officiel. Le MNR complète cela par un désistement unilatéral face à certaines personnalités du FN, comme Bruno Gollnisch, certaines personnalités de DLR, comme Nicolas Dupont-Aignan, certains députés divers droite, comme Jérôme Rivière, les députés sortants MPF (Véronique Besse et Joël Sarlot), et les candidats identitaires de Nissa Rebela (Philippe Vardon et Benoît Lœuillet). La plupart de ses candidats sont inscrits sous le slogan . Au bilan, les élections sont un désastre pour le MNR comme pour le FN. Le MNR échoue à atteindre le seuil de 50 candidats faisant plus de 1 % des suffrages exprimés, et donc perd le financement public. Tous ses candidats ont été éliminés. Dans la circonscription de Vitrolles, Bruno Mégret n'obtient que 2,04 % des voix. En de nombreuses circonscriptions, on remarque que le candidat MNR a capté des voix qui auraient pu, si elles s'étaient portées sur le candidat FN, lui faire passer le seuil des 5 % et donc permettre le remboursement des frais de campagne. Réorganisation (depuis 2008). Afin de faciliter la création de listes communes FN-MNR pour les élections municipales de 2008, le MNR lance Convergences Nationales, dont la présidence est confiée à Nicolas Bay, alors secrétaire général du parti. Mais le FN refuse les alliances et le MNR se tourne alors vers d'autres forces politiques et tente également de créer ses propres listes. Il arrive finalement à se présenter dans quelques villes comme Roubaix ou Sartrouville mais doit renoncer à se présenter à Marseille faute de financement. Le FN qui s'est présenté dans les villes emblématiques du MNR, comme Vitrolles, perd largement en pourcentage (40 % à 50 % pour le MNR en 2001, contre moins de 10 % pour le FN en 2008). Au bilan, le MNR perd la quasi-totalité de ses conseillers municipaux ; dans les villes de plus de , seul Nicolas Bay, Claude Gossé et Guy Vidal sont élus, respectivement à Sartrouville, Neuves-Maisons et Velaux. Le MNR conserve toutefois des élus locaux, comme le maire de Senuc, commune de , ou encore à Monteplain, à Estivareilles et à Rumigny. Aux cantonales, le MNR présente une dizaine de candidats, soutenus par le FN. Deux d'entre eux - Magalie Denys dans le canton de Chabanais et Gérard Cretin dans le canton de Dole-Sud-Ouest - dépassent le seuil des 10 % des voix. Le , Bruno Mégret annonce se mettre et partir . Il est remplacé par une direction collégiale composée entre autres d'Alain Vauzelle, Nicolas Bay, Annick Martin, même si Mégret continuera à donner son avis sur l'évolution du mouvement. Le , le MNR annonce qu'il ne prendra pas part à la réunion de la Nouvelle Droite populaire, mouvement politique d'extrême droite se voulant rassembleur de . Le , le Conseil national réaffirme son indépendance vis-à-vis des autres partis et sa ligne politique : refus de l'islamisation et l'immigration, défense des valeurs civilisationnelles, régulation de la mondialisation pour une nouvelle politique économique et sociale. Bay et Gaillard ayant tenté de se rapprocher du Front national en général et de Marine Le Pen en particulier, et ayant pris un certain nombre d'initiatives sans consulter la direction collégiale, sont exclus du Conseil national le , par contre 10, Bay étant exclu de plus du MNR. Le , le Conseil national exclut Gaillard du parti ainsi que quelques personnalités qui avaient décidé de suivre Bay, et se dote d'un nouveau bureau national. Annick Martin devient à cette occasion, secrétaire générale du parti. Les exclus reprennent en main Convergences Nationales dont Nicolas Bay continuait d'assurer la présidence. Concernant l'année 2009, le mouvement ne présentera pas de listes aux élections européennes, mais des listes d'alliance avec le Parti de la France (PDF), issu d'une scission avec le FN et présidé par Carl Lang, mais aussi avec la Nouvelle Droite populaire (NDP) conduite par l'ancien député alsacien Robert Spieler. Pour les régionales de 2010, le MNR a adopté la même stratégie, en faisant liste commune avec le PDF et la NDP dans quatre régions : Franche-Comté, Lorraine, Picardie et PACA. Le MNR soutient également d'autres listes de la droite nationale, comme Alsace d'abord. Finalement, les résultats vont de 2 à 3 % des votes, 5 % en comptant également les listes . Le est annoncée la création du Comité de liaison de la résistance nationale, structure politique souhaitant fédérer le MNR, la Nouvelle Droite populaire, le Parti de la France. Ce comité sera finalement créé sous le nom Union de la droite nationale qui rassemble outre le MNR, PDF, et NDP, d'autres mouvements politiques. Le MNR soutenait la candidature de Carl Lang à l'élection présidentielle de 2012, mais celui-ci n'obtient pas ses signatures. Entre le premier tour et le second tour, tout en ne reniant rien des critiques adressées à Nicolas Sarkozy entre 2007 et 2012, le MNR se prononce toutefois plutôt en sa faveur par rejet du candidat socialiste et de son programme. Dans le cadre des élections législatives de 2012, le MNR forme une coalition avec la Nouvelle droite populaire et le Parti de la France : l'Union de la droite nationale. Cette confédération de partis d'extrême droite présente soixante-dix candidats, essentiellement dans le Nord-Pas-de-Calais, la Picardie et le Sud-Est de la France. Quarante-cinq de ces candidats sont issus du PDF, seize du MNR et deux de la NDP. Lors de la campagne présidentielle de 2017, le MNR appelle à voter pour François Fillon au premier tour, considérant que Marine Le Pen est déjà et qu'il convient d' Emmanuel Macron et Jean-Luc Mélenchon. Il appelle ensuite à faire barrage à Macron et donc à voter Marine Le Pen au second tour. Après Annick Martin, le secrétaire général est depuis 2010 Hubert Savon. Lors des élections présidentielles et législatives de 2022, le MNR a soutenu Éric Zemmour et son Reconquête. En septembre 2022, le site internet du MNR disparaît. Place dans le paysage politique français. Entente avec d'autres formations. Le MNR entretient de très bonnes relations avec le Parti de la France et la Nouvelle Droite populaire, et a même créé un qui est devenu l'Union de la droite nationale, de laquelle le parti est un membre. Le MNR a également mené des luttes communes aux côtés des Identitaires ou d'Alsace d'abord. Au niveau européen et mondial, le MNR a soutenu la formation Pro-Köln (extrême droite islamophobe), qui a dénoncé la construction d'une grande mosquée à Cologne. Le MNR est également considéré comme le contact officiel en France du comité SIOE (). Relations avec le FN. Le MNR entretient des contacts avec certaines personnalités du FN. . À l'époque de Jean-Marie Le Pen et Bruno Mégret, une différence importante entre les deux partis était que MNR insistait davantage sur la lutte contre l', et la , là où le FN se contentait de dénoncer l'immigration. Cependant, depuis que les deux partis ont changé de présidence (de Jean-Marie à Marine Le Pen au FN et de Bruno Mégret à Annick Martin au MNR), quelques positionnements semblent avoir changé : Marine Le Pen souhaite une de son parti en faisant référence aux valeurs de la République et de la laïcité, a renoncé à quelques positions de son père qu'elle jugeait trop radicales et met l'accent sur la lutte contre l'. Déçu par ces prises de position autant que par la politique économique et sociale considérée comme , le MNR cherche la proximité avec des organisations proches du nationalisme contre-révolutionnaire, du catholicisme traditionaliste et du mouvement identitaire au sein de l'UDN. Branche de jeunesse. Sa branche de jeunesse est le FNJ-Mouvement national, devenu le Mouvement national de la jeunesse. En 2000, Jean-Yves Camus relève qu'il . Il fut notamment dirigé par Philippe Schleiter. En , il participe à la création du Front de la jeunesse. |
Michelle Yeoh Yeoh Choo-Kheng, dite Michelle Yeoh (), également appelée Michelle Khan, née le à Ipoh (Perak), est une actrice et productrice malaisienne de cinéma, notamment d'arts martiaux. Considérée comme « la reine du cinéma d'action asiatique », elle connaît à partir de la fin des années 1990 de grand succès internationaux, interprétant une "James Bond girl" dans "Demain ne meurt jamais" avant d'enchaîner avec "Tigre et Dragon", "Mémoires d'une geisha", "Crazy Rich Asians" et "Shang-Chi et la Légende des Dix Anneaux". En 2023, elle obtient l’Oscar de la meilleure actrice en raison de sa performance dans "Everything Everywhere All at Once", devenant la première actrice asiatique à remporter la récompense. Enfance et formation. Enfance sportive. Michelle Yeoh naît le à Ipoh, dans l'État de Perak en fédération de Malaisie, de parents issus de la communauté chinoise anglophone. Son père, avocat, l'envoie en pension dans un couvent malaisien où elle reçoit un enseignement en anglais. Dès l'âge de , elle se consacre assidûment à la danse classique, au squash, à la natation et à la plongée. Elle pratique dès le lycée la compétition internationale dans ces disciplines. En 1977, âgée de , son père l'envoie en pensionnat à Londres, où elle suit une formation de ballerine à la prestigieuse Royal Ballet School ainsi que des cours de comédie. Une blessure au dos l'oblige à abandonner sa passion et à trouver une autre voie. Miss Malaisie. En 1983, âgée de , de retour en Malaisie, elle y remporte le titre de Miss Malaisie et, en Australie, celui de Miss Moomba. Elle est remarquée alors par l'homme d'affaires milliardaire , propriétaire de nombreux grands magasins en Asie, qui lui fait tourner une publicité pour ses montres à Hong Kong avec la star Jackie Chan. Carrière d'actrice. En 1984, Dickson Poon l'engage alors par contrat dans sa nouvelle compagnie de production de cinéma D&B Films et lui fait tourner son premier petit rôle dans "The Owl and Bumbo", une comédie d'action de Sammo Hung. Elle découvre alors le monde professionnel du cinéma d'arts martiaux de Hong Kong qui la fascine, et commence un entraînement intensif dans les meilleures écoles de kung-fu. En 1985, elle décroche son premier rôle dans "My Lucky Stars 2", un film d'action de Sammo Hung où elle joue un professeur de judo. Elle enchaîne avec "Yes, Madam", de Corey Yuen, où elle forme un duo de policières de choc avec l'actrice américaine Cynthia Rothrock, championne du monde de kung-fu wushu. Elle révèle alors tous ses talents d'acrobate et d'arts martiaux en jouant elle-même ses acrobaties et ses cascades sans doublure. Au début de sa carrière d'actrice, elle se voit attribuer par la production le pseudonyme de "Michelle Khan", jugé plus prononçable et vendeur. Appréciant peu ce nom, elle reprend au début des années 1990 son véritable nom de famille, Michelle Yeoh. En 1986, Yeoh joue dans "Royal Warriors" et "Magnificent Warriors", produit par , qu'elle épouse en 1987 et qui lui offre le rôle suivant dans "Le Casse du siècle" de Stephen Shin. Âgée de , elle met alors sa carrière entre parenthèses pour se consacrer à son nouveau foyer. En 1990, après cinq ans de mariage, Yeoh divorce et revient au cinéma d'action avec "" aux côtés de Jackie Chan. Elle accepte le rôle que lui propose l'acteur à la condition d'être traitée par ce dernier. Le film pulvérise tous les records d'entrées à Hong Kong et fait d'elle l'actrice la plus populaire et la mieux payée du cinéma asiatique. Son nouvel agent, Terence Chang (agent de John Woo et de son acteur fétiche Chow Yun-fat), se fixe comme objectif principal d'en faire une star hollywoodienne. En 1993, elle tourne aux côtés de Jet Li dans "Tai-Chi Master", du cinéaste et chorégraphe Yuen Woo-ping, puis, en 1994, dans "Wing Chun". En 1995, Yeoh décide d'étendre son registre au drame avec "Les Sœurs Soong" et "Stunt-Woman", films pour lesquels elle est nommée aux Hong Kong Film Awards dans la catégorie Meilleur second rôle féminin. En 1997, les producteurs de James Bond lui offrent le rôle à succès mondial d'une "James Bond girl", agent secret chinois dans "Demain ne meurt jamais" au côté de Pierce Brosnan. Elle acquiert d'emblée le statut de star hollywoodienne. En 2000, elle joue dans le film d'action d'Ang Lee "Tigre et Dragon", succès mondial au box-office (un million d'entrées et de multiples prix aux Hong Kong Film Awards et Oscar du cinéma etc). Dans un entretien, elle indique qu'elle a dû apprendre à prononcer le mandarin pour jouer le rôle de Yu Shu Lien. En 2002, Michelle Yeoh produit son premier film "Le Talisman", de Peter Pau, dans lequel elle joue le rôle féminin principal. La même année, elle est membre du jury des longs-métrages au festival de Cannes 2002. En 2004, elle joue un des rôles dramatiques principaux de geisha des années 1930 du film à grand succès international "Mémoires d'une geisha" de Rob Marshall au côté des trois stars asiatiques Zhang Ziyi, Gong Li et Ken Watanabe. En 2008, elle joue un rôle important dans le troisième volet de la série de films "La Momie", intitulé "", réalisé par Rob Cohen au côté de Brendan Fraser et Maria Bello. En 2011, elle interprète Aung San Suu Kyi, l'opposante birmane et prix Nobel de la paix, dans "The Lady", de Luc Besson, dont son mari, Jean Todt, est le producteur. Elle s'y révèle pleine de sensibilité, ce qui contraste avec ses rôles habituels d'action et de combat. En 2018, elle joue le rôle de la riche belle-mère en incarnant Eleanor Young dans le film "Crazy Rich Asians" de Jon Chu, une comédie romantique, aux côtés de Constance Wu, mettant en scène une majorité d'acteurs américains d'origines asiatiques. En 2023, elle obtient l’Oscar de la meilleure actrice pour le rôle d’Evelyn Wang, une mère de famille débordée qui navigue dans le multivers dans "Everything Everywhere All at Once", devenant la première actrice asiatique à remporter la récompense. Vie privée. En 2007, elle se fiance avec Jean Todt, président de la Fédération internationale de l'automobile (FIA), qu'elle fréquente depuis 2004. Elle devient en 2008 la marraine de l'Institut du cerveau et de la moelle épinière, partageant cet engagement avec Jean Todt, vice-président de l'Institut. En , elle est choisie par la maison Guerlain pour incarner le nouveau visage de la marque. Voix francophones. En version française, Michelle Yeoh est doublée par Marie-Anne Tran dans "Demain ne meurt jamais", Véronique Augereau dans "Mémoires d'une geisha", Valentine Zhou dans "" ou encore à trois reprises chacune par Françoise Cadol dans "Tigre et Dragon", sa suite et "Le Talisman" et par Juliette Degenne dans "Babylon A.D.", "Sunshine" et "L'École du bien et du mal". La doublant en 2002 dans "Tai-Chi Master", Déborah Perret la retrouve de manière sporadique dans "Les Orphelins de Huang Shui", ' et "Bloody Milkshake". Depuis 2011 et le film "The Lady", l'actrice est principalement doublée par Ivana Coppola qui la retrouve dans "Les Gardiens de la Galaxie Vol. 2", ', "Crazy Rich Asians" et "Strike Back", mais également par Yumi Fujimori, depuis 2016, qui la double dans les films "Morgane", "Last Christmas", "Shang-Chi et la Légende des Dix Anneaux" et "Everything Everywhere All at Once". À titre exceptionnel, Colette Sodoyez la double dans "Marco Polo" et Nathalie Régnier lui prête sa voix dans "Boss Level". |
Moray (logiciel) Moray est un modeleur 3D destiné à créer des scènes pour le logiciel POV-Ray de lancer de rayons. En effet POV-Ray fonctionnant avec un langage de script, il est difficile de construire et mettre en scène des objets sans les voir. Moray construit ainsi les scripts automatiquement. Moray implémente quasiment toutes les primitives de bases de POV-Ray. Hormis certaines plus complexes à mettre en œuvre graphiquement (comme les isosurfaces par exemple). Grâce à son ouverture sous la forme de plugins, de nombreuses possibilités peuvent lui être ajointes. La visualisation de la scène se fait en OpenGL, par défaut découpé en 4 vues (paramétrables), vue de droite, vue de dessus, vue de face et caméra. La navigation se fait directement à la souris, et une arborescence des objets à manipuler est accessible aisément. |
Médecine La médecine (du , qui signifie « art de guérir, remède, potion »), au sens de pratique (art), est la science témoignant de l'organisation du corps (anatomie), son fonctionnement normal (physiologie), et cherchant à préserver la santé (physique comme mentale) par la prévention (prophylaxie) et le traitement (thérapie) des maladies. La médecine humaine est complémentaire et en synergie avec la médecine vétérinaire. La médecine contemporaine utilise l'examen clinique, les soins de santé, la recherche et les technologies biomédicales pour diagnostiquer et traiter les blessures et les maladies, habituellement à travers la prescription de médicaments, la chirurgie ou d'autres formes de thérapies. Histoire. Préhistoire et Antiquité. Il n'existe pas suffisamment de données fiables pour déterminer le début de l'usage des plantes à des fins médicinales (phytothérapie). Les données médicales contenues dans le Papyrus Edwin Smith peuvent être datées du . Les premiers exemples connus d’interventions chirurgicales ont été réalisés en Égypte aux alentours du (voir chirurgie). Imhotep sous la troisième dynastie est parfois considéré comme le fondateur de la médecine en Égypte antique et comme l'auteur originel du papyrus d’Edwin Smith qui énumère des médicaments, des maladies et des observations anatomiques. Le papyrus gynécologique Kahun traite des maladies des femmes et des problèmes de conception. Nous sont parvenues trente-quatre observations détaillées avec le diagnostic et le traitement, certains d'entre eux étant fragmentaires. Datant de 1800 , il s’agit du plus ancien texte médical, toutes catégories confondues. On sait que des établissements médicaux, désignés par l’expression "Maisons de vie" ont été fondés dans l’Égypte antique dès la première dynastie. Les plus anciens textes babyloniens sur la médecine remontent à l’époque de l’ancien empire babylonien dans la première moitié du Cependant, le texte babylonien le plus complet dans le domaine de la médecine est le "Manuel de diagnostic" écrit par Esagil-kin-apli le médecin de Borsippa, sous le règne du roi babylonien Adad-ALPA-iddina (1069-1046 ). Hippocrate, est considéré comme le père fondateur de la médecine moderne et rationnelle, et ses disciples ont été les premiers à décrire de nombreuses maladies. On lui attribue la première description des doigts en baguette de tambour, un signe important pour le diagnostic de la bronchopathie chronique obstructive, du cancer du poumon et des cardiopathies cyanogènes congénitales. Pour cette raison, le symptôme des doigts en baguette de tambour est parfois appelé "hippocratisme digital ". Hippocrate a également été le premier médecin à décrire la face hippocratique. Shakespeare fait une allusion célèbre à cette description dans sa relation de la mort de Falstaff dans "Henry V", acte II, scène III. Le "Corpus hippocratique" popularise la théorie des humeurs. La médecine rationnelle grecque et latine coexiste cependant pendant toute l'Antiquité avec les cultes des Dieux guérisseurs. Agnodice (Hagnodice) ou Hagnodikè (en grec ancien ) fut, selon une légende grecque rapportée par Hygin (Caius Julius Hyginus) dans la de ses "Fabulae", l'une des premières femmes médecin et gynécologue. Issue de la haute société athénienne, elle se déguisa en homme pour suivre les cours de médecine du célèbre médecin Hérophile. Vers 350 av. J.-C., elle passa l'examen et devient gynécologue, mais sans révéler qu'elle était une femme. Moyen Âge. La médecine pratiquée et enseignée en occident a ses racines dans les connaissances acquises et protocolées de l'Antiquité au de l'Orient à l'Empire romain. Elles proviennent de la Torah, étonnement rationnelle en la matière, car tenant compte des conditions climatiques. En effet, les cinq livres de Moïse qui la constituent, contiennent diverses « lois » ayant des conséquences directes sur la santé à travers différents rituels, tels que l'isolement des personnes infectées (Lévitique 13:45-46), le lavage des mains après avoir manipulé un cadavre (Livre des Nombres 19:11-19) et l’enfouissement des excréments à l’extérieur du campement (Deutéronome 23:12-13). La traduction dans les années 830-870 de 129 œuvres du médecin grec Galien ( siècle av J.C.) en arabe par Hunayn ibn Ishaq et ses élèves sert de modèle à la médecine des civilisations islamiques et se propage rapidement à travers l’Empire arabe, reprenant en particulier, l'insistance de Galien sur une approche rationnelle et systématique de la médecine. Qusta ibn Luqa joua aussi un rôle important dans la traduction et la transmission des textes grecs. Les médecins musulmans ont mis en place certains des premiers hôpitaux, institution qui importée en Europe à la suite des croisades. En Europe occidentale, l'effondrement de l'autorité de l’empire romain a conduit à l’interruption de toute pratique médicale organisée. La médecine était exercée localement, alors que le rôle de la médecine traditionnelle augmentait, avec ce qui restait des connaissances médicales de l'antiquité. Les connaissances médicales ont été préservées et mises en pratique dans de nombreuses institutions monastiques qui s’étaient souvent adjoint un hôpital et disposaient de carrés d'herbes médicinales. Une médecine professionnelle organisée est réapparue, avec la fondation de l’école de médecine de Salerne en Italie au qui, en coopération avec le monastère du Mont Cassin, a traduit de nombreux ouvrages byzantins et arabes. À partir du , l'Église veut dissocier la vocation de moine de la profession de médecin. La volonté d'encadrer le savoir aboutit à la formation d'universités aux mains des ecclésiastiques. Les médecins de l'université de médecine de Montpellier, dépositaires des doctrines des médecins juifs et arabes, privilégient les plantes, ceux de l'Ancienne université de Paris privilégient la purge et la saignée. En 1761, Claude Bourgelat fonde l'École Royale Vétérinaire par arrêt du Conseil du Roi Louis XV, et introduit la "biopathologie comparée" entre les animaux et l'homme. Il rédige l'ouvrage "Art vétérinaire ou médecine des animaux" et écrit dans l'Encyclopédie Diderot : « La médecine de l’homme est utile à celle du cheval et réciproquement. » « L'analogie de mécanisme du corps de l'homme et de l'animal... est véritablement constante, s'éloigner de la route qui conduit à la guérison de l'un et chercher de nouvelles voies pour la guérison de l'autre, c'est s'exposer à tomber dans des écarts criminels.» et. Au , Karl August Wunderlich publie "Das Verhalten der Eigenwärme in Krankheiten", qui établit que la fièvre est seulement un symptôme et met fin au credo d'une maladie infectieuse jusqu'alors nommée « fièvre intermittente ». En 1881 Theodor Billroth réalise la première gastrectomie, il révolutionne la chirurgie du pharynx et de l'estomac. En utilisant l'analyse statistique, le médecin Pierre-Charles Alexandre Louis (1787-1872) montre que l'utilisation des saignées chez les malades atteints de pneumonie n'est pas bénéfique mais néfaste. Ceci esquisse la notion d'étude randomisée en double aveugle. Madeleine Brès (1842-1921) est la première femme de nationalité française à accéder aux études de médecine en 1868, mais sans avoir le droit d'accéder aux concours. Elle obtient son doctorat en médecine, en 1875 et devient gynécologue et pédiatre. Elle démontre dans sa thèse que le lait du nourrisson se modifie au cours de l'allaitement et crée une des premières crèches parisiennes. Elizabeth Garrett Anderson, britannique la devance de cinq ans en France dans l'obtention de son doctorat. En 1854, Florence Nightingale est la première à utiliser les statistiques pour réorganiser les soins aux blessés de la guerre de Crimée et faire baisser la mortalité des soldats. Le , Aloïs Alzheimer décrit le tableau clinique de la maladie qui porte son nom, dont il n'existe toujours aucun traitement connu à ce jour. Les traitements médicaux font des progrès spectaculaires avec l'invention de nouvelles classes de médicaments. Felix Hoffmann dépose le brevet de l'aspirine le . En 1909, le Nobel de médecine Paul Ehrlich invente la première chimiothérapie en créant un traitement à base d'arsenic contre la syphilis. En 1921 Frederick Banting de l'université de Toronto isole l'insuline et invente un traitement du diabète sucré. Le premier antibiotique date de 1928 avec la découverte de la pénicilline par Alexander Fleming. Selon la psychanalyste argentine Raquel Capurro, la médecine a été le premier domaine influencé par le positivisme d'Auguste Comte, à partir du milieu du , à travers des personnalités telles que le docteur Robinet parmi d'autres. Délimitations. La délimitation de ce qui est médecine et de ce qui ne l'est pas est source de débat. Médecine « moderne » occidentale. La plus grande partie de cet article traite de la médecine telle qu'elle s'est développée à partir de l'époque moderne, et pratiquée à partir du . Les innovations majeures apportées par la médecine occidentale à partir du (anesthésie et asepsie puis vaccination et antibiotiques au ), ses succès, ainsi que sa diffusion à travers le monde par le biais notamment de la colonisation par l'Occident vont inciter à poser, dès la fin du , la médecine scientifique occidentale comme modèle de médecine faisant autorité, lequel s'est diffusé au niveau mondial à travers son industrialisation au . Médecine médiévale occidentale. Certains chercheurs réhabilitent de même certains aspects de la médecine médiévale occidentale. Ainsi l'historien de la médecine Roger Dachez qui met en valeur l'aspect préventif et la vision globale qu'avait de la médecine le Moyen Âge. Médecines non occidentales. De même, toujours à la fin du , notamment sous l'effet de la mondialisation, les médecines traditionnelles ou non occidentales ont vu leur place reconnue au sein de la médecine mondiale : en 2002, l'organisation mondiale de la santé a ainsi mis en place sa première stratégie globale en matière de médecine traditionnelle. On identifie ainsi, à côté de la médecine occidentale, d'autres types de médecines, dites « alternatives » incluant : médecine chinoise, médecine tibétaine traditionnelle, médecine ayurvédique, médecine traditionnelle, et médecine non conventionnelle. En Occident, l'usage de médecines alternatives et complémentaires est constaté dans certaines conditions où les traitements de biomédecine semblent inefficaces, notamment dans le cas de maladies chroniques. Processus médical. Les étapes de l'acte médical sont formées de : Branches. En travaillant ensemble comme une équipe interdisciplinaire, de nombreux professionnels de la santé hautement qualifiés sont impliqués dans la prestation des soins de santé modernes. Voici quelques exemples : les infirmiers, les techniciens médicaux d'urgence et les ambulanciers, les scientifiques de laboratoire, pharmaciens, podologues, physiothérapeutes, inhalothérapeutes, psychologues, orthophonistes, ergothérapeutes, radiologues, des diététiciens, des bioingénieurs, des chirurgiens et des vétérinaires. Un patient admis à l'hôpital est habituellement sous les soins d'une équipe spécifique en fonction de leur problème de présentation principale, par exemple, l'équipe de cardiologie, qui peut ensuite interagir avec d'autres spécialités, par exemple, la chirurgie, la radiologie, pour aider à diagnostiquer ou traiter le problème principal ou des complications ultérieures. Les médecins ont de nombreuses spécialisations et sous-spécialisations dans certaines branches de la médecine, qui sont énumérés ci-dessous. Il existe des variations d'un pays à l'autre en ce qui concerne les spécialités et les sous-spécialités. Les principales branches de la médecine sont : Institutions médicales. Professions médicales et paramédicales. Une profession de la santé est une profession dans laquelle une personne exerce ses compétences ou son jugement ou fournit un service lié au maintien ou l'amélioration de la santé des individus, ou au traitement ou soins des individus blessés, malades, souffrant d'un handicap ou d'une infirmité. Des exemples de profession peuvent notamment inclure : médecin, pharmacien, chirurgien-dentiste, sage-femme, masseur-kinésithérapeute, physiothérapeute, ergothérapeute, psychomotricien, infirmier, podologue, aide-soignant, ambulancier, et attaché de recherche clinique. Études médicales et paramédicales. Chaque profession possède son propre cursus de formation. En plus des études permettant d'exercer la profession de médecin dont l'organisation varie selon les pays, on trouve donc notamment les études en soins infirmiers, et les études de pharmacie. L'étudiant en médecine s'appelle carabin. Bilan. Apports. Les apports de la médecine, particulièrement de la médecine occidentale depuis le , se mesure notamment par l'allongement de la durée de la vie, l'espérance de vie en bonne santé, la réduction de la mortalité infantile, et l'éradication ou la capacité technique d'éradication de très anciennes épidémies (tuberculose, peste, lèpre). Ces progrès se poursuivent comme avec les succès de nouvelles thérapies (ou actes chirurgicaux) sur des pathologies considérées encore incurables il y a une quinzaine d'années (comme certains cancers et maladies auto-immunes). Limites et perspectives. La médecine n'est pas une science exacte, et l'acte médical peut parfois affecter la personne humaine de manière négative, par exemple via : De nombreux progrès sont annoncés ou espérés dans les années à venir, en matière de santé-environnement, d'épidémiologie, d'allongement de la durée de vie, si ce n'est de la durée de vie en bonne santé. La médecine prédictive, le clonage, les cellules-souches posent des questions nouvelles en termes de bioéthique. Des défauts d'anticipation font que, par exemple en France, en 2025, alors que la population aura augmenté (et la population âgée plus encore), le nombre de médecins aura diminué de 10 % et la densité médicale de 15 %, à la suite du non-remplacement des médecins baby-boomers induit par les quotas d’accès aux études de médecine dans les années 1970 à 1990. La médecine libérale devrait perdre 17 % de ses effectifs, et le secteur salarié 8 %, sauf en milieu hospitalier où le ministère envisage une hausse de 4 % ; 13 % des généralistes auront disparu, contre 7 % pour les spécialistes (ophtalmologistes, oto-rhino-laryngologistes et psychiatres surtout). La faible « densité médicale » augmentera aussi le coût des soins, l’impact des déplacements en termes de pollution (et secondairement de santé) et pourrait diminuer l'efficience médicale (une moindre densité médicale augmente la mortalité), d'autant plus que les patients sont plus pauvres. |
Infection sexuellement transmissible Une infection sexuellement transmissible (IST) ou infection transmissible sexuellement (ITS) au Canada correspond à la pénétration dans l'organisme d'une bactérie, d'un protozoaire ou d'un virus pathogène et capable de s'y reproduire, qui se transmet entre partenaires au cours des différentes formes de rapports sexuels. Cette infection peut donner lieu à une maladie infectieuse, autrefois appelée maladie vénérienne, le nom provenant de Vénus, déesse de l'amour. Toutes les pratiques sexuelles qui comportent un contact génital mutuel ou oro-génital avec une autre personne, ou ses fluides génitaux, sont considérées comme un risque de transmission d'une IST. Chaque IST présente un risque et un degré de gravité différent. En considération des contaminations buco-fécales un simple contact oro-anal comporte un risque de transmission infectieuse parasitaire. L'infection peut être multiple (plusieurs agents infectieux à la fois). Elle est fréquemment récidivante à court terme. Selon le type d'infection le risque de contamination peut être réduit par la vaccination, la limitation du nombre de partenaires et l'utilisation de protections appropriées incluant notamment les préservatifs masculins et féminins pour les infections se faisant par les sécrétions vaginales, péniennes et le sperme. Terminologie. Jusqu'au début des années 1980 on utilisait en français l'expression de « maladies vénériennes », ce qui faisait référence de façon poétique à la déesse de la mythologie antique Vénus. À partir des années 1990, les appellations MST (pour « maladies sexuellement transmissibles ») ou MTS (pour « maladies transmissibles sexuellement ») sont d'usage courant. Depuis 1999, le terme MST est peu à peu remplacé par celui d'IST et ITS (« infections transmissibles sexuellement » et « infections sexuellement transmissibles »), car le terme « infection » plutôt que « maladie » prend mieux en compte le fait que certaines infections sont asymptomatiques (sans symptôme apparent, elles peuvent passer inaperçues, ne répondant pas à l’acception du mot maladie dans le langage courant). Quelques IST peuvent être transmises par le sang (hépatite B) ou le lait maternel (sida). Maintenant, au Canada, on parle surtout de ITSS : « infection transmissible sexuellement et par le sang ». Dans les mêmes périodes temporelles, la langue anglaise utilise l'expression ' (VD), puis ' (STD) et "" (STI). Prévention. La probabilité de transmission des maladies par l'activité sexuelle varie grandement d'une pathologie à l'autre et dépend également des pratiques sexuelles. Certaines pratiques n'incluant pas le contact génital ou buccal (par exemple, la masturbation, le doigtage ou les caresses), ainsi que l'utilisation de préservatifs, de digues dentaires ou de gants, permettent de réduire les risques de transmission. Ces pratiques sont dénommées sécurisexe. Préservatif. Selon l'infection concernée, les professionnels de la santé conseillent des rapports protégés par préservatifs lors de relations sexuelles avec des personnes possiblement atteintes. Le préservatif s'avère être très efficace pour empêcher la transmission des IST par les sécrétions vaginales, péniennes et le sperme mais n'offre pas de protection face aux IST présentes sur les surfaces cutanées de la zone génitale. Ainsi le préservatif, correctement utilisé lors d'une relation sexuelle avec pénétration, est le seul contraceptif qui protège de la transmission du VIH et de l'hépatite B. Il ne protège en revanche pas efficacement d'autres IST occasionnant un nombre important de décès, comme la syphilis ou encore le papillomavirus humain , responsable de plusieurs types de cancers dont le cancer du col de l'utérus et contre lequel seule la vaccination s'avère efficace. Enfin, il ne permet pas non plus de se protéger contre l'herpès génital responsable de conséquences psychologiques et sociales importantes pour la personne atteinte et dont la transmission au fœtus durant l'accouchement, appelée herpès néonatal, occasionne une importante mortalité et des séquelles lourdes. Au niveau d'une population, l'utilisation de préservatifs est efficace de la même manière pour contrôler certaines épidémies notamment celles pour lesquelles les sécrétions vaginales, péniennes et le sperme sont les vecteurs exclusifs. La diffusion des IST est très majoritairement liée à l'activité hétérosexuelle (de par le poids de la « communauté ») même si, historiquement, les prostitués (ou travailleurs du sexe) et certains groupes homosexuels ont été les plus touchés. Une raison majeure expliquant la diffusion des IST est l'existence de porteurs sains : ces derniers ne ressentent pas de symptôme d'infection et ne consultent donc pas de médecin, risquant ainsi de transmettre leur(s) IST à leur(s) partenaire(s) du fait de l'absence de prise en charge appropriée (traitement et rapports protégés). Ce peut être le cas pour les urétrites par exemple (dont la gonococcie ou la chlamydiose). Information des partenaires. Lorsqu'un diagnostic d'IST a été porté, il est recommandé au patient d'avertir ses partenaires actuels et anciens pour qu'ils se fassent dépister. Ceci a un objectif triple : bénéfice pour le patient qui risque très probablement de se faire infecter à nouveau si le(s) partenaire(s) actuel(s) ne sont pas traités de façon concomitante, bénéfice pour ses partenaires passés et présents qui seront pris en charge à leur tour, et bénéfice collectif en évitant la contamination des futurs partenaires. Liste d'IST. Les maladies suivantes sont essentiellement à transmission sexuelle : Les maladies suivantes qui, pour certaines d'entre elles, ne sont pas considérées comme des IST, peuvent toutefois être transmises par voie sexuelle ou anale mais non exclusivement : Transmission. Le tableau suivant résume les risques de transmission des infections sexuellement transmissibles par type de rapport sexuel. Dans le monde animal. Des IST existent également dans le monde animal, chez les oiseaux par exemple. |
Mary Shelley Mary Shelley , née Mary Wollstonecraft Godwin le à Somers Town, un faubourg de Londres (aujourd'hui dans le district de Camden), et morte le (53 ans) à Belgravia (Londres), est une femme de lettres britannique, romancière, dramaturge, essayiste, biographe et auteur de récits de voyage. Elle est surtout connue pour son roman "Frankenstein ou le Prométhée moderne". Fille de la philosophe féministe Mary Wollstonecraft et de l'écrivain politique William Godwin, elle perd sa mère alors qu'elle-même n'est âgée que de dix jours. Son père se remarie quatre ans plus tard. Il offre à sa fille une éducation riche et l'encourage à adhérer à ses théories politiques libérales. En 1814, Mary Godwin entame une liaison avec un homme marié, partisan de son père, Percy Bysshe Shelley. Accompagné de Claire Clairmont, la fille de la belle-mère de Mary, le couple voyage à travers l'Europe. Au cours des deux années qui suivent, Mary et Percy affrontent un endettement permanent et la mort de leur fille. Ils se marient en 1816, après le suicide de la première épouse de Percy. En 1816, lors d'un séjour près de Genève, Mary (devenue Mary Shelley après son mariage) écrit son premier roman, "Frankenstein". En 1818, les Shelley quittent le Royaume-Uni pour l'Italie, où meurent leur deuxième et leur troisième enfant, avant que Mary Shelley ne donne naissance à son fils, Percy Florence Shelley, qui seul survivra. En 1822, son mari se noie dans le golfe de la Spezia, au cours d'une tempête. Un an plus tard, Mary Shelley retourne en Angleterre et, dès lors, se consacre entièrement à l'éducation de son fils et à sa carrière d'auteur. Les dix dernières années de sa vie sont marquées par la maladie. Elle meurt d'une tumeur du cerveau le . Jusqu'aux années 1970, Mary Shelley, outre son "Frankenstein", est surtout connue pour les efforts qu'elle fit en vue de faire publier les œuvres de son mari. Les études récentes ont permis une vision plus complète de son œuvre et montré que Mary Shelley est restée toute sa vie une radicale sur le plan politique, soutenant l'idée que la coopération et la solidarité, pratiquées tout naturellement par les femmes au sein de leur famille, sont la voie qui permet de réformer la société civile. Biographie. Enfance. Mary Shelley est née Mary Wollstonecraft Godwin à Somers Town, petit faubourg londonien situé au sud de Camden Town, le . Elle est la deuxième enfant de la philosophe féministe, éducatrice et femme de lettres Mary Wollstonecraft, et la première enfant du philosophe, romancier et journaliste William Godwin. Mary Wollstonecraft meurt de fièvre puerpérale onze jours après la naissance de l'enfant et Godwin se retrouve seul à élever Mary et sa demi-sœur, Fanny Imlay, née hors mariage de l'union de Mary Wollstonecraft avec le spéculateur Gilbert Imlay. Un an après la mort de sa femme, Godwin lui rend un hommage sincère en publiant "Mémoires de l'auteur de Défense des droits de la femme" (1798). Ces mémoires provoqueront le scandale en révélant les liaisons de Mary Wollstonecraft et son enfant illégitime. D'après la correspondance de Louisa Jones, gouvernante et femme de charge de William Godwin, l'enfance de Mary est heureuse. Mais Godwin, souvent très endetté, et pressentant qu'il ne peut élever seul ses enfants, décide de se remarier. En , il épouse Mary Jane Clairmont, femme instruite, déjà mère de deux enfants – Charles et Claire. La plupart des amis de Godwin n'apprécient pas sa nouvelle femme, la trouvant querelleuse et irascible mais Godwin lui est dévoué et le mariage est heureux. Mary Godwin déteste sa belle-mère, probablement, comme le suggère C. Kegan Paul, biographe de William Godwin au , parce que cette dernière préfère ses propres enfants. Les époux Godwin ouvrent une maison d'édition nommée M.J. Godwin, qui vend des livres pour enfants, ainsi que de la papeterie, des cartes et des jeux. Les affaires ne sont pas cependant florissantes et Godwin est obligé d'emprunter des sommes importantes pour assurer la survie de son entreprise. En 1809, l'affaire de Godwin est proche de la faillite, et lui est « proche du désespoir ». Il est sauvé de la prison pour dettes par des admirateurs de sa philosophie tels que Francis Place, qui lui prête de l'argent. Mary ne suit pas une scolarité régulière, mais son père assure lui-même en partie son instruction, lui enseignant les matières les plus diverses. Godwin a l'habitude d'offrir à ses enfants des sorties éducatives ; ils ont accès à sa bibliothèque et côtoient les nombreux intellectuels qui lui rendent visite, comme Samuel Taylor Coleridge, le poète romantique, ou Aaron Burr, ancien vice-président des États-Unis. Si Godwin reconnaît ne pas élever ses enfants en accord avec la philosophie de Mary Wollstonecraft, telle qu'elle l'avait décrite dans des ouvrages comme "Défense des droits de la femme" (1792), Mary reçoit cependant une éducation poussée et rare pour une fille de son époque. Elle a une gouvernante, un professeur particulier, et lit les manuscrits de son père portant sur l'histoire grecque et romaine pour les enfants. En 1811, et durant 6 mois, elle est mise en pension à Ramsgate. À quinze ans, son père la décrit comme « particulièrement audacieuse, quelque peu tyrannique et ayant l'esprit vif. Sa soif de connaissances est sans limite et la persévérance qu'elle met dans chacune de ses entreprises, quasiment inébranlable ». En , son père envoie Mary faire un séjour dans la famille dissidente du radical William Baxter, près de Dundee en Écosse. Il écrit à Baxter : « Je tiens à ce qu'elle soit élevée… comme une philosophe, voire comme une cynique. » Les historiens spéculeront sur les raisons de son éloignement : sa santé, l'aspect sordide du commerce, ou l'initiation à la politique radicale. Mais Mary Godwin se plait dans le vaste cadre de la maison des Baxter et dans la compagnie de ses quatre filles, et elle y retournera, à l'été 1813, pour un séjour de dix mois. En 1831, dans l'introduction de "Frankenstein", elle se souvient : « J'écrivais alors – mais avec un style très quelconque. Ce fut sous les arbres du domaine de notre maison, ou sur les flancs désolés des montagnes toutes proches, que mes œuvres véritables, le vol aérien de mon imagination, naquirent et furent nourris ». Percy Bysshe Shelley. Mary Godwin semble avoir rencontré pour la première fois le poète et philosophe Percy Bysshe Shelley entre ses deux séjours en Écosse. À son second retour chez elle, le , Percy Shelley s’est brouillé avec sa femme et rencontre régulièrement Godwin, dont il avait accepté de renflouer les dettes. Le radicalisme de Shelley, et notamment ses visions de l’économie, qui lui avaient été inspirées par le "Justice politique" (1793) de Godwin, l’avait éloigné de sa riche famille aristocrate : celle-ci voulait qu’il poursuive le modèle traditionnel de l’aristocratie terrienne alors que lui voulait faire don de grandes parts de la fortune familiale à des projets visant à aider les défavorisés. D'ailleurs, Percy Shelley aura de grandes difficultés financières jusqu’au jour où il touchera son héritage, sa famille craignant qu’il ne dilapide son argent dans des projets de « justice politique ». De ce fait, et après plusieurs mois de promesses, Shelley annonça qu’il ne pouvait, ou ne voulait, pas payer toutes les dettes de Godwin. Ce dernier, furieux, se sentit trahi. Mary et Percy commencent à se rencontrer secrètement au cimetière St Pancras, sur la tombe de Mary Wollstonecraft, et ils tombent amoureux - elle a presque dix-sept ans, lui près de vingt-deux. Au grand dam de Mary, son père désapprouve cette relation, essaye de la combattre et de sauver la « réputation sans tache » de sa fille. Au même moment, Godwin apprend l’incapacité de Shelley de rembourser ses dettes pour lui. Mary, qui mentionna plus tard dans une lettre « (son) attachement excessif et romantique pour (son) père », est désorientée. Elle voit en Percy Shelley la personnalisation des idées libérales et réformistes de son père durant les années 1790, et notamment celle que le mariage est un monopole tyrannique, idée qu’il avait défendue dans l’édition de 1793 de "Justice politique" mais qu'il désavoua plus tard. Le , le couple s’enfuit en France, emmenant Claire Clairmont, la fille de la belle-mère de Mary, mais laissant derrière eux la femme enceinte de Percy. Après avoir convaincu Mary Jane Godwin, qui les avait poursuivis jusqu’à Calais, qu’ils ne voulaient pas revenir, le trio voyage jusqu’à Paris, puis jusqu’en Suisse, sur un âne, une mule ou en carriole, à travers une France récemment ravagée par la guerre. « C’était comme de vivre dans un roman, comme d'incarner une histoire romanesque » se rappelle Mary Shelley en 1826. Durant leur voyage, Mary et Percy lisent des ouvrages de Mary Wollstonecraft et d’autres auteurs, tiennent un journal commun, et continuent leurs propres écrits. À Lucerne, le manque d’argent les oblige à rentrer. Ils voyagent alors le long du Rhin jusqu’au port danois de Marluys, pour arriver à Gravesend (Angleterre), dans le Kent, le . La situation qui attend Mary Godwin en Angleterre s’avère semée de difficultés qu’elle n’avait pas toutes prévues. Avant ou pendant le voyage, elle est tombée enceinte. Elle se retrouve avec un Percy sans argent, et, à la grande surprise de Mary, son père ne veut plus entendre parler d’elle. Le couple et Claire emménagent dans divers meublés à Somers Town, puis à Nelson Square. Leur programme de lecture et d’écriture est toujours aussi intense et ils invitent des amis de Percy Shelley comme Thomas Jefferson Hogg et l’écrivain Thomas Love Peacock. Pour éviter les créanciers, Percy Shelley quitte leur maison durant de courtes périodes. Les lettres éperdues du couple révèleront la douleur de ces séparations. Enceinte et souvent malade, Mary Godwin doit faire face à la joie de Percy à la naissance de son fils et de celui d’Harriet Shelley à la fin de 1814 et à ses fréquentes sorties avec Claire Clairmont. Elle est partiellement réconfortée par les visites de Hogg, qu’elle n’appréciait guère au départ mais qu’elle considérera bien vite comme un ami proche. Percy Shelley semble avoir voulu que Mary Godwin et Hogg deviennent amants. Mary ne rejette pas l’idée puisqu’elle est censée être adepte de l’amour libre. En pratique cependant, c'est de Percy Shelley qu'elle est amoureuse, et elle ne semble pas s'être aventurée plus loin que le flirt avec Hogg. Le , elle donne naissance à une fille prématurée de deux mois, qui a peu de chances de survie. Le , elle écrit à Hogg : « Mon cher Hogg, mon bébé est mort – Viendrez-vous me voir dès que possible. J’ai envie de vous voir – Il allait très bien quand je me suis couchée – je me suis réveillée pour le faire téter et il semblait dormir si calmement que je n’ai pas voulu le réveiller. Il était alors déjà mort, mais nous ne nous en sommes rendu compte qu’au matin - d’après son aspect, il était mort de convulsions – Viendrez-vous – vous êtes une créature si calme et Shelley a peur de la fièvre provoquée par le lait – car je ne suis plus mère à présent. » La perte de son enfant provoque une sévère dépression chez Mary Godwin, hantée par des visions du bébé, mais elle se retrouve enceinte à nouveau et, à l’été, elle est rétablie. Avec l’amélioration des finances de Percy Shelley à la suite du décès de son grand-père, Sir Bysshe Shelley, le couple part en vacances à Torquay, puis loue un cottage à deux étages à Bishopsgate, aux abords du parc de Windsor. On connaît peu de choses de cette période de la vie de Mary Godwin, son journal intime, entre et , ayant été perdu. À Bishopsgate, Percy écrit son poème "Alastor", et le , Mary donne naissance à un deuxième enfant, nommé William, comme son père, et qui fut rapidement surnommé « Willmouse ». Dans son roman "le Dernier homme", elle décrira Windsor comme un Jardin d’Eden. Lac Léman et "Frankenstein". En , Mary Godwin, Percy Shelley, leur fils et Claire Clairmont partent pour Genève. Ils ont prévu de passer l'été avec le poète Lord Byron, dont Claire est enceinte. Le groupe arrive à Genève le , et Mary se fait appeler « Shelley ». Byron les rejoint le , avec un jeune médecin, John William Polidori, et loue la villa Diodati à Cologny, un village dominant le lac Léman. Percy Shelley loue une maison plus modeste, la Maison Chapuis, au bord du lac. Ils passent leur temps à écrire, à faire du bateau sur le lac, et à discuter jusqu'au cœur de la nuit. . Entre autres sujets, la conversation tourne autour des expériences du poète et philosophe naturaliste Erasmus Darwin, au , dont on prétendait qu'il avait ranimé de la matière morte, et autour du galvanisme et de la possibilité de ramener à la vie un cadavre ou une partie du corps. Autour du foyer de la villa Diodati, les cinq amis s'amusent à lire des histoires de fantômes allemandes, le "Gespensterbuch" traduit en français sous le titre "Fantasmagoriana", ce qui donne à Byron l'idée de proposer à chacun d'écrire sa propre histoire fantastique. Peu après, rêvant éveillée, Mary conçoit l'idée de "Frankenstein" : Elle commence à écrire ce qu'elle croyait être une nouvelle. Avec les encouragements de Percy Shelley, elle développe cette histoire en ce qui deviendra son premier roman : "Frankenstein ou le Prométhée moderne", publié en 1818. Elle décrira plus tard cet été en Suisse comme le moment « où je sortis de l'enfance pour entrer dans la vie. » Bath et Marlow. À leur retour en Angleterre, en septembre, Mary et Percy emménagent à Bath et Claire Clairmont, dont ils espèrent tenir secrète la grossesse, s'installe dans la même ville, non loin de leur nouveau domicile. À Cologny, Mary Godwin a reçu deux lettres de sa demi-sœur, Fanny Imlay, faisant allusion à sa « vie malheureuse ». Le , Fanny écrit une « lettre alarmante » de Bristol qui incite Percy à partir à sa recherche, sans succès. Au matin du , Fanny Imlay est retrouvée morte dans une chambre d'hôtel à Swansea, avec à ses côtés une lettre de suicide et une bouteille de laudanum. Le , la femme de Percy, Harriet, est découverte noyée dans la Serpentine, à Hyde Park, Londres. Les deux suicides sont étouffés. La famille d'Harriet contrecarre les efforts de Percy, pleinement soutenu par Mary Godwin, en vue d'obtenir la garde de ses enfants. Les avocats de Percy lui conseillent de se marier pour améliorer sa cause. Leur union est célébrée le en l'église St Mildred, dans le quartier de Bread Street, à Londres. M. et Godwin sont présents et le mariage permet de clore la querelle familiale. Claire Clairmont donne naissance à une petite fille le , qui est prénommée Alba dans un premier temps, puis Allegra. En mars de la même année, la Cour de Chancery déclare Percy Shelley moralement inapte à assumer la garde de ses enfants et les place dans la famille d'un pasteur. Le même mois, les Shelley déménagent, avec Claire et Alba, à Albion House, un grand immeuble humide sur la Tamise, à Marlow, dans le Buckinghamshire. C'est là que Mary Shelley met au monde son troisième enfant, Clara, le . À Marlow, ils divertissent leurs nouveaux amis Marianne et Leigh Hunt, travaillent d'arrache-pied à leurs écrits et discutent souvent de politique. Au début de l'été 1817, Mary Shelley termine "Frankenstein", qui est publié anonymement en . Critiques et lecteurs supposent que Percy Shelley en est l'auteur, puisque le livre est publié avec sa préface et dédié à son héros politique, William Godwin. À Marlow, Mary rédige le journal de leur voyage continental de 1814, ajoutant des documents écrits en Suisse en 1816, ainsi que le poème de Percy, "Mont Blanc". Le résultat est "Histoire d'un circuit de six semaines", publié en . Cet automne-là, Percy Shelley vit souvent loin de la maison à Londres pour éviter les créanciers. La menace de la prison pour dettes, leur mauvaise santé et la peur de perdre la garde de leurs enfants contribuent à la décision du couple de quitter l'Angleterre pour l'Italie le , emmenant Claire et Alba avec eux. Ils partent sans intention de retour. Italie. À peine arrivés en Italie, Claire et les Shelley laissent la petite Alba à la garde de Byron, qui vit alors à Venise et qui a convenu de la prendre en charge à condition que Claire renonce à ses droits maternels sur l'enfant. Ils se lancent ensuite dans une existence itinérante, sans jamais séjourner longtemps dans les villes qu'ils visitent. En voyageant, ils s'entourent aussi d'un cercle d'amis et de connaissances qui va souvent se déplacer avec eux. Le couple consacre son temps à l'écriture, la lecture, l'apprentissage, le tourisme et la vie en société. Pour Mary, l'aventure italienne est cependant gâchée par la mort de ses deux enfants – Clara, en à Venise, et William, en à Rome. Ces pertes la laissent dans une profonde dépression et l'isolent de son mari, qui écrit dans son journal : <poem> "My dearest Mary, wherefore hast thou gone, "And left me in this dreary world alone? "Thy form is here indeed—a lovely one— "But thou art fled, gone down a dreary road "That leads to Sorrow’s most obscure abode. "For thine own sake I cannot follow thee "Do thou return for mine." </poem> <poem> Ma chère Mary, pourquoi t'en es-tu allée, Et dans ce triste monde seul m'as-tu laissé ? Ton corps est bien ici – si charmant – Mais tu as fui, partie sur une triste route Qui conduit à la demeure la plus obscure du Chagrin Pour ton propre bien je ne peux pas te suivre Mais reviens pour le mien. </poem> Pendant quelque temps, Mary Shelley ne trouve de réconfort que dans l'écriture. La naissance de son quatrième enfant, Percy Florence, le , diminue quelque peu son chagrin, même si elle pleurera la mémoire de ses enfants perdus jusqu'à la fin de sa vie. L'Italie offre aux Shelley, à Byron et autres exilés, une liberté politique inaccessible chez eux. Malgré le lien avec ses deuils personnels, l'Italie devient pour Mary Shelley « un pays que le souvenir peindra comme un paradis ». Leurs années italiennes sont une période d'activité intellectuelle et créative intense pour les deux Shelley. Pendant que Percy compose une série de poèmes majeurs, Mary écrit le roman autobiographique "Matilda", le roman historique "Valperga" et les pièces "Proserpine" et "Midas". Mary écrit "Valperga" pour alléger les difficultés financières de son père, Percy refusant désormais de l'aider. Elle est souvent malade et sujette à la dépression. Elle doit aussi faire face à l'intérêt que porte Percy aux autres femmes, telles Sophia Stacey, Emilia Viviani et Jane Williams. Partageant sa foi dans un mariage non exclusif, Mary noue ses propres liens affectifs parmi les hommes et les femmes de son entourage. Elle est particulièrement proche du révolutionnaire grec Aléxandros Mavrokordátos et de Jane et Edward Williams. En , les Shelley, Claire et leurs domestiques descendent vers le sud à Naples, où ils demeurent 3 mois, recevant un seul visiteur, un médecin. En 1820, ils sont accusés et menacés par Paolo et Elise Foggi, d'anciens domestiques congédiés par Percy Shelley peu après leur mariage. Le couple révèle que, le , à Naples, Percy Shelley a enregistré comme sa fille et celle de Mary Shelley un bébé de 2 mois nommé Elena Adélaïde Shelley. Les Foggi prétendent que la mère de l'enfant est Claire Clairmont. Les biographes interprètent ces évènements de façons très variées : que Percy Shelley avait décidé d'adopter un enfant de la région, que l'enfant était le sien et celui d'Elise, de Claire ou d'une femme inconnue, ou que c'était l'enfant d'Elise et Lord Byron. Mary Shelley déclare qu'elle se serait aperçue si Claire avait été enceinte, mais on ignore ce qu'elle savait vraiment. Les évènements de Naples, ville que Mary qualifiera plus tard de paradis habité par des diables, resteront enveloppés de mystère. La seule certitude est qu'elle-même n'est pas la mère de l'enfant. Elena Adélaïde Shelley mourra à Naples le . Au cours de l'été 1822, Mary, enceinte, emménage avec Percy, Claire, Edward et Jane Williams dans la , isolée au bord de la mer près du hameau de San Terenzo dans la baie de Lerici. Une fois installé, Percy révèle à Claire que sa fille Allegra est morte du typhus au couvent de Bagnacavallo. Mary, qui se sent l'esprit égaré et malheureux dans la petite et lointaine Villa Magni, finit par la comparer à un cachot. Le , elle fait une fausse-couche, perdant tellement de sang qu'elle frôle la mort. En attendant l'arrivée du médecin, Percy plonge sa femme dans un bain d'eau glacé pour stopper l'hémorragie, geste dont le médecin dira plus tard qu'il lui a sauvé la vie. Cependant tout ne va pas bien dans leur couple cet été là et Percy passe plus de temps avec Jane Williams qu'avec sa femme déprimée et faible. La plupart des courts poèmes qu'écrit Shelley à San Terenzo sont adressés à Jane au lieu de Mary. Le bord de mer permet à Percy Shelley et Edward Williams de profiter de leur « jouet idéal pour l'été », un nouveau voilier. Le bateau a été dessiné par Daniel Roberts et Edward Trelawny, un admirateur de Byron qui a rejoint la compagnie en . Le , Percy Shelley, Edward Williams, et le capitaine Daniel Roberts naviguent vers le sud le long de la côte jusqu'à Livourne. Percy y discute avec Byron et Leigh Hugh du lancement d'un nouveau magazine, "The Liberal". Le , accompagné d'Edward Williams, il reprend le chemin du retour avec un jeune matelot de 18 ans, Charles Vivian. Ils n'atteindront jamais leur destination. Une lettre de Hunt, datée du et destinée à Percy Shelley, arriva à la Villa Magni. Hunt y écrit : « Je vous en prie, dites-nous comment vous êtes rentrés chez vous, on dit que vous avez eu très mauvais temps après votre départ lundi et nous sommes inquiets ». « Le papier me tomba des mains », racontera plus tard Mary à une amie. « Je tremblais de tout mon corps ». Mary et Jane Williams se précipitent à Livourne puis à Pise dans l'espoir de retrouver leurs maris vivants. Dix jours après la tempête, trois corps sont rejetés sur le rivage près de Viareggio, à mi-chemin entre Livourne et Lerici. Trelawny, Byron et Hunt incinèreront le corps de Shelley sur la plage de Viareggio. Retour en Angleterre et carrière d'écrivain. Après la mort de son époux, Mary Shelley vit durant une année avec Leigh Hunt et sa famille à Gênes, où elle rencontre fréquemment Lord Byron et transcrit ses poèmes. Elle a décidé de vivre de sa plume et pour son fils, mais sa situation financière est précaire. Le , elle quitte Gênes pour l’Angleterre et s’installe avec son père et sa belle-mère à Strand (Londres) jusqu’à ce qu’une petite avance de son beau-père lui permette de se loger à proximité. Sir Timothy Shelley convient d’assurer la subsistance de son petit-fils à condition qu’il soit placé auprès d’un tuteur désigné. Mary Shelley rejette immédiatement cette idée. Elle parvient à soutirer à Sir Timothy une allocation annuelle (qu’elle devra rembourser lorsque Percy Florence héritera du domaine). Jusqu’à la fin de ses jours, il refusera de la rencontrer et ne traitera avec elle que par avocat interposé. Mary Shelley s’occupe de publier, entre autres, les poèmes de son mari mais elle doit se restreindre pour le bien de son fils. En effet, Sir Timothy menace de ne plus verser d’allocation si la moindre biographie du poète est publiée. En 1826, après le décès de Charles Shelley, fils de Percy Shelley et d’Harriet Shelley, Percy Florence devient l’héritier du domaine des Shelley. Sir Timothy augmente alors l’allocation annuelle de Mary de 100 à , mais demeure toujours aussi difficile. Alors qu’elle apprécie la compagnie stimulante de l’entourage de William Godwin, la pauvreté empêche Mary de sortir dans le monde autant qu’elle l'aurait souhaité. Elle se sent également rejetée par ceux qui, comme Sir Timothy, désapprouvent encore sa liaison avec Percy Bysshe Shelley. L’été 1824, Mary Shelley déménage à Kentish Town, dans le Nord de Londres, pour se rapprocher de Jane Williams. Elle est peut-être, selon les mots de son biographe Muriel Spark, « un peu amoureuse » de Jane. Mais Jane la décevra ensuite en propageant des rumeurs alléguant que Percy la préférait à Mary et qu’elle ne lui suffisait pas. À la même époque, Mary écrit son roman "Le Dernier Homme" (1826) et collabore avec des amis à l’écriture des mémoires de Lord Byron et Percy Shelley — c’est le début de ses tentatives d’immortaliser son époux. Elle rencontre également l’acteur américain John Howard Payne et l’écrivain américain Washington Irving. Payne tombe amoureux d’elle et la demande en mariage en 1826. Elle refuse, expliquant qu’après avoir épousé un génie elle ne peut se marier qu’à un autre génie. Payne accepte son refus et essaie, mais sans succès, de pousser son ami Irving à faire sa demande. Mary Shelley était au courant du plan de Payne, mais on ignore jusqu’à quel point elle le prenait au sérieux. En 1827, Mary Shelley participe à un projet visant à permettre à son amie Isabel Robinson et à son amoureuse, Mary Diana Dods, qui écrit sous le pseudonyme de David Lyndsay, de s’engager dans une vie commune en France comme mari et femme. Avec l’aide de Payne, auquel elle ne donne pas tous les détails, Mary obtient de faux passeports pour le couple. En 1828, en leur rendant visite à Paris, elle contracte la petite vérole. Elle guérira des semaines plus tard, sans cicatrice, mais la fraîcheur de sa beauté envolée. Entre 1827 et 1840, Mary Shelley est écrivain et éditeur. Elle écrit "Perkin Warbeck" (1830), "Lodore" (1835) et "Falkner" (1837). Elle écrit l'essentiel des cinq volumes (consacrés à des auteurs italiens, espagnols, portugais et français) des "Vies des hommes de lettres et de science les plus éminents", qui font partie de la "Cabinet Cyclopaedia" de Dionysius Lardner. Elle écrit également des histoires pour des magazines féminins. Elle aide toujours son père financièrement et ils collaborent en se cherchant mutuellement des éditeurs. En 1830, pour , elle vend les droits d’une nouvelle édition de "Frankenstein" à Henry Colburn et Richard Bentley, pour leur nouvelle série de romans classiques. Après la mort de son père, en 1836 à l’âge de 80 ans, elle rassemble ses lettres et un mémoire pour les publier, comme il l’a demandé dans son testament, mais après deux ans de travail, elle abandonne le projet. Durant cette période, elle défend la poésie de Percy Shelley, incitant à le publier et le citant dans ses écrits. En 1837, le travail de Percy était connu, et de plus en plus admiré. En été 1838, Edward Moxon, éditeur de Tennyson et beau-fils de Charles Lamb, propose de publier un recueil des travaux de Percy Shelley. Mary reçoit pour annoter les "Poetical Works" (1838). Sir Timothy insiste pour que le recueil ne comporte pas de biographie. Mary trouvera tout de même un moyen de raconter l’histoire de Percy : elle inclut d’importantes notes biographiques liées aux poèmes. Mary continue à n'aborder qu'avec circonspection d'éventuelles aventures amoureuses. En 1828, elle rencontre l’écrivain français Prosper Mérimée, qui lui fait la cour, mais la seule lettre encore existante qu’elle lui ait adressé est une lettre de rejet de sa déclaration d’amour. Elle se réjouit du retour en Angleterre de son ancien ami d’Italie Edward Trelawny, ils plaisantent même sur leur mariage dans leurs lettres. Mais leur amitié est altérée d’abord par le refus de Mary de participer à la biographie de Percy Shelley proposée par Edward, puis par la colère d’Edward lorsqu'elle l'omet dans la partie athée de "Queen Mab" (recueil de poèmes de Percy Shelley). Dans son journal intime, entre les années 1830 et 1840, des allusions détournées suggèrent que Mary Shelley a eu des sentiments pour le politicien radical Aubrey Beauclerk, mais celui-ci l’a probablement déçue à deux reprises, en épousant une autre femme. Durant ces années, la première préoccupation de Mary est le bien être de Percy Florence. Selon le vœu de son mari, son fils fréquente une "public school", et, avec l’aide que Sir Timothy lui accorde avec réticence, on lui fait faire ses études à Harrow. Pour éviter les frais de mise en pension, elle déménage à Harrow on the Hill afin que Percy puisse suivre les cours en tant qu’externe. Quand bien même il poursuivra ses études jusqu’à Trinity College à Cambridge, et touchera un peu à la politique et au droit, il ne montrera aucun signe des dons de ses parents. Dévoué à sa mère, il retournera vivre avec elle, après avoir quitté l’université en 1841. Dernières années et mort. En 1840 et 1842, mère et fils voyagent ensemble sur le continent. Mary Shelley racontera ces voyages dans "Errances en Allemagne et en Italie en 1840, 1842 et 1843" (1844). En 1844, Sir Timothy Shelley meurt à l’âge de quatre vingt dix ans, « tombant de sa tige comme une fleur trop épanouie ». Pour la première fois, Mary et son fils sont financièrement indépendants, même si l'héritage se révèle plus modeste qu’espéré. Au milieu des années 1840, Mary Shelley est la victime de trois maîtres chanteurs différents. En 1845, un exilé politique italien, Gatteschi, qu’elle a rencontré à Paris, la menace de publier des lettres qu’elle lui a écrites. Un ami de son fils paie un chef de la police pour saisir les papiers de Gatteschi, les lettres sont confisquées et détruites. Peu après, Mary achète des lettres, écrites par Percy Shelley et elle-même, à un homme se faisant appeler G. Byron et prétendant être le fils illégitime de feu Lord Byron. La même année, Thomas Medwin, cousin de Percy Bysshe Shelley, prétend avoir écrit une biographie de Percy qui lui serait préjudiciable. Il demande pour la détruire, mais Mary refuse. En 1848, Percy Florence épouse Jane Gibson St John. Le mariage est heureux, et Mary et Jane s’apprécient mutuellement. Mary habite avec son fils et sa belle-fille à Field Place, dans le Sussex, berceau ancestral des Shelley, et à Chester Square, à Londres, et les accompagne durant leurs voyages à l’étranger. Les dernières années de Mary Shelley sont altérées par la maladie. Dès 1839, elle souffre de migraines et de paralysie de certaines parties du corps, ce qui l’empêche parfois de lire et d’écrire. Elle meurt à l’âge de cinquante-trois ans, le , à Chester Square. Son médecin soupçonne une tumeur cérébrale. D’après Jane Shelley, Mary Shelley a demandé à se faire enterrer avec sa mère et son père. Mais Percy et Jane, jugeant la tombe de St Pancras « épouvantable », choisissent de l'enterrer à l’église St Peter, à Bournemouth, près de leur nouvelle maison de Boscombe. Pour le premier anniversaire de la mort de Mary Shelley, les Shelley ouvrent son bureau. Ils trouvent à l’intérieur des boucles de cheveux de ses enfants décédés, un cahier de notes qu’elle partageait avec Percy Byshhe Shelley, et une copie de son poème "Adonaïs" dont une page entoure un tissu en soie contenant un peu des cendres et des restes du cœur de celui-ci. Thèmes littéraires et style. La vie de Mary Shelley tourne autour de la littérature. Son père l’encourage dans l’apprentissage de l’écriture par la composition de lettres et son occupation préférée de petite fille est l’écriture d’histoires. Malheureusement, tous les écrits de la jeune Mary furent perdus lors de sa fuite avec Percy en 1814 et aucun de ses manuscrits encore existants ne peut être daté d’avant cette année. On pensa longtemps que sa première publication avait été "Mounseer Nongtongpaw", des vers comiques écrits alors qu’elle avait dix ans et demi pour la "Juvenile Library" (Bibliothèque pour les jeunes) de William Godwin, mais dans l'édition la plus récente du recueil de ses ouvrages qui fasse autorité, ces poèmes sont attribués à un autre écrivain. Percy Shelley encourage chaleureusement Mary Shelley à écrire : « Dès le début, mon mari s’inquiétait pour que je me montre digne de ma filiation et que j’inscrive mon nom sur la page de la renommée. Il m’incitait sans cesse à obtenir une réputation littéraire ». Romans. Éléments autobiographiques. Certaines parties des romans de Mary Shelley sont souvent interprétées comme des réécritures masquées de sa vie. La récurrence du thème père-fille en particulier conforte les critiques littéraires dans leur interprétation de ce style autobiographique. Par exemple, ils analysent souvent "Mathilda" (1820) comme une autobiographie, en reconnaissant dans les personnages principaux Mary Shelley, William Godwin et Percy Shelley. Mary Shelley a révélé que les personnages centraux de "The Last Man" sont fondés sur son cercle d’intimes, en Italie. Lord Raymond, qui quitte l’Angleterre pour se battre contre les Grecs et meurt à Constantinople, est inspiré de Lord Byron ; et Adrian, l’utopique comte de Windsor qui mène ses disciples à la recherche d’un paradis naturel et meurt lors une tempête en mer, est un portrait fictif de Percy Bysshe Shelley. Cependant, comme elle l’écrit dans sa critique du roman de Godwin "Cloudesley" (1830), elle ne croit pas que les auteurs « reproduisent simplement (leur) propre cœur ». William Godwin considère les personnages de sa fille comme des archétypes plutôt que comme des portraits de personnes réelles. Certains critiques modernes, comme Patricia Clemit et Jane Blumberg, partagent cette vision, se refusant à une lecture autobiographique de l’œuvre de Mary Shelley. Styles romanesques. Mary Shelley emploie les techniques de nombreux genres romanesques, notamment ceux des romans « godwiniens », des romans historiques de Walter Scott et des romans gothiques. Le roman « godwinien » fut populaire dans les années 1790 avec des travaux comme "Caleb Williams" (1794) de Godwin et emploie une forme de confession à la Rousseau pour explorer les relations contradictoires entre soi-même et la société. "Frankenstein" présente de nombreux thèmes et procédés littéraires présents dans les romans de Godwin. Cependant, Mary Shelley critique ces idéaux des Lumières que Godwin promeut dans son œuvre. Dans "Le Dernier Homme", elle utilise la forme philosophique « godwinienne » pour démontrer l’insignifiance ultime du monde. Alors que des romans « godwiniens » antérieurs montraient comment des individus rationnels pouvaient lentement améliorer la société, "The Last Man" et "Frankenstein" démontrent le manque de contrôle de l’individu sur l’histoire. Mary Shelley utilise le roman historique pour commenter les relations entre les sexes. "Valperga", par exemple, est une version féministe du genre narratif typiquement masculin, dans lequel s'était notamment illustré Walter Scott. En intégrant dans l’histoire des femmes qui ne font pas partie de la réalité historique, Mary Shelley utilise le récit pour s’interroger sur les institutions théologiques et politiques établies. Elle oppose la cupidité compulsive de conquête du protagoniste masculin à une alternative féminine : raison et sensibilité. Dans "Percy Warbeck", un autre de ses romans historiques, Lady Gordon représente les valeurs de l’amitié, de l’égalité et des vertus domestiques. À travers elle, Mary Shelley offre une alternative féminine à la politique masculine fondée sur la force, qui détruit les personnages masculins. Le roman propose un récit historique plus large qui remet en cause celui qui ne relate habituellement que les évènements concernant les hommes. L'œuvre d'une femme. Avec la naissance de la critique littéraire féministe dans les années 1970, les travaux de Mary Shelley, et notamment "Frankenstein", commencent à attirer plus d’attention de la part des chercheurs. C’est grâce aux critiques féministes et psychanalytiques que Mary Shelley en tant qu’écrivain est tirée de l’oubli. Ellen Moers est l’une des premières à soutenir que la perte d’un bébé a eu une influence cruciale sur l’écriture de "Frankenstein". Elle pense que le roman est un « mythe de la renaissance » dans lequel Shelley se démet tant de sa culpabilité d’avoir causé la mort de sa mère que de celle d’avoir échoué en tant que parent. D’après Moers, c’est l’histoire « d’un homme qui essaie d’avoir un enfant sans une femme… Frankenstein est profondément préoccupé par l’opposition entre reproduction naturelle et artificielle ». Dans le roman, l’échec de Victor Frankenstein en tant que « parent » est traduit comme l’expression de l’anxiété qui accompagne la grossesse, l’accouchement et en particulier la maternité. Sandra Gilbert et Susan Gubar soutiennent dans leur ouvrage capital "The Madwoman in the Attic" (1979) que, dans "Frankenstein" en particulier, Mary Shelley répond à la tradition littéraire masculine représentée par "le Paradis perdu" de John Milton. Selon leur interprétation, elle réaffirme cette tradition masculine, et sa misogynie inhérente, mais en même temps elle « cache des fantasmes d’égalité qui éclatent parfois dans des images monstrueuses de rage ». Mary Poovey décrypte la première édition de "Frankenstein" comme faisant partie d’un schéma plus large de l’œuvre de Mary Shelley, qui commence par une auto-affirmation littéraire et se termine par une féminité ordinaire. Mary Poovey suggère que les multiples récits de "Frankenstein" permettent à Mary Shelley de diviser sa personnalité artistique : elle peut « s’exprimer et s’effacer en même temps ». Sa crainte de l’auto-affirmation se reflète dans le destin de Frankenstein dont l’égoïsme est puni par la perte de toutes ses attaches familiales. Les critiques féministes se concentrent souvent sur la représentation du créateur, et plus particulièrement du créateur féminin, dans et à travers les romans de Mary Shelley. Anne K. Mellor explique que celle-ci utilise le style gothique non seulement pour explorer le désir sexuel féminin refoulé mais également comme moyen « d’autocensure dans "Frankenstein" ». D’après Poovey et Mellor, elle ne veut pas mettre en avant sa personnalité d’auteure. Elle se sent profondément incompétente en tant qu’auteure et « cette honte contribue à sa production d’images d’anormalité, de perversion et de destruction ». Les écrits de Mary Shelley sont centrés sur le rôle de la famille dans la société et le rôle de la femme au sein de cette famille. Elle glorifie la « compassion et l’affection féminine » associées à la famille et suggère que la société civile ferait faillite sans elles. Elle est « profondément engagée dans une éthique coopérative, de dépendance mutuelle et d’autosacrifice ». Dans "Lodore", par exemple, l’histoire centrale suit le destin de la femme et de la fille du personnage-titre, Lord Lodore, qui est tué lors d'un duel à la fin du premier volume, en laissant derrière lui des obstacles juridiques, financiers et familiaux que doivent négocier les deux « héroïnes ». Le roman est politiquement et idéologiquement engagé, notamment sur l’éducation et le rôle social des femmes. Il dissèque une culture patriarcale qui sépare les sexes et oblige les femmes à être dépendantes des hommes. D’après Betty T. Bennett, spécialiste de Mary Shelley, « le roman propose des paradigmes d’éducation égalitaire pour hommes et femmes qui apporteraient la justice sociale et les moyens spirituels et intellectuels pour affronter les épreuves de la vie ». Cependant, "Faulkner" est le seul roman de Mary Shelley dans lequel l’héroïne triomphe. Le roman avance l'idée que lorsque les valeurs féminines l'emporteront sur la violence et la destruction masculines, les hommes seront libres d’exprimer « la compassion, l’empathie et la générosité » de leur tempérament. Les Lumières et le romantisme. Comme de nombreux romans gothiques de la période, "Frankenstein" mélange un sujet viscéral et aliénant à des thèmes qui poussent à la réflexion. Au lieu de se centrer sur les tours et détours de l'intrigue, le roman met en avant les luttes mentales et morales du protagoniste, Victor Frankenstein, et Mary Shelley imprime au texte sa propre marque de Romantisme politisé, qui critique l’individualisme et l’égoïsme du Romantisme traditionnel. Victor Frankenstein est comme Satan dans "Paradis perdu" et comme Prométhée : il se rebelle contre la tradition, il crée sa vie et construit son propre destin. Ces traits ne sont pas décrits de manière positive. Comme l’écrit Blumberg, « son ambition sans relâche est une auto-illusion travestie en une quête de la vérité ». Il doit abandonner sa famille pour satisfaire son ambition. Mary Shelley croit en l’idée des Lumières que l’homme peut améliorer la société à travers l’exercice responsable du pouvoir politique, mais elle craint que l’exercice irresponsable du pouvoir ne mène au chaos. En pratique, son œuvre critique largement la manière dont les penseurs du , comme ses parents, croyaient pouvoir amener ces changements. Ainsi par exemple, la créature de Frankenstein lit des livres de pensées radicales mais la connaissance qu’il en tire est finalement inutile. L'œuvre de Mary Shelley la montre moins optimiste que Godwin ou Mary Wollstonecraft, elle n’a pas foi en la théorie de Godwin qui postule que l’humanité peut en fin de compte être améliorée. Kari Lokke, spécialiste de la littérature, écrit que "The Last Man", plus que "Frankenstein", « dans son refus de placer l’humanité au centre de l’univers, son questionnement sur notre position privilégiée par rapport à la nature […] constitue un défi profond et prophétique pour l’humanisme occidental ». Plus spécifiquement, les allusions de Mary Shelley à ce que les radicaux considèrent comme une révolution ratée en France et aux réponses qu'y apportent Godwin, Mary Wollstonecraft ou Burke constituent une remise en cause de « la foi des Lumières dans le progrès inéluctablement obtenu par l’effort collectif ». Comme dans "Frankenstein", Mary Shelley « offre un commentaire profondément désenchanté sur l’âge de la révolution, qui se termine par un rejet total des idées progressistes de sa propre génération ». Elle rejette non seulement les idées politiques des Lumières mais également l'idée romantique selon laquelle l’imagination poétique ou littéraire pourrait offrir une alternative. Opinions politiques. Jusqu’à une date récente, les critiques citaient "Lodore" et "Falkner" comme la preuve du conservatisme croissant de Mary Shelley dans ses œuvres tardives. En 1984, Mary Poovey a mis en évidence le transfert du réformisme politique de Mary Shelley vers la seule sphère domestique. Elle suggère que Mary Shelley écrivit "Falkner" afin de résoudre sa réaction conflictuelle à la façon dont son père mêlait un radicalisme libertaire à une bienséance sociale rigoureuse. Mellor partage cette opinion, arguant que « Mary Shelley fonde son idéologie politique alternative sur une métaphore de la famille, paisible, aimante et bourgeoise. Elle souscrit ainsi implicitement à la vision conservatrice d'une réforme et d'une évolution graduelle ». Cette vision permet aux femmes de participer à la sphère publique, mais elle hérite des inégalités inhérentes à la famille bourgeoise. Toutefois, ces dernières années, cette vision a été contestée. Bennett, par exemple, montre que le travail de Mary Shelley est un engagement constant dans l’idéalisme romantique et dans les réformes politiques et l’étude de Jane Blumberg des premiers romans de Shelley soutient qu’il n’est pas possible de simplement diviser sa carrière en deux moitiés, l'une radicale tout d'abord, et l'autre conservatrice ensuite. Elle soutient que « Mary Shelley n’a jamais été une radicale passionnée comme son mari et le mode de vie qu'elle adopte plus tard n’est ni un tournant brusque ni une trahison. En réalité, dès son premier ouvrage, elle remettait en cause les influences politiques et littéraires de son entourage. À la lueur de cette analyse, les premières œuvres de Shelley sont interprétées comme un défi au radicalisme de Godwin et de Percy Bysshe Shelley. Le « rejet inconsidéré de la famille » de Victor Frankenstein apparaît alors comme la preuve de la préoccupation constante de Mary Shelley pour la famille. Nouvelles. Durant les années 1820 et 1830, Mary Shelley écrit fréquemment des nouvelles pour des almanachs. Entre autres, elle écrit seize nouvelles pour "The Keepsake", destiné aux femmes de la classe moyenne, relié en soie et doré sur tranche. Dans ce genre, le travail de Mary Shelley est décrit comme celui d’un « écrivain médiocre, verbeux et pédant ». Cependant, la critique Charlotte Sussman note que d’autres grands écrivains, comme les poètes romantiques William Wordsworth et Samuel Taylor Coleridge, ont tiré avantage de ce marché profitable. Elle explique que « les almanachs étaient un type de production littéraire majeur dans les années 1820 et 1830 », "The Keepsake" rencontrant le plus grand succès. Beaucoup d’histoires écrites par Mary Shelley se passent dans des lieux ou à des époques bien éloignées du début du , comme la Grèce ou le règne d’Henri. Elle s’intéresse tout particulièrement à « la fragilité de l’identité individuelle » et décrit souvent « la façon dont le rôle d’une personne dans le monde peut être modifié de manière cataclysmique par des bouleversements émotionnels internes ou par quelque évènement surnaturel qui reflète une scission interne ». Dans ses histoires, l’identité de la femme est liée à sa valeur sur le marché du mariage alors que celle de l’homme peut être améliorée et transformée par l’argent. Même si Mary Shelley a écrit vingt et une nouvelles entre les années 1823 et 1839, elle s’est toujours perçue comme une romancière avant tout. Elle écrit à Leigh Hunt, « j’écris de mauvais articles, ce qui contribue à me rendre malheureuse – mais je vais me plonger dans un roman et j’espère que ses eaux claires nettoieront la boue de ces magazines ». Récits de voyages. Lors de leur fuite en France à l’été 1814, Mary Godwin et Percy Shelley commencent un journal commun. Ce journal plus quatre lettres basées sur leur visite de Genève en 1816 ainsi que le poème de Percy Shelley "Mont Blanc" sont publiés en 1817 sous le titre d ’"Histoire d’un circuit de six semaines". Cette œuvre célèbre l’amour de jeunesse, l’idéalisme politique et suit l’exemple de Mary Wollstonecraft et d'autres, qui ont associé voyage et écriture. Plus qu’un récit de voyage conventionnel, le livre est philosophique et réformiste ; il aborde, en particulier, les effets de la politique et de la guerre en France. Les lettres qu’écrit le couple durant leur deuxième voyage considèrent les « grands et extraordinaires évènements » de la défaite finale de Napoléon à Waterloo après son retour des « Cent jours » en 1815. Ils analysent également le caractère sublime du lac de Genève et du Mont Blanc, ainsi que l’héritage révolutionnaire du philosophe et romancier Jean-Jacques Rousseau. Le dernier livre de Mary Shelley, écrit sous forme de lettres et publié en 1844, est "Errances en Allemagne et en Italie en 1840, 1842 et 1843", qui relate ses voyages avec son fils Percy Florence et ses camarades d’université. Dans cet ouvrage, elle suit la tradition des "Lettres écrites lors d'un court séjour en Suède, en Norvège et au Danemark" de Mary Wollstonecraft et de son propre "Histoire d’un circuit de six semaines", en cartographiant son propre paysage personnel et politique à travers un discours fondé sur les sentiments et le sens de la solidarité. Pour Mary Shelley, nouer des liens d’amitié entre les personnes est le moyen de construire la société civile et d’augmenter le savoir : « la connaissance, pour éclairer et libérer l’esprit des préjugés – un plus large cercle d'amitiés avec nos semblables – tel est l’utilité du voyage ». Entre l’observation des paysages, de la culture et « des personnes, plus spécifiquement du point de vue politique », elle utilise le carnet de voyage pour analyser son rôle de veuve et de mère et pour réfléchir sur le nationalisme révolutionnaire en Italie. Elle note également son « pèlerinage » en des lieux associés à Percy Shelley. Selon la critique Clarissa Orr, la posture adoptée par Mary Shelley en se posant comme figure de la maternité philosophique donne à "Errances" l’unité d’un poème en prose, avec « la mort et la mémoire comme thèmes centraux ». En même temps, Mary Shelley fait le procès égalitariste de la monarchie, des différences de classes, de l’esclavage et de la guerre. Biographies. Entre 1832 et 1839, Mary Shelley écrit de nombreuses biographies d’hommes renommés italiens, espagnols, portugais et français et de quelques femmes pour les "Vies des plus éminents auteurs et scientifiques" de Dionysius Lardner. Elles formeront une partie du "Cabinet Cyclopaedia" de Lardner, une des meilleures séries de la sorte publiée durant les années 1820 et 1830 en réponse à la demande croissante de la classe moyenne pour l’auto-éducation. Jusqu’à la republication de ces essais en 2002, leur importance dans l’ensemble de son œuvre n’était pas reconnue. D’après Greg Kucich, expert en littérature, ils révèlent les « extraordinaires recherches de Mary Shelley à travers plusieurs siècles et plusieurs langues », son don pour la narration biographique et son intérêt pour « la forme émergente du féminisme historiographique ». Mary Shelley écrit dans un style biographique popularisé par Samuel Johnson, critique au , dans son "Vies des poètes" (1779-1781), combinant sources secondaires, notice biographique et anecdote, et évaluation de l’auteur. Elle note les détails de la vie et du caractère de chaque écrivain, cite leurs écrits sous leur forme originale accompagnée de la traduction, et termine avec une évaluation critique de leurs réalisations. Pour Mary Shelley, la narration biographique est supposée, et ce sont ses propres mots, « former comme si c’était une école dans laquelle étudier la philosophie de l’histoire » et enseigner des « leçons ». Le plus souvent, ces leçons consistent en une critique des institutions à domination masculine, telle que le droit d’aînesse. Mary Shelley souligne le goût de la vie domestique, le romanesque, la famille, la solidarité et la compassion dans la vie de ses sujets. Sa certitude que de telles forces peuvent améliorer la société relie son approche biographique avec celles d’autres historiennes féministes comme Mary Hays et Anna Jameson. Contrairement à ses romans, dont la plupart furent imprimés à quelques centaines d’exemplaires, chaque volume des "Vies" fut imprimé à faisant, selon Kucich, « de son usage de la biographie pour faire avancer la cause de l’historiographie féminine dans la société, l’une de ses plus influentes interventions politiques ». Travaux d’annotations et de commentaires. Peu après la mort de Percy Shelley, Mary se décide à écrire sa biographie. Dans une lettre du , elle annonce : « Je vais écrire sa vie – et m'occuper ainsi de la seule manière propre à en tirer consolation ». Cependant, son beau-père, Sir Timothy Shelley, lui interdit, avec succès, de le faire. Marie commence la promotion de la réputation poétique de Percy en 1824, avec la publication de "Poèmes Posthumes". En 1839, tout en travaillant sur "Lives", elle prépare une nouvelle édition de sa poésie, qui deviendra, selon les propres mots de la spécialiste littéraire Susan J. Wolfson, « l'évènement canonisateur » dans l'histoire de la renommée de son époux. L'année suivante, Mary Shelley publie un volume de lettres, d'essais, de traduction et d'extraits de son époux, et durant les années 1830, elle présente sa poésie à un public plus large en publiant des œuvres choisies dans la publication annuelle "The Keepsake". Elle réussit à esquiver l'interdiction de Sir Timothy en incluant dans ces éditions ses propres annotations et réflexions sur le travail et la vie de son mari. Elle déclare en 1824 : « Je dois justifier ses choix. Je dois le faire aimer par la postérité ». C'est cet objectif, argumente Blumberg, qui la pousse à présenter au public le travail de Percy Shelley « de la manière la plus populaire possible ». Pour adapter son travail à un public victorien, elle présente Percy Shelley comme un poète lyrique et non comme un poète politique. Comme l'écrit Mary Favret : « Percy désincarné personnifie la poésie elle-même ». Mary maquille le radicalisme politique de Percy en une forme de sentimentalisme, argumentant que son républicanisme provient d'une empathie envers ceux qui souffrent. Elle insère des anecdotes romantiques de sa bienveillance, de son attachement à la vie de famille et de son amour de la nature. Se décrivant comme la « muse pratique » de Percy, elle fait également remarquer qu'elle lui suggérait des améliorations quand il écrivait. Malgré les émotions provoquées par cette tâche, Mary Shelley prouve sans aucun doute qu'elle est une commentatrice professionnelle et érudite. Travaillant à partir des carnets de notes désordonnés et parfois illisibles de Percy, elle essaie de classer des écrits par ordre chronologique et elle inclut des poèmes comme "Epipsychidion", destiné à Emilia Viviani, qu’elle aurait préféré laisser de côté. Cependant, elle fut obligée de faire plusieurs compromis et, comme le fait remarquer Blumberg, « les critiques modernes ont trouvé des fautes dans les éditions et affirment qu’elle a mal recopié, mal interprété, volontairement occulté et tenté de montrer le poète comme quelqu’un qu’il n’était pas ». D’après Wolfson, Donald Reiman, un commentateur moderne des travaux de Percy Bysshe Shelley, se réfère encore aux éditions de Mary Shelley, même s’il reconnaît que son style appartient « à une époque où l’objectif du travail de mise en forme et d'annotation n’était pas d’établir des textes précis et critiques, mais de présenter un exposé complet de la carrière de l’écrivain pour le lecteur moyen ». En principe, Mary croit dans la publication de chacun des mots de l’œuvre de son mari, mais elle doit supprimer certains passages, soit sous la pression de son éditeur, Edward Moxon, soit par respect pour les convenances. Pour la première édition, elle supprime par exemple les passages athées de "Queen Mab". Après qu’elle les eut réintroduits dans la deuxième édition, Moxon est poursuivi et condamné pour diffamation blasphématoire, mais il échappera au châtiment. Les omissions de Mary Shelley provoquent des critiques, souvent des invectives, de la part des anciens proches de Percy Shelley, et les critiques l’accusent, entre autres, d’inclusions malvenues. Ses notes restent cependant une source essentielle pour l’étude des travaux de Percy Shelley. Comme l’explique Bennett, . Notoriété et postérité. De son vivant, Mary Shelley est prise au sérieux en tant qu’écrivain, même si souvent les critiques ignorent le côté politisé de ses écrits. Après sa mort, on se souvient d’elle principalement en tant qu’épouse de Percy Bysshe Shelley et comme l’auteure de "Frankenstein". L’éditeur Frederick Jones écrit même, dans l’introduction du recueil de lettres publié en 1945 : . Cette attitude perdure en 1980 quand Betty T. Bennett publie le premier volume du texte intégral des lettres de Mary Shelley. Elle explique : . Il faut attendre "Mary Shelley : Romanesque et Réalité" d’Emily Sunstein en 1989 pour qu’une biographie universitaire lui soit entièrement consacrée. Les tentatives du fils et de la belle-fille de Mary Shelley de rendre sa mémoire plus « victorienne » en censurant des documents biographiques contribuèrent à créer une image plus conventionnelle et moins réformiste que son œuvre ne le suggère. Cette impression est renforcée par ses propres timides omissions des travaux de Percy Shelley et sa fuite devant la controverse publique durant ses dernières années. Les critiques Hogg, Trelawny et d’autres admirateurs de Percy Shelley ont aussi eu tendance à minimiser le radicalisme de Mary Shelley. Dans "Souvenirs de Shelley, Byron et de l’Auteur" (1878), Trelawny rend hommage à Percy Shelley au détriment de Mary, mettant en doute son intelligence et même sa paternité de "Frankenstein". Lady Shelley, épouse de Percy Florence, répondit partiellement à cette attaque en publiant à compte d’auteur une collection de lettres dont elle avait hérité : "Shelley et Mary" en 1882. Depuis la première adaptation au théâtre de "Frankenstein", en 1823, jusqu'aux adaptations cinématographiques du vingtième siècle, telle que la première version de 1910 ou les versions plus célèbres du "Frankenstein" de James Whale en 1931, le "Frankenstein Junior" de Mel Brooks en 1974 et le "Frankenstein de Mary Shelley" de Kenneth Brannagh en 1994, une grande partie du public rencontre Mary Shelley pour la première fois à travers une adaptation. Durant le , Mary Shelley est perçue au mieux, comme l’auteure d’un seul roman, plutôt que comme l’écrivain professionnel qu’elle était. Une grande partie de ses travaux est restée épuisée jusqu’aux trente dernières années, empêchant d'avoir une vue plus globale de son œuvre. Au cours des dernières décennies, la republication de la quasi-intégralité de ses écrits a stimulé une nouvelle reconnaissance de son talent. Son habitude de lire et d'étudier intensément, révélé dans son journal et dans ses lettres et reflété dans ses œuvres, est ainsi mieux appréciée. On reconnaît également sa perception d’elle-même en tant qu’auteure. Après la mort de Percy, elle écrit sur ses ambitions d’auteure : « Je pense que je peux subvenir ainsi à mes besoins, et il y a quelque chose de stimulant dans cette idée ». Les chercheurs considèrent à présent Mary Shelley comme une figure romantique majeure, importante tant pour son œuvre littéraire que pour sa voix politique de femme et de libérale. Outre les nombreuses adaptations, souvent très libres, de "Frankenstein ou le Prométhée moderne", plusieurs films ont abordé la vie de Mary Shelley, ou du moins la genèse de son roman le plus connu. "Gothic", de Ken Russell (1986) et "Un été en enfer" ("Haunted summer"), de Ivan Passer (1988), sont tous deux consacrés à l'histoire de l'écriture de "Frankenstein" : Mary Shelley est incarnée dans le premier film par Natasha Richardson et dans le second par Alice Krige. "La Résurrection de Frankenstein" ("Frankenstein unbound") de Roger Corman (1990) est un film de science-fiction mêlant la genèse du roman à une histoire de voyage dans le temps : le rôle de Mary Shelley y est tenu par Bridget Fonda. Dans le film biographique "Mary Shelley", réalisé par Haifaa al-Mansour et sorti en 2018, la romancière est incarnée par Elle Fanning. |
Maxtor Maxtor était une entreprise qui produisait des disques durs d'ordinateurs, fondée en 1982 et rachetée par Seagate en décembre 2005. Au moment de son rachat, Maxtor était le troisième fabricant mondial de disques durs. C'est maintenant une filiale de Seagate. Les marchés que Maxtor visait étaient ceux des ordinateurs de bureau et des serveurs, en se concentrant plus sur la capacité de stockage que la vitesse des disques durs en ce qui concerne les ordinateurs de bureau. Histoire. Maxtor a été fondée en 1982 en tant que société développant et produisant des disques durs. Elle emploie environ personnes et son siège social est situé à Milpitas, Californie, États-Unis. Ses centres de recherche et développement se situent à Longmont dans le Colorado, à Shrewsbury dans le Massachusetts et à Milpitas ; deux usines assurent la production des disques durs à Singapour et Suzhou, en Chine. Le siège européen de Maxtor se situe à Bray, en Irlande. Son chiffre d'affaires pour l'année 2004 était de 3,8 milliards de dollars, contre 4,1 milliards en 2003 (-7 %). En , Maxtor annonce le rachat de l'activité disques durs de Quantum pour 1,3 milliard de US$ en actions, Quantum conservant notamment son activité de sauvegarde sur bande. Le Seagate annonce le rachat de Maxtor pour 1,9 milliard d'euros en actions. La baisse constante des revenus de Maxtor (chiffre d'affaires et bénéfices) et de ses parts de marché l'a poussé à accepter l'offre amicale de Seagate. En , la marque Maxtor est ressuscitée par Seagate pour renommer certains disques dur issus de la gamme Samsung (Samsung a vendu sa division disques durs à Seagate en ). Cette nouvelle stratégie est inaugurée par un renommage des modèles M et D qui ont des références identiques sous les marques Samsung et Maxtor Anecdotes. Les circuits imprimés de certaines séries de disques durs Maxtor ont arboré un dessin de Pontiac GTO ou celui d'une paire de drapeau à damier en référence aux sports automobiles. |
Maurice Merleau-Ponty Maurice Merleau-Ponty est un philosophe français, né à Rochefort-sur-Mer le et mort le dans le . Il est le cousin du philosophe des sciences Jacques Merleau-Ponty. Biographie. Famille et jeunesse. Son père, Bernard Jean Merleau-Ponty, capitaine d'artillerie coloniale bordelais, meurt, en 1913, alors qu'il n'a que cinq ans. Élevé dans le catholicisme romain, il est ami avec l'auteur et philosophe existentialiste chrétien Gabriel Marcel, écrit des articles pour la revue chrétienne de gauche Esprit, mais quitte l'Église catholique en 1937. Au printemps 1939, il est le premier visiteur étranger des Archives Husserl, rencontre Eugen Fink et le Père Hermann Van Breda. À l'été 1939, alors que la France déclare la guerre à l'Allemagne nazie, il sert en première ligne dans l'armée française, où il est blessé au combat en juin 1940. Sollicité par le résistant Pierre Grappin, un ami de Vladimir Jankélévitch qui le loge gracieusement, quai aux Fleurs, sous l'occupation allemande, il décline la proposition puis de retour à Paris à l'automne 1940, épouse Suzanne Jolibois, psychanalyste lacanienne, décédée en 2010, à 96 ans. Il est enterré au cimetière du Père Lachaise à Paris avec elle, sa mère Louise née Barthé et leur fille Marianne (1941-2019), épouse de Michel Butel. L'enseignant. Après des études secondaires terminées au lycée Louis-le-Grand à Paris, Maurice Merleau-Ponty devient élève de l'École normale supérieure de Paris, à la même époque que Jean-Paul Sartre (avec lequel il entretient des relations d'amitié), et est reçu deuxième à l'agrégation de philosophie en 1930. D’abord professeur à Beauvais (1931-1933), puis au lycée Marceau à Chartres (1934-1935), ensuite répétiteur («caïman») à l’École normale supérieure de Paris (1935-1939) et mobilisé au d'infanterie et à l’état-major de la légère d’infanterie (1939-1940), il enseigne aussi au lycée Carnot (1940-1944) et en première supérieure au lycée Condorcet (1944-1945). Enfin, il obtient un doctorat en lettres en 1945 avec "La Structure du comportement" (1942) et la "Phénoménologie de la perception" (1945) à la Sorbonne. Il est ensuite nommé maître de conférences de philosophie à la faculté des lettres de l'université de Lyon (1945), puis professeur titulaire de la chaire de psychologie (). À la rentrée 1949, il est nommé maître de conférences de psychologie pédagogique, à la faculté des lettres de l'université de Paris et obtient le titre de professeur sans chaire, en . Enfin, il devient titulaire à partir de 1952, jusqu'à sa mort en 1961 de la chaire de philosophie du Collège de France qu'avaient illustrée avant lui Henri Bergson, Édouard Le Roy ou Louis Lavelle. Sa conférence inaugurale s'intitule « Éloge de la philosophie ». Merleau-Ponty fut aussi membre du comité directeur de la revue "Les Temps modernes" en tant qu'éditorialiste politique, de la fondation de la revue en jusqu'en , soit à l'époque de la rupture de son amitié avec Jean-Paul Sartre (la « rupture » eut lieu en ). Merleau-Ponty s'engage aussi politiquement, faisant ainsi partie du bureau national du cartel de l'Union des forces démocratiques (UFD), mis sur pieds pour les élections législatives de 1958 et qui rassemblait la gauche non communiste et anti-gaulliste. À l'âge de cinquante-trois ans, il meurt d'un arrêt cardiaque le soir du , assis à son bureau, où la "Dioptrique" de Descartes était encore ouverte. . Il est inhumé au cimetière du Père-Lachaise (). Claude Lefort est l'exécuteur testamentaire de son œuvre. La rupture avec Sartre. À l'époque de la guerre de Corée, Sartre s'était permis de publier son article "« Les Communistes et la paix »" (1952) sans prévenir quiconque à la revue des "Temps modernes". Supportant difficilement l'attitude qu'avait prise Sartre, à partir de 1950, dans la direction de cette revue, Merleau-Ponty l'appela après que Sartre eut fait sauter sans l'avertir un texte qu'il avait rédigé pour coiffer un article marxiste (de Sartre), qu'il estimait ne pas être publiable sans ce texte préliminaire, dans le numéro de . La conversation téléphonique, tendue, dura deux heures, puis fut suivie de trois longues lettres où s'expriment bien sûr leurs désaccords politiques ainsi que leurs désaccords sur le rôle de l'intellectuel et des divergences philosophiques, voire personnelles. Ces lettres marqueront la rupture de leur amitié qui datait de leurs années d'études à l'École normale supérieure de Paris – rupture qui semble ne jamais avoir été acceptée ni par l'un ni par l'autre, selon François Ewald. Philosophie. L'Avant-Propos de la "Phénoménologie de la perception". Dans l'avant-propos de la "Phénoménologie de la perception", Merleau-Ponty tente de répondre à la question : « Qu’est-ce qu’est la phénoménologie? ». Il observe initialement que même un demi-siècle après les premiers écrits de Husserl, une définition univoque est loin de faire l’unanimité. De plus, beaucoup des propositions centrales semblent aller dans des directions différentes. Une première proposition soutient que la phénoménologie est caractérisée par un essentialisme, donc qu'elle ne s’intéresse pas à une interprétation empiriste des phénomènes, mais qu'elle veut éclairer les déterminations de la perception, de la conscience et de la corporéité. Elle est donc aussi une philosophie de la facticité. Une seconde proposition est que la phénoménologie se veut transcendantale, donc tente de réfléchir sur les conditions de possibilités de l’expérience et de la cognition en suspendant nos présupposés métaphysiques mondains, pour les évaluer de manière critique. Une troisième proposition explique que la phénoménologie se veut strictement scientifique, mais tente aussi de parler de l’expérience préscientifique du monde, du temps et de l’espace. Une quatrième proposition établit que souvent appréhendée comme une discipline purement descriptive, la phénoménologie vise à décrire l’expérience telle que donnée, elle ne s’intéresse pas à l’origine biologique ou neurobiologique, même si Husserl vers la fin de sa vie traite de l’importance du développement d’une phénoménologie génétique. Ensuite, Merleau-Ponty explique qu’il semblerait tentant de simplement caser les travaux de Husserl et sa philosophie transcendantale comme étant une philosophie complètement à part de celle de Heidegger, qui lui traite plutôt de phénoménologie de l’existence et herméneutique. Cela est cependant trop simpliste pour Merleau-Ponty, ces points de vue ne s’opposent pas nécessairement, avec une analyse minutieuse ils peuvent s’incorporer. C’est pourquoi dans la préface, Merleau-Ponty tente d’établir les points communs de la phénoménologie telle un tout et non spécifiquement la doctrine propre à chaque philosophe qui se dit de la tradition phénoménologique. Voici quelques concepts, notés par Merleau-Ponty, qui sont propres à la méthode phénoménologique. D’abord, l'invitation de Husserl : « il faut retourner aux choses mêmes » serait interprétée comme une critique du scientisme qui vise un retour au monde perçu tel qu’il est expérimenté avant toute théorisation scientifique. Il est important de ne jamais oublier que ce savoir scientifique est ancré dans une perspective à la première personne. Ensuite, l’idéalisme et le réalisme ne sont que le revers d’une médaille et tous deux s’avèrent erronés. À l’aide d’une analyse phénoménologique précise, il est possible de s’apercevoir que le sujet n’existe pas uniquement pour lui-même, autrui est aussi présent et le savoir passe parfois par les autres, tout n’est pas accessible par son propre entendement. Aussi, la subjectivité est nécessairement implantée dans un contexte social, historique et naturel. Le concept de l’intentionnalité est une des grandes réalisations de la phénoménologie. L’analyse de l’intentionnalité révèle que la conscience est toujours à propos de quelque chose. Peu importe si ce qui est évoqué est la perception, un jugement, une pensée, un doute, une fantaisie ou un souvenir, toutes ces formes de conscience sont caractérisées par un objet intentionnel et celui-ci ne peut pas être adéquatement compris sans une analyse de son corrélat objectif, soit ce qui est perçu, douté, rappelé. Le primat de la perception. Avec "La Structure du comportement" et la "Phénoménologie de la perception" (1944), Merleau-Ponty a voulu montrer que la perception n'était pas la résultante d'atomes causaux de sensations, contrairement à ce que véhiculait la tradition issue de John Locke dont la conception atomiste causale était perpétuée dans certains courants psychologiques de l'époque (par exemple le béhaviorisme). La perception a plutôt, selon Merleau-Ponty, une dimension active en tant qu'ouverture primordiale au monde vécu (au "Lebenswelt"). Cette ouverture primordiale est à la base de sa thèse du primat de la perception. Selon une formule de la phénoménologie d'Edmund Husserl, « toute conscience est conscience de quelque chose », ce qui implique une distinction entre « actes de pensée » (la noèse) et « objets intentionnels de la pensée » (le noème), faisant de la « corrélation » noético-noématique le premier socle de la constitution des analyses de la conscience. Or, en étudiant les manuscrits posthumes d'Edmund Husserl, qui demeure une de ses influences majeures, Merleau-Ponty remarque que dans leur évolution, ses travaux mettent eux-mêmes à jour des données qui ne sont pas assimilables à la corrélation noético-noématique. C'est notamment le cas en ce qui a trait aux données sur le corps (qui est à la fois corps-sujet et corps-objet), sur le temps subjectif (la conscience du temps n'est ni un "acte" de conscience ni un "objet" de pensée) et sur autrui (les premières considérations d'autrui chez Husserl menaient au solipsisme). La distinction entre « actes de pensée » (noèse) et « objets intentionnels de la pensée » (noème) ne semble donc pas constituer une base irréductible, elle semble plutôt apparaître à un niveau supérieur de l'analyse. Ainsi, Merleau-Ponty ne postule pas que « toute conscience est conscience de quelque chose », ce qui suppose d'emblée un socle noético-noématique, il développe plutôt la thèse selon laquelle « toute conscience est conscience perceptive ». Ce faisant, il instaure un tournant significatif dans le développement de la phénoménologie, indiquant que les conceptualisations doivent être réexaminées à l'aune du primat de la perception, en soupesant ses conséquences philosophiques. La corporéité. En prenant comme point de départ l'étude de la perception, Merleau-Ponty est amené à reconnaître que le « corps propre » n'est pas seulement une chose, un objet potentiel d'étude pour la science, mais qu'il est aussi une condition permanente de l'expérience, qu'il est constituant de l'ouverture perceptive au monde et à son investissement. Il souligne alors qu'il y a une inhérence de la conscience et du corps dont l'analyse de la perception doit tenir compte. Pour ainsi dire, le primat de la perception signifie un primat de l'expérience, dans la mesure où la perception revêt une dimension active et constitutive. Le développement de ses travaux instaure donc une analyse marquant la reconnaissance autant d'une corporalité de la conscience que d'une intentionnalité corporelle, contrastant ainsi avec l'ontologie dualiste des catégories corps/esprit de René Descartes, un philosophe auquel Merleau-Ponty est demeuré attentif malgré les divergences importantes qui les séparent. Il amorce alors une étude de l'incarnation de l'individu dans le monde, tentant de surmonter l'alternative entre une pure liberté et un pur déterminisme, tout comme le clivage entre le corps-pour-soi et le corps-pour-autrui. Le langage. La mise en lumière du fait que la corporéité a intrinsèquement une dimension d'expressivité qui s'avère fondamentale à la constitution de l'ego est l'une des conclusions de "La Structure du comportement" constamment réinvesties dans ses travaux ultérieurs. En suivant ce filon de l'expressivité, il va examiner comment un sujet incarné est en mesure de réaliser des activités qui dépassent le niveau organique du corps, tel que c'est le cas lors des opérations intellectuelles et en ce qui relève de la vie culturelle. Il considère alors attentivement le langage, en tant que noyau de la culture, en examinant notamment les liens entre le déploiement de la pensée et du sens, tout en enrichissant sa perspective non seulement par l'analyse de l'acquisition du langage et de l'expressivité du corps, mais aussi en prenant en compte les pathologies du langage, de même que la peinture, le cinéma, les usages littéraires du langage et la poésie. Tout comme, à la même époque, Gilbert Ryle, il rejette alors explicitement la conception cartésienne ou mentaliste du langage, qui en ferait la simple expression de représentations mentales. Les mots ne sont pas, pour Merleau-Ponty, le reflet de la pensée: . On ne peut en effet dissocier la parole et la pensée : les deux sont « enveloppées l'une dans l'autre, le sens est pris dans la parole et la parole est l'existence extérieure du signe ». Le langage implique d'abord une activité intentionnelle, qui passe par le corps propre. Cette préoccupation pour le langage inclut dès le départ une considération des expressions relevant de la sphère artistique, comme en témoigne "La Structure du comportement" (1942) qui contient notamment un passage sur le Greco préfigurant les propos qu'il développe en 1945 dans "Le Doute de Cézanne", à la suite des considérations de la "Phénoménologie de la perception". Dans cette mesure, le travail qu'il réalise lorsqu'il occupe la Chaire de psychologie de l'enfant et de pédagogie à l'Université de La Sorbonne n'est pas un intermède à ses préoccupations philosophiques et phénoménologiques, il représente plutôt un moment significatif du développement de ses réflexions. Tel que l'indiquent ses résumés de cours à l'Université de La Sorbonne, il maintient durant cette période un dialogue entre la phénoménologie et les divers travaux réalisés en psychologie, tout en revenant sur l'étude de l'acquisition du langage chez l'enfant, en plus d'être l'un des premiers philosophes à exploiter largement l'apport des travaux de linguistique de Ferdinand de Saussure et de travailler sur la notion de structure par l'entremise d'une discussion des travaux en psychologie, en linguistique et en anthropologie sociale. Les arts. Il importe de préciser que l'attention que Merleau-Ponty porte aux diverses formes d'arts (visuels, plastiques, littéraires, poétiques, etc.) n'est pas tributaire d'un questionnement sur le beau, ni orientée en vue de l'élaboration de critères normatifs sur l'art. Ainsi, on ne retrouve pas dans ses travaux un effort de théorisation tentant de cerner ce qui constituerait un chef-d'œuvre, une œuvre d'art ou encore de l'artisanat. Son objectif est d'abord et avant tout d'analyser les structures à la base de l'expressivité, qui se révèlent invariantes, en enrichissant les considérations sur le langage par une attention au travail des artistes, poètes et écrivains. Cependant, bien qu'il n'établisse pas de critères normatifs sur l'art en tant que tel, il y a néanmoins chez lui une distinction prévalant entre « expression première » et « expression seconde ». Cette distinction apparaît dans la "Phénoménologie de la perception" et est parfois reprise sous les termes de « langage parlé » et de « langage parlant ». Le langage parlé (ou expression seconde) renvoie à notre bagage langagier, à l'héritage culturel que nous avons acquis, ainsi qu'à la masse brute de rapport de signes et de significations. Le langage parlant (ou expression première), quant à lui, c'est le langage en tant que mise en forme d'un sens, c'est le langage au moment où il procède à l'avènement d'une pensée, au moment où il se fait avènement de sens. C'est le langage parlant, c'est-à-dire l'expression première, qui intéresse Merleau-Ponty et qui retient son attention lorsqu'il traite de la nature de la production et de la réception des expressions, un sujet qui imbrique aussi une analyse de l'action, de l'intentionnalité, de la perception, ainsi que des rapports entre la liberté et les déterminants externes. Au sujet de l'œuvre peinte, Merleau-Ponty constate que lors de son travail de création, l'artiste peintre peut avoir au préalable une certaine idée et désirer la concrétiser, ou encore qu'il peut travailler d'abord le matériau en tentant d'en dégager une certaine idée ou émotion, mais que dans un cas comme dans l'autre, il y a dans l'activité du peintre une élaboration de l'expression qui se retrouve intimement en interaction avec le sens qui est mis en œuvre. C'est à partir de ce constat de base qu'il va tenter d'expliciter les structures invariantes caractérisant l'expressivité, en tentant de rendre compte de la surdétermination du sens qu'il a fait valoir dans "Le doute de Cézanne". Parmi les structures à considérer, l'étude de la notion de style occupera une place importante dans "Le langage indirect et les voix du silence". En dépit de certains accords avec André Malraux, il marquera ses distances par rapport à trois conceptions du style dont ce dernier fait usage dans "Les Voix du silence" (publié dans la collection La Pléiade et regroupant les quatre volumes de "Psychologie de l'art" publiés de 1947 à 1950). Merleau-Ponty considère que dans cet ouvrage, le style est employé par Malraux parfois dans une optique très subjective en étant assimilé à une projection de l'individualité de l'artiste, parfois dans une optique à l'inverse très métaphysique, voire mystique selon lui, où le style est alors lié à une conception de « surartiste » exprimant « L'Esprit de la peinture », et qu'enfin il est parfois réduit à simplement désigner une catégorisation d'école ou de mouvement artistique. Pour Merleau-Ponty, ce sont ces usages de la notion de style qui amènent André Malraux à postuler un clivage entre l'objectivité de la peinture de la Renaissance italienne et la subjectivité de la peinture de son époque, ce à quoi Merleau-Ponty s'oppose. Selon lui, il importe de considérer cette problématique à la base, en reconnaissant que le « style » est d'abord une exigence due au primat perceptif, ce qui implique aussi une prise en considération des dimensions de l'historicité et de l'intersubjectivité. L'histoire et l'intersubjectivité. Autant ses travaux sur la corporéité que ceux sur le langage révèlent l'importance, pour la compréhension de l'expressivité, de l'enracinement de l'individu au sein du monde vécu. Or, cet enracinement imbrique les dimensions de l'historicité et de l'intersubjectivité, qu'il s'efforce alors de rendre intelligibles. Comme point de départ à la considération de l'histoire et de l'intersubjectivité, il remarque que l'individu n'en est ni le sujet, puisqu'il prend part à un univers socioculturel et langagier déjà structuré, mais qu'il n'en est pas non plus le produit, puisqu'il y prend part et influe sur les institutions par l'usage qu'il en fait, y compris en ce qui a trait au langage institué qui lui semble être un modèle d'étude pour la compréhension de ces phénomènes, comme il le note dans le dossier qu'il remet en vue de sa nomination au Collège de France. En ce sens, Merleau-Ponty est un contradicteur du "sens de l'histoire", concept hégelien – quoique l'influence d'Hegel soit certes plus présente dans ses derniers travaux. Par son traitement de l'intersubjectivité, Merleau-Ponty met en évidence aussi une aporie de la philosophie occidentale qui s'exprimait par le problème classique du solipsisme. Dans le sillage de Husserl mais davantage que ce dernier il insiste sur une sorte de primat de l'intersubjectivité qui révèle à quel point le point de départ cartésien dans le « je pense » était inducteur de difficultés exposant d'ailleurs la philosophie au ridicule d'un « solipsisme à plusieurs ». C'est sous l'effet de ce renversement qu'une réforme des catégories ontologiques se met en marche dans l'œuvre du philosophe français. Les sciences. La psychologie. S'il est vrai que Merleau-Ponty s'est montré attentif aux travaux de la psychologie, la plupart des spécialistes de l'histoire de la discipline reconnaissent qu'il est tout aussi vrai que ses propres travaux ont eu un impact réel au niveau des recherches en psychologie. "La structure du comportement" (1942) considère de front un large éventail des recherches expérimentales de l'époque tout en montrant plusieurs difficultés auxquelles sont confrontés certains de ces travaux, en particulier ceux du béhaviorisme, dû aux présupposés ontologiques sur lesquels ils s'appuient implicitement. Mais à l’inverse, il montre aussi que les données expérimentales de la psychologie mettent en évidence certains problèmes de l'épistémologie et de la philosophie des sciences de l'époque. On remarque par ailleurs que "La structure du comportement" contient de nombreuses références à des recherches telles que celles du neurologue Kurt Goldstein et de Frederik J. J. Buytendijk, et que, réciproquement, Buytendijk fait à son tour plusieurs fois référence à Merleau-Ponty dans son "Traité de Psychologie animale" (1952), en plus d'avoir publié un article intitulé « Toucher et être touché » (1953) qui n'est pas étranger aux thèses sur la réversibilité « touchant-touché » que l'on retrouve dans "Le visible et l'invisible". Merleau-Ponty a aussi été attentif aux travaux de la psychologie de la Gestalt et a tenté une interprétation des points de convergence et de divergence de la psychanalyse avec la phénoménologie, en plus de ses considérations sur la psychosociologie et sur les travaux de Jean Piaget. La sociologie et l'anthropologie. En faisant l'analyse de l'enracinement au monde vécu et, par extension, de l'intersubjectivité, Merleau-Ponty a été amené à prendre position sur la nature des recherches sociologiques et anthropologiques, notamment dans les articles "Le philosophe et la sociologie" et "De Mauss à Claude Lévi-Strauss". Ses thèses sur le primat de la perception et sur le corps vécu instaurent une compréhension novatrice de l'intersubjectivité et, pour cette raison, elles ont inspiré des recherches en sociologie. Ces travaux ont emprunté plusieurs directions, et notamment : 1) le thème du « corps propre » a joué un rôle dans la sociologie de l'habitus et de la pratique de Pierre Bourdieu, qui a d'ailleurs hésité à la fin de ses études de philosophie entre s'inscrire en thèse avec Merleau-Ponty et devenir sociologue ; 2) une mise en perspective avec les travaux de phénoménologie sociologique d'Alfred Schütz sur les intentionnalités pratiques a été engagée ; 3) une confrontation avec la nouvelle sociologie pragmatique a été avancée. La chair et le chiasme / Le visible et l'invisible. Les notions de chair et de chiasme, ainsi que les notions concomitantes de visible et d'invisible, apparaissent principalement dans "Le visible et l'invisible" et dans les "Notes de travail" qui l'accompagnent (rappelons qu'il s'agit d'un ouvrage posthume, demeuré en chantier), ainsi que dans les notes de cours au Collège de France de la période 1959-1961 – et très brièvement dans la Préface de "Signes" et quelques autres endroits. En raison de l'état d'inachèvement de l'articulation de ces notions, il n'est pas toujours évident de délimiter exactement ce que Merleau-Ponty voulait signifier par là, mais, sans entrer dans les questions d'interprétations, il y a néanmoins certaines indications généralement partagées par les spécialistes dans le domaine qui peuvent être relevées. On peut d'abord noter que l'introduction de ces notions vise à surmonter les clivages véhiculés par l'usage (de l'époque) de certaines notions. Ainsi, en postulant que « toute conscience est conscience perceptive », Merleau-Ponty a reconnu une prégnance primordiale du percevant et du perçu – ce qui est parfois indiqué par l'exemple de la réversibilité du touchant et du touché. De même, en traitant du corps propre, il a reconnu une corporalité de la conscience et une intentionnalité corporelle. Or, les catégories de sujet/monde, comme celles de corps/conscience ont souvent été articulées sur fond de dualisme des catégories. C'est en quelque sorte pour nommer ces prégnances et empiètements qu'apparaîtra la notion de chair, ainsi que les notions associées d'entrelacs et de chiasme. Les notions de visible et d'invisible, quant à elles, sont liées à la question du "sens". Selon les thèses de Merleau-Ponty, il n'y a pas de distinction "catégorique" entre "être" et "manière d'apparaître". Ainsi, on remarquera que malgré son attention aux travaux de Heidegger, qu'il discute plus fréquemment dans cette période, Merleau-Ponty n'endosse pas les considérations de ce dernier sur le plan de la métaphysique. Pour Merleau-Ponty, la question du sens ne s'inscrit pas dans une ontologie dualiste de l'apparence et de l'être, il y a plutôt une réversibilité des dimensions de "visible" et d’"invisible" qui doivent être comprises comme endroit et envers, l’"invisible" n'étant pas l'opposé du "visible" (Merleau-Ponty s'écarte ainsi de l'ontologie sartrienne de "L'Être et le Néant"), mais plutôt sa doublure, sa « profondeur charnelle ». Il s'agit là en quelque sorte pour lui de rendre justice à la prégnance des signes et du sens qui prévaut, selon ses travaux sur le langage et les arts. Ceci signifie qu'il n'y a pas subordination des signes au sens, ni l'inverse. Ainsi, la question du sens ne peut pas être ramenée à une pure idéalité, il y a aussi une "matérialité" inhérente au sens – par exemple, dans "Phénoménologie de la perception" Merleau-Ponty note qu'une œuvre peinte, si elle est déchirée, n'est plus sens, elle est ramenée à son état de lambeaux. La politique. La pensée politique de Merleau-Ponty ne se situe ni au niveau de l'élaboration théorique d'une philosophie politique proprement dite, ni au niveau d'une chronique de l'actualité et des événements politiques. L'élaboration de sa pensée politique procède d'un va-et-vient entre ces niveaux, il ne s'agit, du moins selon ses propres souhaits, ni de plaquer une théorie aux événements en faisant découler les actions à entreprendre à partir de principes politiques/moraux, ni de réagir à chaque événement comme s'il constituait à lui seul un tout sans dimension philosophique. Deux interlocuteurs de la tradition philosophique joueront un rôle particulier dans l'élaboration d'une esquisse de philosophie politique au risque des tumultes de l'histoire au sein desquels le penseur engagé a assumé son immersion : Machiavel et Marx. Il publie "Humanisme et terreur" (1947) où il justifie les procès de Moscou au nom de la responsabilité « objective » des accusés ; puis "Les Aventures de la dialectique" (1955). Ces ouvrages, en plus de receler l'ébauche d'une philosophie de l'histoire, abordent l'interprétation du marxisme, sans pour autant adhérer à une quelconque doctrine. Il publie aussi maints articles à teneur politique dans divers journaux, ainsi que dans la revue "Les Temps modernes" dont il est éditorialiste politique jusqu'à son retrait, en décembre 1952, dû à des divergences d'opinion touchant à la fois aux perspectives d'engagement social des intellectuels et aux positions politiques de Sartre, tel qu'en témoigne le document "Sartre, Merleau-Ponty : Les lettres d'une rupture" Dans le champ universitaire et du point de vue de leur actualité, les écrits de Merleau Ponty ont fait l'objet d'une controverse entre le sociologue et spécialiste de philosophie politique Philippe Corcuff et Vincent Peillon, comme philosophe. Suite à l'article de Philippe Corcuff intitulé « Actualité de la philosophie politique de Merleau-Ponty », publié en deux parties, à la suite des nombreux colloques qui se sont tenus pour le centenaire de la naissance de Merleau-Ponty, « (I)-Politique et raison critique » et «(II)-Politique et histoire», Vincent Peillon a souhaité répondre, l'échange s'est ensuite poursuivi avec quelques éléments de réponse de Philippe Corcuff Merleau-Ponty romancier. En , un article publié dans "Le Monde "a fait état de découvertes récentes au sujet d'un roman publié en 1928 chez Grasset ("Nord. Récit de l'arctique") et paru sous le nom de Jacques Heller dont des proches de Merleau-Ponty (Simone de Beauvoir, Elisabeth Lacoin…) semblent s'accorder à dire qu'il s'agit d'un roman écrit par Merleau-Ponty, alors étudiant à l'École normale supérieure. En 2019, ces hypothèses ont été confirmées et étayées, grâce à des lettres inédites : Merleau-Ponty a rédigé l'essentiel de ce livre, qui évoque quatre années passées dans l'Arctique du Canada, en tant que « plume » pour son ami et explorateur Jacques Heller. À l'époque, le livre fut accueilli très favorablement par la critique littéraire. Simone de Beauvoir dit reconnaître dans la prose le style de Merleau-Ponty. |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.