text stringlengths 1 572k |
|---|
Sport japonais |
Soupe Une soupe désigne originellement une tranche de pain trempée de bouillon, de potage, ou d'autres liquides. Par extension, l'usage a attribué le mot aux potages, qu'ils soient ou non complétés de pain. Ainsi, couramment, la soupe est un aliment liquide ou onctueux (exceptionnellement sans part liquide), froid ou chaud, qui est généralement servi au début du repas ou en plat unique. Le potage correspond, dans le repas occidental classique, au troisième plat (après le hors-d'œuvre). La plupart des potages traditionnels sont composés de légumes et légumineuses cuits, auxquels on ajoute parfois divers compléments : protéines animales (viandes, poissons, lait, œufs, fromages), matières grasses (lard, beurre, huile, crème fraîche…), épaississant (farines ou fécules), exceptionnellement des fruits. Il existe une grande variété de soupes dans toutes les gastronomies mondiales, dont des soupes de nouilles. Des desserts ayant l'apparence de soupe peuvent en prendre le nom dans leur dénomination, par exemple la soupe aux fruits rouges. Chiens, chats et cochons peuvent aussi consommer leurs aliments en soupe. Aspects historiques. Les bouillons. La soupe la plus répandue est celle des cuissons au bouillon. Plongés et cuits dans l'eau bouillante, légumes et autres denrées sont les seuls ingrédients (avant le , elle représente sûrement plus de 98 % des soupes consommées). Souvent l'eau de cuisson était consommée séparément des denrées solides ou des légumes pilés. Les bouillons de viande ou poisson clarifiés sont aussi appelés "consommés". Ils peuvent être liés à l'œuf (velouté). La prédominance de la cuisson au bouillon s'explique par la praticité de la cuisson, qui peut se faire sans surveillance. En effet, l'isotherme de l'ébullition donne une température non-préjudiciable aux denrées. Les sucres lents ajoutés. Une bonne partie des autres soupes nécessitent, quant à elles, des techniques et des outils plus élaborés. C'est le cas des soupes mixées et aussi les soupes épaissies avec de la farine. Ces soupes épaissies nécessitent une surveillance active de la cuisson. On évitait d'introduire des farines dans le bouillon car la cuisson devenait compliquée même à partir d'une faible concentration de farine. Une alternative à celles-ci fut l'apport de sucres lents : légumineuses, pâtes et pain sec furent des additifs très courants car plus pratiques. Au Moyen Âge, dans les campagnes, le pain était très souvent conservé sec : on ne chauffait pas le four banal tous les jours, mais plutôt une fois tous les quarante jours. Même lorsque les fournées sont plus fréquentes, il est d'usage d'utiliser du pain rassis. Le rajout de vermicelles est populaire depuis le début du . Exemples : Ajouts post-cuisson. Les techniques de rajout d'ingrédients après la cuisson sont communes et anciennes (par exemple : de la crème, fromages, croûtons, oignons frits, etc.). L'ère industrielle. Si les soupes sont très anciennes, l'ère moderne industrielle fait découvrir, connaître leurs diversité (par la production en grande quantité, les emballages, les moyens et additifs de conservation). De nouveaux condiments élaborés technicisent et fleurissent ces soupes. L'apparition des outils élaborés de cuisine et l'industrialisation les popularisent donc à partir du . Étymologie. Le terme soupe vient du latin tardif "suppa", « tranche de pain sur laquelle on verse le bouillon », sens que le mot avait jusqu’au et que l’on retrouve dans des expressions archaïques comme « tailler la soupe », « tremper la soupe » ou « trempé comme une soupe ». Le terme potage vient du mot « pot » : légumes portés à ébullition, cuits dans un pot. Il a aussi donné un mot ancien en désuétude, avant de désigner le jardin potager, il a aussi désigné le potager, ancêtre de la cuisinière, un système antique, qui servait aux cuissons de tous les mets très délicats, élaborés (mijotage, etc.) par exemple pour les veloutés. Les différentes soupes. Un grand nombre de plats peuvent être regroupés dans la famille des soupes. Beaucoup d'appellations différentes recouvrent ces plats typiques de la gastronomie française : Usages. Une soupe peut être claire ou bien liée. Les soupes claires sont préparées à base de bouillon, lui-même préparé à base de viandes de boucherie. En France, l'usage a été de servir une soupe quotidiennement. Elle se consomme chaude. Présentation et service. La soupe est parfois présentée dans une soupière (récipient large et profond, souvent muni d'un couvercle et d'anses, utilisé pour servir la soupe ou le potage). Elle peut être ensuite servie dans des bols ou assiettes creuses, voire des verres dans le cas de soupes froides comme le gaspacho, au moyen d'une louche. Soupe populaire. La soupe populaire est une institution qui sert de la nourriture chaude aux personnes en difficulté. La plupart du temps, elle propose de la soupe, d'où le nom. Le potage en littérature. Scarron est l'auteur de cet éloge du potage : <poem> Quand on se gorge d'un potage, Succulent comme un consommé, Si notre corps en est charmé, Notre âme l'est bien davantage. </poem> Alimentation animale. Bien que ce ne soit pas la pratique dominante, chiens et chats peuvent recevoir leurs aliments en soupe. Les porcs étaient souvent nourris autrefois avec une soupe contenant du son, les restes et eaux grasses de cuisine, lactosérum, babeurre et des éléments cuits spécifiquement dans une étuveuse : pommes de terre trop petites, rutabagas, topinambours, carottes fourragères, écarts de triages de légumes. L'ensemble pouvait aussi être cuit directement dans une grande marmite en fonte (de 25 à 100 litres) appelée "chaudière". Cette méthode était très économique pour les élevages familiaux. Dans les élevages industriels de porcs, lorsque l'on choisit la distribution en liquide, l'aliment est préparé dans une machine à soupe programmée qui assure aussi la distribution automatisée de l'aliment. |
Shintoïsme Le ou shintoïsme () est un ensemble de croyances datant de l'histoire ancienne du Japon, parfois reconnues comme religion. Elle mêle des éléments polythéistes et animistes. Il s'agit de la plus ancienne religion connue du Japon ; elle est particulièrement liée à sa mythologie. Le terme « "shintō" », lecture sino-japonaise, ou "kami no michi", apparut pour différencier cette ancienne religion du bouddhisme venu de Chine en 538, lorsque le roi coréen de Baekje offrit au souverain japonais (cour du Yamato) une image du Bouddha Çakyamuni. Ses pratiquants seraient aujourd'hui plus de 90 millions au Japon. Histoire. Origines, syncrétisme et racines. Les origines du shintoïsme sont méconnues mais semblent dater de la fin de la période Jōmon, avec le "koshintō". Depuis des temps immémoriaux, les Japonais ont adoré les "kami" — les esprits qui habitent ou représentent un lieu particulier, ou incarnent des forces naturelles comme le vent, les rivières et les montagnes. À chaque création d'un village, un sanctuaire était érigé afin d'honorer les esprits environnants et de ce fait s'assurer de leur protection. On croyait que les "kami" pouvaient être trouvés partout, qu'aucun lieu au Japon n'était en dehors de leur pouvoir. Le shintoïsme englobe donc les doctrines, les institutions, les rituels et la vie communautaire fondée sur le culte des "kami". L'historienne Helen Hardacre remarqua que c'est la période Yayoi qui fut la première à déposer des artefacts pouvant raisonnablement être liés au développement ultérieur du shinto. Les Kami étaient vénérés en divers éléments du paysage au cours de cette période; à ce stade, leur culte consistait en grande partie à les implorer et à les apaiser. On a peu de preuves qu'ils étaient alors considérés comme des entités compatissantes. Des indices archéologiques suggèrent que les "dotaku", des cloches en bronze, mais aussi des armes en bronze et des miroirs en métal ont joué un rôle important dans les rituels dédiés aux "kami" pendant la période Yayoi. L’introduction de l’écriture au et du bouddhisme au a eu une influence profonde sur le développement d’un système unifié de croyances shinto. En une très courte période, le et le sont écrits et rassemblent alors des récits mythologiques et des légendes. Ces deux chroniques ont été écrites avec deux objectifs précis. Premièrement, l'élaboration des récits et l’introduction du taoïsme, du confucianisme et du bouddhisme dans ces derniers avaient pour but d’impressionner les Chinois par le raffinement japonais. Les Japonais étaient intimidés par l’avance culturelle chinoise et voulaient produire quelque chose pouvant rivaliser avec elle. Le deuxième objectif était d’étayer la légitimité de la maison impériale, descendante directe de la déesse du soleil Amaterasu. Une grande partie du territoire japonais actuel n’était alors gouvernée que très partiellement par la famille impériale, et des groupes ethniques rivaux (comme, sans doute, les ancêtres des Aïnous) continuaient de mener la guerre contre l’avancée des Japonais. Les anthologies mythologiques, tout comme les anthologies poétiques telles que le , étaient censées légitimer le mérite de la famille impériale s'agissant du pouvoir de droit divin. Avec l’introduction du bouddhisme et son adoption rapide par la cour, il fut nécessaire de donner des explications sur les apparentes différences entre les croyances japonaises indigènes et les enseignements bouddhistes ("shinbutsu shūgō"). Une des explications plaça les "kami", les divinités shinto, en tant qu’êtres surnaturels, toujours dans le cycle de la naissance et de la renaissance. Les "kami" naissent, vivent, meurent et renaissent comme toutes les autres créatures dans le cycle karmique. Cependant, les "kami" jouaient un rôle spécial en protégeant le bouddhisme et en permettant à son enseignement compatissant de s’épanouir. L'unité de tradition entre le bouddhisme et le shintoïsme a été professée par le maître Kūkai (774-835) qui expliqua qu'il n'existait aucune différence essentielle entre Amaterasu et , ou entre "kami" et bodhisattvas, ce qui donna un mélange des deux systèmes appelé . On trouve ainsi encore de nombreux temples bouddhistes possédant dans leur enceinte un espace dédié aux "kami", quand les "kami" ne sont pas eux-mêmes considérés comme des émanations des différents bouddhas et boddhisattvas. Des liens se sont aussi créés entre des grands temples du bouddhisme et des sanctuaires shinto. Ainsi Inari, la divinité du grand sanctuaire Fushimi Inari-taisha est considéré comme un protecteur du Tō-ji, grand temple de Kyoto, ce qui donne lieu à des cérémonies communes. Les vues de Kūkai ont tenu le haut du pavé jusqu’à la fin de la période Edo, date d'un renouveau pour les « études japonaises » peut-être dû à la politique de fermeture du pays ("sakoku"). Au , de nombreux érudits japonais, en particulier Motoori Norinaga (1730-1801), essayèrent de séparer le « vrai » shintoïsme des différentes influences étrangères. Il s'exprima notamment autour du principe fondamental du "yamatodamashi" et du "magokoro". Cette tentative échoua en grande partie car, dès le "Nihonshoki", des parties de la mythologie avaient déjà été empruntées aux doctrines chinoises. Par contre, elle prépara le terrain pour l’arrivée du shintoïsme d’État avec la restauration Meiji. Shinto d'État. Avec la refonte de la constitution en 1868 sous l'ère Meiji, le shinto devint la religion d'État de l'empire du Japon : le . Dès 1872, un Office du culte shinto ("Jingikan") fut établi afin de promouvoir les rites et le culte officiel et tous les prêtres devinrent des employés de l'État. Chaque citoyen devait s'enregistrer comme membre de son sanctuaire local ("ujiko"), devenant par le fait même membre du Ise-jingū. L'empereur du Japon, descendant de la déesse Amaterasu et désormais chef de l'État ainsi que commandant suprême de la Marine et de l'Armée, fit l'objet d'un véritable culte. En 1889, fut établi un sanctuaire dédié à l’empereur Jinmu, le fondateur mythique de la dynastie. Ce sanctuaire porte le nom de . Ce culte prit une importance primordiale lors de l'expansionnisme du Japon durant l'ère Shōwa. En tant que Commandant officiel du Quartier général impérial à compter de 1937, l'empereur Shōwa était considéré comme la pierre d'assise du , la « réunion des huit coins du monde sous un seul toit ». Il fut ainsi instrumentalisé pour justifier l'expansionnisme et la militarisation auprès de la population japonaise. La manifestation tangible qui faisait de l'empereur le représentant des dieux était les insignes impériaux. Parmi les partisans les plus notables de cette doctrine, on compte le prince Kotohito Kan'in, chef d'état-major de l'Armée impériale japonaise et le Premier ministre Kuniaki Koiso. Le récit de l'instauration du règne de l'empereur Jinmu et de la lignée impériale japonaise occupe une place importante dans le shintoïsme. Il est étroitement lié à la région du Yamato sur Honshū, l'île principale de l’archipel nippon, où est situé le sanctuaire le plus important du shinto, celui d'Amaterasu (« Amaterasu-sume-okami » (天照皇大神), « grande déesse impériale illuminant le ciel ») à Ise et se trouve rappelé constamment au sein du kamidana ((神棚), « maison des kamis », "ōmikami" (大御神) signifiant « grande déesse »). Selon le "Kojiki" et le "Nihon Shoki", après avoir été banni du ciel, le dieu Susanoo, frère d'Amaterasu, descendit sur terre, sauva une belle jeune fille prisonnière d'un dragon, trouva une épée magique dans l'une des huit têtes du monstre et la donna à sa sœur, Amaterasu, en offrande de paix. Il épousa une jeune fille, construisit un palais près d'Izumo et engendra une dynastie de dieux puissants qui finirent par régner sur la Terre. Le plus grand d’entre eux fut Ōkuninushi, le grand seigneur du pays. Inquiète de la puissance d’Ōkuninushi, Amaterasu envoya son petit-fils Ninigi dans le monde mortel pour y rétablir sa souveraineté. Ninigi était porteur de trois talismans : le miroir sacré, qui avait été utilisé pour faire sortir Amaterasu de sa grotte ; l’épée magique offerte par Susanoo et un merveilleux joyau de fertilité : un "magatama", que Susanoo avait utilisé pour engendrer sa descendance dans la querelle avec sa sœur. Ces trois objets devinrent les insignes impériaux et la représentation concrète de l'autorité divine de l'empereur. Selon la tradition, Ninigi atterrit sur le , à Kyūshū, et conclut un marché avec Ōkuninushi. En échange de la fidélité de ce dernier, Ninigi lui promit que sa grand-mère le reconnaîtrait comme protecteur perpétuel de la famille impériale, laquelle allait être fondée plus tard par l'arrière-petit-fils de , c'est-à-dire l'empereur Jinmu. Ōkuninushi est célébré à Izumo-taisha, le second des plus importants sanctuaires du shinto au Japon après Ise. La tradition veut depuis que, de l’époque de Jinmu à aujourd'hui, les descendants terrestres d’Amaterasu règnent sur le Japon à titre d'empereur. Le "Kokka shinto" dura jusqu’en 1945, lorsque Douglas MacArthur, le Commandant suprême des forces alliées, exigea la réforme de la Constitution et priva l'empereur de ses pouvoirs exécutifs. Le shinto d’État fut alors démembré, mettant un terme au principe de la religion officielle au Japon. Les "kami" n’avaient pu fournir le vent divin (kamikaze) pour repousser les envahisseurs étrangers. De plus, en janvier 1946, l'empereur dut déclarer publiquement dans un édit impérial qu'il n'était pas un "akitsumikami" (divinité incarnée). La portée de cette déclaration est contestée puisque l'empereur Showa lui-même avait déclaré en décembre 1945 à son chambellan Michio Kinoshita « qu'il est absolument interdit de qualifier de chimérique l'idée que l'empereur est un descendant des dieux ». Plusieurs commentateurs, dont John W. Dower et Herbert P. Bix, s'interrogent aussi sur l'emploi du terme "akitsumikami" au lieu de celui plus courant d"'arahitogami" (dieu vivant). L' Naruhito est depuis le le monarque japonais issu de la lignée Yamato par la déesse Amaterasu. Il règne durant l'. Ainsi le 23 novembre 2019 accompagné de serviteurs portant le bicorne (symbole remémorant les liens étroits entre le Shogunat Tokugawa et l'Empereur Napoléon III, et rappelé officiellement au travers du toit du Budokan Miyamoto Musashi), l'empereur Naruhito monte en calèche pour une visite au Naiku, ou sanctuaire intérieur, du sanctuaire d'Ise Jingu afin de rendre compte à Amaterasu-omikami, la légendaire déesse du soleil, de l'achèvement de ses cérémonies d'intronisation. De nos jours. Au lendemain de la guerre, la plupart des Japonais pensaient que la prétention démesurée de l’Empire l'avait mené à sa chute. La convoitise de territoires étrangers aveugla ses chefs qui délaissèrent la mère patrie. Dans l’après-guerre, de nombreuses apparurent, notamment fondées sur le shintoïsme mais, globalement, la religiosité des Japonais diminua. Ainsi Konkokyo et Omoto Kyo sont d'inspiration shintoïste, alors que d'autres groupes comme Sūkyō Mahikari ou Tenrikyō sont des syncrétistes mélangeant shintoïsme et bouddhisme. Le shintoïsme a persisté en passant sous silence ses références à la mythologie ou au mandat divin de la famille impériale. Au contraire, les sanctuaires se concentrent sur les gens ordinaires en les aidant à maintenir de bonnes relations avec leurs ancêtres et les "kami". La façon de penser shinto constitue toujours une part importante de la mentalité japonaise, bien que le nombre de personnes qui se disent animées d’un sentiment religieux ait fortement décru. La plupart des Japonais ont une vision neutre de la religion et en pratiquent plusieurs dans leur vie. Ainsi, en 2015, selon l'Agence pour les Affaires culturelles du Ministère de l'Éducation, de la Culture, des Sports, des Sciences et des Technologies japonais, on comptabilisait de shintoïstes (67 % de la population) et de bouddhistes (69 % de la population). Une même personne peut aller prier au sanctuaire shinto au Nouvel An japonais pour une bonne année et avant les examens d'entrée à l'école pour implorer son succès, puis plus tard avoir un mariage chrétien dans une église plutôt qu'un mariage shinto, et enfin des funérailles dans un temple bouddhiste. Principes éthiques et croyances. Le shintoïsme est une religion animiste. Le concept majeur du shintoïsme est le caractère sacré de la nature. Le profond respect en découlant définit la place de l'homme dans l'univers : être un élément du grand Tout. Ainsi, un cours d'eau, un astre, un personnage charismatique, une simple pierre ou même des notions abstraites comme la fertilité peuvent être considérés comme des divinités. Métaphysiques et spiritualités. Issus de l'Unité cosmique, les flux fondant la vie s'incarnent en une multitude de "kami". Le polythéisme qui s'en dégage est infini, dans le sens où chaque parcelle de vie est sacrée. La mythologie shinto dit qu'il existe 8 millions de "kami" car les kanji se lisent également "yaoyorozu", signifiant une myriade, c'est-à-dire une indéfinité, un nombre inquantifiable. En descendant sur Terre pour y insuffler la vie, les "kami" ont créé l'archipel japonais. L'origine de l'Homme dans ce contexte cosmogonique n'est pas clairement établie. Mais la famille impériale base sa légitimité charismatique (au sens de Max Weber) sur son origine déclarée comme divine (le premier empereur, Jinmu, serait le petit-fils de Ninigi-no-Mikoto, que la déesse Amaterasu a envoyé sur Terre par les "kami" pour fonder la nation japonaise). Le respect des ancêtres et les sentiments de communion avec les forces de l'univers et les générations passées sont les bases spirituelles du shinto. "Tsumi", "tatari" et "kegare". Innombrables, les "kami" sont partout, se cachant sous les formes les plus diverses, aux endroits les plus inattendus. Il convient donc de se montrer à leur égard d’une prudence extrême, d’autant que les plus petits sont parfois les plus susceptibles. Leur caractère est ambigu, comme la nature elle-même. Tous, y compris les meilleurs d’entre eux et les plus grands, possèdent un « esprit de violence », , qu’il faut se concilier ou neutraliser par des rites appropriés. Certains sont même dangereux dans leur principe, tels les « dieux des épidémies » ou les « dieux des insectes », prédateurs du riz. Tous peuvent vous frapper d’un . On a voulu donner à cette notion, aussi archaïque sans doute que le concept même de "kami", une valeur morale en en faisant un châtiment, une malédiction (les dictionnaires bilingues donnent généralement ces traductions), infligés par le dieu à l'auteur d'une faute ("tsumi"). C’est là une conception moderne inspirée par le bouddhisme, qui a traduit par "tsumi" l’idée d’« action mauvaise », qui obscurcit l’entendement de l’homme et fait obstacle à l’illumination, donc au salut. Le synonyme ancien de "tsumi" est, en réalité, . Et les définitions anciennes qui en sont données ont un caractère plus physique que moral : c’est ainsi que le contact de la mort, du sang, des excréments provoque une souillure rituelle ; mais la vie en société entraînera un élargissement de cette notion de "tsumi", et l’on qualifiera ainsi certaines infractions sociales (destruction d’une digue de rizières). Dans son principe toutefois, le "tsumi", comme le "tatari" qui en est la conséquence quasi automatique, semble devoir être défini d’une manière à la fois plus vague et plus générale. De nombreux exemples, même récents, montrent en effet que l’on peut être frappé par un "tatari" pour peu que l’on ait empiété, fût-ce inconsciemment, sur le domaine d’un "kami" ; le "tsumi" est en somme la transgression de certaines limites, non toujours formellement interdites ni précisées, mais chargées d’un potentiel magique redoutable dû à la simple présence du "kami". L'un des films d'animation d'Hayao Miyazaki : "Le Voyage de Chihiro" illustre l'importance donnée aux territoires des kami. L’héroïne, Chihiro, pénètre en effet sur le territoire de l'un d'entre-eux, elle se voit donc condamnée à rester dans le monde des démons. On pourrait aussi citer nombre d’exemples de récits populaires relatant des "kami" habitant auprès des ponts et poursuivant les personnes qui ne leur ont pas rendu hommage. L’imprudent pourra alors subir le courroux du "kami" offensé. Un proverbe encore usité souligne cette relation entre "kami" et humain — dans le sens, il est vrai, de : « Il ne faut point se mêler de ce qui ne vous regarde pas » — conserve la trace de cette croyance : « "Sawaranu kami ni tatari nashi" » (« Il n’est point de "tatari" du fait d’un "kami" que l’on ne touche point »). Purification. Les rituels de purification revêtent une importance singulière dans la croyance shinto. Pour échapper aux conséquences d’un "tatari" imprudemment encouru, il convient de « purifier » son ou . Ces deux termes sont employés pour définir des actions usuelles de nettoyage « balayer, nettoyer, laver », et d'autres plus symboliques avec les ablutions rituelles. Dans certains cas, et notamment quand la souillure est due au contact de la mort, il convient d'observer certaines , au cours de retraites plus ou moins prolongées. Purifications et abstinences sont également recommandées à titre préventif lorsque l'on prévoit un contact inéluctable avec un "kami" ; la préparation d’une fête impose souvent des rites de ce genre aux participants. Ces rites immunisent en quelque sorte contre le pouvoir maléfique du "kami". D’autres sont destinés, en revanche, à conférer à celui qui en use un pouvoir contraignant sur le "kami". Là est peut-être l'explication du terme qui désigne, de nos jours encore, le , le « maître », le « possesseur d’un "kami" », en d’autres termes : celui qui connaît les rites qui donnent prise sur les forces surnaturelles. Textes sacrés. Les sources les plus importantes pour le shinto sont le "Kojiki" et le "Nihon shoki". Puis le "Kogo Shūi" et l"'Engishiki" sont aussi important pour les rites du shinto. Personnages sacrés. Bien que le shinto n'ait pas de fondateur connu, un certain nombre d’individus y ont joué un rôle essentiel : Ō no Yasumaro, qui compila le "Kojiki", Motoori Norinaga, le grand lettré shintoïste du , Nakayama Miki, fondatrice du "tenrikyō", ou encore de nombreux bouddhistes comme Kobo Daishi qui le premier intégra les "kami" dans les temples comme protecteurs et émanations des boddhisattvas ; une tradition shinto/bouddhiste, le "honji suijaku", se développa ainsi très tôt dans le courant tantrique. Les écoles de Kamakura avec Hōnen ou Nichiren développèrent aussi une relation qui leur est particulière avec le shintoïsme. Il faut également citer le personnage de l’empereur qui devint, après 1868, l’incarnation de la nation japonaise et dont on croyait qu’il était un descendant direct de la principale divinité du shintoïsme, Amaterasu, la grande déesse solaire. Lieux sacrés. Les sanctuaires sont à la fois des lieux de prières et de réjouissances où sont encore aujourd'hui pratiqués du théâtre nô, de la danse, de la lutte sumo, du tir à l'arc ("kyūdō") et d'autres activités. Autrefois, on organisait aussi des courses de chevaux ou de bateaux. On pratiquait le bain en commun qui est une forme de rite collectif de communion avec la nature. Outre ces enceintes sacrées, où les fidèles viennent pratiquer leur culte, la tradition shinto considère également comme sacrés certains éléments du paysage naturel, tel le mont Fuji. Le shintoïsme se pratique dans des sanctuaires très dépouillés. Le plus souvent les sanctuaires sont peints en rouge et ne contiennent qu'un autel très rudimentaire servant à déposer les offrandes : des fruits, un verre de saké, de l'argent Le cœur même du sanctuaire renferme la relique ou l'objet où est censé être incarné le "kami". Seuls les prêtres peuvent y accéder. Cette relique ou objet peut être n'importe quoi, une pierre précieuse comme une pierre ordinaire, un objet précieux ou une chaussure, un arbre C'est cet objet ou cette relique que l'on transporte à travers tout le quartier pendant les festivals de quartier, les "matsuri". La présence d'un miroir peut aussi être mise sur le compte des insignes impériaux : selon la tradition, Amaterasu, ancêtre divin de la famille impériale, a transmis à ses descendants trois objets garants de la légitimité du pouvoir : l'épée, le joyau et le miroir. Le sanctuaire de Yasukuni est l'un des lieux de culte shinto les plus célèbres à l'étranger, notamment parce que des criminels de guerre condamnés par le Tribunal de Tokyo y sont honorés. Les visites répétées à ce sanctuaire du Premier ministre Jun'ichirō Koizumi ont suscité l'indignation de nombreux pays d'Extrême-Orient. Lexique shintoïste. : âme, esprit des "kami". : bassin où les fidèles peuvent se laver les mains et se rincer la bouche à l'aide d'une , afin de se présenter devant le "kami" exempts de toute souillure ("o-harai"). : plaquettes votives en bois. Les fidèles inscrivent leurs vœux ou leur prière sur l"'ema", puis l'accrochent à un portique près du temple pour qu'il soit lu par les "kami" (les dieux). : bandes de papier pliées (pouvant également être en métal) en zigzag, qui symbolisent la présence de la divinité. : prêtre supérieur d’un sanctuaire. : bâtiment où prient les fidèles. : première prière de l'année au Nouvel An qui s'accompagne de tout un rituel : la première purification, la première prière, on boit le premier verre de saké et enfin on tire le sort. : petit sanctuaire aménagé dans un paysage en l’honneur d’un "kami". : bâtiment principal qui contient le "shintai". : prière rituelle. : sanctuaire shintoïste. : une ancienne danse shintoïste. : « être d’un lieu supérieur ». Principe de vie reconnu par le shinto comme existant dans toutes les choses animées ou inanimées ; c’est le nom donné à une divinité, un dieu, ou à un esprit shintoïste. La croyance en leur existence et le respect qu’on leur doit sont au centre du shinto. . : rituel utilisant des marionnettes. ou : prêtre shinto. : deux chiens d'apparence léonine dont l'un a la gueule ouverte et l'autre fermée. Ils sont les gardiens du temple. : collier de fertilité magique orné de joyaux porté par Amaterasu ; il est l’un des trois talismans de la souveraineté impériale, les deux autres étant un miroir sacré et une épée. : fête annuelle ou bisannuelle du sanctuaire. : « jeune vierge du sanctuaire ». Elles sont vêtues d'une jupe rouge recouverte d'une tunique blanche. Aux temps anciens, les "miko" étaient des shamans ("itako"). : châsse portable que les fidèles transportent dans les rues d’un quartier au cours d’une procession. : fantômes ; esprits errants. : purification rituelle au "chōzuya" avant d'adorer le "kami". : bandes de papier prédisant la destinée. Si la prédiction est bonne, l"'omikuji" devient un talisman à conserver. Si elle est mauvaise, la bandelette doit être fixée sur un arbre du sanctuaire afin que les "kami" conjurent la prédiction. : amulettes porte-bonheur vendues dans les sanctuaires. Elles sont souvent contenues dans un sachet de tissu mais peuvent aussi se présenter sous la forme de pierres gravées. : branche d’un pin sacré avec laquelle un "kannushi" procède aux rites de purification. : corde en paille de riz utilisée pour marquer la présence d'un "kami". : membre laïc d’un comité supervisant le sanctuaire shinto d’un quartier. : grande fête d’un sanctuaire shinto, au cours de laquelle une statue du "kami" est placée dans le mikoshi ; elle a lieu en général tous les deux ou trois ans. : homme-oiseau tantôt démon, tantôt divinité protectrice ; ils sont magiciens et illusionnistes. Le mythe du "tengu" vient des croyances populaires de Chine où il existe encore aujourd'hui : c'est le terrible Garuda. Il est représenté soit en homme-oiseau soit en démon avec un long nez. : portail sacré ayant la forme d'un grand portique. Peint en rouge, il servait à l'origine de perchoir au coq du village qui par son chant appelait Amaterasu. Il marque l’entrée dans un sanctuaire shinto : domaine d’un "kami" et la frontière entre le pur et l’impur. : premier saké de l'année, au Nouvel An. |
Suisse La Suisse, en forme longue la Confédération suisse, est un pays d'Europe centrale et, selon certaines définitions, de l'Ouest, formé de , avec Berne pour capitale "de facto". La Suisse est bordée par l'Allemagne au nord, l'Autriche et le Liechtenstein à l'est-nord-est, l'Italie au sud et au sud-est et la France à l'ouest. C'est un pays sans littoral, dont le Rhin constitue l’unique accès direct à la mer, sécurisé par des traités internationaux. La superficie de la Suisse est de . Elle est géographiquement divisée entre les Alpes, le Plateau suisse et le Jura. Les Alpes occupent 60 % du territoire. La population de la Suisse dépasse les d'habitants, concentrés principalement sur le Plateau, là où se trouvent les plus grandes agglomérations et centres économiques : Zurich, Genève, Bâle et Lausanne. Toutes accueillent des organisations internationales et, pour les trois premières, un aéroport international. Zurich et Genève sont même des villes mondiales. La Fête nationale suisse célèbre chaque août la fondation de la Confédération suisse, traditionnellement datée à début . Le pays a une longue tradition de neutralité politique et militaire et n'a rejoint les Nations unies qu'en 2002. Il poursuit cependant une politique étrangère active et s'implique fréquemment dans des processus de construction de la paix autour du monde. La Suisse est aussi le berceau du Comité international de la Croix-Rouge ; elle abrite en outre de nombreuses organisations internationales, dont le deuxième plus grand siège de l'ONU après celui de New York : l'Office des Nations unies à Genève ainsi que le siège de la Banque des règlements internationaux à Bâle, le siège de l'Organisation mondiale de la santé à Pregny-Chambésy dans le canton de Genève et le siège du Comité international olympique à Lausanne. Dans le domaine européen, elle est un des membres fondateurs de l'Association européenne de libre-échange, et membre de l'espace Schengen, mais pas de l'Union européenne ni de l'Espace économique européen. La Suisse comporte quatre régions culturelles et linguistiques et possède donc quatre langues nationales : l'allemand, le français, l'italien et le romanche. Alors que les trois premières langues sont officielles, le romanche ne l'est que partiellement. En conséquence, les Suisses forment une nation au sens civique du terme, n'ayant pas d'unicité forte sur un plan ethnique ou linguistique ; le sens fort de l'identité et de la communauté des Suisses est fondé sur un fond historique commun partageant des valeurs communes, telles que le fédéralisme, la démocratie directe et le symbolisme alpin. Ernest Renan la cite notamment comme exemple dans "Qu'est-ce qu'une nation ?" Une des économies les plus libérales du continent, la Suisse possède le deuxième PIB nominal le plus élevé au monde par habitant, ainsi que le neuvième PIB en parité de pouvoir d'achat selon le Crédit suisse et le FMI. Les Suisses ont la deuxième plus haute espérance de vie au monde sur la liste publiée par le DAES des Nations unies. La Suisse est classée comme l'un des dix pays les moins corrompus ; de plus, sur les cinq dernières années, le pays a été classé premier en termes de compétitivité économique et touristique, selon respectivement le "Rapport sur la compétitivité mondiale" et le "Rapport sur la compétitivité du secteur des voyages et du tourisme", tous deux réalisés par le Forum économique mondial. Toponymie. Dans les autres langues nationales que le français, le pays est appelé ' et ' en allemand, ' et ' en italien et ' et ' en romanche. Depuis 1803, le nom officiel de l'entité politique suisse est "Confédération suisse" en français, ' en allemand, ' en italien, et "" en romanche. Au , le latin servait traditionnellement de langue commune pour les inscriptions officielles. Ainsi, la formule "" se trouve inscrite notamment sur les pièces de monnaie suisses ainsi qu'au fronton du Palais fédéral à Berne. Le sigle "CH" en est la forme abrégée pour les plaques minéralogiques, les codes postaux et les extensions de noms de domaine sur Internet. Origine. Depuis le milieu du , le terme de "confédération" est employé pour qualifier les systèmes d'alliance qui se sont formés sur le territoire de la Suisse actuelle. Le mot français, comme ses équivalents dans les langues latines, est issu du latin "foedus", « traité d'alliance », alors que l'allemand "Eidgenossenschaft" renvoie au « serment devant Dieu », "Eid", prêté par des "Genossen", « compagnons » de même rang. Le mode d'association ainsi désigné contraste avec la dissymétrie des liens de dépendance féodaux. Le nom de ', d'où dérive le français "Suisse", est utilisé dès le par les Autrichiens, par déformation de celui du canton de Schwytz ("Switz" ou "Sweitz" en moyen haut-allemand) qui est alors, parmi les trois cantons d'origine, le plus proche géographiquement de Vienne, pour désigner l'ensemble de la communauté révoltée contre eux. Une confusion régna ensuite pendant plusieurs siècles sur l'orthographe utilisée par les deux toponymes ("Schwytz" et "Schweiz"). L'historien suisse Johannes von Müller proposa en 1785 de dissocier les deux formes. Le terme de ', quant à lui, viendrait de celui apparu en 972 pour désigner la population de la région, les "Suittes" ; ce nom serait lui-même issu du vieux haut-allemand "swedan" signifiant « brûler » (cfr. islandais "svíða", danois et suédois "svide"), rappelant ainsi la culture sur brûlis, technique par laquelle les habitants défrichaient les forêts avoisinantes afin de construire ou de cultiver les terrains. Le terme "Confédération suisse" ne devient courant qu'au , où il n'est encore ni officiel ni unique, puisque les appellations "Corps helvétique", "Magna Liga", "Ligues" et "Helvetia" sont également utilisées pour désigner le pays. Évolution. La proposition de von Müller visant à utiliser l'appellation de "Schweiz" pour désigner la confédération fut officialisée en 1803, sinon dans l'Acte de Médiation lui-même, du moins par le titre de « Médiateur de la Confédération suisse » que prend Bonaparte à cette occasion. Elle est reprise à l'article 15 du Pacte fédéral de 1815 : , puis par les constitutions de 1848, 1874 et 1999. Aujourd'hui, dans la liste des dénominations d'États publiée par les autorités du pays, c'est celle de "Confédération suisse" qui est retenue, l'adjectif "helvétique" étant explicitement exclu. Cependant, au cours d'une évolution historique complexe, inscrite depuis 1848 dans le texte de ses constitutions successives, les institutions de la Suisse se sont éloignées de la confédération d'États pour devenir celles d'un État fédéral. Le maintien en vigueur d'une appellation officielle inchangée, bien qu'elle ne leur corresponde plus (du moins dans les langues latines : en allemand "" ne désigne pas une forme politique particulière), exprime l'idée d'une continuité de l'histoire suisse, depuis les alliances médiévales jusqu'à l'État contemporain. Polysémie. Confédération, avec ou sans majuscule, désigne trois concepts différents, qui correspondent chacun à un mot différent en allemand : Géographie. La Suisse est habituellement divisée en trois grandes zones géographiques. Du nord au sud, ainsi que par superficie croissante, sont inclus le Jura, le Plateau suisse et les Alpes suisses. Le Plateau constitue par sa densité de population la zone la plus importante en matière démographique et économique. Relief. Mis à part les quelques plaines alluviales, du Rhin et du Rhône notamment, chaque région possède un relief plus ou moins marqué, des collines du Plateau et du Jura ( ) aux sommets des Alpes ( - ). Bien que d'importance modeste du point de vue économique, la région alpine comporte les paysages les plus variés et les plus marquants de la Suisse. Elle s'étend sur près des deux tiers du pays (62,5 % du territoire), faisant de la Suisse le pays le plus montagneux d'Europe occidentale. Certains grands cantons se trouvent en totalité ou majoritairement à l'intérieur du périmètre alpin, ce sont le Valais, le Tessin et les Grisons. Selon la définition de l'Office fédéral de la statistique, un quart de la population de Suisse vit en région de montagne. Cela représente plus de répartis entre . La topographie, notamment la barrière naturelle que forment les Alpes, est aussi à l'origine d'une grande variété de climats. Les chaînes de montagne principales (comprenant des sommets supérieurs à ) sont quant à elles localisées dans les régions des cantons de Berne (Alpes bernoises), du Valais (Alpes valaisannes) et des Grisons (massif de la Bernina). Ce sont également les chaînes regroupant la plupart des glaciers en Suisse, dont elle est recouverte à hauteur de quelque 3 %. Enfin des sommets tels que le Cervin et l'Eiger ont gagné un statut emblématique de la chaîne alpine. Hydrographie. La Suisse est située sur la ligne de partage des eaux de quatre bassins versants. Celui du Rhin couvre la plus grande partie du pays et celui du Rhône couvre le Valais, la partie sud du canton de Vaud et Genève. Cependant, des régions de Suisse appartiennent aussi aux bassins du Danube (la haute vallée de l'Inn dans les Grisons), du Pô et de l'Adige en Italie (le canton du Tessin avec notamment la rivière Tessin mais aussi quelques petites vallées des Grisons, avec les rivières Poschiavino, Maira et Rom (val Müstair) ainsi que la vallée de Simplon en Valais avec la rivière Diveria). Ainsi les eaux coulant en Suisse peuvent se diriger vers la mer du Nord, la mer Méditerranée occidentale, la mer Adriatique ou la mer Noire. Pour cette raison, il est parfois question de la région du Gothard comme du « château d'eau de l'Europe ». Presque chaque région compte un nombre d'étendues d'eau assez important. Les plus grandes sont situées sur le Plateau, ainsi qu'en bordure du territoire alpin. Les lacs de montagne proprement dits sont d'étendue modeste, mais particulièrement nombreux si les lacs de retenue destinés à la production d'hydroélectricité sont inclus. Climat. Le climat de la Suisse est un climat tempéré de transition, influencé par le climat océanique d'Europe de l'Ouest, le climat continental humide d'Europe centrale, le climat méditerranéen et le climat montagnard. Les précipitations sont réparties tout au long de l'année, parfois sous forme de neige en hiver. Les quatre saisons sont bien marquées, avec une différence d'environ entre la température moyenne du mois le plus chaud (juillet) et le mois le plus froid (janvier). Les Alpes font effet de barrière climatique et provoquent des différences significatives de température et de quantité de pluie en fonction de la position géographique (microclimats). L'influence du climat méditerranéen est plus marquée au sud des Alpes, où les étés sont plus chauds et les hivers sont plus doux et plus secs par effet de foehn. L'influence du climat continental humide est plus marquée dans la partie est du pays avec des écarts de température plus importants et des pluies plus importantes en été. La température moyenne diffère en fonction de l'altitude du lieu et de la période de l'année, du fait du relief accidenté, il peut exister plusieurs étages avec des climats et des milieux naturels différents sur les façades d'une montagne. Dans les basses terres telles que le Plateau suisse () la température dépasse durant les jours les plus chauds de l'été - de juin à septembre - et peut descendre en dessous de en hiver - de décembre à mars. La température moyenne diminue de 1 degré tous les . Au-dessus de d'altitude la saison d'hiver dure du mois de novembre au mois d'avril, et la neige subsiste durant toute la saison - condition favorable aux sports d'hiver. Au-dessus de la neige subsiste toute l'année et la température monte rarement au-dessus de . L'ensoleillement, élevé dans tout le pays durant l'été, est faible dans les vallées et le plateau durant l'hiver à cause du phénomène de brouillard de vallée. Par effet de foehn sur les Alpes, lorsque le vent chaud du sud souffle vers le nord, il provoque un temps pluvieux et doux sur la façade sud des Alpes, et un temps sec et chaud sur la façade nord. Quand, au contraire, le vent froid du nord souffle vers le sud, il provoque un temps pluvieux et froid sur la façade nord, et un temps ensoleillé et doux au sud. Située dans les Alpes internes, la région du Valais reçoit de l'air sec toute l'année. La bise est un vent froid et sec venu du nord-est, fréquent en hiver. Elle provoque une chute de température, un ciel dégagé et une impression de froid accentuée par le souffle des rafales qui peuvent atteindre . Changements climatiques. La Suisse, selon un rapport officiel de 2007, est un pays notamment exposé aux conséquences du changement climatique, en raison de l'importance de ses glaciers, lesquels reculent et vont encore reculer et peut-être disparaître d'ici . Le risque d'inondation, coulée de boue, glissement de terrain ou chute de pierre augmente. Des cartes de danger ont été établies (fin 2007) pour 30 % du territoire. Le nombre de jours de canicule (température> ) a fortement augmenté, passant au Tessin d'une moyenne d'un à deux jours par an dans les années 1960 à presque 15 aujourd'hui. De même sur le plateau, avec une augmentation encore plus forte à Zurich et à Genève (quatre fois plus de jours de canicule depuis les années 1960). Les hivers se réchauffent aussi, avec moins de jours d'enneigement, surtout à moins de . Les chutes de neige sont plus tardives, y compris à haute altitude, ce qui peut avoir un impact sur le tourisme et les sports d'hiver (en 2019, 50 % environ des pistes ont dû recevoir un enneigement artificiel qui n'est pas sans conséquences sur la gestion de l'eau). Au début des années 2000, la floraison des cerisiers était en moyenne plus précoce de 15 à qu'en 1950. Les cours d'eau du Plateau suisse se réchauffent depuis les années 1960 et l'eau y dépasse un nombre de jours croissant par an, avec en parallèle une diminution des truites de rivière qui ont besoin d'eau froide et riche en oxygène. En 2022,La température a décuplé de 2ºc en 150 ans, provoquant ainsi depuis les années 2000 neufs des 10 années les plus chaudes jamais enregistré.Comme conséquences, le volumes des glaciers suisse a vu une baisse significative de 60% depuis la moitié du 19ème siècle. Gaz à effet de serre. Les émissions de gaz à effet de serre ont été stabilisées vers 1990, sans toutefois être diminuées (objectif de l'ONU : - 6 % par an). La Suisse s'est donné l'objectif de ramener à 0 ses émissions nettes de gaz à effet de serre en 2050. Cela implique de passer de équivalent à (absorption nette de la forêt et des sols envisagée) en soit une réduction d'environ - 9,5 % par an. Le programme « SuisseÉnergie » incite aux mesures volontaires de l'industrie. Les émissions agricoles ont reculé, alors que les émissions du transport augmentaient, ainsi que celle de l'habitat, en lien avec la croissance (démographique et économique). La surface de référence énergétique des bâtiments certifiés (Minergie et Minergie-P) augmente depuis 1998 plus vite que dans la plupart des autres pays d'Europe, mais en 2006, ne concernait que 0,9 % de la surface de référence énergétique totale du pays. D'après une enquête du journal Le Temps, la Suisse dépasse régulièrement les pics de pollution autorisés par l'ordonnance sur la protection de l'air, mais les autorités préfèrent ne pas donner l'alerte auprès de la population. Un autre accord a été conclu avec le Pérou pour pouvoir comptabiliser pour la Suisse des puits de carbone réalisés dans ce pays. En 2020, la suisse a produit plus de 53 millions de tonnes de gaz à effet de serre du principalement au chauffage de logements et au transports qui sont principalement des voiture à moteurs thermiques. Milieu naturel. La Suisse dispose de milieux naturels de qualité et abrite une biodiversité importante avec environ répertoriées (pour la faune, flore et fonge), mais dont 30 à 50 % des indigènes sont menacées (comme dans la plupart des pays européens), alors qu'une centaine d'espèces invasives posent problème. Du fait du relief, la population (à 75 % urbaine) est très concentrée, mais l'urbanisation s'étale (périurbanisation). En 2000, chaque habitant consommait une surface habitable de , soit de plus qu'en 1980, alors que le nombre de ménages s'était accru de 27 % dans le même temps. La fragmentation écopaysagère est importante et croissante ainsi que l'artificialisation des milieux. Le nombre de kilomètres parcourus sur la route a presque doublé en (de 1970 à 2004), et les surfaces imperméabilisées et construites, routes et parkings ont augmenté simultanément d'environ 10 % de 1982 à 1995. Environ un milliard de mètres cubes d'eau potable sont distribués annuellement par les robinets (soit l'équivalent en volume du lac de Bienne). Les énergies renouvelables sont en progression, mais l'énergie finale consommée a augmenté de +11,5 % entre 1990 et 2005, avec une forte hausse (+ 23 % de 1990 à 2005) de la consommation électrique. Les sols se dégradent ou sont construits ( de sol agricoles sont quotidiennement perdus et plus de 15 % des sols analysés de 1992 à 1996 dépassaient des valeurs-seuil ou indiquant une pollution pour un ou plusieurs métaux lourds. 61 % des sols arables sont sensibles à l'érosion, 17 % l'étant fortement). Des progrès sont constatés en matière de pollution de l'air (moins de pluies acides, de métaux, de poussières à l'extérieur), mais en 2000, plus de 40 % des habitants étaient chez eux exposés à des taux de poussières fines (PM10) dépassant les valeurs limites. L'ozone (O3) et les oxydes d'azote (NOX) posent également problème. La pollution y est quand même inférieure à la plupart des pays d'Europe tels que la France ou l'Espagne. En 2018 et 2019, l'ensemble des forêts du nord-ouest de la Suisse est atteinte par la mort en masse des hêtres du fait du réchauffement climatique. Villes. Zurich, ville la plus peuplée de Suisse avec (), se trouve au nord-est du pays, à l'extrémité nord du lac de Zurich. C'est la capitale économique et la principale place bancaire du pays. Elle héberge l'École polytechnique fédérale de Zurich. La ville est desservie par le principal aéroport ainsi qu'un performant réseau de voies ferrées et quelques autoroutes. Avec quotidiens, la gare centrale de Zurich est très importante. Genève, deuxième ville du pays avec (2022)et première ville suisse en densité de population, se trouve à l'extrême ouest du pays à la pointe du Léman. L'agglomération se développe également de l'autre côté de la frontière, en France. Genève est le siège de nombreuses organisations internationales, d'organisations non gouvernementales, de banques privées et d'entreprises horlogères. Bâle, troisième ville avec (2022), se trouve au nord-ouest du pays. L'agglomération se développe également de l'autre côté de la frontière, en France et en Allemagne. La ville est traversée par le Rhin et dispose de l'unique port fluvial du pays, ainsi que du troisième aéroport du pays, l'aéroport international de Bâle-Mulhouse-Fribourg. Elle accueille de nombreuses industries pharmaceutiques, l'université la plus ancienne du pays et le siège mondial de la Banque des règlements internationaux. La ville est aussi célèbre pour ses musées, comme le Kunstmuseum (plus ancienne collection d'art publique au monde) ou la Fondation Beyeler à Riehen. Lausanne, quatrième ville avec (2022),se trouve à l'ouest du pays au bord du Léman. Elle est le siège du Tribunal fédéral, de l'École polytechnique fédérale de Lausanne et du Comité international olympique. Berne, cinquième ville avec (2022), se trouve au centre-ouest. C'est la ville fédérale, siège du gouvernement et des principales institutions fédérales. La Suisse compte au . Histoire. Antiquité et haut Moyen Âge. Peuplé dès la Préhistoire, c'est à l'époque celtique grâce aux Helvètes surtout, que le territoire suisse franchit le seuil de l'Histoire. En 58, les Helvètes, sous la pression migratoire des tribus germaniques, tentent de s'installer dans le Sud-Ouest de la Gaule, en Saintonge (actuelle Charente et Charente-Maritime). Battus près de Bibracte par les armées de Jules César, ils sont reconduits sur leur territoire d'origine qui devient ensuite part de l'Empire romain. Largement christianisé, le territoire suisse est ensuite occupé par les Burgondes et les Alamans au . Incorporé successivement aux royaumes de Bourgogne, des Francs, puis à l'Empire carolingien, il est rattaché au , à la chute du royaume de Bourgogne transjurane, au Saint-Empire romain germanique. Il est alors le théâtre de dures luttes féodales. Moyen Âge. La date de 1291 est choisie à la fin du comme date de naissance de la Suisse, car c'est celle du "Pacte fédéral", le plus vieux document écrit connu parlant du renouvellement d'une précédente alliance entre des cantons suisses : Uri, Schwytz, qui donnera son nom au pays, et Nidwald (vallée inférieure d'Unterwald). Ces cantons confirment en 1315 leur alliance par le pacte de Brunnen, conclu après la bataille de Morgarten, qu'ils remportent contre . Les territoires avoisinants, Lucerne, Zurich, Glaris, Zoug et Berne se rapprochent d'eux au , fondant le pays actuellement nommé la Confédération des VIII cantons. Le est parsemé de conquêtes et voit la Confédération atteindre le Rhin et la Suisse romande, tout en s'alliant avec les territoires environnants que sont le Valais, Appenzell, Saint-Gall, les Ligues grises (canton des Grisons) et Fribourg. Le pays participe à la guerre de Bourgogne de 1474 à 1477, puis est le théâtre de celle de Souabe en 1499 à la suite de quoi la Confédération suisse est reconnue "de facto" par le Saint-Empire romain germanique (traité de Bâle). Ce n'est cependant qu'après la guerre de Trente Ans, lors de la signature des traités de Westphalie en 1648, que l'existence de la Confédération suisse est officiellement et définitivement reconnue. Époque moderne. La fin du voit une première opposition entre les villes et campagnes qui aboutit finalement au convenant de Stans, signé en 1481 avec l'aide de Nicolas de Flue, qui ouvre la porte à cinq nouveaux cantons : Fribourg, Soleure, Appenzell, Bâle et Schaffhouse. Ainsi, le début du voit la naissance de la Confédération des XIII cantons qui renforce ses alliances locales avec Bienne, Saint-Gall et Neuchâtel et étend ses possessions au Tessin et dans le canton de Vaud. Les guerres d'Italie et surtout la bataille de Marignan (1515) sonnent la fin de ses activités militaires hors de son territoire. Seuls les mercenaires suisses feront désormais parler d'eux sur les champs de bataille européens et au Vatican. Déchiré par la Réforme, le pays se divise et est le théâtre de plusieurs guerres de religion : les Première et Deuxième guerres de Kappel (1529 et 1531), la Première guerre de Villmergen (1656), la Deuxième guerre de Villmergen (1712) occupent la politique intérieure. La démocratie des premiers temps laisse la place à des gouvernements oligarchiques qui bloquent les réformes proposées par les Lumières. Les succès économiques de la Suisse en font vite le banquier de l'Europe. Les progrès importants dans l'espérance de vie et son estimation qui se produisent au milieu du , grâce aux tables de mortalité et à la vaccination, permettent à la communauté financière genevoise de financer la dette publique française par le biais des rentes viagères au moment des lourdes dépenses militaires de l'expédition Lafayette. Époque contemporaine. La domination française exercée après l'invasion de 1798 réforme la Suisse en la transformant en un État unitaire appelé République helvétique. En effet, devant les troubles intérieurs incessants, Napoléon impose l'Acte de Médiation en 1803, par lequel il crée plusieurs nouveaux cantons (Vaud, Tessin, Argovie, Thurgovie et Saint-Gall devenant alors des cantons à part entière). Dans le même temps, il intègre au Premier Empire la principauté de Neuchâtel, remise au maréchal Louis-Alexandre Berthier, ainsi que les républiques de Genève, annexée au département du Léman depuis 1798, et du Valais qui devient en 1810 le département du Simplon. Après le départ de l'armée napoléonienne et presque deux ans de tractations, 1815 voit la création d'un État de 22 cantons reconnu comme neutre par l'« Acte de reconnaissance de la neutralité perpétuelle de la Suisse » rédigé par Charles Pictet de Rochemont et signé lors du congrès de Vienne. En effet, Neuchâtel, Valais et Genève pensaient que le temps des petits États indépendants était définitivement terminé et avaient négocié leur entrée dans la Suisse en tant que cantons à part entière. En 1847 cependant, les luttes entre les conservateurs et les libéraux-radicaux aboutissent à la guerre du Sonderbund et à la victoire de ces derniers qui en profitent pour créer, en 1848, un État fédéral qui abolit les frontières intérieures, impose une monnaie unique et une armée de milice fédérale. La première constitution fédérale, acceptée le met en place les bases politiques de la Suisse. Elle est ensuite révisée en 1874 pour y ajouter le droit de référendum puis en 1891 celui d'initiative populaire. Parallèlement aux événements politiques, le voit l'essor du tourisme et des premiers voyages organisés, en particulier dans les régions alpines. Le développement de l'infrastructure touristique (transports, hôtellerie) prend de l'ampleur. Le début du voit la suite du travail législatif : un code pénal, puis un code civil fédéral sont créés. La Suisse échappe aux deux guerres mondiales et devient peu à peu le siège de nombreuses organisations internationales. C'est en février 1971 que les Suisses, après plusieurs refus, acceptent avec une majorité de 65,7 % la participation des femmes à la vie politique fédérale. L'adhésion de la Suisse et son intégration aux principales organisations internationales (Conseil de l'Europe en 1963, Organisation des Nations unies le ) se font également avec un décalage par rapport à ses voisins. Une nouvelle constitution est acceptée en votation populaire le et entre en vigueur le . Politique et administration. Démocratie directe. La démocratie directe et le fédéralisme caractérisent le système politique suisse. Les citoyens suisses sont soumis à trois juridictions : la commune, le canton et l'État fédéral. Les Constitutions suisses de 1848, 1874 et 1999 définissent un système de démocratie directe (parfois appelée démocratie directe semi-directe ou représentative parce qu’elle est soutenue par les institutions les plus courantes d’une démocratie représentative). Les instruments de ce système au niveau fédéral, appelés droits populaires (, ), comprennent le droit de présenter une initiative fédérale et un référendum, qui peuvent tous deux infirmer des décisions parlementaires. En convoquant un référendum fédéral, un groupe de citoyens peut contester une loi adoptée par le Parlement, s’ils recueillent contre la loi dans les . Si tel est le cas, un vote national est prévu lorsque les électeurs décident à la majorité simple d’accepter ou de rejeter la loi. N’importe quels 8 cantons réunis peuvent aussi convoquer un référendum constitutionnel sur une loi fédérale. De même, l’initiative constitutionnelle fédérale permet aux citoyens de soumettre une modification constitutionnelle à un vote national, si signent la modification proposée dans un délai de . Le Conseil fédéral et l’Assemblée fédérale peuvent compléter l’amendement proposé par une contre-proposition, et les électeurs doivent alors indiquer une préférence sur le bulletin de vote si les deux propositions sont acceptées. Les amendements constitutionnels, qu’ils soient introduits par initiative ou au Parlement, doivent être acceptés à la double majorité du vote populaire national et du vote populaire cantonal. Fédéralisme. La Suisse est depuis 1848 une fédération de cantons, aujourd'hui au nombre de 26 : La superficie des cantons varie entre 37 et et leur population de 16300 à (2020). Les cantons sont "souverains" selon leur constitution respective, mais ne sont plus indépendants comme aux premières heures de la Suisse : le terme de "Confédération", s'il reflète ce passé, ne correspond donc plus à la configuration actuelle de fédéralisme. La répartition actuelle des compétences entre la Confédération et les cantons est formalisée dans la constitution fédérale, qui précise les limites de leurs souverainetés respectives. Certaines compétences sont attribuées explicitement aux cantons ou à la Confédération ; ce qui n'est pas explicitement délégué à la Confédération est du ressort des cantons. Chaque canton est divisé en communes. De nombreux cantons ont une subdivision intermédiaire nommée "district", ou équivalente (les" arrondissements administratifs" du canton de Berne par exemple). Chaque canton dispose de sa propre constitution. La Constitution fédérale garantit leur autonomie : ils prélèvent des impôts et adoptent des lois dans tous les domaines qui ne relèvent pas de la compétence de la Confédération. Un certain nombre de domaines sont ainsi gérés uniquement au niveau cantonal. On y trouve par exemple l'éducation (sauf les deux écoles polytechniques fédérales et la Haute école fédérale de sport de Macolin), la gestion des hôpitaux (sauf les hôpitaux communaux et privés), la construction et l'entretien de la majorité des routes (sauf les autoroutes et routes nationales) et la police (contrairement à l'armée), d'autres cotisations sociales, ou encore le contrôle de la fiscalité. La souveraineté des cantons se limite donc à certains domaines et est en outre toujours limitée par le principe de la "primauté du droit fédéral", ou "force dérogatoire du droit fédéral" (contrairement à l'équipollence des normes en vigueur en Belgique). Les cantons ont tous leur propre parlement (appelé "Grand Conseil" dans la plupart des cantons francophones) et leur gouvernement (appelé "Conseil d'État" dans la plupart des cantons francophones). La structure politique de la Suisse est composée du pouvoir législatif, du pouvoir exécutif et du pouvoir judiciaire. Chaque canton définit la composition et le fonctionnement des trois pouvoirs. En principe, il appartient aux cantons d'appliquer non seulement le droit cantonal, mais aussi le droit fédéral ("fédéralisme d'exécution", contrairement aux États-Unis et à la Belgique). État fédéral. Le pouvoir législatif est exercé par l'Assemblée fédérale, qui est formée de deux chambres : le Conseil national (), formé des représentants du peuple, et le Conseil des États (). Au Conseil national, le nombre de sièges par canton est proportionnel à sa population. Au Conseil des États, les cantons possèdent deux sièges, à l'exception des cantons d'Obwald, Nidwald, Bâle-Ville, Bâle-Campagne, Appenzell Rhodes-Extérieures et Appenzell Rhodes-Intérieures qui ont un siège ; ils étaient appelés « demi-cantons » sous l'empire de la constitution de 1874 aujourd'hui remplacée par celle de 1999. Les membres du Conseil national sont élus pour , tandis que le mandat des membres du Conseil des États dépend du droit cantonal. Organisé en régime directorial, le pouvoir exécutif est exercé par le Conseil fédéral, formé de sept membres (conseillers fédéraux), et de l'administration fédérale qui lui est subordonnée. Les membres du Conseil fédéral sont élus pour quatre ans par l'Assemblée fédérale, qui, en règle générale, reconduit les candidats sortants si ces derniers désirent poursuivre leurs fonctions. Cependant, cette règle tacite a été mise à mal lors de l'élection de décembre 2003 avec la non-réélection de la conseillère fédérale démocrate-chrétienne Ruth Metzler-Arnold, évincée au profit du candidat de l'Union démocratique du centre (UDC) Christoph Blocher, lui-même non réélu en 2007 et remplacé par Eveline Widmer-Schlumpf (UDC, puis PBD). Cette situation a donc modifié la répartition des sièges en fonction des partis politiques pour la première fois depuis l'introduction de la formule magique en 1959. Cette dernière vise à répartir les sièges du gouvernement fédéral proportionnellement au poids de chaque parti à l'Assemblée fédérale. Depuis 1959, et malgré la progression depuis le début des années 1990 de l'UDC, cette répartition n'avait jamais été modifiée et était composée comme suit : deux sièges pour le Parti radical-démocratique (PRD), 2 pour le Parti démocrate-chrétien (PDC), 2 pour le Parti socialiste (PSS) et un siège pour l'UDC. Les élections fédérales de l'automne 2003 ayant confirmé la montée en puissance de l'UDC, les partis gouvernementaux se sont résolus, sous une certaine pression populaire, à revoir la répartition des sièges du Conseil fédéral. À la suite du départ d'Eveline Widmer-Schlumpf (PBD), il est désormais composé de deux sièges pour le PLR, 2 pour le PS, 2 pour l'UDC et 1 pour le PDC. Le Conseil fédéral fonctionne selon le principe de collégialité, ce qui signifie que les décisions sont prises le plus possible par consensus. Si tel n'est pas le cas, un vote a lieu parmi les sept conseillers fédéraux. Selon ce principe, ceux qui s'opposent à une mesure qui est adoptée par le collège doivent tout de même défendre le projet au nom de celui-là. Mais ce principe a connu quelques distorsions ces dernières années, notamment lors de campagnes précédant des votations populaires : un précédent plus ancien étant le refus de Kurt Furgler (PDC) de défendre la loi légalisant l'avortement devant le peuple pour des raisons de conscience, ce qui n'a pas empêché le souverain de l'adopter. Les sept départements fédéraux incluent le Département fédéral des affaires étrangères, le Département fédéral de l'intérieur, le Département fédéral de justice et police, le Département fédéral de la défense, de la protection de la population et des sports, le Département fédéral des finances, le Département fédéral de l'économie et le Département fédéral de l'environnement, des transports, de l'énergie et de la communication. Un président de la Confédération est élu pour une année parmi les conseillers fédéraux par l'Assemblée fédérale. Son rôle est principalement symbolique et médiatique. Traditionnellement, les conseillers fédéraux sont élus présidents chacun à leur tour en fonction de leur ancienneté. Le pouvoir judiciaire est exercé par les tribunaux fédéraux. Une particularité de la démocratie suisse est que le peuple garde en permanence un contrôle sur ses élus, car la Suisse est une démocratie qui peut être qualifiée de "semi-directe", dans le sens où elle a des éléments d'une démocratie représentative (élection des membres des parlements ainsi que des exécutifs cantonaux) et d'une démocratie directe. En effet, en Suisse, le corps électoral dispose de deux instruments qui lui permettent d'agir sur un acte décidé par l'État : il s'agit du référendum, qui peut être facultatif ou obligatoire, et de l'initiative populaire qui est le droit d'une fraction du corps électoral de déclencher une procédure permettant l'adoption, la révision, ou l'abrogation d'une disposition constitutionnelle. Le référendum facultatif permet de remettre en cause une loi votée par l'Assemblée fédérale. Il est facultatif car il nécessite la récolte de en l'espace de pour qu'il aboutisse à une consultation populaire. Si tel n'est pas le cas, la loi est considérée comme adoptée. Lors de la votation, seule la majorité de la population est prise en compte. Le référendum obligatoire impose, comme son nom l'indique, automatiquement une consultation populaire dans les cas prévus par la constitution fédérale. Il implique la double majorité de la population et des cantons. Forces armées. L'armée suisse est composée des forces terrestres et des forces aériennes. La Suisse n'ayant pas de côte océanique, la marine est inexistante mais une flotte de bateaux armés est maintenue sur les lacs frontaliers. La particularité de l'armée suisse est son système de milice. Les soldats professionnels constituent seulement environ 5 % du personnel militaire. Le reste est formé par des citoyens conscrits âgés de (dans certains cas jusqu'à ). Les citoyens suisses (à l'exception des binationaux) n'ont pas le droit de servir dans des armées étrangères à l'exception de la Garde pontificale. La structure du système de milice stipule que le soldat garde chez lui son propre équipement, incluant le bien connu couteau suisse et l'arme personnelle. Ceci n'est pas sans susciter des controverses de la part de certains partis politiques et d'associations. Le service militaire obligatoire concerne tous les citoyens suisses de sexe masculin. Ces derniers reçoivent en général leur ordre de marche vers pour le recrutement. Les femmes peuvent aussi servir dans l'armée sur base volontaire. Annuellement, environ sont entraînées dans des écoles de recrue pendant 18 à . La réforme Armée XXI a été adoptée par vote populaire en 2003, remplaçant le modèle Armée 95 (qui lui-même avait remplacé le modèle Armée 61 avec près de mobilisables), et réduisant les effectifs de à environ , parmi lesquelles sont en service actif et sont des unités de réserve. En tout, trois mobilisations générales ont été ordonnées pour assurer l'intégrité et la neutralité de la Suisse. La première à l'occasion de la guerre franco-prussienne de 1870. La seconde au déclenchement de la Première Guerre mondiale en août 1914. La troisième en septembre 1939, en réponse à l'attaque allemande de la Pologne ; Henri Guisan fut élu général. Politique étrangère et européenne. La Suisse ne fait pas partie de l'Union européenne, mais entretient des relations étroites avec elle, grâce à différents accords. Environ vingt accords principaux et une centaine d'accords secondaires, en tout, ont été conclus au fil des ans dont l'Accord de libre-échange (AELE) de 1972, l'Accord sur les assurances de 1989, les Accords bilatéraux I de 1999 et les Accords bilatéraux II de 2004. Afin, notamment, de simplifier la gestion de ce portefeuille, l'UE et la Suisse ont engagé des négociations en vue d'un accord global en 2014, mais elles sont abandonnées en 2021. Sur le plan économique, au niveau du commerce extérieur en 2008, 62 % des exportations, pour un montant de de francs suisses et 81,2 % des importations pour un montant de de francs suisses, se sont faites avec l'Union européenne. Sur le plan humain, en 2008, vivent dans l'Union européenne et européens vivent en Suisse. Le peuple suisse a été amené à se prononcer à de nombreuses reprises depuis le , où les Suisses refusèrent à 50,3 % de faire partie de l'Espace économique européen, sur les relations qu'il voulait entretenir avec l'Union européenne. Ce fut le cas notamment sur les accords bilatéraux et l'entrée de la Suisse dans l'espace Schengen qui, après acceptation, permirent aux citoyens membres de l'Union européenne de se voir faciliter l'entrée et l'emménagement en Suisse, et vice-versa. Sur le plan du transit des camions provenant de l'Union européenne, le peuple suisse s'est prononcé par référendum, en 1991, en faveur de l'introduction d'une redevance poids-lourds liées aux prestations et en 1992 sur la construction de nouvelles lignes ferroviaires à travers les Alpes, entièrement financée par la Suisse, pour inciter les camions européens circulant sur ses routes à transiter par voie de chemin de fer par le biais du ferroutage. Population et société. Gentilé. Les habitants de la Suisse sont les "Suisses". En Suisse, les habitantes sont appelées "Suissesses" ou "Suisses". Le terme "Suissesse" présent dans la Constitution de la Suisse de 1999 est adopté par l'administration fédérale. Ce terme est mentionné à partir de 1786 dans le "Dictionnaire de l'agriculture et de la campagne : avec vocabulaire des mots" de l'abbé Étienne-Modeste Besançon. Toutefois, certaines études linguistiques plus récentes ne retiennent, au féminin, que le gentilé . C'est, notamment, le cas du linguiste Elmar Eggert (docteur en linguistique à l'université de Tours) qui, dans une étude de 2005, relève : . Les linguistes Denis Maurel et Odile Piton estiment également que le féminin du gentilé "Suisse" est "Suissesse", ainsi qu'ils l'ont énoncé lors du colloque international "Fractal : linguistique et informatique : théorie et outils pour le traitement automatique des langues", qui s'est tenu en 1997 à Besançon, selon les conclusions rapportées par Claude Muller, Jean Royauté et Max Silberztein, dans leur ouvrage "INTEX pour la linguistique et le traitement automatique des langues". Depuis 2008, "Suissesse" est le gentilé féminin recommandé par le ministère français des Affaires étrangères pour ses documents. Dès 1993, l'arrêté du relatif à la terminologie des noms d'États et de capitales, pris conjointement par François Bayrou, ministre de l'Éducation nationale, et Alain Juppé, ministre des Affaires étrangères, précise, au huitième point de son article deux : . Ce terme est aussi repris par le gouvernement canadien pour ses documents officiels. Le code de rédaction interinstitutionnel de l'Union Européenne le mentionne également. Démographie. La population totale de la Suisse en 2021 s'élevait à 8,703 millions d'habitants dont et ; suisses et (24,7 %). Parmi la population étrangère, 39 % résident en Suisse depuis ou plus et 21 % sont nés en Suisse. En 2020, d'immigrés de la première génération (80 %) et de descendants d'immigrés (20 %) vivaient en Suisse, soit 38 % de la population résidente permanente. Santé. En 2020, l'espérance de vie à la naissance était de pour les femmes et pour les hommes pour une moyenne de . Le taux de fécondité est remonté à 1,52 ; les Suisses ont un taux de 1,40 et les étrangères 1,86. Selon une étude de l'Observatoire suisse de la Santé (Obsan), un institut dépendant du Département fédéral de l'intérieur, environ 15 % de la population suisse souffre de troubles psychiques. La région lémanique ainsi que le Tessin sont davantage touchés par le problème selon la même étude. La croissance de la population suisse entre 2005 et 2010 devrait être de 0,4 %, l'indicateur conjoncturel de fécondité est prévu pour la même période à , la mortalité infantile devrait être à 4,1 pour mille, l'espérance de vie des enfants nés et qui naîtront entre 2005 et 2010 sera , la population urbaine constitue 75,2 %. Le nombre de médecins pour mille habitants est 3,8 ; l'espérance de scolarisation moyenne en année est à 15,3 ; 47 % des jeunes suivent une scolarisation au troisième degré. Selon des études officielles, Zurich, Saint-Gall, Genève et Bâle figurent parmi les dix villes européennes avec le plus fort taux de consommation de cocaïne et d'ecstasy. Immigration. La Suisse est, après le Luxembourg, le deuxième pays d'Europe qui compte proportionnellement le plus de personnes issues de l'immigration ( et ) parmi les personnes âgées de 25 à . En 2020,il y avait 39 % d'immigrés (2'890'000)et 15,3 % d'enfants d'au moins un immigré, soit un total de 46,4 %, loin devant la France (26,6 %), la Suède (25,8 %), l'Irlande (25,4 %), l'Autriche (25,3 %), le Royaume-Uni (24,4 %), les Pays-Bas (23,5 %), la Belgique (22,9 %), l'Allemagne (21,9 %) et l'Espagne (20,2 %). En 2019, les ressortissants italiens, allemands, portugais et français composent la majorité des étrangers provenant d'un pays membre de l'UE/AELE, ainsi que de tous les étrangers résidant de manière permanente en Suisse. Langues. La Suisse a quatre langues nationales : l'allemand (langue déclarée comme langue principale de de la population en ), le français (23 %), l'italien (8 %) et le romanche (). En , les langues les plus parlées à la maison par les résidents permanents de ou plus sont : le suisse allemand (), le français (), l'allemand standard (), l'italien (), l'anglais (5 %), le portugais (), l'albanais (3 %), l'espagnol (), le serbe ou croate (), des dialectes tessinois () et le romanche (). Enfin, de la population résidente parle une autre langue à la maison. Au travail, environ 43 % de la population utilise plus d'une langue au moins une fois par semaine. Les langues les plus fréquemment parlées sur le lieu de travail en Suisse sont le suisse-allemand (64 % des personnes actives), l'allemand standard (35 %), le français (29 %), l'anglais (20 %) et l'italien (9 %). La Suisse est divisée en quatre zones linguistiques reconnues, en principe unilingues. Seuls quatre des vingt-six cantons sont plurilingues ; Berne, Fribourg et le Valais sont partagés entre la Suisse alémanique et la Suisse romande, tandis que les Grisons sont partagés entre 3 régions : alémanique, romanche et italienne. Les deux seules villes à être considérées officiellement comme bilingues français-allemand sont Bienne et Fribourg. L'administration fédérale suisse a l'obligation de communiquer toutes ses publications en allemand, français et italien, tandis que certaines d'entre elles sont également publiées en anglais et en romanche. Les termes propres à la Suisse, que ce soit en allemand, en français ou en italien, sont des helvétismes. Allemand. Le suisse allemand est la langue la plus répandue en Suisse. Celle-ci est en réalité un regroupement de dialectes alémaniques et est utilisée dans l'ensemble de la Suisse alémanique pour les relations de tous les jours et pour tous les contextes, mais seulement à l'oral. Malgré des différences régionales notables, tous les pratiquants du suisse allemand se comprennent entre eux. Pour les échanges écrits formels, l'allemand standard est cependant préféré. Au total, sur 26 sont unilingues allemands. La plupart des dialectes suisses allemands appartiennent au groupe du haut alémanique. Le dialecte de Bâle est le seul à avoir pour origine le bas alémanique, tandis que le dialecte de la vallée de Samnaun se rapproche de l'austro-bavarois. L'enseignement dans une grande partie de la Suisse alémanique se fait en allemand standard. Français. Le français de Suisse est parlé dans l'ouest du pays, région appelée Suisse romande, et diffère peu du français standard. Quatre cantons sont unilingues français : Genève, Jura, Neuchâtel et Vaud. Jusqu'au début du , la majeure partie des Romands parlaient des dialectes ou patois du francoprovençal, langue à part entière dont l'extension couvre la quasi-totalité de la Suisse romande, une large partie des régions françaises Auvergne-Rhône-Alpes et Bourgogne-Franche-Comté, l'essentiel du Val d'Aoste et huit vallées piémontaises. Ce rattachement à une langue autre que le français standard (d'oïl) explique en grande partie les nombreuses particularités linguistiques de la Suisse romande. Ces dialectes se sont largement éteints au cours du , mais sont encore parlés par la population âgée dans les cantons de Fribourg, du Valais et de Vaud. . Dans le canton du Jura et dans le district bernois de Moutier, c'est le franc-comtois, un dialecte d'oïl, qui était la langue vernaculaire. Malgré l'appui institutionnel et le fait que le patois est inscrit dans la constitution jurassienne, le dialecte local est en voie de disparition. Italien. L'italien est parlé dans le sud du pays, dans la région généralement appelée Suisse italienne. On y retrouve plusieurs dialectes, qui sont utilisés lors de conversations familières. Le dialecte le plus répandu est le tessinois. Celui-ci s’apparente aux parlers lombards et fait partie du groupe gallo-italique. On retrouve également différents dialectes dans les vallées tessinoises, tous apparentés au lombard. Cependant, plus la région se trouve au nord, plus son dialecte a généralement de points communs avec d'autres dialectes alpins. Romanche. Le romanche est une langue romane et la seule langue nationale à être unique à la Suisse. Elle est pratiquée par environ dans certaines régions du canton des Grisons. Elle se compose de cinq dialectes : le sursilvan, le sutsilvan, le surmiran, le puter et le vallader. Ceux-ci se distinguent fortement par leur vocabulaire, leur prononciation et leur syntaxe, mais tous se comprennent entre eux. Au , le romanche a été standardisé sous l’appellation , qui reprend les formes les plus courantes des dialectes afin de créer une langue uniformisée. Langue nationale depuis 1938, le romanche est présent sur le passeport et les billets de banque suisses et peut être utilisé pour des démarches administratives depuis 1996. Son usage est malgré tout limité. Seules quatre universités suisses enseignent le romanche, et seuls certains textes officiels sont traduits. Autres. L'anglais est souvent utilisé dans le monde du travail. Enfin le latin sert parfois lorsqu'il faut désigner dans une seule langue des institutions suisses : "Confœderatio helvetica" (CH), "Pro Helvetia", "Pro Natura", "Pro Infirmis", etc. La Suisse a ratifié la Charte européenne des langues régionales ou minoritaires en 1997 et a reconnu à ce titre le yéniche comme une langue nationale sans territoire. Les membres de l'Assemblée fédérale s'expriment dans leur langue maternelle. Les débats en plénum du Conseil national font l'objet d'une traduction simultanée, ce qui n'est pas le cas du Conseil des États ainsi que des commissions parlementaires. Religions. Selon le recensement fédéral de la population 2019, la religion la plus répandue du pays est le catholicisme, avec presque 36,5 % de la population. La deuxième religion est le protestantisme, avec 24,4 % de la population. Généralement, les cantons se réclament de l'une des deux confessions. Les autres communautés chrétiennes constituent 6 % de la population de la population ; là où les communautés musulmanes en constituent 5,2 %. 0,3 % de la population appartient aux communautés juives. Les autres communautés religieuses se partagent les 1,4% restants. La proportion des habitants se déclarant sans religion est de 25 %. En 2010, à bektachis vivent en Suisse, la plupart sont d'origine turque. Justice et criminalité. Bénéficiant d'une réputation de sécurité, la Suisse connaît une évolution et se trouve dans les années 2010 au-dessus de la moyenne européenne en matière de cambriolages et d'actes de violence. La moitié des États européens enregistrerait pour ces délits un taux plus bas que la Suisse, alors qu'en 1984, celle-ci se trouvait encore en dernière position au niveau européen. Le pays est également touché par un banditisme international. Des bandes spécialisées choisissent souvent la Suisse comme cible, encouragées en cela, selon le criminologue Martin Killias, par la clémence du droit pénal suisse. Les statistiques de la criminalité sont très variées selon les cantons, les cantons de Genève arrivant en tête en 2016 pour des vols par effraction avec un taux de pour (12 en 2015), devant Vaud 9,3 (9,9) et Bâle-Ville 8,8 (8,9) pour seulement 1,5 pour Appenzell Rhodes-Intérieures, 2,1 pour Uri et 2,5 pour Appenzell Rhodes-Extérieures, Lausanne et Genève étant en tête pour ce qui concerne les villes de plus de . Population étrangère. Au , la population étrangère représente 23,3 % de la population de la Suisse. Dans un rapport de 2007, Doudou Diène, le Rapporteur spécial de l'ONU sur les formes contemporaines de racisme, de discrimination raciale, de xénophobie et de l'intolérance qui y est associée, a constaté une dynamique raciste et xénophobe en Suisse. Selon ce document, les étrangers européens du sud-est ainsi que les extra-européens seraient les plus touchés. Le Conseil fédéral a pris note du rapport et a déclaré « qu'on ne peut pas, à partir de cas particuliers, tirer des conclusions générales quant à l'existence « d'une dynamique de racisme et de xénophobie en Suisse » comme le dit le rapport de l'ONU ». Une étude conduite en 2006 par l'université de Genève avec le soutien du FNS a toutefois révélé que plus de 50 % des personnes interrogées ont des idées xénophobes. Même si 90 % n'approuvent pas l'extrémisme de droite, 77 % voudraient que les étrangers soient mieux intégrés et 55 % voudraient une naturalisation facilitée. Dans certains cantons, le droit de vote est accordé aux étrangers sur les plans communal et cantonal. La disposition constitutionnelle leur donne parfois même le droit d'éligibilité. Économie. Principaux secteurs. L'économie suisse figure parmi les plus prospères et les plus développées du monde bien que la Suisse soit très pauvre en matières premières et ne dispose pas d'énergies fossiles. Orientée vers les services avec les banques et les assurances, le tourisme, le transport, ainsi que vers l'industrie avec notamment la mécanique de précision et des spécialités industrielles, le pays produit surtout des biens à forte valeur ajoutée. Selon le "Global Competitiveness Report" 2011-2012 du forum économique mondial, la Suisse est le industriel au monde au regard de sa production annuelle ( de dollars en 2010) et la plus forte production industrielle par habitant au monde avec de production industrielle par habitant. Le niveau de vie est l'un des plus élevés du monde. De plus, sa stabilité et sa neutralité ont attiré bon nombre de capitaux étrangers et d'organisations internationales comme l'ONU. Le secteur tertiaire représentait en 2005 72,4 % du PIB et , il emploie 72,5 % de la population active ; en 1960, il en occupait 40 %. Le secteur secondaire représentait en 2005 26,3 % du PIB (18 % du PIB de l'UE en 2006) et , il emploie 23,7 % de la population active (17,9 % dans l'UE) ; en 1960, il occupait 25 % de la population environ. Le secteur primaire représentait en 2005 1,3 % du PIB et , il emploie 3,8 % de la population active ; en 1960, il occupait 15 % de la population environ. Conjoncture et monnaie. Après plusieurs années de croissance nulle ou faible, une reprise s'est fait ressentir dès mi-2003. En 2004 la croissance du PIB est de 2,5 %, puis 2,6 % en 2006. En 2006 et 2007 elle passe à 3,6 %. Durant le premier semestre 2008, le PIB n'augmente que modestement puis fléchit au deuxième semestre. À cause de l'effet de base, la croissance est de 1,9 %, chiffre à relativiser étant donné la forte croissance démographique (+ 1,3 %). La Suisse a mieux résisté à la récession de 2008-2009 que d'autres pays. Le creux, atteint au deuxième trimestre 2009, a vu un recul total du PIB de 2,7 %, un taux bien inférieur au Japon (- 8,6 %), l'Allemagne (- 6,7 %), l'Italie (- 6,5 %), le Royaume-Uni (- 5,8 %), les États-Unis (- 3,8 %) ou la France (- 3,5 %). En 2009, le PIB s'établit à de francs suisses. L'inflation est relativement faible : entre mai 1993 et avril 2010, le renchérissement annuel moyen se chiffre à 0,9 %. La dette des collectivités publiques en 2011 se situe à 36,5 % du PIB. En 2014, la croissance annuelle était de 1,9 %. Le , la banque nationale suisse décide de laisser flotter le franc suisse face à l'euro avec pour conséquence de faire monter la monnaie helvétique de pour à pour ce qui provoque un ralentissement du PIB (-0,3 % au premier trimestre, +0,2 % au deuxième trimestre et 0 % au troisième trimestre), soit une baisse de 0,2 % par habitant. Les exportations de biens baissent et un tiers des entreprises du secteur de l'industrie des biens d'équipement devraient faire face à une perte opérationnelle. Les Suisses dépensent massivement leurs francs hors des frontières nationales et le « tourisme frontalier » augmente de 8 % en 2015. Le taux de chômage, bien que variable selon les cantons, se maintient à un niveau très bas (3,7 % en 2009, 2,8 % en juin 2011 et 3,1 % en juin 2015, 3,4 % en janvier 2016), le plus bas en Europe mais le nombre des demandeurs d'emploi, en décembre 2015, est à son plus haut niveau depuis avril 2010. Ce taux de chômage néanmoins très faible peut s'expliquer par une valorisation de l'apprentissage. En effet, deux tiers des plus de quinze ans font le choix de ce système de formation. Le 14 septembre 2020, lors de la pandémie de coronavirus, l'Union syndicale suisse a appelé à une augmentation de salaire jusqu'à par mois ou jusqu'à dans les succursales et entreprises pour améliorer la situation de leurs travailleurs, en 2022, elle affirme qu'il ne devrait plus y avoir de salaires inférieurs à 4500 francs au sein de la fédération. Le 20 octobre 2020, selon le Centre de Recherches Conjoncturelles, la contraction de l'économie suisse due à la pandémie de Covid-19 s'avère plus faible qu'initialement prévu en juin 2020. Villes les plus chères. Les villes de Genève et de Zurich sont chaque année classées dans le top 10 des villes les plus chères au monde. Liste des cantons par PIB nominal par habitant. Cette liste est celle des cantons suisses classés selon la valeur de leur produit intérieur brut (PIB) annuel, en valeur nominale, par tête en Francs suisses en 2018 selon l'Office fédéral de la statistique : Énergie. La Suisse n'est pas autosuffisante sur le plan énergétique. En 2006, 85 % de l'énergie finale consommée dans le pays provient d'importations : produits pétroliers, gaz naturel ou combustible nucléaire. La principale source d'énergie indigène est l'énergie hydraulique. Elle fournit plus de la moitié de l'électricité produite dans le pays. Les autres sources d'énergies indigènes sont le bois, les déchets industriels et les autres énergies renouvelables (géothermie, énergie éolienne, énergie solaire). La production d'électricité est principalement assurée par des installations hydroélectriques et des centrales nucléaires. En mai 2011, à la suite des accidents de Fukushima, le Conseil fédéral avait ordonné l'abandon total de l'énergie atomique pour 2034. Les électeurs suisses ayant rejeté en novembre 2016 à 54,23 % une initiative des Verts, proposant de limiter à la durée de vie d'un réacteur, le conseil fédéral devra repousser l'échéance à 2050. Le , les Suisses votent par référendum, à 58,2 %, pour la sortie progressive du nucléaire et le développement des énergies renouvelables. Tous les partis apportent leur soutien sauf l'UDC, estimant que le coût de la transition serait trop élevé. Si la loi interdit la construction de nouvelles centrales, les centrales existantes pourront toutefois subsister tant que leur sûreté sera garantie. Éducation, sciences et technologies. Les compétences des autorités fédérales suisses sont limitées en ce qui concerne l'école obligatoire, comprenant le primaire et le secondaire pour la partie qui concerne des élèves jusqu'à . Dans ces secteurs, il est en conséquence peu approprié de parler d'un système éducatif suisse. En effet, même si des tentatives d'harmonisation ont d'ores et déjà abouti, avec notamment le projet HarmoS, il est légitime de considérer que la Suisse compte 26 systèmes éducatifs, soit un par canton. Cette règle du partage des compétences sur l'instruction se retrouve, depuis la constitution suisse de 1874, en particulier dans les quatre alinéas de l'article 27. Concernant l'enseignement supérieur, l'offre de formation en Suisse est très importante. Elle se divise principalement en deux domaines : celui des hautes écoles et celui de la formation professionnelle supérieure. Le domaine des hautes écoles comprend les hautes écoles universitaires (universités cantonales et Écoles polytechniques fédérales) ainsi que les hautes écoles spécialisées et les écoles supérieures. Le domaine de la formation professionnelle supérieure est constitué par toutes les autres formations de degré tertiaire préparant au brevet fédéral ou au diplôme fédéral. La formation professionnelle supérieure se caractérise par une offre large et diversifiée d'institutions privées. Il y a au total en Suisse, parmi lesquelles dix sont gérées au niveau cantonal et proposent souvent des sujets non techniques. La plus ancienne université en Suisse fut fondée à Bâle en 1460 (faculté de médecine). Elle est devenue un centre de recherche en chimie et en médecine, mais en raison de son héritage intellectuel d'Érasme de Rotterdam au , l'université est généralement aussi comptée parmi l'un des lieux de naissance de l'humanisme de la Renaissance. L'université de Zurich constitue le plus grand campus du pays avec environ . Les deux écoles polytechniques qui sont gérées par la confédération sont l'EPFL (fondée en 1853) et l'EPFZ (fondée en 1855). Elles jouissent toutes les deux d'une excellente réputation internationale. En 2016, l'EPFL a été classée dans le domaine de l'ingénierie/technologie et des sciences informatiques par le classement académique des universités mondiales et l'EPFZ a été classée en sciences naturelles et mathématiques par le même classement. Le CERN, situé près de Genève, à la frontière franco-suisse, est le premier centre mondial de recherche en physique des particules. Un autre centre de recherche important est l'Institut Paul Scherrer. Parmi les inventions et découvertes notables se trouvent le LSD (par le chimiste Albert Hofmann), le microscope à effet tunnel (prix Nobel) ou le très populaire velcro. Quelques technologies ont en outre permis l'exploration de nouveaux mondes, comme le ballon pressurisé d'Auguste Piccard ou le bathyscaphe qui permettra à Jacques Piccard d'atteindre l'endroit le plus profond du globe. Un grand nombre de prix Nobel a été attribué à des scientifiques suisses, par exemple au mondialement célèbre Albert Einstein dans le domaine de la physique. Au total, pas moins de Nobel sont associés, directement ou indirectement, à la Suisse ainsi qu'à des organisations internationales basées en Suisse. En 2022, la Suisse est classée en 1ère position pour l'indice mondial de l'innovation. La Suisse est l'un des dix membres fondateurs de l'Agence spatiale européenne (ESA), en 1975. Elle est le septième plus grand contributeur au budget de l'ESA. Dans le secteur privé, quelques entreprises sont impliquées dans l'industrie spatiale telles qu'Oerlikon Space et Maxon Motors qui fournissent des structures pour véhicules spatiaux. Santé. Chaque habitant qui est établi en Suisse a l'obligation d'être couvert par une assurance maladie, ainsi qu'une assurance accident. Le système de santé suisse est en 2018 classé meilleur d'Europe, notamment avec des délais courts et un accès direct aux spécialistes. Transports. Par sa position géographique au centre de l'Europe, la Suisse possède l'un des réseaux routier et de chemin de fer les plus denses du monde, noté le meilleur d'Europe selon le European Railway Performance Index ( de voies ferrées et de routes revêtues, dont d'autoroutes). La traversée des Alpes constitue un enjeu important pour les transports européens puisque les Alpes (qui recouvrent une bonne partie du pays) séparent l'Italie du reste de l'Europe. Depuis l'industrialisation des pays européens, la Suisse améliore son réseau transalpin : tunnel ferroviaire du Saint-Gothard de en 1882, tunnel ferroviaire du Simplon de en 1906, tunnel routier du Grand-Saint-Bernard de en 1964, tunnel routier du San Bernardino de en 1967, tunnel routier du Saint-Gothard de en 1980, tunnel ferroviaire de base du Lötschberg de en 2007, tunnel ferroviaire de base du Saint-Gothard de en 2016. Le transport ferroviaire international du pays s'élevait en 2008 à de tonnes-kilomètres, ce qui représente le cinquième de la quantité totale transportée de cette manière en Europe (CEE + Norvège + Suisse). La majorité du réseau ferré est géré par les Chemins de fer fédéraux suisses (CFF). Le Chemin de fer du Lötschberg, qui exploite le deuxième réseau ferroviaire suisse sur l'axe Suisse centrale - Italie via les tunnels du Lötschberg et du Simplon, ainsi que les chemins de fer rhétiques, qui desservent le canton des Grisons en voies étroites, sont deux compagnies privées importantes. Il y a en outre une multitude de petites entreprises privées. Le réseau routier est public, sauf le tunnel du Grand-Saint-Bernard. Une vignette annuelle permet d'utiliser les autoroutes nationales. Sur le plan du transport aérien, la Suisse possède , dont les aéroports internationaux de Zurich ( de passagers par an), Genève (), Bâle/Mulhouse (), de Berne (), de Sion en Suisse romande et de Lugano pour la Suisse italienne. Finances. En 2012, la Banque nationale suisse détient des réserves en euros pratiquement équivalentes à la moitié de celles cumulées des 17 banques centrales nationales de la zone euro. La Suisse se situe au cinquième rang des plus importantes réserves en devises étrangères détenues par des États, derrière la Chine, le Japon, l'Arabie saoudite et la Russie. La Suisse est souvent considérée comme l'un des plus grands paradis financiers au monde : en 2013, selon les estimations de Boston Consulting Group, la Confédération est le premier centre financier offshore mondial avec d'euros d'avoirs. Le pays représente 4,5 % des flux financiers internationaux et figure à la première place du classement des paradis fiscaux établi par l'ONG "Tax Justice Network". Tourisme. Le tourisme représente 2,4 % du produit national brut de la Suisse. Dans les cantons de montagne des Grisons, d'Appenzell Rhodes-Intérieures, du Valais et d'Obwald, plus de 10 % de la main-d'œuvre est cependant employée dans ce secteur. L'enseignement à l'École hôtelière de Lausanne, établissement-phare du pays, en tient compte: le développement durable est un secteur d’avenir dans le tourisme, selon Peter Varga, professeur en « culture durable de l’accueil », selon qui les professionnels suisse . Ce professeur estime nécéssaire un . L'enseignement à l'École hôtelière de Lausanne a aussi pour particularité de sensibiliser au green nudge (« coup de pouce vert »), qui consiste à inciter aux . La Suisse est une de la durabilité, selon Martin Nydegger, le directeur général de Suisse Tourisme, organisme mandaté par le gouvernement pour promouvoir le pays et lancer un label de durabilité estiné à toutes les entreprises de la branche touristique. Ce label classe les établissements en trois catégories en fonction de leur degré de durabilité. Les sources universitaires se sont intéressées à la manière dont la Suisse avait promu une forme de tourisme durable, basée sur la pureté du décor montagnard, mais aussi assez élitiste, en raison de l'époque, le tourisme durable étant encore considéré comme tel, pour les sports d'hiver ou dits : ski, patinage, luge. Cette pionnière dans ce domaine en Europe a ensuite fait école. Une exposition d’affiches anciennes de stations de villégiature suisses, organisée au Musée des arts et métiers de Zurich, rééditées par l’éditeur Photoglob (Zurich), a permis de dater du début du la promotion du tourisme hivernal pour Davos et Saint-Moritz, au début des années 1930 pour Zermatt et à partir de 1940 pour Crans-Montana. Ces stations ont aussi beaucoup utilisées des cartes postales vendues dans les kiosques des gares pour mettre en avant un caractère mondain, élitiste, dans des points de vente standardisés. Les personnages figurant les « montagnards » sont représentés uniquement sur les affiches faisant la promotion de la saison estivale de Saint-Moritz, sous les traits de jeunes femmes souriantes, vêtues de tenues « traditionnelles ». Les cartes postales ont joué ainsi un rôle dans la création de la , imaginaire se voulant être le plus représentatif possible des espaces montagnards, et écartant les signes des différents villages d'accueil, y compris dans les stations françaises : sur 478 vendues à Megève, dominent les vues d’ensemble qui présentent le mont Blanc en arrière-plan, alors que le mont Joly et le mont d’Arbois, emblématiques du développement des sports d’hiver à Megève avec le téléphérique de Rochebrune mis en service en 1933, et l’hôtel du Mont d’Arbois créé par la famille Rothschild, apparaissent beaucoup moins. Culture. La Suisse, par sa situation géographique et son histoire, est imprégnée des cultures latines et germaniques ; les coutumes locales cohabitent selon les régions linguistiques du pays. En effet, le pays possède quatre langues nationales (l'allemand (64 %), le français (20 %), l'italien (6 %) et le romanche (<1 %)). Cette diversité culturelle, essentielle pour la cohésion du pays, participe de l'identité de la Suisse. Patrimoine. Symboles patriotiques. L'hymne national suisse officiel depuis 1981 est le "Cantique suisse", composé en 1841 par Alberich Zwyssig (1808-1854) sur des paroles de Leonhard Widmer (1809-1867). Au , la Confédération ne possédait pas encore de représentation symbolique forte. Mais au cours du siècle suivant, Helvetia et Guillaume Tell sont élevés au rang de symboles patriotiques suisses. À partir de 1848, Helvetia est élevée au rang d'emblème national du nouvel État fédéral. Ce symbole devient alors omniprésent, que ce soit sous la forme d'œuvre d'art, sur les monuments, sur les timbres ou sur les monnaies. Mythes fondateurs. Un certain nombre de mythes et de légendes sont associés aux épisodes anciens de l'histoire suisse. Patrimoine bâti. La notion de protection du patrimoine apparaît dès la fin du . Par ailleurs, sept sites culturels font partie du patrimoine mondial de l'UNESCO : la vieille ville de Berne, l'Abbaye de Saint-Gall, le Couvent bénédictin Saint-Jean-des-Sœurs, les trois châteaux de Bellinzone, le vignoble de Lavaux, le Chemin de fer rhétique dans le paysage de l'Albula et de la Bernina et l'urbanisme horloger des villes de La Chaux-de-Fonds et du Locle. De nombreux châteaux forts et fortifications du Moyen Âge sont construits par les familles dynastiques. Ils servent à la fois d'habitation et de moyen de défense. Mentionnons quelques châteaux forts : le château de Chillon, Lenzbourg, Mesocco, Berthoud, Kybourg ou les trois châteaux de Bellinzone. Les villes du Moyen Âge sont fortifiées. Certaines d'entre elles, comme Morat, sont préservées et ont conservé leurs remparts. Mais, dans la plupart des cas, seuls subsistent des vestiges au cœur des villes comme la de Zoug, la "porte de Spalen" à Bâle ou la de Berne. Des bâtiments religieux apparaissent dès le . Couvents, monastères, églises et cathédrales sont bâtis, parmi lesquels on peut mentionner le couvent de Saint-Gall, l'abbaye d'Einsiedeln, l'abbaye de Saint-Maurice, la cathédrale de Bâle, l'Abbatiale de Romainmôtier et la cathédrale de Lausanne. On trouve des édifices publics dont certains remontent à la période romaine, comme l'amphithéâtre d'Avenches, mais aussi des hôtels de ville, le plus ancien étant celui de Berne (1406). L'hôtel de ville de Bâle (1504 – 1514), avec ses façades de couleur rouge, est très caractéristique. La tour carrée dans la cour de l'hôtel de ville de Genève (1555) est un bâtiment typique de la Renaissance de tradition française en pierre de taille. Au , de nouveaux bâtiments publics voient le jour comme les postes, les gares, les musées, les théâtres, les églises et les écoles. Citons le palais fédéral, la gare centrale de Zurich, le musée national suisse, le grand Théâtre de Genève et l'université de Zurich. La Suisse compte quelques ensembles urbains remarquables. La vieille ville de Berne, avec ses arcades, places et fontaines, est représentative de l'urbanisme médiéval en Europe. À la fin du , les quartiers neufs naissent sur l'emplacement des anciennes fortifications des grandes villes, comme la Bahnhofstrasse de Zurich, la Ceinture fazyste de Genève ou le quartier St. Alban à Bâle. C'est également dans cette période que de nouvelles synagogues sont construites dans les quartiers neufs des grandes villes du pays : Genève (1859), Bâle (1866) et Zurich (1884). L'urbanisme devient planifié : en 1834, La Chaux-de-Fonds, qui est détruite par un incendie, sera reconstruite selon une nouvelle structure urbaine (voir Ensemble urbain du de La Chaux-de-Fonds). Au début du sont créés des logements ouvriers basés sur le modèle du , comme le lotissement (1919 – 1921) à Muttenz, synthèse entre l'idéal de la cité-jardin et le mouvement coopératif. Des cités satellites sont construites dans les banlieues des grandes villes durant la période entre 1945 et 1975, comme Le Lignon en périphérie de Genève. À partir du , les maisons civiles de style gothique en pierre apparaissent, par exemple, le de la à Zurich, la maison Tavel à Genève, la à Zurich, la à Schaffhouse, l'hôtel Ratzé (1583-1586) à Fribourg et la maison Serodine (1620) à Ascona. Pendant la Renaissance, des arcades sont ouvertes au Tessin comme dans la cour du château de Muralto, l'ancien à Lugano et le à Ascona. En Suisse allemande, le premier bâtiment de style renaissance est le (1556) à Lucerne. Les maisons particulières baroques sont richement décorées avec des encorbellements à un ou plusieurs étages, comme à Schaffhouse, et possèdent des oriels en pierre ou en bois comme à Saint-Gall. À titre d'exemple, le et le à Schaffhouse. À Zurich, deux maisons de corporation sont construites en pierres de taille et présentent un aspect sévère : (1708) et (1719 – 1723). L'ouest du pays est plus influencé par l'architecture baroque française ; ce style s'impose en Suisse romande vers la fin du . Il en va ainsi des hôtels particuliers de la rue des Granges, à Genève, avec cour d'honneur. On trouve aussi des exemples de style rococo. Parmi les bâtiments les plus importants pour l'architecture néo-baroque en Suisse se trouvent la cathédrale Saint-Ours et Saint-Victor à Soleure (1769) et l'Opéra de Zurich (1891). La ville de Soleure est généralement considérée comme « la plus belle ville baroque de Suisse ». À partir de 1800, de grandes villas classicistes sont conçues, comme le palais Eynard (1817 – 1821) à Genève ou la "Villa Merian" (1801) à Bâle/Münchenstein. Plus tard, au apparaissent quelques réalisations d'architecture moderne : la villa Le Lac (1923) et l'immeuble Clarté (1931) à Genève par Le Corbusier, ou la Cité Halen (1957 - 1961) par l'Atelier 5, près de Berne, un exemple de maisons individuelles contiguës en terrasse pour la classe moyenne. Mais on constate également encore la construction de plusieurs bâtiments dans le style de la Belle Époque, comme le Beau-Rivage Palace de Lausanne ou le siège de Swiss Re à Zurich en 1913. La forte diversité des espaces naturels en Suisse se retrouve dans la grande variété de maisons rustiques, qui se déclinent selon diverses variétés alpines : les ("maisons du Gothard"), en bois, trouvées dans les vallées alpines isolées du Tessin, du Valais et dans les Grisons ; la maison valaisanne, en bois, typique du centre du Valais et du Val d'Hérens ; la maison tessinoise, en moellons ; la maison engadinoise décorée de peintures murales et de ; les maisons de l'Oberland bernois et Simmental, en bois massif travaillé à la scie, ou en madriers carrés, taillés à la hache. Sur le plateau suisse, la maison bernoise, recouverte d'une énorme toiture en croupe avec des charpentes agrémentées de motifs sculptés ; les chaumières argoviennes ; les maisons à colombage sur le plateau oriental et à Zurich ; les fermes à usages multiples () au nord-ouest et sur le plateau romand, construites en pierre. Dans le Jura, les fermes jurassiennes possèdent de larges façades pignon entièrement en pierre crépie à la chaux. Les ouvrages d'arts tels que ponts et tunnels sont nombreux. Le Pont du Diable au cœur des Alpes sur la route du col du Saint-Gothard ou le Mittlere Brücke sur le Rhin à Bâle en sont des exemples historiques. Beaucoup de ponts médiévaux sont en bois comme le à Lucerne. Au , des ponts suspendus à l'aide de câbles d'acier sont construits à Genève (pont de Saint-Antoine) et à Fribourg (Grand Pont). En 1834, à l'époque de sa construction, ce dernier était le plus long du genre. De nombreux ponts et tunnels pour les chemins de fer comme le viaduc de Landwasser, les tunnels du Gothard et du Simplon sont construits au tournant du . Le pont de Salginatobel ou le viaduc de Chillon sont des ouvrages routiers du . Traditions. La plupart des fêtes sont locales ou régionales, certaines fêtes sont célébrées dans toute la Suisse comme la fête nationale suisse, le Jeûne fédéral (à part Genève et dans les cantons catholiques) ou les principales fêtes religieuses. Différentes fêtes fédérales sont également trouvées avec notamment des rassemblements associatifs dénotant un caractère patriotique plus ou moins prononcé selon l'époque, ce sont des concours ayant lieu tous les trois ans environ. La fête nationale suisse est célébrée le . C'est un jour férié officiel dans toute la Suisse depuis 1994 seulement. Les jours fériés en Suisse sont de la compétence des cantons, qui déterminent eux-mêmes leur propres jours fériés, jusqu'à huit dans l'année. Légalement, les jours fériés sont assimilés à des dimanches. Les jours fériés varient donc beaucoup d'un canton à l'autre. Seuls Noël, le Nouvel An, le Jeudi de l'Ascension et le sont communs à tous, les autres fêtes (le 2 janvier Saint-Berthold, Vendredi saint, le Lundi de Pâques, le Lundi de Pentecôte, Fête-Dieu, Assomption, Jeûne fédéral, Toussaint, Immaculée Conception et le 26 décembre) étant reconnues par les cantons selon leur tradition principalement religieuse (catholique ou protestante). Seule la fête nationale, le , est ancrée dans la constitution fédérale. Jeux. Les jeux nationaux, qui se pratiquent notamment lors de fêtes fédérales ou cantonales, sont la lutte suisse, le lancer de la pierre et le Hornuss. La pratique du tir est élevée au rang de sport national. En plus des obligations de tir prévues dans le cadre du service militaire, donc de nombreuses fêtes de tir lors de fêtes locales, cantonales et fédérales. Parmi d'autres jeux traditionnellement pratiqués en Suisse, il existe le Jass, très populaire, le Eisstock et les combats de reines. Musique traditionnelle. La musique populaire suisse « typique » rurale n'est pas exclusivement suisse. Les traditions telles que le « Chant du soir », les « Ranz des vaches » ou le « yodel » se retrouvent dans d'autres régions alpines ; des pièces variées, autant par la langue utilisée (allemand, français ou italien) que par le genre d'histoire racontée. La Suisse a, depuis des siècles, une grande tradition de carnavals agrémentés de groupes musicaux avec leur style propre : les cliques et les groupes de Guggenmusik et de brass band. Les carnavals les plus connus sont ceux de Bâle, de Lucerne, de Soleure, de Fribourg, de Monthey et celui de Bellinzone. Les Brandons de Payerne est un des plus anciens carnavals de Suisse. La musique folklorique jouée lors de fêtes traditionnelles comprend notamment le yodel. Lors de la fête fédérale des yodleurs, le cor des Alpes est également joué. Le ranz des vaches est le chant traditionnel "a cappella" des armaillis (vachers) dans le canton de Fribourg. Il est habituellement chanté durant la montée des troupeaux à l'alpage et le retour dans les étables à la fin de l'été. Cuisine. Il y a peu de plats nationaux. Les nombreuses spécialités locales reflètent la diversité linguistique et géographique de la Suisse. Les traditions culinaires d'origine paysannes proposent des plats robustes et riches en calories, justifiés en partie par la nature montagneuse de la Suisse avec ses hivers longs et rudes. Les plats représentatifs du pays sont les röstis ainsi que ses repas traditionnels au fromage comme la fondue au fromage et la raclette. Parmi les spécialités locales connues dans l'ensemble du pays, on trouve les "Basler Läckerlis", la tarte aux noix des Grisons, la tourte au Kirsch de Zoug, l'émincé de veau à la zurichoise, le gratin de cardons genevois, le totché jurassien, la taillaule neuchâteloise, le papet vaudois ainsi que la "polenta" et le "risotto" à la tessinoise. Les produits typiques sont le chocolat dont les variantes au lait et fondant ont été créées respectivement par Daniel Peter en 1875 et Rudolf Lindt en 1879 ; de nombreuses formes de fromages tels que l'Emmental, le Gruyère, L'Etivaz, la Raclette, le Sbrinz, la Tête de Moine, le Vacherin fribourgeois ou le Vacherin Mont d'Or ; la viticulture, principalement concentrée à l'ouest et au sud du pays ; ainsi que de nombreuses variétés de saucisses et viande séchée comme le cervelas ou "cervelat", le saucisson vaudois, la viande séchée du Valais, la viande des Grisons ou des salamis tels que le Salametto. Certains produits alimentaires comme les aromates en poudre (Knorr et les cubes de bouillon Maggi), le Rivella et l'Ovomaltine sont des classiques fabriqués de longue date. Le Cenovis à base végétale et le Parfait sont des pâtes à tartiner très connues de la Suisse. Institutions et lieux de culture. Politique culturelle. . Néanmoins, . La part du budget de la Confédération affecté à la culture est faible : 0,3 % du total. En chiffre cela représente environ de francs suisses. Celle des cantons est variable en fonction de leur importance. À titre d'exemple, les budgets cantonaux de Zurich ( de francs suisses en 2002), et Genève (), sont même plus élevés que la part de la Confédération. Les entreprises privées contribuent pour de francs suisses. Au niveau fédéral, l'Office fédéral de la culture (OFC) a pour mission de favoriser la diversité de la culture et de préserver son développement en toute indépendance. L'organisme Présence Suisse promeut l'image de la Suisse à l'étranger. Dans le cadre de la culture il travaille avec "Pro Helvetia". Pro Helvetia est une fondation fédérale dont les tâches concernent principalement la création contemporaine. Pro Helvetia possède quatre bureaux de liaison à l'étranger et gère également les centres culturels suisses. Dans le cadre de la protection du patrimoine, la Confédération publie quatre inventaires : l'inventaire fédéral des sites construits à protéger en Suisse, l'inventaire fédéral des paysages, sites et monuments naturels d'importance nationale, l'inventaire des voies de communication historiques de la Suisse et l'inventaire suisse des biens culturels d'importance nationale et régionale à protéger en cas de catastrophe. Encouragement privé. Le mécénat est une forme de financement de la culture en Suisse pratiqué par les grandes entreprises, notamment les banques et assurances. L'aide va surtout aux grandes institutions au détriment des acteurs culturels indépendants. Elle prend la forme d'achat ou de commande d'œuvre ainsi que l'organisation de manifestations propres (concours ou expositions). Le pour-cent culturel Migros est un mode de financement volontaire de la culture en Suisse par la Migros, mis en place dès 1957. Parmi d'autres organisations de protection du patrimoine on peut citer la Cinémathèque suisse, le Patrimoine suisse et Pro Natura. Musées. En 2021, la Suisse comptait , qui ont totalisé d'entrées cette année-là. Un tiers sont des établissements régionaux ou locaux. En 2015, 71,4 % se trouvent en Suisse alémanique, 20,3 % en Suisse romande et 8,3 % en Suisse italienne. Entre 1998 et 2015, il y a eu une augmentation de , et leur nombre était trois fois moins important en 1950. Entre 2015 et 2021, il y a eu un baisse de 30 musées et les entrées au musées ont également baissées, passant de 12,9 à 10,3 millions d'entrés. Les principaux musées des beaux-arts sont le Kunstmuseum de Bâle (plus ancien musée d'art accessible au public au monde), le Kunstmuseum de Berne et le Kunsthaus de Zurich. Art contemporain : le Musée d'Art contemporain de Bâle (premier lieu d’exposition public en Europe exclusivement consacré à la production et à la pratique d’art contemporain) et le musée d'Art moderne et contemporain (MAMCO). Collections privées : le Centre Paul-Klee à Berne, le Musée Tinguely à Bâle, la Fondation Beyeler à Riehen et la Fondation Gianadda à Martigny. La Collection de l'art brut est un musée consacré à l'art brut, situé dans la ville vaudoise de Lausanne. Les Musées nationaux suisses dépendent de l'Office fédéral de la culture. Ils regroupent huit musées répartis dans différentes régions de la Suisse dont le principal est le musée national suisse de Zurich. Des musées présentant l'histoire : le musée des chartes fédérales (1936) à Schwytz et le musée international de la Réforme à Genève. Autres thèmes : le musée suisse des transports de Lucerne, le musée olympique à Lausanne, le musée international de la Croix-Rouge et du Croissant-Rouge à Genève, la Fondation Martin Bodmer à Cologny et le Musée suisse de l'habitat rural du Ballenberg. Autres lieux culturels. Des foires et expositions ont lieu régulièrement, comme Art Basel, l'une des plus importantes foires d'art contemporain du monde avec près de représentées. Les expositions nationales suisses sont des expositions ayant lieu tous les vingt-cinq ans environ depuis 1883. Leur but de rassembler et de répondre aux attentes socio-politiques des visiteurs autour de thèmes choisis. Elles sont ainsi le de la société suisse à un moment donné. Parmi les salles de spectacle d'importance on peut citer le Schauspielhaus de Zurich (compté parmi les théâtres les plus importants du monde germanophone) et le Theater Basel à Bâle (nommé « théâtre de l'année » en 2009, 2012 et 2018 par le journal berlinois « Opernwelt ») pour le théâtre ; le Grand Théâtre à Genève et l'Opéra de Zurich pour l'opéra ; le Victoria Hall de Genève et la Tonhalle de Zurich pour la musique classique. Des salles sont polyvalentes et se destinent à des événements d'ampleur régionale, voire nationale, tels que l'Aréna de Genève, l'Auditorium Stravinski de Montreux ou le Palais de la culture et des congrès de Lucerne. Martigny accueille chaque année depuis 1960 la Foire du Valais recueillant plus de sur une dizaine de jours et avec ses en 2015, elle est devenue la foire la plus fréquentée de Suisse romande.Elle se démarque des autres foires par son ambiance très festive. Certains lieux publics, dont la fonction première n'est pas le spectacle scénique, reçoivent les événements rassemblant de nombreux spectateurs, tels que l'ancien aérodrome de Dübendorf qui a reçu les spectacles de Madonna (2008) et des Rolling Stones (2006) ou des stades comme le Hallenstadion de Zurich. De nombreux festivals : le Festival de musique de Lucerne a lieu au palais de la culture et des congrès de Lucerne, le Festival international de musique de Sion (jusqu'en 2001, c'était le Festival international de musique Tibor Varga), les festivals de musique en plein air comme le Paléo Festival Nyon à Nyon, l'un des plus grands festivals de musique en plein air d'Europe, le Rock Oz'Arènes un festival ayant lieu dans le cadre de l'amphithéâtre romain d'Avenches. Montreux abrite plusieurs festivals renommés : le Festival de la Rose d'or (dès 2004 à Lucerne au Palais de la culture et des congrès de Lucerne), le Septembre musical, le Montreux Jazz Festival (1967) et le Festival du rire de Montreux. Pour le cinéma, le Festival international du film de Locarno à Locarno (1946) est un festival de film d'auteurs indépendants disposant d'une réputation internationale. Le festival de bande dessinée BDSierre (1984 – 2004) a attiré jusqu'à , il était réputé au-delà de la Suisse. Il a disparu pour des raisons financières. La culture alternative est née au début des années 1980. Les revendications de la jeunesse pour des centres culturels autonomes, les manifestations de cette époque contre les valeurs établies ont changé les mentalités. La culture alternative est désormais reconnue plus ou moins officiellement et les centres autonomes sont, au , des lieux incontournables de la création artistique. Quelques centres culturels pour la jeunesse ou centres de culture alternative : la Rote Fabrik de Zurich (depuis 1980), la Kultur Kaserne de Bâle (depuis 1980), la Reithalle Berne (partiellement en 1981 – 1982 puis durablement dès 1987), Artamis à Genève (1996 - 2008). La ville de Zurich connaît un autre festival de plein air : la "Street Parade". Ce festival a lieu dans les rues du centre de la ville chaque deuxième samedi du mois d'août. Comparable à la "Love Parade" de Berlin, au son de la musique « techno », chaque année cette manifestation attire plus de venues de tous les coins du pays. Sport. Plusieurs dizaines d'organisations et fédérations internationales sportives ont leur siège en Suisse : le Comité international olympique (CIO), le Tribunal arbitral du sport (TAS), la Fédération internationale de hockey sur glace (IIHF), la Fédération internationale de football association (FIFA), la Fédération internationale de gymnastique (FIG), l'Union des associations européennes de football (UEFA), l'European Club Association (ECA), l'Association européenne d'athlétisme (EAA), la Fédération internationale d'escrime, etc. Le hockey sur glace, le tennis, les sports hivernaux et le football sont très populaires. La gymnastique, le football, le tennis et le tir sportif sont les sports avec le plus grand nombre de licenciés par fédération. En Formule 1, l'écurie Sauber est basée à Hinwil. En tennis, la Suisse remporte la Coupe Davis en 2014, avec une équipe composée de Roger Federer, Stanislas Wawrinka, Marco Chiudinelli et Michael Lammer. En 1992, l'équipe dans laquelle figurait Marc Rosset (champion olympique en simple la même année), Jakob Hlasek, Thierry Grin et Claudio Mezzadri a été défaite en finale par les États-Unis. En 1998, l'équipe composée de Martina Hingis, Patty Schnyder et Emmanuelle Gagliardi subit le même sort face à l'Espagne. Le Bâlois Roger Federer est considéré par de nombreux observateurs comme étant l'un des meilleurs joueurs de l'histoire de ce sport, sinon le meilleur : il détient le record de passées à la première place du classement mondial de tennis ATP World Tour, ainsi que le record masculin de dans les tournois du Grand Chelem. Il a terminé l'année calendaire à la première place mondiale à cinq reprises (en 2004, 2005, 2006, 2007 et 2009). Il est médaillé d'or en double messieurs avec Stanislas Wawrinka aux Jeux olympiques de Pékin 2008 puis vice-champion olympique en simple à Londres en 2012. Roger Federer a gagné à ce jour , dont majeurs (Grand Chelem et Masters) et . Son doublé Roland-Garros—Wimbledon en 2009 lui a permis de réaliser le Grand Chelem en carrière sur cinq surfaces différentes. Il est le tennisman qui a atteint le plus de finales dans un même tournoi du Grand Chelem ( à Wimbledon) et est le recordman de victoires à Wimbledon, avec huit succès entre 2003 et 2017. Parmi ses nombreux records, on peut également souligner ses dix finales, vingt-trois demi-finales et trente-six quarts de finale consécutifs dans les tournois du Grand Chelem. Chez les femmes, la Suisse compte en Martina Hingis la plus jeune numéro un de l'histoire en simple. La Saint-Galloise est restée au total au sommet de la hiérarchie féminine, se situant derrière des championnes comme Steffi Graf, Martina Navratilova, Serena Williams et Chris Evert. Elle a gagné au moins une fois tous les tournois du Grand Chelem en simple, en double et en double mixte, à l'exception du simple de Roland-Garros où elle a été battue deux fois en finale, ainsi qu'une médaille d'argent olympique en double avec Timea Bacsinszky. Médias. Télévision. En 1922 fut mis en exploitation à Lausanne, le troisième émetteur public de radiodiffusion en Europe. Puis, au cours des années qui suivirent cette date, le pays vit la création de nombreuses sociétés de radiodiffusion. En 1923, la Suisse compte radio. En 1930, les autorités fédérales réglementent la radiodiffusion, en regroupant l'ensemble des organisations régionales pour en faire une organisation de type fédéraliste, sous le nom de Société suisse de radiodiffusion (SSR), et qui se nomme aujourd'hui SRG SSR. Durant cette période furent également mis en service les premiers émetteurs nationaux : à Sottens en mars 1931, Beromünster en mai de la même année et Monte Ceneri en octobre 1933. En 1953, la SSR inaugure un premier service expérimental de télévision. Codes internationaux. Différents codes internationaux, souvent constitués de 2 ou , dénomment la Suisse. Parmi les plus usités, on trouve : |
Salt Lake City Salt Lake City (en anglais ) est une ville des États-Unis, capitale de l’État de l'Utah et siège du comté de Salt Lake. La ville a été fondée au par des pionniers mormons de l'Église de Jésus-Christ des saints des derniers jours, couramment appelés mormons, conduits par leur chef d'alors, Brigham Young. Elle est désormais le siège mondial de l'Église. En 2020, selon le Bureau du recensement des États-Unis, Salt Lake City compte dans la ville. L'agglomération de Salt Lake City s'étend sur les comtés de Salt Lake, de Summit et de Tooele pour une population de . Selon l'estimation de 2020, l'aire métropolitaine de Salt Lake City–Ogden compte . Salt Lake City fait partie de la région urbaine assise aux pieds des montagnes Wasatch et appelé Wasatch Front. Avec plus de d'habitants, cette région urbaine abrite 85 % de la population totale de l'Utah ainsi que les autres principales villes de l’État comme Ogden et Provo. Géographie. Situation et relief. La ville s'étend sur une surface de dans le coin nord-ouest de la vallée de Salt Lake, dominée par les monts Wasatch à l'est et Oquirrh à l'ouest. Son altitude varie entre , avec une moyenne de . Urbanisme. La majorité des rues de la ville sont dénommées en fonction de leur localisation par rapport au temple mormon de Temple Square. La rue située immédiatement au sud du temple s'appelle South Temple Street. La suivante se nomme 100 South et ainsi de suite. Le même principe vaut pour les trois autres points cardinaux. Ainsi l'intersection située à deux blocs de maisons à l'est et trois blocs au sud de Temple Square prend pour nom 200 East 300 South. Certaines rues du centre-ville présentent également un double nom. Le premier est la numérotation de la rue, seule valable pour les adresses postales. Le second est nominatif, comme Rosa Parks ou César Chávez, et purement honorifique. Climat. Le climat de la région de Salt Lake City est subhumide mais pas semi-aride comme souvent affirmé. Selon la classification des climats de Köppen, Salt Lake City a un climat tempéré continental à saison chaude sèche (Dsa), une forme plutôt rare car les climats tempérés continentaux sont souvent plus humides en saison chaude qu'en saison froide. Dans la classification des climats de Köppen, lorsque les précipitations sont plus ou moins réparties dans l'année, si le quotient [précipitations annuelles moyennes (en cm)] / [température moyenne annuelle (in °C) + 7] se situe entre 1 et 2, le climat est considéré comme semi-aride. Environ 43 % des précipitations annuelles tombent pendant les six mois les plus chauds de l'année (donc 57 % pendant les six mois les plus froids) à Salt Lake City donc les précipitations sont plus ou moins réparties sur toute l'année : au total sur l'année elles atteignent tandis que la température moyenne annuelle est d'environ donc le quotient de Köppen pour Salt Lake City vaut à peu près 2,25 soit nettement plus que 2 qui est la limite supérieure des climats semi-arides dans le modèle () de Köppen. Par conséquent le climat de la région de Salt Lake City n'est pas semi-aride selon la classification des climats de Köppen mais seulement subhumide. La région a quatre saisons distinctes, avec un hiver froid et neigeux, un été chaud et sec et deux périodes de transitions, relativement humides mais supportables. L'océan Pacifique a une influence notable sur le climat en apportant des tempêtes humides d'octobre à mai, le printemps étant la saison la plus pluvieuse. Un des effets du Grand Lac Salé est de favoriser les chutes de neige en hiver. La seule source de précipitations en été est due aux effets de la mousson du Golfe de Californie, en provenance du Sud. Les étés sont chauds avec des températures dépassant souvent les . Les hivers sont moins froids qu'attendus à ces latitude et altitude car les montagnes Rocheuses situées à l'Est et au Nord, font souvent office de bouclier aux influences des anticyclones polaires boréaux : ainsi les températures hivernales, qui sont fréquemment négatives, tombent rarement en dessous de . En hiver, l'air froid, l'humidité et les polluants piégés par les montagnes environnantes peuvent engendrer dans les vallées, des inversions de température ("id est" des températures plus froides à altitudes plus basses) ainsi que d'épais brouillards nocturnes et des brumes diurnes. Transports. L’aéroport international de Salt Lake City est l'un des "hubs" de la compagnie aérienne Delta Air Lines. Le métro léger (TRAX) et le bus sont les principaux transports en commun de la ville. Les trajets dans le centre-ville sont gratuits. Toponymie. La ville a été ainsi nommée pour sa proximité avec le Grand Lac Salé (en anglais, "Great Salt Lake"). Elle s'est d'abord appelée Great Salt Lake City avant de prendre son nom actuel en 1868. Histoire. Salt Lake City est fondée, sous le nom de « Great Salt Lake City », le par 148 pionniers mormons composés de , trois femmes et deux enfants. Menés par Brigham Young, ces mormons avaient fui les persécutions religieuses qui avaient abouti au lynchage de leur prophète, Joseph Smith, et traversé les États-Unis sur . La première année sur place est difficile car les récoltes sont compromises par des gelées tardives puis par la sécheresse et enfin par les criquets. En 1848, toute la vallée du Grand Lac Salé est cédée par le Mexique aux États-Unis et en 1850, le Territoire de l'Utah est formé avec Brigham Young comme gouverneur. L'Utah est alors considéré par les mormons comme leur patrie appelée « Deseret » (l'« abeille à miel », laquelle est mentionnée dans le Livre de Mormon). Les mormons développent et planifient Great Salt Lake City en lotissements autour de Temple Square, sur lequel sont érigés le Temple et le Tabernacle. La population de la ville s’accroît rapidement grâce à l'afflux régulier de nouveaux émigrants mormons, pour beaucoup originaires d'Europe. Vers 1852, ils sont déjà environ . En 1856, Great Salt Lake City devient la capitale du Territoire de l'Utah. Les mormons entrent rapidement en conflit avec le gouvernement américain et, en 1858, des troupes fédérales s'installent près de la ville à Camp Floyd. En 1868, le nom de la ville est raccourci en Salt Lake City et en 1869, l’État et la ville sortent de leur isolement géographique en étant reliés par le premier chemin de fer transcontinental. L'Utah devient le à rejoindre l'Union, en 1896, à la suite de l'abolition de la polygamie par l'Église de Jésus-Christ des saints des derniers jours. Lors de la Seconde Guerre mondiale, la demande en métaux crée un essor de l’industrie minière et plus généralement de l’économie locale, propice à un développement de l’agglomération de Salt Lake City. En , Salt Lake City accueille les olympiques d’hiver et les paralympiques d’hiver. L'attribution des Jeux à Salt Lake City a fait l'objet d'une polémique à la suite d'accusations sur la possible corruption de membres du Comité international olympique par le comité olympique de la ville. Politique et administration. Vie politique. Depuis les années 1970, la ville est un bastion libéral du Parti démocrate au sein d'un État conservateur et républicain. Les élections municipales sont organisées à Salt Lake City sur une base non partisane. Rocky Anderson, maire controversé de la ville de 2000 à 2008, a été un opposant farouche au président George Bush. Il a soutenu notamment le protocole de Kyoto, les droits des homosexuels, et a plaidé pour un revenu minimum et une législation moins restrictive en matière d'alcool, autant de positions qui contrastaient nettement avec celles de la majorité des citoyens de l'Utah. Fragilisé par l'écrasante victoire de George W. Bush dans l'Utah, avec 72 %, et par le bon score de celui-ci à Salt Lake City lors de l'élection présidentielle de , il n'en conserva pas moins sa rhétorique progressiste. Alors qu'en , 66 % des citoyens de l'État (82 % hors Salt Lake City) rejetait par référendum toute possibilité de mariage homosexuel ou d'union civile, 54 % des habitants de la ville l'approuvait. En vertu de ce résultat local, Anderson a alors accordé aux partenaires des employés municipaux non mariés – qu’il s’agisse de couples hétérosexuels ou homosexuels – les mêmes droits qu’aux couples mariés. Administration municipale. La ville est administrée par un maire et un conseil de sept membres, tous élus au suffrage universel pour un mandat de quatre ans au mois de novembre des années impaires et renouvelés par moitié tous les deux ans. Depuis le , la démocrate Erin Mendenhall est maire, la troisième femme dans l'histoire de la ville. Démographie. Selon l" pour la période 2010-2014, 73,6 % de la population âgée de plus de déclare parler l’anglais à la maison, 16,1 % déclare parler l'espagnol, 1,44 % une langue polynésienne, 1,24 % une langue chinoise, 0,73 % le serbo-croate, 0,69 % l'allemand, 0,51 % le français, 0,49 % le vietnamien et 5,2 % une autre langue. Toujours selon l", en 2015, les deux tiers des Océaniens sont Tongo-Américains et un quart d'entre eux sont Samo-Américains. Économie. Salt Lake City est le principal pôle commercial et industriel de l'Utah. Les principales activités industrielles sont le raffinage pétrolier, la métallurgie, les textiles, l'agroalimentaire et l'exploitation minière avec la mine de Bingham Canyon. L'économie de la ville a été stimulée par la construction de la première ligne ferroviaire transcontinentale en 1869. Éducation. Enseignement supérieur. La ville est le siège de l'université d'Utah. Le bâtiment principal, datant de 1915, présente une architecture néo-classique s'inspirant du capitole de Washington DC. Culture. Patrimoine et musées. Salt Lake City porte la marque des mormons, fondateurs de la ville. Ceux-ci sont très présents dans la ville et assistent les visiteurs. Le Tabernacle (1867), l"Assembly Hall" (1880) et le Temple (1893), sur "Temple Square", forment le cœur religieux et touristique de la ville. La "Family History Library", établie en 1894, jouxtant "Temple Square", concentre les plus importantes archives généalogiques au monde, conservées tant sur micro-films que supports papier. Le "Church Administration Building" (1917) abrite les bureaux du président de l'Église de Jésus-Christ des saints des derniers jours, de ses conseillers et de ses 12 apôtres. L'ancien hôtel Utah (1911), restauré en 1987 par l'Église, est devenu le Joseph Smith Memorial Building et sert de centre communautaire. L'histoire des mormons est relatée au Pioneer Memorial Museum. On trouve à Liberty Park le plus ancien bâtiment commercial de l'Utah, Isaac Chase Mill, construit entre 1847 et 1852, ainsi que le musée Chase Home Museum of Utah Folk Arts. Les autres lieux notables moins connotés par la religion mormone sont le Capitole de l'Utah, l'ancien hôtel de ville, le musée des Beaux-Arts et le musée d'histoire naturelle. La ville dispose également d'un orchestre symphonique et d'une salle de concert, le Maurice Abravanel Concert Hall. Religions. Capitale d'un État essentiellement mormon, la ville de Salt Lake City est religieusement diversifiée. Les mormons représentent 45 % des habitants de la ville. Salt Lake City est le siège d'un évêché catholique. Sports. Sport universitaire. Les Utes de l'Utah défendent les couleurs de l'Université de l'Utah. Jeux olympiques. Salt Lake City a accueilli les Jeux olympiques d'hiver de 2002. |
Sigle Un sigle est un ensemble de lettres initiales majuscules qui, épelé ou prononcé de manière syllabique, forme un mot servant d'abréviation. La siglaison est la . Certains sigles courants entraînent la formation de dérivés, par exemple : "cégétiste" (membre de la CGT), "cégépien" (personne poursuivant des études dans un cégep), "Rmiste" (bénéficiaire du RMI) ou "énarque" (diplômé de l'ENA). Certains sigles s'écrivent comme on les prononce, et forment alors des noms communs (accordés en genre et en nombre), par exemple : une bédé, des bédés ; un cédérom, des cédéroms ; un pédégé (et familièrement, une pédégère). Certaines abréviations peuvent être indifféremment des sigles ou des acronymes, selon des groupes socio-linguistiques distincts, voire selon le locuteur ou selon les circonstances pour un même locuteur. Par exemple, "PIB", "ONU" peuvent indifféremment être prononcés de manière épelée ou syllabique selon le locuteur voire par le même locuteur selon le cas. En français, les sigles sont invariables et ne prennent pas la marque du pluriel (contrairement à l'usage anglophone), par exemple : des BD, des HLM, des CD (dont le pluriel en anglais donne "CDs"). Étymologie. Selon le "Dictionnaire français illustré" de Larive et Fleury (1889), "sigle" est issu du bas latin ' qui serait une syncope de ' « signe isolé », et désigne une , cependant aucune attestation ne permet de l'affirmer. C'est un emprunt au bas latin des juristes ' (neutre pluriel) « abréviations, signes d'abréviation » et il procède directement soit de ' « signe », soit de ' « [lettres] isolées » (par l'intermédiaire d'une forme "*", puisque le latin ' avait donné l'ancien français "sengle", "sangle" « unique, simple », d'où l'anglais '), la seconde hypothèse étant confortée par l'existence d'une forme latine ' qui désigne des abréviations chez Valerius Probus. Émile Littré distingue le "sigle" du "symbole" : . Selon le "Dictionnaire historique de la langue française", sigle , mais cette acception n'est plus , la seule résiduelle étant de désigner . Typographie. L'usage recommandé au Canada ("Guide du rédacteur") et en France ("Lexique des règles typographiques en usage à l'Imprimerie nationale") est de composer les sigles en lettres majuscules, sans point d'abréviation : "Sigles :" […]"En ce qui concerne leur écriture, la seule unification possible et applicable à tous les cas est l'emploi de lettres capitales sans points; outre le cas de nombreux sigles de formation syllabique excluant la présence de points, ceux qui pourraient en composer n'en sont qu'inutilement et inesthétiquement allongés.""On est donc censé écrire :" "On notera que certains sigles très répandus et de prononciation aisée (acronyme) peuvent se composer en bas de casse avec capitale initiale : Benelux (sans accents), Euratom, Unesco""NOTA : Si l'on peut appliquer à certaines abréviations les principes exposés ci-dessus, ce serait une erreur que de vouloir supprimer systématiquement les points chaque fois qu’on rencontre une abréviation sous la forme de lettres capitales". À noter que le lexique fait un cas particulier des noms de sociétés : "Noms de Sociétés :" […]"Remarque : Les sigles des sociétés, associations, compagnies seront composés en grandes capitales collées sans points : SPA, SNCF, UMP, CMB, VMF, LPO Les sigles longs mais « prononçables » s'écriront de préférence en bas de casse avec capitale initiale : Saviem, Snecma, Sofirad, Société des auteurs, compositeurs et éditeurs de musique (SACEM ou Sacem)"."Sociétés étrangères : Les noms de sociétés et organismes étrangers sont composés en romain (dans le romain) avec capitale initiale aux substantifs et aux adjectifs. Leurs sigles suivent les mêmes règles qu'en français (voir la remarque précédente) : les sociétés Svenska KullagerFabriken (SKF), Trans World Airlines (TWA), Badishe Anilin & Soda-Fabrik (BASF), Sociedad Española de Automóviles de Turismo (Seat), Anonima Lombarda Fabbrica Automobili (Alfa-Romeo), Van Doorne's Automobiel Fabriek (Daf), Door Eendrachtig Samenwerken Profiteren Allen Regelmatig (Spar), Minnesota Mining & Manufacturing (la 3M)". Sigles des autres langues. Il arrive que certains sigles de langues autres que le français soient repris tels quels en français sans pour autant que les francophones en connaissent la signification. Le plus souvent, il s'agit de sigles en anglais comme MSN, SMS, IP, PC et parfois la prononciation originale est également conservée comme FBI, MTV, BBC, VIP, MIT, ces deux derniers étant parfois épelés en français. Parmi les autres langues, on trouve parfois l'allemand (ABS, BASF, BMW, DB) ou l'italien comme dans GTI (""). Genre. Les sigles ont le genre du nom qui constitue le noyau du syntagme dont ils sont une abréviation. On dit "la SNCF" (Société nationale des chemins de fer français) parce que le noyau du groupe (« société ») est féminin, mais on parle "du CIO" (Comité international olympique) car le noyau (« comité »), est un nom masculin. Quand le syntagme est composé de mots étrangers, le même principe s'applique. On distingue ainsi "le FBI", pour (Bureau fédéral d'enquête), de "la CIA", (Agence centrale de renseignement) puisque dans un cas, le mot noyau se traduit par un nom masculin (« bureau ») et dans l'autre, par un nom féminin (« agence »). Sigles et acronymes redondants. Il arrive fréquemment qu'un des mots abrégés du sigle ou de l'acronyme soit repris pour désigner la nature du sigle et que ce dernier soit employé comme étant le nom de l'objet ou de la notion désignée. Cela arrive très souvent dans les pays anglophones, où on a nommé ce comportement ' ("RAS" signifiant '), en français "syndrome SAR", SAR signifiant « syndrome de l’acronyme redondant ». En français, ce phénomène est un peu plus rare. Exemples avec des sigles en anglais : Exemples avec des sigles en français : Sigle et politique. Il est d'usage de nommer les partis politiques par leurs initiales. La politique internationale est donc riche en sigles. En France, les sigles politiques les plus anciens encore en usage sont ceux du PRRRS (Parti républicain, radical et radical-socialiste, fondé en 1901) et du PCF (Parti communiste français, créé en 1920). Au , certains pays ont choisi de mettre en avant un nom-sigle pour marquer la division politique d'une entité nationale ou se distinguer d'un autre état du même nom (RDA, RFA, RPC, RDC...) ou exprimer une supranationalité (URSS, SDN, OTAN, ONU, CEE, OPEP, OUA, CEI). Pour les personnalités : initiales. Lorsque le nom d'une personne est abrégé par la première lettre de son nom et de son prénom, on parle d'initiales plutôt que de sigles. Des auteurs ont formé leur pseudonyme d'après leurs initiales : par exemple Pef (Pierre Élie Ferrier) ou Hergé (dérivé de R.G., soit G.R. à l'envers, pour Georges Remi). Cette pratique s'appelle l'initialisme. Par ailleurs, les initiales de certaines personnalités ont été si largement utilisées qu'elles permettent de les identifier clairement et sans ambiguïté. C'est par exemple le cas de Jésus-Christ, couramment abrégé en (par exemple : « »). Cas d'Adolf Hitler. Dans la symbolique nazie, Adolf Hitler est représenté par le nombre 18. En effet, celui-ci correspond à ses initiales AH, lorsqu'on remplace chacune des deux lettres par sa position dans l'alphabet. Depuis la chute du nazisme, pour les néonazis, c'est un signe de reconnaissance discret. Ainsi un groupe réputé très violent au Royaume-Uni s'appelle « Combat 18 ». |
Liste de sigles en économie Cet article contient la liste des sigles utilisés dans le domaine de l'économie. |
Seto est une ville située dans la préfecture d'Aichi, sur l'île de Honshū, au Japon. Toponymie. Le toponyme signifie « endroit où la rivière coule rapidement », cependant, bien qu'il y ait un cours d'eau à Seto, celle-ci ne coule que lentement. Géographie. Démographie. En 2010, la population de la ville de Seto était de répartis sur une superficie de . Histoire. La ville moderne de Seto a été fondée le . Culture locale et patrimoine. Seto est connue pour ses céramiques ; l'un des mots japonais pour « céramique » se dit . Le "Setomono matsuri" rend hommage à la production céramique de la ville. Transports. La ville est desservie par la ligne Seto de la compagnie Meitetsu et la ligne Aichi Loop de la compagnie Aichi Loop Railway. Jumelage. Seto est jumelée avec : |
Émoticône Une émoticône est une petite représentation graphique stylisée et symbolique d'une émotion, d'un état d'esprit, d'un ressenti, ou d'une ambiance, utilisée dans un message écrit et informatisé (courrier électronique ou texto). Cette figuration est née de la combinaison de plusieurs caractères typographiques, comme le smiley « :-) », mais le terme désigne aussi une petite image – pouvant être fixe ou animée – telle que « », et de manière générale une forme là où elle est possible. Elle permet de communiquer brièvement, à l'écrit, une information comparable à une expression faciale, au ton de la voix ou à une gestuelle à l'oral. L'émoticône ne doit pas être confondue avec l'art ASCII, ni avec les ornements et symboles typographiques appelés casseaux ("dingbat"). Étymologie. Scott Fahlman de l'Université Carnegie-Mellon est la première personne dont on ait conservé une trace datée des deux premiers émoticônes typographiques, le : « :-) » et « :-( » . Cette innovation typographique est, pour le visage au sourire, associée à un nom anglais : "smiley", à l'image du célèbre smiley de la WMCA de 1962 – un visage souriant dans un cercle jaune. Le mot homologue, le "frowney" (de l'anglais « frown », froncer les sourcils), dont la figure « :-( » était déjà présente à la fin du message de Fahlman, est inventé quasi-simultanément, le mot lui-même étant peu connu en France. Les émoticônes sont d'abord conçus uniquement pour accompagner l'en-tête des sujets afin de distinguer les sujets sérieux des sujets humoristiques, mais leur potentiel dépasse rapidement les intentions du créateur et on les retrouve presque instantanément à l'intérieur des textes pour dénoter une émotion. Faute d'un vocabulaire adéquat pour la nouvelle tendance, l'étiquette « smiley » est attribuée aux multiples variations qui voient le jour rapidement en dépit de l'étymologie (en anglais, "smile" signifiant « sourire ») qui ne correspondait qu'au premier. Les francophones reprennent rapidement tel quel le terme "smiley" même pour les figures montrant la tristesse. Ce n'est que plus tard, en 1990, qu'est proposé le terme « "emoticon" » en anglais (mot-valise entre émotion + icône) pour décrire convenablement le phénomène, puis en 1996 sa traduction littérale « "émoticône" » en français. La confusion des termes demeure énorme entre l'usage répandu de "smiley" et du néologisme "émoticône" et ce dans une grande proportion de langues de par le monde. À noter cependant que le terme « émoticône » s'affranchit des références au visage ou au sourire et permet ainsi d'exprimer une émotion avec d'autres représentations ; par exemple un cœur <3 ou une rose @}-'-,- . En admettant l'usage des deux termes, on peut alors dire que les smileys sont un type spécifique d'émoticônes. Historique. Antécédents. En 2014, Levi Stahl (travaillant à l'University of Chicago Press), prétend avoir trouvé la première émoticône dans un poème datant de 1648. En effet, il a trouvé dans une édition imprimée du poème "To Fortune", du poète anglais Robert Herrick, la suite de caractères . Toutefois, selon Benjamin Schmidt (chercheur en lettres numériques à l’Université de Northwestern), cette analyse serait une mauvaise interprétation d'une « série de ponctuations normale » pour l'époque, et fournit d'autres exemples du , notamment chez Francis Bacon, où des doubles points ou des points-virgules terminent une incise entre parenthèses. C'est le Belge d'origine française Marcellin Jobard, lithographe et inventeur, qui, dans un texte du journal le "Courrier Belge" du , utilise la première émoticône pour figurer l'ironie. Dans un rapport sur l'Exposition de 1839, publié en 1842 il explique son projet : "Des lacunes de la typographie". En , le "National Telegraphic Review and Operators Guide" a documenté l'utilisation du nombre 73 en code Morse pour dire « grosses bises » (plus tard transformé en l'expression « meilleures salutations », plus formelle). En 1908, Dodge's Manual a documenté la réintroduction de « grosses bises » sous forme du nombre 88. Gajadhar et Green notent que ces deux abréviations en code Morse sont plus succinctes que les abréviations modernes telles que LOL. Une transcription du "New York Times" d'un discours d'Abraham Lincoln écrit en 1862 contient « codice_1 » ; il y a débat sur le fait qu'il s'agisse d'une faute de frappe, d'une construction de ponctuation légitime ou d'une émoticône. Quatre émoticônes typographiques verticales ont été publiées en 1881 par le magazine satirique américain "Puck, "l'intention déclarée du service de typographie de cette publication étant de « présenter ... tous les dessinateurs ayant jamais existé ». En 1912, Ambrose Bierce propose « une amélioration de la ponctuation — le point de ricanement, ou marque de cachinnation : celui-ci s'écrit ‿ et représente une bouche souriante. Il doit terminer, avec un point, toute phrase facétieuse ou ironique ». Dans un article de 1936 tiré du Harvard Lampoon, Alan Gregg propose (-) pour le sourire, (--) pour le rire (plus de dents sont apparentes), (#) pour le froncement des sourcils, (*) pour le clin d'œil et (#) pour « un intérêt, une attention et une incrédulité intenses ». Notez que les symboles sont correctement orientés et ne sont pas obliques. Les émoticônes étaient déjà utilisées dans les fandoms de science-fiction des années 1940, bien qu'il semble y avoir eu une perte de continuité culturelle entre les communautés. En 1963, le « smiley face », un bouton jaune avec deux points noirs représentant les yeux et une ligne incurvée et épaisse, tournée vers le haut pour représenter une bouche, a été créée par l'artiste indépendant Harvey Ball. Il a été réalisé sur commande pour une grande compagnie d'assurance dans le cadre d'une campagne visant à renforcer le moral de ses employés et est rapidement devenu un grand succès. Ce smiley a vraisemblablement inspiré beaucoup d'émoticônes par la suite ; l'émoticône graphique la plus basique qui dépeint ceci est en fait un petit smiley jaune. Dans une interview du "New York Times" d', Alden Whitman a demandé à l'écrivain Vladimir Nabokov : « Comment vous situez-vous parmi les écrivains (vivants) et ceux du passé récent ? » Nabokov a répondu : « Je pense souvent qu'il devrait exister un signe typographique spécial pour exprimer un sourire - une sorte de marque concave, une parenthèse ronde couchée, que je puisse utiliser maintenant en réponse à votre question ». En 1971, un journaliste français, Franklin Loufrani, a créé un smiley pour représenter une bonne nouvelle dans le journal français France Soir. M. Loufrani fut le premier à déposer ce symbole, en 1972. Plus tard, en 1996, M. Loufrani fonda The Smiley Company avec son fils, Nicolas Loufrani. Nicolas a développé des centaines d'émoticônes différentes, y compris des versions 3D. Ses créations ont été enregistrées au United States Copyright Office en 1997, et sont apparues en ligne sous forme de fichiers .gif en 1998. Ce sont les premières représentations graphiques de l'émoticône à base de texte. Il a publié ses icônes aussi bien que les émoticônes créées par d'autres, avec leurs versions ASCII, dans un dictionnaire en ligne de smileys au début des années 2000. Ce dictionnaire incluait plus de 3000 smileys différents et a été publié au format livre, sous le titre Dico Smileys en 2002. The Smiley Company a déposé sa version du smiley dans plus de 100 pays. En 1997, The Smiley Company a déposé une demande auprès du Bureau américain des brevets et des marques de commerce (USPTO). En 2001, Walmart s'opposa à cet enregistrement, invoquant un risque de confusion entre le smiley de M. Loufrani et un smiley que Walmart utilisait depuis 1990. L'USPTO s'est finalement rangé du côté de Walmart et a rejeté la demande de The Smiley Company, en raison de l'utilisation généralisée de visages souriants. Cherchant à empêcher Walmart d'utiliser quelque dessin de visage souriant que ce soit, Nicolas Loufrani a ensuite poursuivi Walmart devant un tribunal fédéral en 2009, tout en affirmant que son visage souriant était « facile à distinguer » de celui de Walmart. L'affaire a été classée en 2011 lorsque les deux parties sont convenus de régler à l'amiable. Les modalités de cet accord n'ont pas été divulguées, mais Walmart a continué à utiliser son design de smiley par intermittence, avant de lui donner de nouveau un rôle de marketing important en 2016. À partir de 1972, sur le système PLATO, des émoticônes et d'autres graphismes décoratifs ont été produits en ASCII, notamment en surimpression : en tapant un caractère, puis en revenant en arrière et en tapant un autre caractère. Par exemple, WOBTAX et VICTORY ont tous deux produit des visages souriants convaincants (les caractères surimprimés produisaient le fond uni et les pixels touchés par aucun des caractères produisaient le dessin proprement dit). Ceci a finalement donné un ensemble sophistiqué, notamment en combinaison avec les exposants et les indices. Création de :-) et :-(. Scott Fahlman a été la première personne documentée à utiliser les émoticônes codice_2 et codice_3 dans le but spécifique d'exprimer des émotions. On croyait que le texte de sa proposition originale, posté sur le panneau d'affichage général du département d'informatique de l'université Carnegie Mellon le (à ), avait été perdu, mais il fut récupéré plus tard par Jeff Baird à partir de vieilles cassettes de sauvegarde. Cela dit, un message du précise qu'avant l'invention de Scott Fahlman, le symbole \__/ évoquant un sourire était déjà utilisé. Il est devenu rare aujourd'hui de voir des émoticônes sans yeux. David Touretzky, Guy Steele et Jaime Carbonell sont d'autres informaticiens de renom qui participèrent à ce fil de discussion. En quelques mois, il s'était propagé sur ARPANET et Usenet. Beaucoup de variations sur ce thème ont été immédiatement suggérées par Scott et d'autres personnes. Usage. L'usage des émoticônes est très variable d'un milieu à l'autre et en fonction du type de discours. Véhiculer une portion significative d'un message par l'expression d'une émotion est propice aux erreurs d'interprétation. L'impact de celles-ci est, par contre, amoindri d'autant que la réaction du destinataire est rapide et qu'une éventuelle précision peut être apportée rapidement. C'est le principal facteur qui explique le nombre élevé d'émoticônes dans les dialogues en ligne et forums et leur quasi-absence dans les communications qui s'approchent d'un monologue. L'usage est aussi largement tributaire du « vocabulaire » des différents participants. Celui-ci ira d'un timide sourire occasionnel pour certains à un éventail d'émoticônes régulières pour les habitués. L'utilisateur averti doit donc s'assurer qu'il est bien compris. Cette vérification se fait généralement de façon tacite par une utilisation progressive. Il n'est pas exclu que leur utilisation puisse parfois devenir inconsciente. L'usage des émoticônes est très utilisé pour signaler un ton ironique lors d'une remarque, afin que le destinataire ne croie pas à une réelle attaque verbale. L'émoticône remplace alors les expressions du visage et variations de la voix impossibles à retransmettre à l'écrit. Grammaire. Le caractère de l'émoticône la rapproche beaucoup de l'interjection. Employée sans morphème et sauf devant un déterminant ou un pronom, l'émoticône apporte une information sur l'émotion de l'auteur, mais toujours dans le contexte de la phrase. Par exemple dans « Tu es très heureux :-) ? », l'auteur n'est pas seulement content, mais bien content que « tu » sois heureux. Figure de style. Symbolisant directement les émotions, les émoticônes se prêtent facilement à certaines figures de style telles que l'ironie ou l'hyperbole. On pourra ainsi voir une personne feindre la détresse psychologique à l'annonce d'un départ de quelques jours ou manifester la joie lors d'un événement malheureux. La majorité de ces figures de style sont employées de façon triviale, mais d'autres peuvent être délibérément ambiguës. On peut employer le clin d'œil « ;) » ou la langue tirée (« :P » ou « :p ») pour lever de telles ambiguïtés, mais on peut aussi bien délibérément les omettre. Il existe aussi un mélange des deux cités précédemment : « ;p » qui est plutôt ironique, qui se moque de l'autre. Certains voient dans l'émoticône le contraire d'une figure de style : la figure vise, dans la phrase, un certain effet. Au contraire, l'émoticône est chargée de donner à la phrase une signification, une nuance, qu'elle n'avait pas. Ponctuation. On emploie souvent l'émoticône à la fin de la phrase, cependant elle n'est pas selon l'Académie Française un signe de ponctuation mais s'y substitue de fait. On peut aussi utiliser une émoticône (par exemple :-P) au beau milieu de la phrase sans mettre fin à celle-ci. Elle marque donc, théoriquement, l'instant précis où l'émotion est ressentie. La croyance qu'il s'agirait d'une ponctuation vient des messageries instantanées où il est coutume d'omettre le « . » à la fin d'une réplique. Mais parce qu'ils sont eux-mêmes constitués de signes de ponctuation (quand ils ne sont pas remplacés par des images), l'utilisation d'émoticônes immédiatement avant un signe de ponctuation obligatoire pour des raisons grammaticales est un problème irrésolu. Il est en effet possible de faire ceci : « (chouette ! ;) » ou cela « (chouette ! ;)) » ; certaines personnes considérant que l'émoticône peut dans ce cas, servir de parenthèse fermante. Le webcomic xkcd traite du sujet, en exagérant volontairement son importance. La solution la plus lisible est d'ajouter une espace entre l'émoticône et le signe de ponctuation, quels qu'ils soient (voici un cas évident :-) ). Les émojis se sont imposés là où d'autres signes de ponctuation, plus anciens, sont restés infructueux. C'est le cas, par exemple, du point d'ironie ⸮ et du point exclarrogatif ‽. De la même manière, l'émoji (🙃), qui dénote le sarcasme, entre en concurrence avec les expressions post-ponctuation (codice_4) ou (~). Morphèmes. Quoique rare, il est possible de voir un suffixe ajouté à l'émoticône créant ainsi un tout autre mot (verbe, nom, adjectif, adverbe, etc.).<br>Exemple : <3able (adorable, aimable) ou :-zz z z ZZ (je m'ennuie) ou encore (-.-)Zzz... (je dors, émoticône de face). Variations culturelles. Style japonais (« "kaomoji" »). Les utilisateurs du Japon ont popularisé un style d'émoticônes appelé , voulant dire « face en caractères » (顔/"kao" : face/visage, 文字/"moji" : caractère/lettre), qui représente un visage de face là où les émoticônes occidentales représentent le visage de profil. Ce style est apparu sur ASCII NET, un service japonais en ligne de la première heure, en 1986. Des émoticônes d'aspect similaire ont été utilisées sur le Byte Information Exchange (BIX) à peu près au même moment. Ces émoticônes ont généralement un format semblable à codice_5. Les astérisques indiquent les yeux ; le caractère central, un trait de soulignement en règle générale, la bouche ; et les parenthèses, le contour du visage. Différentes émotions peuvent être exprimées en changeant le caractère représentant les yeux : par exemple, « T » peut être utilisé pour exprimer des pleurs ou la tristesse : codice_6. codice_7 peut également être utilisé pour signifier « pas impressionné ». L'accent mis sur les yeux dans ce style se voit dans l'utilisation courante d'émoticônes qui n'utilisent que les yeux, par exemple codice_8. Les regards dénotant le stress sont représentés par des signes comme codice_9, tandis que codice_10 est une émoticône générique pour la nervosité, le point-virgule représentant une goutte de sueur induite par l'anxiété (voir plus loin). codice_11 peut indiquer l'embarras en symbolisant le rougissement. Des caractères tels que des traits d'union ou des points peuvent remplacer le trait de soulignement ; le point est souvent utilisé pour une bouche plus petite, plus « mignonne », ou pour représenter un nez, par ex. codice_12. De même, « w » ou la lettre oméga minuscule grecque « ω » peuvent être utilisés (notamment dans la communauté furry) pour représenter la bouche d'un animal comme dans codice_13, ou codice_14. Ces kaomojis sont en général utilisés pour exprimer divers sentiments chaleureux, heureux ou affectueux. Une émoticône très proche est codice_15, ou codice_16, qui peut plus spécifiquement montrer la surprise et l'excitation. Enfin, la bouche/le nez peut être entièrement omis(e), par exemple codice_17. Les parenthèses sont parfois remplacées par des accolades ou des crochets, par ex. codice_18 ou codice_19. Souvent, les parenthèses sont complètement supprimées, par ex. codice_20, codice_21 , codice_22, codice_23, codice_24 ou codice_25. Des guillemets droits codice_26, une apostrophe codice_27 ou un point-virgule codice_28 peuvent être ajoutés à l'émoticône pour impliquer l'appréhension ou l'embarras, de la même manière qu'une goutte de sueur est utilisée dans les mangas et les animes. Microsoft IME 2000 (japonais) ou version ultérieure prend en charge l'entrée d'émoticônes comme celles ci-dessus en activant le dictionnaire Microsoft IME « Spoken Language/Emotion Dictionary ». Dans IME 2007, cette prise en charge a été placée dans le dictionnaire « Emoticons ». De tels dictionnaires permettent aux utilisateurs d'appeler des émoticônes en tapant des mots qui les représentent. Un logiciel de communication permettant l'utilisation de caractères japonais codés Shift JIS plutôt que simplement ASCII a permis le développement de nouveaux kaomojis en utilisant le jeu de caractères étendu, comme codice_29 ou codice_30. Un logiciel de communication moderne utilise généralement Unicode, qui permet l'incorporation de caractères d'autres langues (par exemple, l'alphabet cyrillique) et toute une gamme de symboles dans les kaomojis, comme codice_31ou codice_32. D'autres variations peuvent être produites en utilisant des combinaisons de caractères Unicode, comme dans codice_33 ou codice_34. Utilisation occidentale du style japonais. Les forums d"anime" de langue anglaise ont adopté ces émoticônes de style japonais qui peuvent être utilisées avec les caractères ASCII standard disponibles sur les claviers occidentaux. Pour cette raison, on les qualifie souvent d'émoticônes « de style anime » en anglais. Elles sont désormais utilisées dans des lieux plus conventionnels, notamment les jeux en ligne, la messagerie instantanée et les forums de discussion non liés aux animes. Des émoticônes telles que codice_35, codice_36, codice_37, codice_38, codice_39 ou codice_40, qui comportent des parenthèses, une bouche ou un nez et des bras (en particulier ceux représentés par les signes d'inégalité < ou >), sont aussi souvent appelées « Kirby » en référence à leur ressemblance au personnage de jeu vidéo Kirby de Nintendo. Les parenthèses sont parfois supprimées lorsqu'elles sont utilisées dans un contexte anglophone, et le trait de soulignement de la bouche peut être étendu en tant qu'intensificateur de l'émoticône en question, par exemple codice_41 pour signifier « très heureux ». L'émoticône codice_42 utilise le style oriental, mais incorpore une représentation du « doigt d'honneur » occidental en utilisant un « t » en guise de bras, main et doigt. Une autre invention apparemment occidentale est l'utilisation d'émoticônes comme codice_43 ou codice_44 pour indiquer des vampires ou d'autres bêtes mythiques avec des crocs. Mélange de style occidental et japonais. L'exposition à des émoticônes de style occidental et japonais ou à des "kaomoji" à travers des blogs, des messages instantanés et des forums mêlant la culture pop occidentale et japonaise a donné naissance à de nombreuses émoticônes qui ont un format de visionnement vertical. Les parenthèses sont souvent supprimées et ces émoticônes n'utilisent généralement que des caractères alphanumériques et les signes de ponctuation les plus couramment utilisés en anglais. Des émoticônes telles que codice_45, codice_46,codice_47, codice_48, codice_49, codice_50, codice_51, codice_52 et codice_53 sont utilisées pour transmettre des émotions mitigées qui sont plus difficiles à transmettre avec les émoticônes traditionnelles. Des caractères sont parfois ajoutés aux émoticônes pour transmettre une goutte de sueur de style anime ou manga, par exemple codice_54, codice_55, codice_56, codice_57 et codice_58. Le signe égal peut également être utilisé pour symboliser des yeux fermés, de type anime, comme dans codice_59, codice_60, codice_61, codice_62 et codice_63. Au Brésil, des caractères combinés (accentués) sont parfois ajoutés aux émoticônes pour représenter les sourcils, comme dans codice_64, codice_65, codice_66, codice_67 ou codice_68. Style 2channel. Les utilisateurs du forum de discussion japonais 2channel, en particulier, ont développé une grande variété d'émoticônes uniques en utilisant des caractères de différentes langues, telles que le "kannada", comme dans codice_69 (pour représenter un regard désapprobateur, incrédule ou confus). Ceux-ci ont été rapidement repris par 4chan et se sont propagés à d'autres sites occidentaux peu de temps après. Certains ont réellement pris vie et deviennent des caractères à part entière, comme Monā. Style coréen. En Corée du Sud, les émoticônes utilisent des lettres coréennes hangul et le style occidental est rarement utilisé. La structure des émoticônes coréennes et japonaises est quelque peu similaire, mais quelques différences sont à noter. Le style coréen contient des jamos coréens (lettres) plutôt que d'autres caractères. Il y a un nombre incalculable d'émoticônes qui peuvent être formées avec de telles combinaisons de lettres jamo coréennes. Jamos consonnes : ㅅ ou ㅁ ou ㅂ en guise de composant bouche-nez et ㅇ,ㅎ ou ㅍ pour les yeux. Par exemple : codice_70, codice_71, codice_72 et codice_73. Les visages tels que codice_74, codice_75, codice_76 et codice_77, avec des guillemets droits (") et des apostrophes ('), sont aussi des combinaisons couramment utilisées. Les jamos voyelles tels que ㅜ et ㅠ représentent un visage en pleurs. Exemple : codice_78, codice_79 et codice_80 (même fonction que le T dans le style occidental). Parfois, ㅡ (non pas le tiret cadratin « — » mais un jamo voyelle), une virgule ou un tiret bas est ajouté, et les deux jeux de caractères peuvent être mélangés, comme dans codice_81, codice_82, codice_83, codice_84, codice_85 et codice_86. En outre, les points-virgules et les carets sont couramment utilisés dans les émoticônes coréennes ; les points-virgules signifient la transpiration (mine embarrassée). S'ils sont utilisés avec ㅡ ou -, ils représentent un mauvais sentiment. Exemples : codice_87, codice_88, codice_89, codice_90 et codice_91. Cependant, codice_20, codice_93 équivaut à un sourire (presque tout le monde l'utilise, sans distinction de sexe ou d'âge). Autres exemples : codice_94, codice_95, codice_96, codice_97. Style idéographique chinois. Le caractère 囧 (U+56E7), qui signifie « brillant », est également utilisé dans la communauté informatique chinoise pour représenter un visage aux sourcils froncés. Il est également combiné avec l'émoticône de posture Orz, comme dans 囧rz. Ce caractère existait en écriture ossécaille, mais son utilisation en tant qu'émoticône a été documentée dès le . D'autres variantes idéographiques pour 囧 comprennent 崮 (roi 囧), 莔 (reine 囧), 商 (囧 avec un chapeau), 囧興 (tortue), 卣 (Bomberman). Le caractère 槑 (U+69D1), qui se prononce comme le mot signifiant « prune » (梅 (U+FA44)), est utilisé pour représenter le double de 呆 (ennuyeux), ou d'autres degrés d'ennui.[41] En chinois, les caractères normalement pleins (par opposition à l'utilisation stylistique de 槑) peuvent être répétés pour exprimer l'intensité. Style russe. En Russie, les émoticônes de style occidental sont utilisées. Cependant une variation existe sur le fait que plusieurs parenthèses peuvent être utilisées pour représenter la bouche. Par exemple un smiley codice_98 étant plus fort que l'expression codice_99 sera représentée dans la culture russe par une émoticône codice_100 voire codice_101. Cela fonctionne aussi pour les expressions tristes : codice_102. Plus le nombre de parenthèses est important plus l'expression est forte. Ce principe existe parfois en n'utilisant que les parenthèses : codice_103. Personnages dans les émoticônes. Émoticône Kirby. Kirby, personnage de jeu vidéo Nintendo et de a plusieurs émoticônes le représentant se déplaçant à gauche ou à droite : <('-'<), dansant : (>' . ')> <(' . ')> <(' . '<), s'embrassant : (>*-*)> <(*-*<) boxant : c(-_-c). Émoticône Tuzki. Tuzki, lapin blanc de fiction chinois, a été popularisé par son usage sous forme d'émoticônes, souvent animées, utilisées dans les logiciels de messagerie instantanée. Émoticônes graphiques. Du fait de la popularité croissante des émoticônes, la plupart des messageries Web, clients courriels ou logiciels de messagerie instantanée proposent l'insertion d'émoticônes au format graphique et non textuel, voire le remplacement automatique des émoticônes textuelles par leur équivalent graphique, s'il existe, telles les emoji, émoticônes japonaises qui représentent des pictogrammes plus élaborés. Ces équivalents ne sont pas tournés de 90° vers la gauche, et sont, le plus souvent, plus riches au niveau des détails, car non soumis aux contraintes des caractères ASCII, voire animés, sous la forme d'images au format GIF. Les émoticônes graphiques se sont développées après le grand succès qu'elles ont connu aux États-Unis. Par la suite, de nombreux sites Internet ont su introduire des émoticônes en les modifiant pour en faire des émoticônes graphiques. Les émoticônes ont eu un grand succès sur la toile, car elles permettent aux utilisateurs de s'exprimer plus facilement et d'une manière plutôt originale. Elles ont l'avantage de créer un langage universel car non basé sur la langue. Scott Fahlman, déplorerait le remplacement systématique des émoticônes par des smileys dans les systèmes de messageries modernes. Si elles agrémentent les textes de jolies couleurs et rendent leur signification plus évidente, il est aussi vrai qu'ils contraignent les utilisateurs à une syntaxe particulière. Remplacement « :AAA: ». La grande majorité des développeurs de forums ont adopté comme convention d'encadrer les mots à remplacer par une émoticône graphique par des deux-points (« :lol: » ou encore « :lol »). Les administrateurs des forums peuvent alors créer de nouveaux mots et de nouvelles images sans risque de voir la substitution se produire au beau milieu d'une phrase. On voit donc parfois apparaître dans les textes où la substitution n'est pas exécutée des chaînes de caractères telles que « :lol: », « :triste: », (d'où quelques graphies savantes pour les abréviations les plus connues). Certains se permettent d'écrire ce genre de « mots » là où ils savent parfaitement qu'ils ne seront jamais substitués, d'autres en inventent littéralement des nouveaux. Le plus simple est donc de considérer tout mot encadré de la sorte comme une émoticône exprimant l'émotion liée au mot. Liste des émoticônes typographiques. ! scope=col | Style occidental ! scope=col | Description ! scope=col | Style nippon |
Souris (informatique) Une souris est un dispositif de pointage pour ordinateur. Elle est composée d'un petit boîtier fait pour tenir sous la main, sur lequel se trouvent un ou plusieurs boutons, et une molette dans la plupart des cas. La souris a été inventée en 1963 par Douglas Engelbart du Stanford Research Institute et présentée au public en 1968. Pendant de nombreuses années les souris informatiques ne communiquaient avec l'ordinateur que par l'intermédiaire d'un fil, ce qui les faisait ressembler à des souris domestiques. Depuis, des modèles dont les communications avec l'ordinateur se font par ondes radio ou par liaisons infra-rouge sont courants. Les dernières générations de souris offrent maintenant de liberté (avec une coque pivotante) afin de naviguer plus intuitivement dans les environnements logiciels 3D (conception, médical...). Historique. La souris a été inventée en 1963, à partir d'un prototype en bois, et présentée au public en 1968 par Douglas Engelbart du Stanford Research Institute après des tests d'utilisation basés sur le trackball. Le premier ordinateur moderne à utiliser une souris fut le Xerox Alto, en 1973. Il utilisa successivement une souris à boules, puis une souris optique. Elle a été améliorée par Jean-Daniel Nicoud à l'EPFL dès 1979 grâce à l'adjonction d'une boule et de capteurs ; il fabriqua la souris "Depraz" qui fut à l'origine de l'entreprise Logitech. Pendant plusieurs décennies, les souris étaient des trackballs inversées. La friction de la boule contre la table permettait le mouvement du pointeur sur l'écran. Le système mécanique à boule avait tendance à ramasser la poussière de la surface horizontale et à encrasser les rouleaux capteurs, ce qui exigeait un nettoyage interne régulier. L'absence de cet inconvénient dans les souris à capteur optique a expliqué leur succès et la disparition des souris à boule. Les premières souris à capteur optique nécessitaient un tapis de souris spécial quadrillé. Depuis 2000, ces dernières ont été progressivement remplacées par des souris optiques ne nécessitant plus ce tapis spécifique. Utilisation. Pointage absolu et relatif. De nombreux systèmes ont été imaginés pour déterminer les actions qui seront effectuées à l'écran : crayon optique, écran tactile, boule, joystick, tablette tactile, molettes diverses, tablette graphique, "". Alors que certains d'entre eux donnent un pointage "absolu" (les écrans tactiles, par exemple), la souris "détecte un déplacement". Celui-ci, par sommation, fournit donc une position "relative" : par exemple, un mouvement de la souris vers la droite provoque un mouvement du pointeur à l'écran vers la droite, indépendamment de la position absolue de la souris sur le plan de travail. Si le pointeur se trouve déjà à droite de l'écran, un mouvement de la souris vers la droite n'aura aucun effet (l'environnement graphique veille en effet à ce que le pointeur ne puisse apparaître que dans des zones autorisées). La souris ne permettait au départ de fournir que deux informations de position (x et y). Ce dispositif ne convenait donc pas pour un déplacement spatial de précision exigeant trois coordonnées (x, y et z) quand ce n'était pas six (en y ajoutant les trois angles d'attaque). D'autres dispositifs, plus onéreux ("ring", "bat") ont été créés à cet effet. L'ajout d'une molette à la souris a cependant permis d'ajouter dans une certaine mesure cette troisième dimension qui lui manquait. Des outils de pointage plus récents et plus abordables complètent la souris au lieu de chercher à la concurrencer. Tenue en main. Une souris se tient le corps dans la paume, les boutons sous les doigts (le fil, s'il y en a un, étant à l'opposé de l'utilisateur). Pour la tenue de la souris de la main gauche, l'index se situe sur le clic droit, le majeur sur le bouton molette centrale et l'annulaire sur le clic gauche. Le pouce et l'auriculaire se placent de chaque côté de la souris. Le mouvement sur la table est reproduit à l'écran. Il est bien de poser les coudes sur les accoudoirs afin de reposer les muscles. L'avant du bras et la main sont alignés et le poignet est non cassé. Certains spécialistes conseillent de tenir la souris de la main gauche car la tension musculaire est plus faible de plus cela libère la main droite pour taper sur le clavier numérique. Quoique les claviers soient loin de tous avoir un pavé numérique (par exemple début 2009, Apple vend des claviers avec ou sans, et exclusivement sans pour les sans-fil), ce qui est le cas de certains ordinateurs portables. Il existe des pavés numériques externes qui peuvent être placés à gauche ou à droite du clavier alphabétique en fonction des préférences de placement de la souris. Support. Il est utile d'avoir un support bien homogène afin que la souris glisse facilement et régulièrement. On nomme ce support un tapis de souris, il peut être en papier, plastique, tissu Des plaques de déplacement pour souris, faisant office de « tapis » rigides, furent fournies en standard avec les premières souris optiques au milieu des années 1980, ainsi avec la souris (optionnelle) « 5277 » de l'écran IBM 3179-G pour mainframe : elles étaient métalliques, vernies, et pourvues de cannelures noires permettant à l'électronique de l'époque de suivre le mouvement de la souris. Le verre et les surfaces brillantes ou trop sombres ne sont pas recommandés pour les souris optiques. Si le pointeur à l'écran ne reproduit pas les mouvements de la souris, il est recommandé de placer une feuille rigide de papier clair sous la souris afin de réfléchir les rayons lumineux. Souris symétriques et asymétriques. Les interfaces graphiques modernes (Windows, Gnome, KDE) permettent aux gauchers d'inverser les boutons s'ils le désirent : le bouton droit devient le bouton principal, tandis que le bouton gauche devient le bouton accessoire. Il faut toutefois pondérer cet éventuel confort par la perte de généralité de l'interface, qui peut déstabiliser les quelques fois où on travaille sur un autre poste de travail que le sien. Quelques droitiers tiennent leur souris de la main gauche, ce qui est censé provoquer moins de troubles musculo-squelettiques. Certaines souris sont symétriques (dont celle d'Apple depuis 1984), se prêtant facilement à l'inversion des boutons (accessible dans la configuration du système), d'autres sont asymétriques, et les gauchers doivent veiller à choisir des souris inverses de celles des droitiers. Les documentations mentionnant historiquement des boutons "gauche" et "droit", il revient aux gauchers qui ont inversé les leurs d'inverser aussi ces termes. Souris et handicap. Utilisation par les personnes déficientes. Certaines souris à retour de force sont conçues pour donner une sensation de résistance ou de dureté : Ces souris permettent un usage plus commode par des personnes ayant des problèmes de vue. Un paramètre du pilote aujourd'hui répandu permet de simuler le clic ou le double-clic au moyen de mouvements saccadés particuliers. Source de handicap. La souris est un accessoire peu dangereux quand le poste de travail est correctement configuré (bras de l'utilisateur à l'horizontale et surtout pas montant, même très légèrement). Comme tout ustensile utilisé intensivement, elle peut provoquer des lésions, en l'occurrence des tendinites. On peut en atténuer le risque en alternant l'usage de la main droite et de la main gauche, ce qui demande cependant un entraînement. Les activités professionnelles exigeant un usage permanent de la souris peuvent induire le syndrome du canal carpien, voire la formation de callosités, ou de capsulite rétractile de l'épaule, et même des déformations de la main et du poignet. Les constructeurs essaient avec plus ou moins de succès des formes de souris plus ergonomiques, existant en version droitier et gaucher. Selon des chercheurs néerlandais, l'ensemble main/bras ou cou/épaule est affecté de manière proportionnelle au nombre d'heures passées en utilisant la souris, avec un risque plus important pour le bras et la main que pour la région cou/épaule. La souris aurait par ailleurs plus d'impacts négatifs sur la santé que l'utilisation de l'ordinateur sans souris, ou que le seul clavier sans souris. Connecteurs de souris. Avec fil. Les premières souris Macintosh avaient leur propre connecteur ; elles utilisèrent ensuite l'ADB (). Les premières souris pour PC utilisaient soit un connecteur sur un port spécifique (VisiCorp), soit un port série (ou port RS-232) ; à partir d', celui-ci commença à être remplacé par le port PS/2. Par la suite ce port a été coloré en vert pour la souris et en violet pour le clavier. Depuis 1998, les souris pour Mac et PC sous Windows ou Linux utilisent essentiellement le port USB ; ce type de connexion devient depuis le standard pour toutes les souris à câble. Sous Unix, et particulièrement sous les systèmes X-Window, il est parfois nécessaire d'indiquer le périphérique et son protocole au fichier de configuration du serveur X. Ainsi, pour une souris USB, on indiquera le périphérique /dev/input/mice ; pour une souris PS/2 /dev/psaux ; et pour une souris Série /dev/tty0 à tty4 suivant le port. Sans fil. Les technologies actuelles permettent de s'affranchir d'une connexion physique entre la souris et l'ordinateur, en passant par une liaison infra-rouge ou radio. Un boîtier est relié au port classique destiné à la souris et transforme les signaux reçus par le capteur infra-rouge ou radio en signaux compréhensibles par le protocole standard de la souris. La technologie radio offre l'avantage de passer par-dessus les obstacles, par rapport aux infra-rouges. On utilise un système de canaux radio pour ne pas mélanger les signaux de différents appareils. L'avenir semble à la technologie Bluetooth, standardisée pour tout type de périphérique, qui évite la profusion d'émetteurs/récepteurs et malgré les problèmes liés à la source d'énergie. La plupart des souris sans fils sont alimentées soit par des piles, soit par une batterie/accumulateurs (souvent appelés « piles rechargeables »), qui se rechargent lorsqu'on pose la souris sur son réceptacle. Les souris sans fil peuvent avoir un temps de réponse plus long que les souris filaires, selon la technologie employée. On parle aussi de latence ou de « lag » dans le jargon des joueurs. Sans fil et avec pile. Le gros inconvénient des souris sans fil est la nécessité de les alimenter en énergie, ce qui conduit à remplacer régulièrement les piles ou à les recharger. Il existe des souris magnétiques, qui nécessitent un tapis spécial relié au port USB la souris est donc rechargée par le tapis. Le tapis est chargé de détecter les mouvements de la souris et les transmet à l'ordinateur. Les tablettes graphiques peuvent aussi utiliser une souris à la place du stylet, mais la zone de détection reste limitée à celle du tapis ou de la tablette. Boutons et leur utilisation. Le geste du doigt sur les boutons droit et gauche d'une souris, appelé un « clic de souris » s'effectue en deux phases: l'appui, effectué par un léger effort du doigt, et la relâche, pendant laquelle le doigt cesse d'appuyer et un ressort accompagne le retour du bouton vers sa position de repos. Un son distinctif nommé « clic » accompagne chacune des deux phases du geste ; un « clic de souris » (le geste) fait donc entendre deux « clics » (sons). Certains clics s'effectuent sans déplacement de la souris ; d'autres actions exigent un déplacement de la souris pendant que le bouton est enfoncé. Dans tous les cas, le fait de relâcher le bouton envoie à l'ordinateur un signal qui termine l'action en cours. La succession rapide de clics, « double-clic » ou « triple-clic », est un raccourci utilisé dans les interfaces graphiques. Les souris standard pour PC ont aujourd'hui une molette en plus de leurs deux boutons ; la molette (un bouton spécial) qui peut aussi bien être tournée (molettes mécaniques) que pressée (", donnant respectivement un et deux degrés de liberté aux souris correspondantes) s'est répandue. Les souris avec plus de deux boutons (voire deux molettes) remplissent différentes fonctions assignées à chacun par les applications, le pilote ou le système d'exploitation. Par exemple, un utilisateur du bureau Windows, GNOME ou KDE utilisera le bouton de gauche dans le navigateur web pour suivre les liens, alors que celui de droite fera apparaître un menu contextuel permettant à l'utilisateur de copier des images ou un lien, d'imprimer . Pour obtenir le menu contextuel, ouvert par le bouton droit sur les PC, il faut maintenir la touche « Contrôle » appuyée pendant le clic. Néanmoins, en , Apple a sorti une souris à quatre boutons (droite, gauche, un " à la place d'une molette et un double-bouton latéral). En pratique, tous les Mac reconnaissent d'emblée n'importe quelle souris USB à deux boutons. Dans le monde UNIX ou Linux (plus généralement utilisant X Window System), le troisième bouton est traditionnellement utilisé pour la fonction de collage : un simple balayage d'une zone de texte avec le bouton gauche enfoncé « copie » du texte, un clic sur le bouton central le « colle ». Du fait que le troisième bouton est quasiment standard sous Unix, on lui a attribué de nombreuses autres fonctions dans les bureaux graphiques évolués : un clic central sur de nombreux éléments du bureau ou des fenêtres donne un accès facile à de nombreuses fonctions. Sous la plupart des navigateurs web récents, un clic central sur un lien ouvre la page dans un nouvel onglet, un clic central sur un onglet ferme celui-ci. Pour les souris qui n'ont que deux boutons, il est possible de simuler un troisième bouton par appui simultané sur les deux boutons. Pour la plupart des souris actuelles, le troisième bouton se présente sous la forme d'une molette cliquable permettant de faire défiler les pages sans déplacer la souris. On trouve facilement des souris ayant les deux boutons classique, une molette que l'on peut cliquer (soit déjà 5 actions possibles, que l'on appelle 5 boutons), plus encore deux boutons « précédent » et « suivant ». Ces deux derniers boutons servent par exemple à consulter la page précédente ou suivante dans un navigateur web ou un explorateur de fichiers. Ils sont parfois intégrés à la molette, qui peut basculer à droite et à gauche. Ce principe introduit par Apple (Mighty Mouse) pour Mac OS X a été reproduit par de nombreux fabricants (comme le méconnu Bazoo ou Trust) . Il est possible d'appliquer des actions à effectuer comme ouvrir des applications lorsque l'on clique sur un bouton. Il existe également des souris ayant une multitude de boutons (une quinzaine par exemple). Ce genre de souris reste toutefois réservée au contrôle de certains jeux ou logiciels spécialisés, permettant d'accéder aux différentes fonctions depuis la souris. Entretien. Les souris sans boule demandent peu d'entretien. Les modèles à boule doivent être fréquemment démontés, car de la poussière se met sur les rouleaux, gênant leur rotation. Cela se fait facilement à la main, mais il peut être nécessaire, dans les cas d'encrassement sévère, de recourir pour cette opération à un accessoire de nettoyage, tel qu'un coton-tige légèrement humide. Dans tous les cas, il est important de ne pas laisser tomber de saletés à l'intérieur du boitier de la souris, augmentant ainsi le risque de problèmes futurs. De la saleté peut également se déposer sur les patin glisseurs, causant ainsi des problèmes de déplacements gênant les mouvements de la souris. Les patins en Téflon, sont fréquemment utilisés pour minimiser ce problème de frottement. Les phénomènes d'encrassement sont diminués par les tapis en tissu, ou par une forme spéciale des rouleaux. Les rouleaux ont la fine zone directement en contact avec la boule d'un diamètre un peu plus grand que le reste du rouleau. La poussière se dépose donc autour de cette zone, lorsque le mouvement de la boule le permet. Le déplacement dans un axe de la souris nettoie le rouleau détectant le mouvement perpendiculaire. Par précaution, un nettoyage périodique de celui-ci est toujours le bienvenu pour limiter l'encrassement des organes mécaniques de la souris. Il peut aussi arriver que la molette d'une souris s'encrasse. La poussière s'introduit progressivement sur la roue codeuse chargée de détecter la rotation. Dans ce cas, un démontage plus profond de la souris est nécessaire. Extensions du modèle de la souris. L'usage d'applications en OpenGL qui demandent six degrés de liberté au lieu de trois conduisent à rechercher des dispositifs de pointage permettant de rentrer de façon analogique six informations simultanées (trois de position et trois d'orientation) : "Spaceball", "The bat", "anneau radio orientable" porté au doigt Certains dispositifs s'ajoutent à la souris au lieu de la concurrencer. Par exemple le "3D SpaceNavigator", qui procure six degrés de liberté, s'utilise avec la main gauche tandis que la souris à molette continue à fournir trois degrés de liberté à la main droite. Des logiciels comme Google Earth ou Google Sketchup supportent en standard ce dispositif, mais leur utilisation première se destine aux logiciels de CAO 3D, tels que CATIA ou ProEngineer. D'autres dispositifs de navigation en 3D sont maintenant directement intégrés dans la souris, ce qui permet de ne pas mobiliser la seconde main. Par exemple la Lexip-3D, conçue par la société française E-Concept et qui a reçu la médaille d'or au concours Lépine européen 2014. Représentation graphique : le pointeur. Le pointeur de la souris est un graphisme (ou ) sur l'écran. Lorsque l'utilisateur déplace la souris, le pointeur se déplace. Sa représentation dépend des opérations offertes à l'utilisateur. Son apparence de base est une flèche. Il prend l'apparence de la capitale I lorsqu'il permet de sélectionner du texte. Sous Windows, il prend l'apparence d'une montre ou d'un sablier lorsqu'il faut attendre la fin d'une opération de l'ordinateur. Après avoir déplacé le pointeur sur un élément (caractère, mot, bouton, image…) affiché à l'écran, l'utilisateur peut ensuite le sélectionner d'un clic. Enfin, lors d'un redimensionnement, elle prend la forme d'une double flèche verticale, horizontale, les deux à la fois ou diagonale selon le sens du redimensionnement. Mesure des mouvements de la souris. Plusieurs technologies sont ou ont été utilisées pour mesurer les mouvements de la souris. Technologie mécanique. La souris contient une boule en contact avec le support où elle est utilisée. Deux rouleaux perpendiculaires entre eux actionnés par cette boule permettent de capter les déplacements de la souris sur le sol. Un troisième rouleau permet de stabiliser la boule. Les rouleaux sont solidaires d'un axe au bout duquel se trouve un disque perforé laissant passer la lumière d'une diode électroluminescente ou au contraire la bloquant. Une cellule photoélectrique recevant cette lumière fournit quand la souris se déplace un signal alternatif, grossièrement formula_1, de fréquence proportionnelle à la vitesse. À l'aide d'un trigger de Schmitt, on peut obtenir un signal en créneaux, chaque impulsion créneau correspondant à une perforation, et on peut calculer la vitesse de déplacement de la souris selon chaque axe. La résolution de la direction du déplacement (gauche-droite vs droite-gauche) se fait en utilisant deux cellules de réception décalées d'une demi perforation. Après conversion en signal en créneaux binaires (0 = pas de lumière, 1 = lumière), les booléens fournis par le couple de cellule prennent forcément la suite de valeurs (0, 0), (0, 1), (1, 1), (1, 0) dans cet ordre ou dans l'ordre inverse ; l'ordre indique la direction du déplacement. En effet, le placement décalé des deux cellules fait que l'on ne peut jamais passer directement d'un état où les deux sont éclairées à un état où les deux ne sont pas éclairées, ou vice-versa ; en d'autres termes, lorsque la souris se déplace, un seul des deux signaux booléens peut varier à la fois (Code Gray sur deux bits). On obtient ainsi une résolution de ½ perforation. Pour obtenir une position absolue sur l'écran, la solution la plus immédiate est de totaliser les impulsions (déplacement relatif de ±1 en abscisse ou en ordonnée) ; ceci est généralement fait par logiciel. Certains systèmes permettent des manipulations plus complexes, comme un comportement non-linéaire vis-à-vis de l'accélération, censé faciliter la traversée de grandes zones d'écran par la souris sans fatigue de la main de l'utilisateur, les mouvements rapides (et peu précis) étant amplifiés plus que les mouvements lents. Les premières souris comportaient des cylindres à la place de la boule. Cela rendait la souris moins précise car les déplacements horizontaux et verticaux s'effectuaient moins facilement quand ils étaient associés lors d'un déplacement oblique. Le principal inconvénient de la souris mécanique est le dépôt de poussières qui s'accumulent sur les rouleaux, modifiant aléatoirement le transfert des mouvements de la boule aux rouleaux. En raison de ce phénomène, la plaque trouée supportant la boule dans la partie inférieure de la souris est démontable, permettant à l'utilisateur de nettoyer les rouleaux. Un chiffon imbibé d'eau savonneuse y suffit pour la boule, des bâtonnets à bout de coton du commerce sont en général nécessaires pour les rouleaux. Technologies optiques. Il existe différents types de souris : Performances. Les performances d'une souris dépendent du rapport du nombre de mesures effectuées par la souris sur la distance parcourue par celle-ci, le DPI (en anglais « » signifiant « Points par Pouce »). Un nombre élevé de DPI permet une précision accrue lors du déplacement du pointeur, pour un usage bureautique ainsi que pour la plupart des utilisations, une précision d'environ suffit ; des souris avec des performances plus élevées (de ) sont surtout utilisé pour les jeux. Gadgets. Certaines souris disposent d'un ventilateur au centre avec un bouton sur un côté pour l'activer ou l'éteindre. Certains ont introduit des souris « sensibles » : au passage d'un objet (lien hypertexte, bouton, changement de fenêtre…) la souris vibre légèrement, donnant une impression de relief. Souris scanner. Il existe des modèles de souris équipées d'un scanner permettant de numériser des documents (texte ou image). Cela peut par exemple être utile pour les enfants dyspraxiques, ces modèles étant suffisamment légers pour être transportés dans un sac d'école. Souris gamer. La souris , ou « souris de jeu vidéo », est une variante de la souris informatique conçue pour les jeux vidéo sur ordinateur. Elle prend principalement l'aspect d'une souris classique équipée de plusieurs boutons supplémentaires notamment dédiés à réaliser des actions spécifiques en cours de jeu. La souris gamer est en principe destinée à un PC gamer, un ordinateur conçu pour le jeu vidéo. Toutefois, il est possible également de l'utiliser sur un ordinateur ordinaire, dans la mesure où celui-ci est compatible avec la souris. Il existe différents types de souris pour gamer, destinées à la pratique de différents types de jeux. On retrouvera ainsi des souris orientées vers la pratique des MMO's (Jeu en ligne massivement multijoueur), qui ont généralement un grand nombre de boutons programmables, afin de faciliter les nombreuses actions possibles au sein de ce type de jeu. Des souris dédiées aux FPS (First Person Shooter) existent également, elles sont conçues pour accroître la réactivité du joueur. Souris ergonomique. Les souris ergonomiques sont, quant à elles, des souris ayant un design qui permet d'éviter et/ou de prévenir les TMS (Trouble musculo-squelettique) et le syndrome du canal carpien. Ce type de souris aide à réduire les douleurs notamment aux poignets en raison de leur forme permettant une position naturelle du bras lors du travail sur poste. Fabricants de souris. La plupart des constructeurs de souris sont américains (Microsoft, Apple, Dell...), mais il y a aussi quelques constructeurs asiatiques (les Japonais Sony et Toshiba, le Coréen Samsung, le Taïwanais Acer) et un important constructeur suisse (Logitech). |
Souris (homonymie) Souris est un mot qui peut faire référence à plusieurs choses en français. Autres acceptions. D'une manière générale le mot souris désigne une entité ou une qualité qui a un rapport avec la taille de l'animal, sa forme, la longueur de sa queue ou sa couleur. |
Synonymie En sémantique, la synonymie est définie, de la manière la plus générale, comme la relation de similitude de sens entre deux ou plusieurs entités linguistiques. De telles entités peuvent être des mots à sens lexical, des mots-outils, des locutions, des affixes ou des constructions syntaxiques, c'est-à-dire des syntagmes, des phrases simples et des propositions membres de phrases complexes. Il n'y a pas d'unité de vues quant au traitement des cas de relation couverts par la définition ci-dessus. Pour certains linguistes ne seraient synonymes que les entités dont le sens serait identique de tous les points de vue, mais ils considèrent qu'il n'existe pas de tels cas, par conséquent qu'il n'y a pas de synonymie. , directeur d'un dictionnaire de synonymes, affirme toutefois qu'il n'y a pas de vrais synonymes. D'autres auteurs trouvent qu'il n'y a pas de synonymie complète, mais seulement partielle. Selon d'autres encore, il y a aussi bien synonymie partielle que synonymie complète, mais ils voient tout de même certaines différences entre synonymes complets aussi. De l'avis de certains de ces auteurs, ne sont complets que les synonymes entre lesquels il y a seulement une différence de fréquence d'utilisation, alors que d'autres admettent l'existence de plusieurs types de différences. Types de synonymie. Selon les types d'entités linguistiques. Synonymie lexicale. On parle de synonymie en premier lieu dans le domaine lexical. D'ailleurs, certains auteurs ne mentionnent que ce genre de synonymie. Peuvent être synonymes lexicaux un mot et un autre mot (ex. "châtier" – "punir") ou un mot et une locution, ex. "vainement" – "en vain". La condition principale pour que deux entités lexicales soit synonymes est qu'elles fassent partie de la même classe de mots. Une source importante de synonymes lexicaux est l'emprunt. Exemples : Une autre source est la formation consciente de mots ou de locutions avec des éléments antérieurement intégrés à la langue, pour qu'on puisse remplacer des emprunts : Synonymie dans la formation des mots. Il existe des affixes de dérivation et des éléments de composition synonymes. Exemples d'affixes : Parmi les éléments de composition sans existence autonome il existe également des synonymes. Dans la composition appelée « savante », la source de ces éléments est en général l'emprunt. On les rencontre le plus fréquemment avec des mots différents mais certains sont appliqués au même mot : Synonymie morphologique. Ce type de synonymie consiste en l'équivalence fonctionnelle de certaines formes grammaticales. En anglais et en russe, par exemple, on peut exprimer les degrés de comparaison comparatif de supériorité et superlatif relatif de supériorité aussi bien de façon synthétique (avec un suffixe), que de façon analytique (en deux mots). Dans le cas de certains mots, on peut appliquer les deux procédés : En russe il y a aussi, appliquées à certains mots, des désinences casuelles synonymes, comme celles du génitif dans le syntagme стакан чая ("stakan tchaïa) – стакан чаю ("stakan tchaïou) « un verre de thé ». Synonymie syntaxique. Certains auteurs étendent la notion de synonymie aux constructions syntaxiques. Telles sont, par exemple : Selon le degré de similitude. Synonymie complète et synonymie incomplète. Murphy 2006 appelle, conformément à la logique formelle, « synonymie logique » ou « cognitive », la relation dans laquelle deux propositions remplissent exactement les mêmes conditions de vérité, c'est-à-dire, dans toute situation ou l'une des propositions est vraie, l'autre aussi doit être vraie, et si l'une est fausse, l'autre aussi est fausse. De telles propositions sont, par exemple, "Tor bought a book from Ulla" « Tor a acheté un livre à Ulla » – "Ulla sold Tor a book" « Ulla a vendu un livre à Tor ». Dans le cas de la synonymie lexicale, la synonymie logique se réfère à des mots qu'on peut substituer l'un à l'autre dans des propositions énonciatives, sans que leurs conditions de vérité soient affectées. Collinge 2005 l'appelle « synonymie descriptive », par exemple dans le cas des mots anglais "begin" et "commence", dans les phrases "The recital began ten minutes ago" « Le récital a commencé il y a dix minutes » et "The recital commenced ten minutes ago" « Le récital a débuté il y a dix minutes ». En sémantique structurelle, seule une telle relation est considérée comme synonymique. La synonymie logique se caractérise par l'identité du dénoté, autrement dit, les synonymes se réfèrent au même élément de la réalité extralinguistique, par exemple "voiture" – "bagnole", mais le plus souvent, la synonymie logique se limite à la dénotation, elle n'est donc pas toujours complète. La synonymie complète, appelée aussi totale ou absolue, suppose que les entités considérées ait les mêmes traits, non seulement dénotatives, mais aussi connotatives, et qu'il soit possible d'interchanger les synonymes dans n'importe quel contexte, où ils gardent tous ces traits. Une telle synonymie est considérée par certains auteurs comme improbable, par d'autres comme très rare, du moins dans le domaine lexical. On trouve de tels synonymes dans les langages de spécialité. Murphy 2006 en cite comme exemple "gorse" – "furze" « ajonc ». Selon lui, en fait, la langue évite la synonymie complète, parce qu'il est inefficace qu'il y ait des entités équivalentes de tous les points de vue. Au contraire, les utilisateurs de la langue ont besoin de la synonymie incomplète pour pouvoir choisir l'entité qu'ils estiment comme la plus adéquate dans le contexte situationnel où ils se trouvent. À cause de la rareté de la synonymie complète, par synonymie on entend presque toujours synonymie incomplète, appelée aussi partielle ou quasi-synonymie. Différences entre synonymes. Entre synonymes, il peut y avoir des différences de diverses natures, qui peuvent leur conférer des degrés différents de similitude. Il y a surtout des différences de nuances de sens. Par exemple, les adjectifs "dénué", "dépourvu", "dépouillé" et "privé" expriment tous l'idée de manque, mais chacun d'eux a une nuance de sens propre : Malgré l'identité du dénoté, des mots peuvent être synonymes dans certains contextes et non dans d'autres. Par exemple, le syntagme "nuit —", peut être complété par "sombre" ou "obscure" mais dans "le temps — de l'histoire", de ces épithètes, seul "obscur" est possible. Dans le cas de mots polysémiques, la synonymie peut se limiter à un seul sens. En roumain, par exemple, le nom "ceas" a les sens "montre" et "heure", et il a pour synonyme "oră", mais seulement dans le sens "heure". D'autres différences entre synonymes sont celles de variétés de langue, par exemple : Certaines différences ne concernent que le degré d'intensité. Ainsi, "teamă" « peur » est de degré indéterminé, alors que son synonyme "spaimă" « terreur » est de degré maximal. Des synonymes peuvent différer à la fois par leur degré et leur nuance de sens, comme "cald" « chaud » (indéterminé) – "fierbinte" « brûlant » (maximal) – "clocotitor" « bouillant » (degré maximal atteint par chauffage d'un liquide). Les différences de connotation sont bien illustrées par les synonymes de registres différents. Par exemple "poisson" (courant) – "poiscaille" (populaire) dénotent le même animal mais le premier est neutre de ce point de vue, alors que le second a une connotation péjorative. De tels traits ont un caractère stylistique, étant largement exploités dans la parole expressive en général et dans les œuvres littéraires en particulier. Même entre synonymes complets il peut y avoir une différence, celle de fréquence d'utilisation. Ainsi, de "gorse" et "furze", le premier est le plus fréquent. |
Liste de synonymes concernant l'informatique |
Liste de périphrases désignant des pays Des territoires sont parfois désignés au moyen de périphrases dont les origines sont diverses : appellations locales anciennes (cf. Maroc, Chine, Japon ou Corée), caractéristique géographique (cf. France ou Italie), ou encore stéréotype (cf. Norvège, Australie…). Ces appellations ne correspondent pas toujours exactement aux frontières officielles des États (en particulier, l'Hexagone ne prend pas en compte les DOM, la Corée est un ensemble comprenant deux États). Les spécialités ne sont pas reprises dans cette liste (« pays du chocolat », « pays des mangeurs de grenouilles », « pays du secret bancaire », etc.). Provinces, départements, États américains ou autres. (Cythère et Chypre sont les îles d'Aphrodite) ; |
Signalisation différentielle La signalisation différentielle, ou transmission différentielle, est une méthode de transmission de signal électrique dans laquelle l'information est la différence entre les signaux transmis sur deux lignes. La transmission différentielle s'utilise aussi bien avec un signal analogique, comme en téléphonie, qu'avec un signal logique, comme en informatique. Elle permet de diminuer la sensibilité aux interférences. Définition. Au lieu de transmettre le signal comme tension par rapport à la masse, on utilise deux conducteurs, l'un convoyant le signal, et l'autre son inverse. À la réception, on détecte le signal par un transformateur ou un amplificateur différentiel. Dans une ligne symétrique, c'est-à-dire utilisant deux conducteurs identiques, bien équilibrée, toutes les impédances par rapport à la masse sont égales. Les interférences influent de la même façon sur les deux conducteurs, et disparaissent dans l'opération de différence. Le taux de réjection du mode commun exprime la capacité du récepteur à effectuer exactement la différence. La fiabilité de la transmission différentielle dépend du respect de l'impédance caractéristique de la ligne de transmission dès que sa longueur dépasse une fraction significative de la plus courte longueur d'onde du signal. Utilisation. L'ensemble des liaisons audio professionnelles par conducteurs électriques, y compris le téléphone filaire, utilisent la transmission différentielle. En informatique, les couches matérielles EIA-485 et EIA-422, ainsi que par les bus informatiques USB, SATA, FireWire et les liaisons Ethernet sur câbles en paires torsadées se basent sur les mêmes principes. Technologie. Si on remplace la sortie différentielle par une sortie simple reliée à un des conducteurs de la paire symétrique, et que l'on relie l'autre conducteur à une impédance vers la masse égale à l'impédance de la sortie, les interférences ont exactement le même effet sur les deux conducteurs de la paire, et le récepteur différentiel détecte le signal avec la même immunité, à condition que la tension de sortie de l'amplificateur simple soit le double de celle du montage différentiel. Il est cependant parfois plus avantageux d'utiliser un amplificateur de ligne différentiel, plutôt que d'augmenter la tension de sortie. Ce montage a l'avantage de continuer à fonctionner, sous réserve de l'absence d'interférences importantes, si l'un quelconque des conducteurs de la paire symétrique est accidentellement relié à la masse. Pour les récepteurs, le meilleur taux de rejection du mode commun s'obtient avec un amplificateur d'instrumentation. |
Stéphane Mallarmé Étienne Mallarmé, dit Stéphane Mallarmé, né le à Paris et mort le à Valvins (commune de Vulaines-sur-Seine, Seine-et-Marne), est un poète français, également enseignant, traducteur et critique d'art. Admirateur de Théophile Gautier, de Charles Baudelaire et de Théodore de Banville, Stéphane Mallarmé fait paraître en revue quelques poèmes en 1862. Professeur d'anglais par nécessité, il est nommé en septembre 1863 au lycée de Tournon-sur-Rhône en Ardèche et séjourne à Besançon et Avignon, avant d'arriver à Paris en 1871. Il fréquente alors des auteurs littéraires comme Paul Verlaine, Émile Zola ou Auguste de Villiers de l'Isle-Adam et des artistes comme Édouard Manet, qui a peint son portrait en 1876. S'il rencontre des difficultés dans son métier de professeur (il est chahuté par ses élèves), il mène une vie familiale paisible, ponctuée de difficultés financières et de deuils, en particulier la mort de son fils Anatole en 1879 à l'âge de . Il écrit des poèmes très élaborés et reçoit ses amis créateurs lors des Mardis de la rue de Rome ou dans sa maison de campagne, à Valvins, près de Fontainebleau, où il meurt le à . Attiré par l'esthétique de L'art pour l'art, il collabore au Parnasse contemporain dès 1866, cherchant à dépasser son sentiment d'impuissance lié à un état dépressif, il est dès lors en quête d'une beauté pure que seul peut créer l'art : « le monde est fait pour aboutir à un beau livre », affirme-t-il. Il entreprend des œuvres ambitieuses, sur lesquelles il travaillera longtemps, comme "Hérodiade" (1864-1887) ou "L'Après-midi d'un faune" (1865-1876, dont Claude Debussy tirera une de ses œuvres symphoniques les plus célèbres en 1892-1894). Admirateur d'Edgar Poe, il publie en 1875 une traduction du "Corbeau" (1845), accompagnée d'illustrations d'Édouard Manet, et écrit le "Tombeau d'Edgar Poe" en 1876 (« Tel qu’en Lui-même enfin l’éternité le change… »). Toujours en prose, il traduit d'autres poèmes de Poe. En 1887, il fait paraître une édition de ses "Poésies" qui montrent sa recherche stylistique, comme dans le "Sonnet en X", « Ses purs ongles très haut dédiant leur onyx », ou le sonnet en octosyllabes "Une dentelle s'abolit" (« Une dentelle s'abolit / Dans le doute du Jeu suprême / À n'entrouvrir comme un blasphème / Qu'absence éternelle de lit »). Son ambition d'écrire un poème absolu trouve son aboutissement dans un poème graphique de 1897, "Un coup de dés jamais n'abolira le hasard", qui est jugé hermétique dès sa parution. Le reproche d'hermétisme restera attaché à l'art mallarméen. La renommée de Stéphane Mallarmé se consolide encore à partir de 1884, quand Paul Verlaine l'inscrit dans sa série des "Poètes maudits". Porteur de modernité et proche des avant-gardes en art comme en littérature, il est reconnu comme un maître par les poètes de la jeune génération, qui va d'Henri de Régnier et des symbolistes à Paul Valéry. Mallarmé se révèle avoir été l'instigateur, dans la seconde moitié du , d'un renouveau de la poésie dont l'influence se mesure encore sur des poètes d'aujourd'hui comme Yves Bonnefoy. Ayant joué un rôle prépondérant dans l'éclosion de la modernité poétique, il est considéré comme l'un des plus grands poètes de langue française. Biographie. Étienne Mallarmé, qui se fait appeler Stéphane dès sa naissance, naît le dans le arrondissement de Paris. Issu d'une famille bourgeoise de juristes originaire de Lorraine, il a des ascendances nobles du côté de son père, Numa Mallarmé. À la naissance de la sœur de Stéphane, Maria, le , Numa Mallarmé achète la propriété des Boulainvilliers à Passy (aujourd'hui dans le arrondissement), grande demeure entourée d'un jardin. Stéphane y passe les premières années de sa vie, chéri par sa mère, Élisabeth Desmolins, et ses grands-parents maternels. Mais la santé de sa mère décline, et elle meurt le 2 août 1847 ; Stéphane et Maria sont confiés à leurs grands-parents, tandis que leur père se remarie l'année suivante. Stéphane retourne vivre aux Boulainvilliers, où il côtoie des artistes comme Charles-Hippolyte Dubois-Davesnes, dont la fille Fanny lui apprend à écrire ses premiers poèmes. Sur les conseils d'une grand-tante, il entre en 1850 dans une pension aristocratique à Auteuil, où il est moqué par ses camarades pour ses origines roturières et s'invente le titre de comte de Boulainvilliers. Il est admis dans un pensionnat chrétien (les frères de Passy aux 64-68 rue Raynouard) en 1852, où il se révèle un élève médiocre et taciturne, et se fait renvoyer en 1855. En 1856, il devient pensionnaire au Lycée impérial de Sens. Alors qu'il est très proche de sa sœur Maria, à qui il envoie de nombreuses lettres et qu'il a plaisir à retrouver chez ses grands-parents l'été, elle meurt soudainement le 31 août 1857, âgée de treize ans. Stéphane est fortement marqué par ce décès. Il compose ses premiers poèmes d'adolescence (qui sont recueillis dans "Entre quatre murs"), textes encore fortement inspirés par Victor Hugo, Théodore de Banville ou encore Théophile Gautier. La découverte des "Fleurs du mal" de Charles Baudelaire en 1860 est marquante et influence ses premières œuvres. Cette même année, Mallarmé entre dans la vie active en devenant surnuméraire à Sens, « premier pas dans l'abrutissement » selon lui. En 1862, quelques poèmes paraissent dans différentes revues. Il fait la connaissance d'une jeune gouvernante allemande à Sens, Maria Gerhard, née en 1835, et quitte son emploi pour s'installer à Londres avec elle, ayant l'intention de devenir professeur d'anglais. Son séjour dure de à la fin de l'été 1863. Réformé du service militaire en 1863, Stéphane Mallarmé se marie à l'Oratoire de Londres avec Maria le . Il obtient en septembre son certificat d'aptitude à enseigner l'anglais et est nommé au lycée impérial de Tournon (Ardèche), où il se considère comme exilé. Il ne cesse durant cette période de composer ses poèmes, comme "Les fleurs", "Angoisse", "Las d'un amer repos…" Durant l'été 1864, Mallarmé fait la connaissance à Avignon des félibres, poètes de langue provençale : Théodore Aubanel, Joseph Roumanille et Frédéric Mistral, avec qui il entretient une correspondance. Sa fille Geneviève naît à Tournon le . Il est parallèlement professeur d'anglais dans cette ville ainsi qu'à Besançon, Toulon et Paris durant la même période. L'année suivante, il compose "L'Après-midi d'un faune", qu'il espère voir représenter au Théâtre-Français, mais qui est refusé. Il se lie avec le milieu littéraire parisien, notamment avec Leconte de Lisle et José-Maria de Heredia. L'année 1866 marque un tournant pour Mallarmé : lors d'un séjour à Cannes chez son ami Eugène Lefébure, il entre dans une période de doute absolu qui dure plusieurs années. Nommé professeur à Besançon, il entame en novembre une correspondance avec Paul Verlaine. En 1867, alors qu’il est en poste à Avignon, démarre la publication de ses poèmes en prose et il va plusieurs fois rendre visite à Frédéric Mistral à Maillane. Il commence en 1869 l'écriture d’"Igitur", un conte poétique et philosophique laissé inachevé, qui marque la fin de sa période d'impuissance poétique débutée en 1866. Certains critiques ont vu dans "Igitur" une préfiguration, voire une première version du "Coup de dés". En 1870, il se met en congé de l'instruction publique pour raisons de santé et se réjouit de l'instauration de la République en septembre. Son fils Anatole naît le à Sens et, Mallarmé ayant été nommé à Paris au lycée Condorcet, la famille s'installe au 29, rue de Moscou. En 1872, Mallarmé fait la connaissance du alors jeune poète, Arthur Rimbaud, qu’il fréquente brièvement, puis, en 1873, du peintre Édouard Manet, qu'il défend lorsque ses tableaux sont refusés au Salon de 1874. C’est par Manet qu’il rencontre ensuite Zola. Mallarmé fait publier une revue, "la Dernière Mode", qui sort huit numéros et dont il est l'unique rédacteur sous divers pseudonymes, la plupart féminins. Nouveau refus des éditeurs en de sa nouvelle version de "L'Après-midi d'un faune", qui paraît néanmoins l'année suivante, illustrée par Édouard Manet, chez Alphonse Derenne. Il préface la réédition du "Vathek" de William Beckford. Dès 1877, des réunions hebdomadaires, devenues vite célèbres, se tiennent le mardi chez Mallarmé. Il fait la rencontre de Victor Hugo en 1878 et publie en 1879 un ouvrage sur la mythologie, "Les Dieux antiques". Son fils Anatole meurt brutalement le . À partir de 1874, Mallarmé, de santé fragile, effectue de fréquents séjours à Valvins près de Fontainebleau. Il loue pour lui et ses proches le premier étage d'une ancienne auberge au bord de la Seine. Il finit par l'acquérir et l'embellit de ses mains pour en faire son "home". Là, les journées s'écoulent entre deux parties de pêche avec Nadar ou d'autres illustres hôtes, face à la forêt miroitant dans la Seine, et le poète alors de dire : En 1884, Paul Verlaine fait paraître le troisième article des "Poètes maudits" consacré à Mallarmé ; cette même année, Joris-Karl Huysmans publie "À rebours", dont le personnage principal, Jean des Esseintes, voue une vive admiration aux poèmes de Mallarmé . Ces deux ouvrages contribuent à la notoriété du poète. Stéphane Mallarmé est nommé professeur d'anglais au lycée Rollin en 1885 où il enseignera jusqu'en 1893. La même année, il évoque "l'explication orphique de la Terre". Son premier poème sans ponctuation paraît en 1886, "M'introduire dans ton histoire". La version définitive de "L'Après-midi d'un faune" est publiée en 1887. Un an plus tard paraît sa traduction des poèmes d'Edgar Allan Poe. En 1891, sa santé se détériore à nouveau. Mallarmé obtient un congé puis une réduction d’horaire. Il fait la connaissance d’Oscar Wilde et de Paul Valéry au pont de Valvins (ce dernier faillit s'y noyer). Paul Valéry est un invité fréquent des Mardis mallarméens. En 1892, à la mort d'Eugène Manet, frère d'Édouard Manet, Mallarmé devient le tuteur de sa fille, Julie Manet, dont la mère est la peintre Berthe Morisot. C'est à cette époque que Claude Debussy débute la composition de sa pièce "Prélude à l'après-midi d'un faune", présentée en 1894. Mallarmé obtient sa mise à la retraite en . L'année suivante, en 1894, il donne des conférences littéraires à Cambridge et Oxford. Deux années passent, le poète assiste aux obsèques de Paul Verlaine, décédé le , et lui succède comme prince des poètes. En 1898, il se range aux côtés d'Émile Zola qui publie dans le journal "L'Aurore", le , son article « J'Accuse », en faveur du capitaine Alfred Dreyfus (voir l’Affaire Dreyfus). Le , Mallarmé est victime d'un spasme du larynx qui manque de l'étouffer. Le soir même, il recommande dans une lettre à son épouse et à sa fille de détruire ses papiers et ses notes, déclarant : « Il n'y a pas là d'héritage littéraire… » Le lendemain matin, victime du même malaise, il meurt dans les bras de son médecin, en présence de son épouse et de sa fille. Il est enterré auprès de son fils Anatole au cimetière de Samoreau, près de Valvins. Maria Mallarmé meurt en 1910. Regards sur son œuvre. En lisant Hegel, Mallarmé a découvert que si « le Ciel est mort », le néant est un point de départ qui conduit au Beau et à l'Idéal. À cette philosophie devait correspondre une poétique nouvelle qui dise le pouvoir sacré du Verbe. Par le rythme, la syntaxe et le vocabulaire rare, Mallarmé crée une langue qui ressuscite . Le poème devient un monde refermé sur lui-même dont le sens naît de la résonance. Paul Valéry raconte comment Mallarmé affirma un jour à Edgar Degas que « ce n’est point avec des idées […] que l’on fait des vers. C’est avec des "mots". » Le vers se fait couleur, musique, richesse de la sensation, « concours de tous les arts suscitant le miracle ». C'est avec Mallarmé que la « suggestion » devient le fondement de la poétique antiréaliste et fait du symbolisme un impressionnisme littéraire. Son œuvre est alors celle de l'absence de signification qui « signifie davantage » et le poète cherche à atteindre les « splendeurs situées derrière le tombeau ». "la Dernière Mode". D'août à , Mallarmé publie huit numéros de la gazette illustrée "la Dernière Mode" destinée à un lectorat féminin. Se faisant critique de mode, il en est le directeur de publication et le directeur artistique, soignant particulièrement la mise en page, la maquette et la typographie, le tout pour une réalisation inédite à l'époque. Il reste également l'unique contributeur sous différents pseudonymes féminins (Marguerite de Ponty, ou Miss Satin par exemple). Outre la mode dans la rubrique portant le nom de , les sujets sont variés : produits de beauté, architecture, décoration, design, orfèvrerie, voyages, restaurants et gastronomie, tendances, agenda, textes littéraires et poésie ou simplement une description d'endroits à visiter. Cette publication reste en phase avec son époque, dans une France voyant l'ouverture des grands magasins, l'apparition de la haute couture qui transforme le couturier en artiste et la création de publications telles le "Petit Courrier des dames", le "Journal des dames et des modes" ou "la Vie élégante". Là où Mallarmé se différencie de ces revues, c'est dans l'usage de mots plus que les illustrations pour décrire ces sujets, parfois avec une sémantique complexe, voire incompréhensible. Publication longtemps ignorée, il est difficile de savoir si elle relève d'une contribution « alimentaire » ou d'un exercice d'écriture. |
Science fiction |
Shogun Le terme shogun, ou shogoun, du japonais , signifie « général » ; il s'agit de l'abréviation de , que l'on peut traduire par « grand général pacificateur des barbares ». Néanmoins, après avoir été attribué à Minamoto no Yoritomo, il devint un titre indiquant souvent le dirigeant "de facto" du Japon (dictateur militaire), alors même que l'empereur restait le dirigeant "de jure" (en quelque sorte le gardien des traditions). Le titre de "seii taishōgun" fut par la suite abandonné lors de la constitution au du "kazoku", c'est-à-dire de la noblesse japonaise. "" de l'époque de Heian (794-1185). Conquête des Emishis. Il s'agit originellement d'un titre donné, au début de l'époque de Heian, aux commandants militaires de rang princier pour la durée des campagnes contre les Emishi (蝦夷), peuple indigène qui refusa de se soumettre au pouvoir impérial du prince Yamamoto. Le plus fameux de ces shoguns était Sakanoue no Tamuramaro (坂上田村麻呂), qui soumit les Emishi au nom de l'empereur Kanmu (桓武, 桓武天皇). Plus tard dans l'époque Heian, une fois les Emishi intégrés ou confinés sur Hokkaidō (北海道), le terme « shōgun » ne fut plus utilisé dans ce sens. Guerre de Genpei. Cependant, plus tard dans l'époque Heian, au cours de la guerre de Genpei, un shogun supplémentaire fut désigné. Minamoto no Yoshinaka, après être entré dans la capitale et en avoir fait fuir les Taira avec l'empereur Antoku, fut proclamé "Asahi Shogun" par l'empereur retiré Go-Shirakawa. Cependant, après qu'il eut tenté de prendre le contrôle du clan Minamoto, il fut très vite éliminé par son cousin Minamoto no Yoshitsune à la demande de son frère Minamoto no Yoritomo, alors qu'il poursuivait les Taira. Par la suite, Minamoto no Yoshitsune se vit attribuer le titre de "kebiishi" par l'empereur retiré Go-Shirakawa, entraînant ainsi la jalousie de Minamoto no Yoritomo. "Seii taishōgun" de la période féodale (1185-1868). Shogunat Kamakura. Après la défaite du clan Taira durant la guerre de Gempei en 1185, Minamoto no Yoritomo prit le pouvoir à l'empereur et devint le dictateur et dirigeant du Japon. Il établit un système de gouvernement féodal basé à Kamakura (鎌倉), où les samouraïs prirent le pouvoir politique que détenaient alors l'empereur et la cour à Kyōto. En 1192, Yoritomo reçut le titre de "seii taishōgun" de l'empereur, et le système politique qu'il développa par la succession des différents shoguns devint connu sous le nom de "bakufu" (幕府), ou shogunat. Restauration de Kenmu. Pendant la restauration de Kenmu, après la chute du shogunat de Kamakura en 1333, le prince Moriyoshi, fils de l'empereur Go-Daigo reçut le titre de "seii taishogun" et la direction de l'armée. Il fut cependant arrêté et exécuté par Tadayoshi Ashikaga, le frère cadet de Takauji Ashikaga. Shogunats de Muromachi et de Tokugawa. En dehors de Minamoto no Yoritomo, dont le shogunat de Kamakura dura environ , de 1192 à 1333, seuls Ashikaga Takauji et Tokugawa Ieyasu (徳川家康), tous deux descendants des princes Minamoto, reçurent le titre de "seii taishōgun" et établirent leur propre gouvernement militaire "bakufu". Le shogunat Ashikaga dura de 1338 à 1573, tandis que le shogunat Tokugawa recouvrit la période de 1603 à 1868. Shogunats de Muromachi. La période Muromachi correspond à l'époque qui s'étend entre 1333 et 1573. Pendant cette période, le Japon fut contrôlé par des shoguns de la famille des Ashikaga qui étaient installés à Kyōto. Époque Azuchi Momoyama. Les « shoguns transitoires » de 1568-1598 ne reçurent en réalité jamais le titre de "seii taishōgun" par l'empereur, et n'établirent pas de "bakufu", mais obtinrent pendant une période donnée le contrôle de l'empereur et de la plus grande partie ou bien de l'ensemble du Japon. Shogunat de Tokugawa. En 1603, après s'être fait attribuer le titre de shogun à la suite de l'élimination de tous les clans rivaux conduisant à l'unification du pays sous son autorité, Tokugawa Ieyasu fit du village de , la nouvelle capitale Edo, renommée Tokyo (« capitale de l'Est ») à partir de l'ère Meiji. Ieyasu était le premier shogun de la dynastie des Tokugawa, qui règne sur le Japon jusqu'à la restauration Meiji en 1867. Le titre de "seii taishōgun" fut aboli pendant la restauration Meiji en 1868, dans laquelle le pouvoir effectif fut « restauré » à l'empereur et ses délégués (voir "taisei hōkan" (大政奉還)). Culture populaire. Série TV. La mini-série " SHOGUN" de 1980 avec Richard Chamberlain, Toshiro Mifune |
Shogunat de Kamakura Le fut, au Japon, un gouvernement militaire féodal de la période de Kamakura de 1185 (ou 1192, date à laquelle Minamoto no Yoritomo est officiellement nommé Shogun) à 1333. Il doit son nom à la ville de Kamakura, où était installé le gouvernement shogunal. Établissement du bakufu. Avant l'établissement du bakufu de Kamakura, le pouvoir civil du Japon était principalement tenu, d'une part, par les régents de l'empereur en titre, lequel n'avait pas de réel pouvoir, et d'autre part par les empereurs cloîtrés, qui une fois retirés dans un monastère bouddhiste pouvaient continuer à exercer le pouvoir d'autant mieux qu'ils s'étaient mis hors de portée des régents Fujiwara. Les affaires militaires étaient également dirigées par le gouvernement civil. Cependant, en 1185, après la défaite du clan Taira à la bataille de Dan-no-ura qui mit fin à la guerre de Genpei en sa faveur, Minamoto no Yoritomo prit le pouvoir et devint "de facto" le dirigeant du pays. Il mit en place la primauté du côté militaire du gouvernement et reçut le titre de shogun (征夷大将軍) en 1192 après la mort de l'empereur retiré Go-Shirakawa. Son premier gouvernement est appelé shogunat d'Ōkura, du nom de sa résidence située à proximité du sanctuaire Tsurugaoka Hachiman-gū. Son système de gouvernement devint alors formalisé sous le nom de bakufu (littéralement, « gouvernement sous la tente »). Les provinces du Japon devinrent semi-autonomes sous la houlette des nouveaux protecteurs, les "shugo" (守護), prédécesseurs des daimyos. Ces protecteurs étaient choisis principalement parmi les puissantes familles des différentes provinces, ou bien le titre était décerné à un général et à sa famille après le succès d'une campagne. Bien qu'ils gérassent eux-mêmes leurs propres affaires, ils étaient en théorie dépendants du gouvernement central à cause de leur allégeance au shogun. Usurpation du pouvoir par les shikken. Après la mort de Yoritomo, son beau-père Tokimasa Hōjō, ancien gardien de Yoritomo et chef du clan Hōjō se proclame shikken (régent) du nouveau shogun Minamoto no Yoriie, charge qu'il rendra par la suite héréditaire au sein du clan. Les Minamoto demeurèrent les shoguns durant deux dynasties supplémentaires, avec les Hōjō gouvernant dans les faits au travers des shoguns-marionnettes et des empereurs titulaires. En 1274 et 1281, les Mongols de Kubilai Khan tentèrent d'envahir le Japon, mais furent repoussés par le shogunat, aidé il est vrai par des typhons auxquels il fut rendu hommage en les nommant kamikaze. Cependant, la contrainte sur l'armée et les finances avait affaibli considérablement le bakufu. L'empereur Go-Toba tenta de renverser la situation en 1221 au cours de la révolte de Jōkyū, mais échoua et ne réussit qu'à solidifier le pouvoir des Hōjō sur le shogunat, leur permettant même de choisir les successeurs au titre de shogun, donnés d'abord à des membres de la maison noble Kujō, puis à des membres de la maison impériale. La cour impériale fit une nouvelle tentative de révolte en 1331 sous le règne de l'empereur Go-Daigo. Elle eut beaucoup plus de succès que la précédente, principalement parce que le plus puissant général de Kamakura, Takauji Ashikaga, choisit de se joindre à l'empereur. Celui-ci se termina en 1333 avec la destruction du clan Hōjō et le rétablissement des pouvoirs de l'empereur. Ce triomphe fut cependant de courte durée dans la mesure où Takauji Ashikaga s'arrogea rapidement le titre de shogun, établissant le shogunat Ashikaga. |
Shoguns Ashikaga Les shoguns Ashikaga dirigeaient le régime militaire féodal appelé . Cette époque des shoguns du clan Ashikaga est aussi connue sous le nom de « période Muromachi », du nom du quartier de Kyōto où le troisième shogun Ashikaga Yoshimitsu établit sa résidence. Histoire. Kyōto était le centre du "bakufu" des Ashikaga. Le fondateur du shogunat, Ashikaga Takauji, se démarqua de ses prédécesseurs en épaulant l’empereur dans la lutte contre le "bakufu" de Kamakura, aussi les Ashikaga étaient-ils plus proches de l’autorité impériale que leurs prédécesseurs qui cherchaient à s’en éloigner. Leur influence fut en conséquence bien plus réduite que celle des shogunats Minamoto ou Tokugawa. Le pouvoir des Ashikaga fut aussi plus limité que ceux de ses prédécesseurs et successeurs par les pouvoirs provinciaux, qui demeurèrent entre les mains de leurs seigneurs, les daimyos. Les pouvoirs militaires des shoguns dépendaient pour majeure partie de l’allégeance fluctuante des daimyos aux Ashikaga. Ce système féodal explosa en une guerre ouverte entre daimyos et pouvoir shogunal, mais aussi entre les daimyos eux-mêmes dans la seconde moitié du , engendrant une longue période de guerres intérieures, connue sous le nom de période Sengoku. Le shogunat des Ashikaga fut aboli un siècle plus tard, en 1573, lorsque Oda Nobunaga expulsa le quinzième et dernier shogun Ashikaga Yoshiaki hors de Kyōto. Yoshiaki se réfugia auprès du clan Mori à l’ouest du Japon. Plus tard, Toyotomi Hideyoshi lui demanda de l’accepter comme fils adoptif mais celui-là refusa. La famille Ashikaga perdure encore aujourd’hui. |
Shogunat Tokugawa Le est une dynastie de shoguns qui dirigèrent le Japon de 1603 à 1868. Le premier shogun de la dynastie fut Tokugawa Ieyasu et le dernier fut Tokugawa Yoshinobu. Leur règne est plus connu sous le nom d'époque d'Edo, du nom de la ville qu'ils choisirent pour capitale : Edo (aujourd'hui Tokyo) afin de s'éloigner de Kyoto, la capitale impériale. Histoire. Après la période Sengoku des « Nations en guerre », le gouvernement central avait été largement rétabli par Oda Nobunaga et Toyotomi Hideyoshi pendant la période Azuchi-Momoyama. Après la bataille de Sekigahara en 1600, l'autorité centrale tomba entre les mains de Tokugawa Ieyasu qui consolida le processus et reçut le titre de shogun en 1603. Ses descendants héritèrent du titre de shogun et de la charge qui l'accompagnait jusqu'au . La période Tokugawa, à la différence des familles de shoguns précédentes, était fondée sur la stricte hiérarchie des classes originellement établie par Toyotomi Hideyoshi. La classe guerrière des samouraïs (ou "bushi") était au sommet, suivie des fermiers, des artisans et des commerçants. L'ironie voulut que l'extrême rigueur du système de caste finit à long terme par miner l'autorité de ces classes. Les taxes sur la paysannerie étaient constituées de montants fixes qui ne tenaient pas compte de l'inflation ou de tout autre changement de la valeur monétaire. Le résultat fut que le revenu des taxes collectées par les samouraïs propriétaires terriens devint de plus en plus maigre avec le temps. Cela conduisit à de nombreuses confrontations entre les nobles mais appauvrit les samouraïs et les paysans aisés. Vers la fin du , l’empereur en titre, soutenu par une alliance des plus puissants daimyos, finit par faire chuter le règne des shoguns et récupérer le pouvoir après la guerre de Boshin. Le shogunat Tokugawa s'éteignit définitivement en 1868, avec l'abdication du , Tokugawa Yoshinobu, et la de la loi impériale. Gouvernement. Les shoguns et les "han". Le « "bakuhan taisei" » était le système politique féodal en vigueur pendant la période Edo au Japon. "Baku" ou « tente » est l'abréviation de "bakufu", qui signifie « gouvernement de la tente » — c’est-à-dire le shogunat. Les "han" étaient les domaines dirigés par les daimyos. Le système était féodal. Les vassaux tenaient leurs terres par succession, et devaient à leurs seigneurs armes et respect. Le "bakuhan taisei" divisa le pouvoir féodal entre le shogunat à Edo et les domaines provinciaux dans le reste du Japon. Les provinces exerçaient une certaine souveraineté et étaient autorisées à administrer leur "han" de manière indépendante en échange de leur loyauté au shogun, qui était responsable des relations extérieures et de la sécurité nationale. Les shoguns et les seigneurs étaient tous deux des daimyos, des seigneurs féodaux avec leur propre bureaucratie, leur propre politique et leur territoire. Le shogun administrait également le daimyō le plus puissant, le fief héréditaire de la Maison Tokugawa. Chaque niveau du gouvernement gérait son propre système de taxation. Les shoguns avaient le pouvoir de se débarrasser des domaines, mais aussi de les annexer ou de les transformer. Le "sankin-kotai", système de résidence alternative voulait que chaque daimyo envoie sa famille en représentation et partageait son temps entre le "han" et sa présence à Edo. L'énorme dépense générée par le "sankin-kotai" permettait au pouvoir central des nobles de renforcer les alliances et au shogun de s'assurer de la loyauté des provinces, dont chaque famille en représentation pouvait devenir un otage potentiel. Les descendants de Togukawa s'assurèrent ensuite de cette loyauté en maintenant une insistance dogmatique sur la loyauté au shogun. Les "fudai daimyo" étaient les vassaux héréditaires de Ieyasu, considérés au même titre que leur propre descendant. "Tozama" ou « les autres », devinrent les vassaux d'Ieyasu après la bataille de Sekigahara. "Shimpan" ou « les parents », étaient des collatéraux de Hidetada Tokugawa. Au début de l'ère Edo, le shogunat considérait les "tozama" comme étant les moins loyaux ; le temps passant, les mariages stratégiques et l'enracinement du système firent des "tozama" les moins susceptibles de se rebeller. Finalement, c'est le grand "tozama" de Satsuma, Choshu et Tosa et dans une moindre mesure Hizen qui firent tomber le shogunat. Ces quatre états sont appelés les « Quatre clans de l'ouest » ou "Satchotohi" en abrégé. Le nombre de "han" (environ 250) était fluctuant pendant la période Edo. Ils étaient classés par taille, qui se mesurait au nombre de "koku" produit par le domaine chaque année. Un "koku" était la quantité de riz nécessaire pour nourrir un homme adulte pendant un an. Le nombre minimum pour un daimyo était de ; le plus important, hormis celui du shogun, atteignait le million de "koku". Le shogun et l'empereur. Malgré l'établissement du shogunat, l'empereur à Kyoto était toujours le chef légitime du Japon. L'administration du Japon ("taisei") était une tâche confiée à la famille Tokugawa par la cour impériale de Kyoto, puis rendue à la cour lors de la restauration de Meiji. Le shogunat nomma un agent de liaison, le "Kyōto shoshidai", pour traiter avec l'empereur, la Cour et la noblesse. Le shogun et le commerce extérieur. Les affaires étrangères et le commerce étaient des monopoles du shogunat et dégageaient des profits énormes. Le commerce extérieur était également autorisé pour les fiefs de Satsuma et de Tsushima. Les visites des bateaux "nanban" (littéralement « barbares du sud ») en provenance du Portugal furent au départ les principaux vecteurs d'échanges commerciaux, suivis par les Hollandais, les Anglais et parfois des bateaux espagnols. À partir de 1600, le Japon commença à s'intéresser activement au commerce extérieur. En 1615, une mission d'ambassade et de commerce sous la direction de Hasekura Tsunenaga fut envoyée à travers le Pacifique en direction de la Nouvelle-Espagne sur un galion de facture japonaise, le "San Juan Bautista". Jusqu'en 1635, le shogun délivra de nombreux permis pour les « bateaux au sceau rouge », destinés au commerce avec l'Asie. Après 1635 et l'introduction des lois isolationnistes ("sakoku"), le départ des vaisseaux à destination du Japon vers l'étranger fut interdit, seuls les vaisseaux à destination du Japon en provenance de la Chine et des Pays-Bas furent autorisés. Les institutions du shogunat. Le "rōjū" et le "wakadoshiyori". Le "rōjū" était composé par les membres influents du shogunat. Ils supervisaient le "ōmetsuke", le "machibugyō", le "ongokubugyō" et les autres officiels, ils surveillaient les relations avec la cour impériale de Kyoto, les "kuge" (membres de la noblesse), les daimyos, les temples et les lieux saints, mais s'occupaient également des affaires comme la division des fiefs. En temps normal, quatre ou cinq hommes étaient chargés de la fonction, mais un seul était de service sur la base d'une alternance d'un mois. Ils s'entretenaient des affaires d'une importance particulière. Lors de la réforme administrative de 1867, la fonction fut supprimée au profit d'un système bureaucratique avec des ministères pour l'Intérieur, les finances, les relations extérieures, l'armée et la marine. En principe, il y avait deux conditions pour être nommé au "rōjū", être un "fudai daimyo" (c’est-à-dire héréditaire) et avoir un fief estimé à "koku" au minimum. Néanmoins, il existait des exceptions aux deux critères. Beaucoup des candidats retenus provenaient de bureaux proches du shogun, comme le "soba yōnin", le "shoshidai" de Kyoto, et le "jōdai" d'Osaka. De manière arbitraire, les shoguns nommaient au poste de "tairō" (« grand ancien ») un membre du "rōjū". La charge était réservée aux membres des clans de Ii, Sakai, Doi et Hotta, mais exceptionnellement, Yanagisawa Yoshiyasu obtint le statut de "tairō". Parmi les "tairō" les plus célèbres, il y eut Ii Naosuke, qui fut assassiné en 1860 devant la porte de Sakurada du château d'Edo. Le "wakadoshiyori" se situait juste en dessous du "rōjū". Cette excroissance était composée d'un groupe de six personnes ("rokuninshû") (1633-1649). Le bureau prit son véritable nom et sa forme finale en 1662, mais composé alors de quatre membres. Leurs principales responsabilités étaient la gestion des affaires des "hamamoto" et des "gokenin", les vassaux directs du shogun. Certains shoguns désignaient un "soba yōnin". Cette personne servait de liaison entre le shogun et le "rōjū". Le "soba yōnin" prit de l'importance pendant la période du cinquième shogun de Tsunayoshi Tokugawa, quand un membre du "wakadoshiyori", Inaba Masayasu, assassina Hotta Masatoshi, le "tairō". Craignant pour sa vie, Tsunayoshi fit déplacer le "rōjū" dans une aile plus lointaine du château. Les plus célèbres des "soba yōnin" furent Yanagisawa Yoshiyasu et Tanuma Okitsugu. Le "ōmetsuke" et le "metsuke". Les "ōmetsuke" et les "metsuke" étaient des officiels chargés des rapports au "rōju" et au "wakadoshiyori". Les cinq "ōmetsuke" étaient chargés de la surveillance des affaires des daimyos, des membres de la noblesse et de la cour impériale. Ils devaient aussi tenter de découvrir les menaces de rébellions. Très tôt dans l'ère Edo, des daimyos comme Yagyū Munefuyu dirigeaient ce bureau. Bientôt, cependant, cette fonction revint aux "hatamoto" ayant un classement de "koku" ou plus. Afin de leur donner l'autorité nécessaire dans leurs transactions avec les daimyos, ils furent souvent classés à "koku" et on leur donna le titre de "kami" (un titre ancien, signifiant littéralement le gouverneur d'une province) exemple le "bizen-no-kami". Avec le temps, la fonction de "metsuke" évolua et fut une des transmissions d'ordres entre le shogunat et les daimyos. Elle fut aussi chargée de l'administration des cérémonies à l'intérieur du château d'Edo. Les "ōmetsuke" furent chargés de nouvelles responsabilités comme la supervision des affaires religieuses et le contrôle des armes à feu. Les "metsuke", faisaient des rapports au "wakadoshiyori", supervisaient les affaires des vassaux du shogun. Ils constituaient les forces de police pour les milliers de "hatamoto" et "gokenin" qui étaient rassemblés à Edo. Les domaines provinciaux ("han") avaient leur propre "metsuke" qui assurait de la même manière la police de leurs samouraïs. Les "san-bugyō". Les "san-bugyō" (littéralement trois administrateurs) étaient le "jisha", le "kanjō" et le "machi bugyō". Les "jisha bugyō" avaient la position la plus élevée des trois. Ils surveillaient l'administration des temples bouddhistes ("ji") et des lieux saints shinto ("sha"), nombre d'entre eux avaient un fief. Ils étaient aussi chargés de prendre les plaintes de plusieurs provinces en dehors des huit provinces du Kanto. La charge revenait en principe à un daimyo ; Ōoka Tadasuke fut une exception. Les "kanjō-bugyō" étaient proches dans les statuts. Les quatre tenants de cette charge faisaient leur rapport au "rōjū". Ils étaient responsables des finances du shogunat. Les "machi-bugyō" étaient les chefs des administrateurs de la ville d'Edo. Leurs rôles incluaient celui de maire, de chef de la police (et plus tard du département incendie), mais aussi celui de juge au pénal et au civil n'impliquant pas les samouraïs. Deux hommes (trois très brièvement), en principe des "hatamoto", s'occupaient de cette fonction, en alternance tous les mois. Trois "machi bugyō" sont devenus célèbres pendant le "jidaigeki", Ōoka Tadasuke et Tōyama Kinshirō comme des héros et Torii Yōzō comme un scélérat. Tous les "san-bugyō" siégeaient en un conseil appelé le "hyōjōsho". Parmi ses attributions, le "hyōjōsho" était responsable de l'administration du "tenryō", il supervisait le "gundai", le "daikan" et le "kura-bugyō", mais il devait également juger les affaires impliquant des samouraïs. Le "tenryō", le "gundai" et le "daikan". Le shogun possédait directement des terres un peu partout dans le Japon, connues sous le nom de "bakufu chokkatsuchi". À partir de la période Meiji, le terme de "tenryō" en devint un synonyme. En cumulant les terres que Ieyasu possédait avant la bataille de Sekigahara, celles gagnées à cette occasion et celles résultant des sièges d'été et d'hiver d'Osaka (à la fin du ), le shogunat produisait alors quatre millions de "koku". Plusieurs grandes villes comme Nagasaki et Osaka ainsi que des mines, notamment la mine d'or de Sado, furent elles aussi incluses dans ce "tenryō". Plutôt que de nommer un daimyo à la tête de ces possessions, le shogunat chargea des administrateurs de les gérer. Parmi les titres de ces administrateurs se trouvaient les "gundai", les "daikan", et les "ongoku bugyō". Cette dernière catégorie incluait les "machi bugyō" d'Osaka, les "machi-bugyō" de Kyoto et de Sunpu ainsi que les Nagasaki "bugyō". Les hommes désignés étaient des "hatamoto". |
Shoguns de transition Même si Nobunaga Oda et Hideyoshi Toyotomi, deux aventuriers militaires, n'ont pas réussi à instaurer une nouvelle dynastie de shoguns, ils vécurent à un moment crucial de l'histoire du Japon et ont réalisé son unification. Leurs successeurs contribuèrent à l'apparition d'une relative tranquillité lors de l'ère Tokugawa. On peut aussi ajouter à ces shoguns de transition Mitsuhide Akechi, qui doit à son règne extrêmement bref le surnom de "Jūsan Kubō", le « shôgun de treize jours ». Il convient de noter qu'aucun des trois n'a eu officiellement le titre de shogun. |
Scanner Scanner a pour origine : "to scan" (en anglais) qui signifie scruter, balayer du regard. |
Santiago Santiago, ou Santiago du Chili ( ; "" ), est la capitale du Chili, un pays d'Amérique latine. Elle est située dans la Vallée Centrale. Ses habitants s’appellent les "Santiagois" ("Santiaguinos" en espagnol). D’après le recensement de l'Instituto Nacional de Estadísticas, l'agglomération de Santiago comptait en 2009 plus de 5,1 millions d'habitants. La région Métropolitaine de Santiago s’est largement développée au cours du , rassemblant plus de 7 millions d'habitants en 2009. Fondée en 1541, Santiago est la capitale chilienne depuis l'époque coloniale. La ville se vante d'un centre-ville à l'architecture néoclassique et aux rues sinueuses, parsemées notamment de styles Art déco et néogothique. Le paysage urbain de Santiago est formé par des collines indépendantes et la ville est traversée par la rivière Mapocho, jalonnée par d'élégants parcs tels le Parque Forestal. L'imposante cordillère des Andes est visible depuis de nombreux endroits de la ville. L'activité urbaine a causé le développement de nuages de pollution, particulièrement durant les mois d'hiver. La ville est entourée par des vignobles et Santiago reste à quelques heures des montagnes et de l'océan Pacifique. La croissance économique régulière de Santiago depuis quelques décennies a transformé la ville en une métropole moderne. Santiago accueille aujourd'hui un nombre croissant de théâtres, de restaurants et de centres commerciaux. L'expansion et le panorama urbain se développent, comprenant le plus grand bâtiment d'Amérique du Sud, la Gran Torre Santiago. La ville compte plusieurs grandes universités et développe des infrastructures de transports modernes telle qu'une autoroute en partie souterraine et le métro de Santiago, le système le plus étendu d'Amérique du Sud. Santiago est le centre culturel, politique et financier du Chili, le centre des sièges régionaux des entreprises multinationales, ainsi que du pouvoir exécutif et judiciaire, excepté celui du Congrès situé à Valparaíso. Géographie. Situation. Santiago est la capitale et le principal centre urbain du Chili. La ville est, en fait, divisée en 37 communes. L'agglomération compte plus de 7 millions d'habitants, ce qui équivaut à un tiers de la population totale du pays. Santiago est considérée comme la troisième ville la plus riche, la septième la plus peuplée et celle présentant la meilleure qualité de vie de l'Amérique latine. Elle est située dans la vallée centrale (valle central) qui court le long d'une grande partie du pays. À l'est, la ville est dominée par la cordillère des Andes et se trouve au pied de l'Aconcagua (plus haut sommet des Andes marquant la frontière avec l'Argentine) et à l'ouest, elle s'approche peu à peu de la cordillère de la Costa qui sépare Santiago de l'océan Pacifique et de la région de Valparaíso. La capitale chilienne est située à à l'est-sud-est de Valparaiso et à au nord-nord-est de Concepción. La ville de Santiago englobe son agglomération qui forme le "Gran Santiago" et qui est composée de : les 32 communes de la province de Santiago, plus les communes de Puente Alto et de San Bernardo, appartenant respectivement aux provinces de Cordillera et du Maipo. Il n'existe pas de gouvernement métropolitain pour la ville. Chaque commune, gérée par un maire, est chargée des tâches administratives, de la fiscalité, des services, de la santé et de l'éducation. La ville se trouve approximativement à mi-chemin des de longueur que fait le pays. Arica, à environ , étant la dernière ville avant le passage de la frontière avec le Pérou et Puerto Toro (env. également), celle située le plus au sud du pays. Climat. Santiago présente un climat méditerranéen. Les étés sont chauds (plus de de novembre à mars) et les hivers relativement doux ( en moyenne en juillet). La pluviométrie y est faible, la saison sèche correspondant à l'été austral. Les pluies, courtes mais violentes, ont lieu en général pendant l'hiver, causant chaque année des inondations dans les quartiers qui ne disposent pas encore de systèmes d'égouts pluviaux adéquats. D'après la classification de Köppen avec la station Pudahuel : la température du mois le plus froid est comprise entre et (juillet avec ) et la température du mois le plus chaud est supérieure à (janvier avec ). La saison sèche se produit l'été, les précipitations du mois estival le plus sec sont inférieures à et à 1/3 du mois hivernal le plus humide (janvier avec , inférieur à 1/3 de juin : /3 soit ) donc pour cette région c'est un climat aride. L'été est tempéré car la température moyenne du mois le plus chaud est inférieure à (janvier avec ) et la température moyenne des 4 mois les plus chauds est supérieure à (décembre à mars avec respectivement , , et ). Donc le climat de Santiago est classé comme Csb dans la classification de Köppen, soit un climat différent pour chaque différente région de la municipalité, en fonction de l'altitude. Pollution. En 2015, la ville est déclarée en « état d'urgence environnementale » à la suite d'un niveau de pollution de l'air record. Les autorités sanitaires ont recommandé d'éviter de sortir sauf en cas d'extrême nécessité. Structure urbaine. À cause de la croissance exponentielle de la capitale, l'agglomération est organisée en diverses communes. Le Grand Santiago se compose à l'heure actuelle de trente-six communes qui ont vu leurs populations augmenter au fil des décennies. Selon l'Instituto Nacional de Estadísticas, en 2000, trente-six communes forment le Grand Santiago : Ces trente-six communes se situent dans des zones urbaines. Transports. Santiago dispose d'un système très dense de bus (les "micros"), de taxis collectifs et de sept lignes (1, 2, 3, 4, , 5 et 6) de métro, dont le réseau dépasse les de lignes. Santiago compte , dont sont motorisés. Chaque jour, traversent la ville, équivalent à 38 % du trafic national, et un taux de une voiture pour sept personnes. La ville dispose d'un réseau étendu de rues et d'avenues facilitant les déplacements entre les différents arrondissements qui composent l'aire métropolitaine. Dans les années 1990, le gouvernement essaya d'organiser le système des transports publics. En 1994, de nouvelles routes furent ouvertes et les bus furent peints en jaune. Cependant, le système montrait de nombreux problèmes avec des routes se chevauchant, des niveaux de pollution de l'air et acoustique élevés et des problèmes de sécurité à la fois pour les cyclistes et les conducteurs. Pour résoudre ces problèmes, un nouveau système de transport, appelé Transantiago (Red Metropolitana de Movilidad) a été imaginé et mis en place. Lancé le , le système combine des services principaux avec le métro et les routes locales, sous un système de paiement unifié grâce à une carte intelligente sans contact appelée "Tarjeta bip!". Le changement ne fut pas très bien reçu par les utilisateurs, qui se plaignirent du manque de bus, trop de transferts d'un bus à un autre et une couverture du réseau limitée. La plupart des problèmes ont été résolus, mais le système obtint une mauvaise réputation qu'il n'a pas réussi à effacer. Histoire. Fondation de la cité. Santiago fut fondée le par le conquistador Pedro de Valdivia, qui lui donna le nom de Santiago de la Nueva Extremadura en mémoire de l'apôtre espagnol Saint Jacques et de l'Estrémadure. La cérémonie de fondation de Santiago se tint sur la colline de Huelén (renommée plus tard colline Santa Lucia de Santiago). Valdivia choisit de s'y installer en raison du climat, de la végétation abondante et de la facilité avec laquelle la ville pourrait être défendue. En effet, elle fut établie entre les deux bras de la rivière Mapocho, sur les flancs du cerro Santa Lucia (colline Santa Lucia). Le tracé de la ville fut dessiné par Pedro de Gamboa selon les normes coloniales. Époque coloniale. Le , à , un séisme de magnitude 8,5 sur l'échelle de Richter (estimation rétrospective) fait plus de 600 morts et quelque cinq mille blessés, et détruit quasiment tous les bâtiments de la ville. Capitale de la République. Le , un se déclare dans l'église de la Compagnie (de Jésus), lors de la clôture de la fête religieuse connue sous le nom de « Mois de Marie », faisant entre et morts, principalement des femmes appartenant aux plus grandes familles de la capitale. Non identifiables, les victimes seront inhumées dans une fosse commune. Les vestiges de l'église seront démolis, et un service d'incendie sera créé dans la capitale à l'initiative des citoyens. La Métropole au début du. Des émeutes éclatent le et se poursuivent les jours suivants à la suite de l'augmentation du prix du ticket de métro. Des magasins sont pillés et plusieurs institutions sont incendiées. Plusieurs personnes meurent lors du pillage de l'usine de sous-vêtements Kayser à Renca. Plusieurs rames de métro ainsi que seize autobus sont également détruits par le feu et de nombreux mobiliers urbains détruits. Le président Sebastián Piñera décrète l'état d'urgence pour quinze jours et confie la gestion de la ville à Javier Iturriaga del Campo, un général de l'armée. Tous les musées sont fermés et les transports publics ne circulent pas. Des concerts de casseroles ont lieu dans la ville, similaires à ceux qui se sont produits lors de l'accession au pouvoir de Pinochet. Le , des milliers de personnes sont bloquées à l'aéroport à la suite de l'annulation d'une centaine de vols. Le 25 octobre, 1,2 million de personnes manifestent contre le gouvernement et le système économique chilien, réputé très inégalitaire. Des manifestations se succèdent pendant plusieurs semaines et entrainent une sévère répression ; à la mi-janvier 2020 on dénombre au moins 27 morts, 3 650 blessés et 22 000 détentions. Économie. Données générales. La ville de Santiago est le centre industriel et financier du Chili, et génère 45 % du PIB du pays. Certaines institutions internationales, telles que la CEPALC (Commission économique pour l'Amérique latine et les Caraïbes), ont leurs bureaux à Santiago. Actuellement en cours de construction, le Costanera Center est un méga-projet immobilier dans le quartier financier de Santiago. Il comprend un centre commercial de carrés, une tour de , deux tours de bureaux de chacune, et un hôtel de de hauteur. L’instauration d’un capitalisme néolibéral par la dictature militaire (1973-1990) a favorisé la dérégulation du marché et la survalorisation de la propriété immobilière. Le régime a alors abandonné les grands projets d’urbanisme pour la capitale, ce qui a favorisé un étalement urbain mal maîtrisé. En , le gérant en charge, Cencosud, a déclaré dans un communiqué que la construction de ce méga centre commercial serait progressivement réduite jusqu'à ce que l'incertitude financière soit effacée. En , Cencosud a annoncé le redémarrage du projet, et cela a été pris en général comme un symbole de la réussite du pays au cours de la crise financière mondiale. Près du Costanera Center un autre gratte-ciel est déjà en cours de construction Titanium La Portada, de de hauteur. Bien que ceux-ci soient les deux plus grands projets, il y a beaucoup d'autres immeubles de bureaux en construction à Santiago, ainsi que des centaines de bâtiments résidentiels de grande hauteur. En , Gran Torre Santiago, une partie du projet Costanera Center, atteint la barre des , et devient officiellement la plus haute structure d'Amérique latine. Santiago abrite en 2017 une soixantaine de gratte-ciel. L'économie forte et la dette publique faible attirent les immigrés en provenance d'Europe et des États-Unis. La ville perd, en 2019, le lac d’Aculeo, asséché par la sécheresse et la surconsommation d’eau. Avec une superficie de près de et une profondeur d’environ six mètres, le lac constituait depuis des décennies l'une des principales activités touristiques de la région. Industrie. La majeure partie de l'activité industrielle et commerciale du Chili est concentrée dans la capitale nationale et régionale de Santiago, mais il y a d'importantes activités d'approvisionnement, de commercialisation et de transformation à San Bernardo (emplacement des magasins, grands chemins de fer), Puente Alto, Melipilla, Talagante et Buin. La production laitière et de viande de bœuf est importante ; les principales cultures de la région sont les céréales, les raisins, les pommes de terre et les haricots. Le cuivre, le gypse et le calcaire y sont extraits. La commercialisation est facilitée par la proximité des centres urbains reliés aux lignes principales de chemin de fer et par un réseau développé de routes régionales. La FAMAE (FAMAE Fábricas y Maestranzas del Ejército) qui fabrique les armes pour l'armée chilienne a son siège à Santiago. Sport. Santiago est le berceau des plus grandes équipes de football du Chili. Fondée le , le a une longue tradition et joue de manière régulière parmi l'élite depuis la création de la Primera División en 1933. Le club a gagné nationaux, dix Coupe nationale, et une en 1991, seul club chilien à avoir remporté le tournoi. Le club joue ses matchs à l' dans la commune de Macul. La seconde équipe est l' qui compte seize titres nationaux et trois Coupes nationales. En 2011, elle remporte la , c'est la seule équipe chilienne à avoir remporté ce tournoi. Le club fut fondé le , sous le nom de , union du et de la . Les fondateurs étaient des étudiants de l'Université du Chili. En 1980, l'organisation se sépare de l'Université du Chili et le club est maintenant indépendant. Le club joue ses matchs à l' dans la commune de Ñuñoa. La troisième équipe la plus populaire est le fondé le . L'équipe joue ses matches à l'. L' compte dix titres nationaux, jouant plus de vingt fois la , atteignant la finale, qu'elle perd, en 1993, face au São Paulo FC. Plusieurs autres clubs de football sont basés à Santiago, tels que l', , , , et . Par ailleurs l' fut l'un des quatre stades où se déroulèrent les matchs de la phase finale de la Coupe du monde de football 1962 et notamment la finale remportée par le Brésil sur la Tchécoslovaquie par , le . S'ajoutent au sports de Santiago, le tennis et le basketball. La ville compte aussi le Club hippique de Santiago et l'hippodrome du Chili qui sont les deux pistes dédiés à la course de chevaux. Santiago accueillera par ailleurs les Jeux panaméricains de 2023. Education et culture. Santiago possède la plus grande concentration d'institutions culturelles du pays. Par contre, ne subsistent que quelques bâtiments historiques de la période coloniale espagnole, car à Santiago, comme dans le reste du pays, les tremblements de terre frappent régulièrement le pays. Les bâtiments existants comprennent la maison Colorada (1769), l'église San Francisco (1586), l'église Santo Domingo (1747-1771) et la Posada del Corregidor en (1750). La cathédrale sur la place centrale (Plaza de Armas) a une vue comparable au Palacio de La Moneda, le palais présidentiel. Le bâtiment original fut construit entre 1784 et 1805, par l'architecte Joaquín Toesca. Il abrite le musée national d'histoire, avec qui peuvent être exposés. À l'angle sud-est de la place se trouve le centre commercial Edwards, à fonte verte, construit en 1893. À l'est de cela on trouve le bâtiment colonial de la maison Colorada (1769), qui loge le Musée de Santiago. Il y a aussi le Théâtre municipal de Santiago, construit en 1857 par l'architecte français Brunet Edward Baines. Il a été gravement endommagé par un tremblement de terre en 1906. Pas loin du théâtre se trouvent le manoir de Subercaseaux et la Bibliothèque nationale du Chili, une des plus grandes bibliothèques de l'Amérique du Sud. Musique. Il y a deux orchestres symphoniques : Les groupes historiques du Chili sont : Les chanteurs historique.s du Chili sont : Musées. Parmi les musées, on compte : Religion. La religion majoritaire est le catholicisme, mais l'évangélisme en provenance des États-Unis est en forte croissance. La ville est le siège de l'archidiocèse de Santiago du Chili fondé au , avec sa chaire épiscopale à la cathédrale métropolitaine de Santiago du Chili. Santiago abrite, entre autres églises, six basiliques mineures : la basilique Notre-Dame-de-la-Merci, la basilique Notre-Dame-du-Perpétuel-Secours, la basilique du Cœur-Immaculé-de-Marie, la basilique Notre-Dame-du-Mont-Carmel (située à Maipú, et également reconnue sanctuaire national), la basilique du Saint-Sauveur et la basilique Notre-Dame-de-Lourdes. Politique et administration. Santiago est intégrée dans la Région métropolitaine mais ne possède pas d'institutions chargées de son administration, celle-ci étant exercée par diverses autorités, ce qui complique le fonctionnement de la ville comme une entité unitaire. La ville est divisée en qui sont dirigées chacune par un conseil municipal et un maire. La plus importante est celle de Santiago qui en occupe le centre et abrite les principaux édifices publics. |
Seth Seth (de l'égyptien "Setesh" / "Soutekh") est l'une des plus anciennes divinités égyptiennes. Sa représentation, au museau effilé et aux oreilles dressées mais tronquées, est une composition hybride née de l'imaginaire des Égyptiens des temps prédynastiques. Cette iconographie monstrueuse est peut-être inspirée de l'oryctérope, un termitivore, fouisseur des savanes africaines. Dans le mythe, Seth est le dieu de la confusion, du désordre et de la perturbation, ce que souligne l'écriture hiéroglyphique dans laquelle l'animal séthien sert de déterminatif pour des concepts négatifs (autoritarisme, fureur, cruauté, crise, tumulte, désastre, souffrance, maladie, orage). Maître du tonnerre et de la foudre, il exerce sa puissance sur les marges de l'Égypte que sont les contrées désertiques, les zones arides et les pays étrangers à la plaine du Nil. Seth est un dieu complexe. Sa nature brutale se manifeste plus particulièrement dans un comportement sexuel agressif, tant homosexuel avec Horus qu'hétérosexuel avec de belles déesses qu'il poursuit de ses assiduités. Sa puissance désordonnée contribue néanmoins à l'équilibre cosmique. Selon la vision égyptienne, les forces destructrices sont en lutte perpétuelle contre les forces positives. En cela, Seth s'oppose à son frère Osiris, symbole de la terre fertile et nourricière. Dès les "Textes des pyramides", Seth est l'éternel rival d'Horus. Au cours d'une lutte, il arrache l'œil de son adversaire qui en retour le blesse aux testicules. L'antagonisme des deux dieux illustre la double nature de Pharaon qui unit en sa personne ces deux forces contraires mais complémentaires. Si Horus est le dieu de l'ordre pharaonique, la puissance irraisonnée de Seth participe à la symbolique royale en tant qu'image de la force violente et déchaînée que le roi déploie contre ses ennemis. Protecteur de Rê, Seth combat le serpent Apophis et participe donc à la bonne marche du monde. Bien qu'inquiétant et lié à des forces aveuglément destructrices, Seth est cependant plus un dérangeant "fripon" qu'un démon maléfique, du moins dans les mythes anciens. Ce n'est qu'à partir de la Troisième Période intermédiaire que l'image de Seth se ternit durablement, peut-être en réaction aux prises de contrôle successives de plusieurs peuples étrangers sur le royaume d'Égypte. Seth, associé aux puissances étrangères, devient l'agent maléfique de la perte du pays. Les mythes relatifs à Seth le dépeignent alors comme ambitieux, comploteur, manipulateur, se concentrant sur l'assassinat de son frère Osiris. Il est progressivement confondu avec Apophis, le serpent du chaos, malgré l'ancienne tradition selon laquelle il le combattait au nom de Rê. Le monde grec l'a identifié à Typhon, monstre primordial du chaos et entité maléfique comparable. Figure emblématique. Animal séthien. Dès les débuts de l'égyptologie, la morphologie générale de Seth sous sa forme entièrement animale a beaucoup intrigué les savants. Pour les fondateurs de la science comme Jean-François Champollion (1790-1832), Ippolito Rosellini (1800-1843) ou Karl Richard Lepsius (1810-1884), il s'agit d'un animal imaginaire né de l'esprit humain. Leurs successeurs se sont éloignés de cette thèse et ont tenté de déterminer précisément son identité zoologique. La représentation de l'animal séthien, telle qu'elle est connue depuis la , lui donne un corps de canidé efflanqué. Son museau est long et courbé, ses oreilles sont droites et tronquées comme aucun animal sauvage n'en est doté. Sa queue est toujours dressée même quand l'animal est figuré couché sur son ventre. Cet aspect étrange fit naître bon nombre d'hypothèses. Tour à tour, l'animal été identifié à l'âne, l'oryx, l'antilope, le lévrier, le fennec, la gerboise, le chameau, l'okapi, l'oryctérope, la girafe, le tapir, le lièvre Il y a cependant toujours eu des égyptologues pour dire que l'animal était fabuleux tels les Allemands Ludwig Borchardt (1863-1938) et Günther Roeder (1881-1966). Selon le Néerlandais Herman te Velde, auteur en 1967 d'une monographie sur Seth, le hiéroglyphe de l'animal séthien ne représente aucun animal réel et vivant. Des indices laissent même avancer que les Égyptiens le considéraient comme un animal fabuleux. Dans une tombe de Beni Hassan datée du Moyen Empire, des scènes de chasse montrent différents animaux censés peupler le désert. L'animal séthien, nommé "Sha", est suivi d'un canidé à tête de faucon et muni d'ailes et d'un second être, un canidé à tête de serpent. Le débat est cependant loin d'être clos et régulièrement des arguments sont avancés pour identifier l'animal séthien à tel ou tel animal réel. Seth l'oryctérope ? En 2005, l'africaniste belge Pierre de Maret, tout en admettant que l'animal séthien soit un être fabuleux et composite, montre que l'oryctérope a sans doute servi de référent zoologique majeur pour cette construction issue de l'imaginaire humain. Mammifère solitaire et fouisseur efficace, l'oryctérope ne sort que la nuit de son terrier pour se nourrir. Son régime se compose principalement de termites, mais aussi de pupes d'insectes et de végétaux divers, dont le concombre sauvage. Glouton, son poids peut varier de quarante à cent kilogrammes selon les saisons et la quantité de nourriture disponible. Doté d'une très mauvaise vue mais d'un odorat très fin, l'oryctérope renifle bruyamment le sol lorsqu'il se met à quêter les insectes. Effrayé, ses sursauts sont spectaculaires ; blessé ou apeuré, son cri est sourd proche du hurlement de la hyène. En temps normal, sa démarche rappelle celle des suidés, saccadée, zigzagante et ponctuée de grognements. De nos jours, l'oryctérope n'est attesté qu'à travers l'Afrique subsaharienne. Dans la vallée du Nil, il faut ainsi descendre dans les régions méridionales du Soudan pour en rencontrer. L'archéozoologie des sites égyptiens n'a jusqu'à présent pas livré de restes osseux de cet animal. Faute de traces certaines, il est malgré tout possible de croire que les Égyptiens de la période prédynastique, du moins ceux de Haute-Égypte, ont côtoyé et connu l'oryctérope. Selon toute vraisemblance, l'animal est figuré sur quelques vases datés des époques (3500-3300 avant notre ère) et (3300-3100 avant notre ère). Il disparaît d'Égypte après cette période à cause des changements climatiques, son biotope, la savane, faisant progressivement place au désert du Sahara. Les plus anciennes représentations, certaines et connues, de l'animal séthien remontent à la Dynastie 0. La massue de montre un animal massif au dos court, muni de courtes pattes griffues, d'une grosse queue dressée, d'un long crâne surmonté de deux oreilles allongées et d'un museau long en forme de groin. Cette iconographie semble somme toute s'inspirer de l'oryctérope. Avec le temps les représentations évoluent. Au Moyen Empire, le corps de l'animal séthien devient plus svelte et plus haut sur pattes, sa tête cependant change peu. Durant la période ramesside, il est hautement probable que l'oryctérope a inspiré l'artiste chargé de peindre le dieu Seth, homme à tête d'animal, qui figure sur le plafond astronomique du tombeau de . Le souverain s'est peut-être fait livrer un oryctérope depuis les territoires nubiens les plus reculés ; l'animal pouvant s'adapter à la vie captive. L'oryctérope, un symbole africain contemporain. Si l'identification de Seth à l'oryctérope n'est pas certaine, il s'avère que dans l'Afrique contemporaine, nombre de peuples tels les Bambara ou les Tabwa l'ont intégré dans leur pensée symbolique. Son apparence étrange et son comportement effrayant ont engendré nombre de mythes et de croyances à son propos. Une des plus vieilles statues en bois d'Afrique centrale le représente. Datée du , elle a été découverte dans le lit d'une rivière de l'Angola. Perçu comme un animal hors normes, l'oryctérope est situé à la frontière entre le village et la savane, entre le monde visible des humains et le monde souterrain des morts. Sa personnalité complexe évoque les couples d'opposition (visible / invisible ; lumière / obscurité ; bon / malfaisant). Certaines facettes de l'oryctérope le rapprochent des humains et inspirent la révérence. Tel un humain, il peut se redresser sur ses deux pattes arrière. La femelle, monopare, n'enfante qu'un seul petit, deux plus rarement. Cette fécondité tempérée l'écarte de l'univers sauvage aux naissances innombrables. D'autres caractéristiques inspirent la peur et la méfiance. Animal fouisseur, ses terriers sont de longues galeries labyrinthiques où les chasseurs peuvent s'égarer. Quant aux terriers abandonnés, ils accueillent volontiers les plus redoutables serpents. Animal griffu, l'oryctérope gratte et fouille la terre à la recherche de nourriture. Cette fonction le rapproche des tradipraticiens à la recherche de plantes médicinales mais aussi des agriculteurs occupés à biner les champs le dos courbé. Lors de l'initiation, les jeunes Bambara doivent séjourner dans ses terriers pour acquérir son endurance au travail, sa science et sa persévérance. Selon les Nyanga, l'oryctérope possède champs et bananeraies et emprisonne, la nuit durant, le soleil dans sa tanière. Chez les Tschokwé, une de ses pattes ou pour le moins, une de ses griffes, entre dans les objets qui composent le panier du devin en tant que symbole du médecin et du passé oublié. Pour ces derniers comme pour les Rukuba, l'animal symbolise le chef qui régule la fécondité, le garant de l'ordre et de l'harmonie. Dénomination. Hiéroglyphes. ! scope="col" | Transcription ! scope="col" | Hiéroglyphe ! scope="col" | Traduction Les "Textes des pyramides" sont les plus anciens écrits religieux de l'Égypte antique. Ils apparaissent gravés sur les murs des salles souterraines des pyramides des souverains des et s. Dans la pyramide d'Ounas, où ils figurent pour la première fois, le nom de Seth est exclusivement écrit avec le logogramme de l'animal séthien couché sur son ventre. Chez ses successeurs, le théonyme est écrit "Setesh" avec des signes unilitères. Plus tard, le théonyme s'écrit aussi avec les logogrammes de l'animal assis et de l'homme assis à la tête séthienne. Au cours de l'histoire égyptienne, plusieurs formes du nom coexistent : "Setesh" / "Zetesh", "Setekh" / "Zetekh", "Soutekh", "Set" / "Souty", etc. Toutes ces formes sont des variantes orthographiques du même nom et ne désignent en aucune manière diverses divinités. À partir du Moyen Empire, la forme "Set" / "Souty" tend à se généraliser à côté de la forme "Setesh", plus ancienne et traditionnelle. Après la , s'installe la forme "Setekh" / "Soutekh". La forme "Set" / "Souty" est la marque de l'affaiblissement de la consonne finale. Ce phénomène est probablement apparu en Haute-Égypte où la prononciation peut avoir été "Sùt" puis "Sèt". En Basse-Égypte, la prononciation est restée plus dure sous les formes successives de "Sùtekh" et "Sétekh". Ces variations de prononciation persistent durant l'époque copte dans les différents dialectes de la langue. Le Bohaïrique conserve la dureté de la consonne finale tandis que le Sahidique restitue son amoindrissement. Au cours du premier millénaire avant notre ère, lorsque les Anciens Grecs sont entrés au contact des Égyptiens, ils ont restitué le théonyme sous les graphies "Sēth" () / "Sēt" (). Signification. ! scope="col" | Transcription ! scope="col" | Hiéroglyphe ! scope="col" | Traduction Dans l'état actuel des connaissances, à l'instar d'autres divinités égyptiennes majeures, l'étymologie du nom de Seth reste incertaine. Le grec Plutarque est le premier auteur à fournir une signification en rapportant qu'il s'agit d'un terme qui ("Sur Isis et Osiris", §.49). Selon les critères scientifiques modernes, cette explication tient plus de la pseudo-étymologie. D'après l'égyptologue allemand Hermann Kees elle est néanmoins valable car elle provient des conceptions religieuses égyptiennes tardives et de mots égyptiens qui signifient « embrouiller, morceler ». Dans les textes religieux, les prêtres égyptiens ont usé de jeux de mots où le nom de Seth a été mis en rapport avec les mots "tekhtek" « mettre en désordre, emmêler », "teshtesh" « écraser » comme dans la phrase "tash ni semaout Setesh" « j'ai mis en pièces les compagnons de Seth » ("Textes des sarcophages", ). Jusqu'à la fin du Nouvel Empire, les lettrés égyptiens ont utilisé l'idéogramme de l'animal séthien comme déterminatif de quelque du vocabulaire (voir quelques exemples dans le ). Ces mots recouvrent des notions désagréables et des aspects peu favorables de la réalité. D'une manière évidente, à travers la graphie, la signification de ces mots a été mise en rapport avec l'animal séthien considéré comme étant à l'origine de ces aspects néfastes. Ce groupe de mot fait référence à des comportements humains perturbateurs contraires à la Maât (Harmonie cosmique et sociale) tels que la vantardise, la partialité, l'autoritarisme, le rugissement, la cruauté, la crise, le tumulte, le désastre, la souffrance, la maladie et l'affliction. Le dieu Seth a aussi été perçu comme étant à l'origine des perturbations atmosphériques comme la tempête, le tonnerre, les bourrasques de pluie. Mythologie. Seth est associé à deux grands mythes. Le mythe héliopolitain le met en scène avec Rê, dont il est l'arrière petit-fils, né de l'union de Geb et de Nout la déesse du ciel (eux-mêmes nés de l'union de Shou et de Tefnout). Il est ainsi vu comme un dieu bénéfique représentant la force et l'énergie, défenseur de la barque solaire contre Apophis le serpent, le Mal incarné qui menace l'équilibre du monde. Il s'agit du principal mythe où Seth possède un rôle bénéfique et positif. Dans le mythe osirien, Seth assassine son frère Osiris pour régner à sa place. Il s'oppose à Isis et au fils qu'elle a eu d'Osiris, Horus qui réclame le trône et l'héritage de son père. À la suite de la bataille entre Seth et Horus, les dieux examinent la cause et se prononcent en faveur de ce dernier qui devient alors roi de toute l'Égypte. Dans ce mythe, Rê défend Seth qui lui est encore fortement associé. Naissance. Seth, fils de Nout. Dès les débuts de la civilisation égyptienne, une des épithètes les plus employées au sujet de Seth est « fils de Nout ». Utilisée sans aucune autre précision, elle est connue pour être le synonyme de « Seth ». Les textes n'évoquent toutefois pas d'amour ou de tendre attachement entre la mère et le fils. Seth et Nout sont deux des neuf divinités de l'Ennéade d'Héliopolis composée d'Atoum le dieu créateur, de Shou et Tefnout (Souffle et Harmonie), Geb et Nout (Sol et Voûte céleste) et des quadruplés Osiris, Isis, Seth et Nephtys. Dans les temps primordiaux, Atoum a donné naissance à un couple mâle et femelle, Shou et Tefnout, en éjaculant dans sa main. À leur tour, ces jumeaux ont donné naissance à un couple divin, Geb et Nout. Dès sa naissance, Seth perturbe le processus régulier de la création en venant au monde d'une manière hors norme. Selon le grec Plutarque, auteur au d'un traité sur la mythologie égyptienne, Seth, qu'il assimile à Typhon, est né le troisième des cinq jours épagomènes : L'affirmation du grec Plutarque semble s'appuyer sur une très ancienne tradition égyptienne. Dès le , dans les "Textes des pyramides", le mot "mesi" « naissance, être né » est évité quant à l'apparition de Seth. Lorsque l'âme du roi Ounas () entame son ascension au ciel, elle est comparée à Seth, le dieu fort en magie (Our-hekaou) que sa mère enceinte a violemment vomi : Provocateur d'avortement. Dans le mythe, la venue au monde de Seth est violente et inopportune. Par superstition, cet épisode a fait craindre aux femmes égyptiennes que le dieu puisse être une puissance malsaine cause d'avortement et de fausse couche. Une formule des "Textes des sarcophages" datée du Moyen Empire, nous informe qu'Isis, durant sa grossesse, était dans la peur de Seth et qu'elle craignait pour la vie de son fœtus, le futur Horus fils d'Osiris. La déesse se présente devant Atoum-Rê afin qu'il ordonne qu'aucun dieu ne fasse du tort à l'enfant à venir : Selon Plutarque, la déesse Taouret est la concubine de Seth mais elle le quitte lorsque Horus entreprend de le capturer afin de pouvoir monter sur le trône royal ("Sur Isis et Osiris", ). L'égyptologue néerlandais Herman te Velde explique cette affirmation en avançant que la déesse hippopotame, toujours figurée comme étant gravide, est la protectrice des femmes enceintes. Elle est par conséquent une puissance divine située à l'opposé de Seth. Dans le vocabulaire égyptien, le mot "hai" signifie à la fois « Homme » et « commettre l'avortement » tout en étant l'un des surnoms de Seth. Un papyrus magique tardif à présent conservé au musée égyptologique de Turin fait d'ailleurs dire à ce dernier : Meurtre d'Osiris. Complot familial. On peut lire que les Anciens Égyptiens n'avaient pas pour coutume de narrer longuement les épisodes mythologiques néfastes. Cependant, la mise à mort d'Osiris par Seth est clairement exprimée dès les Textes des pyramides. Le choix des termes employés ne correspond pas à un souci d'édulcorer la réalité mais à celui d'établir un jeu de mots entre l'acte et le lieu de l'action : Osiris est étendu (ndj) à Nedyt, jeté sur le côté (gs) à Gehesti. Osiris est frappé, jeté à terre, lié, tué, découpé en morceaux. La violence de Seth est très clairement exprimée dès les Textes des pyramides. Les Textes des sarcophages développent la quête d'Isis et de Nephtys. La stèle Louvre C 286 relate l'ensemble du mythe. Cependant, il faut attendre le de notre ère pour voir le Grec Plutarque rédiger un récit complet et suivi. Lors d'un complot, Seth apparaît comme un être rusé qui arrive à berner Osiris afin de se débarrasser de lui pour usurper le trône royal : Dans cette version du mythe, les quadruplés Osiris et Isis, Seth et Nephtys forment deux couples. Après avoir découvert qu'Osiris et Nephtys ont commis l'acte d'adultère (d'où Anubis serait né), Seth est au comble de la jalousie. Il décide alors de se venger en organisant un complot au cours duquel Osiris sera assassiné en étant noyé dans le Nil. Cependant après de longues recherches, Isis, l'épouse d'Osiris, retrouve le corps de son mari à Byblos et décide de le cacher dans la végétation des marais de Chemnis. Malheureusement, au cours d'une partie de chasse nocturne, Seth tombe par hasard sur la dépouille. Fou de colère, il dépèce le corps en quatorze morceaux puis éparpille les membres à travers tout le territoire égyptien. Au cours d'une seconde quête, Isis reconstitue le cadavre et lui insuffle la vie éternelle. Grâce à sa magie funéraire, elle parvient même à concevoir un fils, Horus. Ce dernier, une fois adulte, fera tout pour devenir le successeur légitime du roi assassiné. Noyade d'Osiris. Dès les "Textes des pyramides", les plus anciens écrits religieux égyptiens, des allusions mentionnent le meurtre d'Osiris par Seth. Pour amoindrir la violence du geste, des expressions comme « jeter au sol » ou « couché sur son flanc » paraphrasent le verbe « tuer » : Il semble toutefois que l'épisode de la mort d'Osiris ait connu des variantes discordantes. D'autres allusions rapportent en effet qu'Osiris fut noyé ou que Seth laissa le corps de sa victime dériver sur les flots du Nil. Il est aussi permis de penser que la noyade et le meurtre sont deux facettes d'un même funeste événement : Mythe originel. Les Deux Combattants. Seth est un dieu complexe attesté dans l'iconographie dès la période protohistorique (≈ ). D'un point de vue mythologique, il est surtout connu pour être le meurtrier de son frère Osiris et le rival de son neveu Horus pour l'obtention du trône royal. Il apparaît toutefois que la figure d'Osiris n'est apparue que plus tardivement, durant le L'intégration de Seth dans la famille osirienne est par conséquent le résultat d'une reformulation théologique. Dans les "Textes des pyramides", les plus anciens écrits religieux disponibles, certaines allusions mentionnent un conflit entre Horus et Seth. Ces données peuvent être vues comme les traces ténues d'un mythe archaïque pré-osirien. Plusieurs expressions lient les deux divinités en un binôme en les appelant les « Deux Dieux », les « Deux Seigneurs », les « Deux Hommes », les « Deux Rivaux » ou les « Deux Combattants ». Le mythe n'est pas exposé en un récit suivi mais seulement évoqué par des bribes éparses : À partir de ces données, il apparaît que bien avant l'apparition du dieu Osiris au cours de la , existait un mythe archaïque sans doute élaboré durant la Période thinite ( et s) où, déjà, Horus et Seth se chamaillent, se livrent bataille et se blessent l'un l'autre ; le premier perdant son œil, le second ses testicules : Seth ou l'histoire de la défaite de Nebout. Dès les plus anciennes attestations écrites, le dieu Seth est lié à la ville de Nebout (' en grec, ' en arabe). À la fin de la période protohistorique, les cités de Nebout et Nekhen, respectivement patronnées par les dieux Seth et Horus, jouent un rôle socio-économique essentiel. D'après certains égyptologues comme l'Allemand Kurt Sethe (1869-1934) ou le Gallois John Gwyn Griffiths (1911–2004), le conflit entre Horus et Seth est d'origine politique et reflète les tensions tribales qui existaient alors entre les deux villes. La lutte des « Deux Combattants » symbolise les guerres menées par les fidèles d'Horus contre ceux de Seth. Sous le roi Narmer, probablement le légendaire Ménès, ce conflit s'est soldé par la victoire horienne de Nekhen sur Nebout. D'autres universitaires comme les Néerlandais Henri Frankfort (1897-1954) et Adriaan de Buck (1892-1959) sont revenus sur cette théorie en considérant que les Égyptiens, à l'instar d'autres peuplades antiques ou primitives, appréhendaient l'univers selon des termes dualistes fondées sur des paires contraires mais complémentaires : homme / femme ; rouge / blanc ; ciel / terre ; ordre / désordre ; Haute- / Basse-Égypte Dans ce cadre, Horus et Seth sont les parfaits antagonistes, les symboles de tous les conflits, de toutes les disputes où finalement l'ordre soumet le désordre sans jamais pouvoir l’annihiler complètement. En 1967, Herman te Velde estime que le mythe archaïque d'Horus et Seth ne peut pas entièrement se comprendre à partir des événements survenus à l'aube de la civilisation pharaonique. Ses origines se perdent dans les brumes des traditions religieuses de la préhistoire. Un mythe n'est pas inventé mais modifié, de nouvelles variantes se greffant sur les motifs plus traditionnels et anciens. Lumière horienne contre sexualité séthienne. Depuis les plus anciens textes religieux égyptiens jusqu'aux plus récents, l'œil d'Horus et les testicules de Seth, lumière et sexualité, sont deux symboles contraires appairés. Lorsque l'un domine, l'autre ne peut se manifester et inversement. L'Oudjat (ou "Œil d'Horus") est une métaphore complexe, très couramment utilisée par les lettrés égyptiens pour désigner l'astre lunaire et ses différentes phases. L'Œil désigne aussi les offrandes livrées aux dieux lors du culte journalier ainsi que toutes les bonnes choses qui surviennent lorsque règne la Maât (harmonie). Les testicules de Seth représentent la sexualité débridée, les envies sauvages, la confusion des attirances qui doivent être formatées et encadrées avant de pouvoir être fructueuses. Or Seth est un dieu sans limites, irrégulier et confus qui veut avoir des relations tantôt hétérosexuelles, tantôt homosexuelles. Les testicules de Seth symbolisent tant les aspects déchaînés du cosmos (tempête, bourrasques, tonnerre) que ceux de la vie sociale (cruauté, colère, crise, violence). D'un point de vue rituel, les testicules sont la contrepartie de l'Oudjat. Pour que l'harmonie puisse advenir, Seth et Horus doivent être en paix, départagés. Une fois vaincu, Seth forme avec Horus un couple pacifié gage de la bonne marche du monde. Unies, les deux divinités symbolisent la fonction royale. Dès la , le pharaon régnant est un « Horus-Seth » et la reine, à partir du règne de Khéops est « Celle qui voit Horus-Seth ». L'unification de la Basse et Haute-Égypte sous le terme des « Deux Terres » est plus qu'un processus historique ponctuel. Il s'agit avant tout de concilier, d'une manière cyclique et renouvelée, les deux pôles opposés de la création en un homme mortel : le pharaon. Pour assurer la prospérité de son peuple, le souverain intronisé doit à la fois combattre et utiliser la puissance séthienne. Cette violence doit cependant être maîtrisée pour qu'elle puisse être bénéfique à l'ensemble des sujets. Pour ce faire, tel Horus, le roi chasse la confusion hors du royaume en écrasant les rebelles, en appliquant les lois coutumières et en apaisant les tensions sociales. Cependant, tel Seth, le pharaon créé le tumulte au sein des peuples étrangers, les rend inopérants et organise l'accaparement de leurs richesses en recourant à des moyens guerriers (expéditions militaires, raids punitifs, chasses et pillages). Violence et confusion sexuelles. "Les Aventures d’Horus et Seth". Parmi les plus remarquables récits hérités de l'Égypte antique figurent "Les Aventures d’Horus et Seth". Le texte est consigné sur le papyrus et a été publié pour la première fois en 1931 par le Britannique Alan Gardiner (1879-1963). L'auteur et narrateur de ce récit mythologique n'est pas connu. On sait toutefois que le papyrus fut conservé dans une bibliothèque familiale du village de Deir el-Médineh durant l'époque ramesside. Le déroulement de l'intrigue met en scène une succession d'épisodes où Seth affronte, sans succès, Horus et Isis afin d'obtenir le droit légitime de monter sur le trône jadis possédé par Osiris. Appuyé par sa mère Isis, Horus fait convoquer le tribunal des dieux afin de régler le contentieux dynastique en suspens depuis . Le vieux Rê, plutôt favorable à Seth préside les débats, tandis que Thot tient le rôle du greffier. Faute de trouver un accord satisfaisant, les dieux confient à Thot le soin de rédiger une missive à Neith afin de s'enquérir de ses bons conseils. Celle-ci, en réponse propose d'octroyer la couronne à Horus, tandis que Seth devra recevoir les déesses Anat et Astarté comme épouses. Estimant Horus trop jeune, Rê s'oppose à cette médiation. En retour il se voit gravement insulté par Onouris. Après quelques débats infructueux, Rê décide de déplacer le tribunal dans l'île du milieu (Héliopolis) et accepte la demande de Seth d'écarter Isis des délibérations. Avec ruse Isis se métamorphose en une belle servante, se présente devant Seth et le séduit. Elle lui explique qu'étant devenue veuve, un étranger a profité de sa faiblesse et s'est approprié le bétail appartenant à son fils. Seth est scandalisé par l'injustice sans réaliser qu'il se juge ainsi lui-même, au regard de la légitimité d'Horus. Constatant que Seth s'est déjugé, Rê donne la couronne à Horus. Dans une colère noire, Seth propose de gagner la couronne lors d'un combat sportif : une épreuve d'apnée sous la forme d'hippopotames. Isis lance un javelot qui frappe involontairement Horus. Elle lance l'arme à nouveau vers Seth mais, émue par ses lamentations, rappelle son harpon. Furieux, Horus décapite sa mère et prend la fuite. Seth retrouve son neveu puis arrache et enterre ses deux yeux et retourne se présenter devant le tribunal. Aveugle, Horus recouvre la vue grâce à la médecine d'Hathor. Rê conseille alors à Seth et Horus de se réconcilier lors d'un banquet. Seth invite Horus et, le soir tombé, tente une relation homosexuelle afin de l'humilier et de discréditer ses prétentions au pouvoir : Horus déjoue toutefois cet assaut et parvient à berner et humilier son oncle sur les conseils d'Isis qui, entre-temps, a recouvré sa tête grâce à Thot. Après une ultime joute nautique, la dispute est définitivement réglée par Osiris qui, depuis l'au-delà, menace de mettre fin à la fertilité de l'Égypte. Dans la crainte de cette éventualité, les autres dieux couronnent Horus. Seth, définitivement écarté du pouvoir, est appelé par Rê à monter sur la barque solaire et à le défendre contre Apophis. Il devient « celui qui hurle dans le ciel » et ouvre le chemin au soleil. Il remplit alors sa fonction de dieu des tempêtes en déchaînant ses cris sous forme de tonnerre pour écarter le danger. Homosexualité divine. L'assaut homosexuel de Seth sur son neveu Horus dans les "Aventures d'Horus et Seth" a d'abord passé pour un trait salace isolé qui témoignerait de la culture populaire, ipso facto vulgaire, de l'Égypte tardive (la période ramesside étant l'apogée, et les derniers feux de la période pharaonique). L'éditeur princeps, Alan Gardiner, critiquait ainsi la valeur à la fois littéraire et morale de l'œuvre, qu'il imaginait récitée par un conteur, à la veillée, devant des auditoires de paysans. De même, on a pu estimer que les "Aventures", en raison de cet épisode de promiscuité et d'autres passages scandaleux comme la décapitation d'Isis, appartiennent à une branche spéciale de la littérature égyptienne. Mais deux autres passages homosexuels démentent cette conclusion et laissent à penser que l'homosexualité de Seth, tour à tour sexuellement agressif et passif ("hemty"), doit être un trait de sa personnalité divine comme figure de la confusion et du chaos . Le premier est connu depuis 1898 et figure dans les fragments du "Papyrus de Kahun" daté du Moyen Empire. Là, Seth interpelle son neveu en vantant la belle croupe de ce dernier :. Désemparé, Horus raconte à Isis que Seth veut le prendre sexuellement et celle-ci explique à son fils comment le duper durant le rapport : Le second passage, plus ancien encore, est connu depuis 1977 et seulement publié pour la première fois en 2001. Il s'agit d'un fragment des "Textes des pyramides", daté de la et trouvé dans l'antichambre de la pyramide de . Seth et Horus sont décrits comme se sodomisant mutuellement, chacun tenant un rôle actif : Naissance du disque lunaire. D'après le papyrus des "Aventures", lorsque Seth tente de coucher avec Horus, ce dernier parvient à recueillir la semence de son oncle dans ses deux mains. Le jeune dieu, apeuré et ne sachant quoi faire, accourt auprès de sa mère Isis. La bonne déesse, horrifiée, se saisit d'un couteau, tranche les deux mains, les jette dans le Nil et lui en procure de nouvelles. D'après une variante des "Textes des sarcophages", sur ordre de Rê, les deux mains purifiées par l'eau du fleuve, sont repêchées par le crocodile Sobek puis réimplantées par Isis à leurs places. La mère masturbe alors son fils et recueille sa semence dans un pot. Elle se rend ensuite dans le jardin potager de Seth. Après une discussion avec son jardinier, la déesse apprend que Seth ne mange que des laitues. Alors . Ignorant tout de la ruse d'Isis et croyant avoir humilié Horus, Seth convoque Horus devant les dieux afin de se faire couronner pharaon : Thot s'empresse d'appeler la semence de Seth et elle lui répondit depuis le Nil. Il fait de même pour la semence d'Horus : Thot, fils des Deux Rivaux. D'après les "Aventures", lorsqu’après la ruse d'Isis, Thot appelle la semence d'Horus, elle surgit hors du front de Seth sous la forme d'un disque d'or et se place sur la tête de Seth. En colère, il veut s'en saisir mais Thot, plus rapide, la fixe sur sa propre tête telle une couronne. Depuis 1962, grâce à une étude sur les mythes lunaires menée par le Belge Philippe Derchain (1926-2012), nous savons qu'il s'agit là d'une tradition relative à l'apparition de la Lune. Ce mythe a traversé toute l'histoire religieuse égyptienne. Déjà dans les "Textes des pyramides", des allusions indiquent que le disque lunaire est identifié à Thot et à l'Oudjat, l'Œil d'Horus. D'autres allusions rapportent que l'Oudjat a été retiré du front de Seth, qu'il est à la merci de sa colère, qu'il peut s'en saisir ou le voler. Le mythe est attesté jusqu'à la période gréco-romaine. À Edfou, une scène montre pharaon offrir de la laitue à Min l’Ithyphallique tout en rappelant la conception singulière du singe Thot : Dans les "Textes des sarcophages", Thot s'adresse à Osiris, tel son petit-fils, lui rappelant sa conception : . Dans d'autres textes, le dieu lunaire est appelé le « fils des Deux Rivaux » ou le « fils des Deux Seigneurs qui est sorti du front ». D'autres allusions montrent que le conflit entre Seth et Horus prend fin lorsque Thot s'interpose entre les deux divinités et qu'il parvient à les réconcilier après leur longue querelle. Symbolisme de la laitue. La laitue est dans la mentalité égyptienne un légume symboliquement lié à la fertilité masculine. Aussi, n'est-il pas anodin de voir la déesse Isis verser la semence d'Horus sur un plant de laitue afin de féconder Seth et ainsi le féminiser en l'engrossant. Dans le de Basse-Égypte, la relique conservée par la ville de Mendès est le phallus d'Osiris. En ce lieu, le mot "menehep" désigne conjointement ce phallus divin et la laitue sacrée plantée dans un jardin attenant au temple. Ce terme est un composé issu de la racine "nehep" « jaillir, saillir, féconder » et du préfixe "me" « dans ». Toujours à Mendès, la laitue est mise en relation avec le culte de Banebdjedet, le dieu-bélier considéré comme le réceptacle de l'âme-Bâ d'Osiris. Or, le bélier est un animal à fortes potentialités génésiques. Dans un papyrus ptolémaïque conservé par le Musée du Louvre, Seth de passage dans cette ville tente de détruire la laitue sacrée, signe visible et annonciateur de la venue au monde prochaine d'Horus, son concurrent à la succession d'Osiris. La laitue est aussi mise en rapport avec le dieu Min de Coptos. Ce dieu est toujours représenté ithyphallique et, très souvent, avec des plants de laitue derrière lui. Dans les temples tardifs, à Edfou et Dendérah par exemple, des scènes montrent Pharaon offrir des laitues à Min, un don clairement assimilé au phallus. Là, le discours royal évoque le mythe de la fécondation de Seth l'efféminé par la salade. En retour de son offrande, le souverain égyptien attend de Min qu'il favorise la fertilité masculine. Selon une hypothèse avancée en 1924 par l'égyptologue allemand Ludwig Keimer (1892-1957) l'origine du symbolisme phallique de la laitue résulte du rapprochement entre le "lactucarium" de la plante et le liquide séminal. Un autre point de vue est défendu en 1985 par Michel Defossez qui met en avant les potentialités de croissance de la salade qui peut « monter » et atteindre, en Égypte, une taille dépassant le mètre, voire le mètre cinquante. Ce même auteur signale que dans l'Égypte contemporaine, la croyance populaire paysanne veut que le fait de manger de la laitue pour un homme le rend susceptible d'engendrer un grand nombre d'enfants. Violeur de déesses. La sexualité confuse de Seth ne se limite pas à ses débordements homosexuels avec Horus, son neveu. Si le grec Plutarque fait de Seth l'époux de Nephtys, les sources égyptiennes, sans contredire ce point, sont cependant assez discrètes. D'après la documentation rencontrée, il serait plus juste de parler d'un lieu commun qui fait de Seth un mâle violeur. Même la déesse Isis a eu maille à partir avec lui. D'après le "Papyrus Jumilhac", reflet des traditions du nome cynopolitain, lorsque . Dans l'impossibilité de la saillir, le taureau souilla de sa semence le sol du désert d'où poussèrent des pastèques au goût amer. D'après une autre source, Seth a également violé son épouse Anat ; il . Malade, Seth se trouve rétabli grâce à la médecine d'Isis. Une légende attribuée au nome tanite par le "Papyrus Brooklyn" fait de Seth le violeur de la déesse cobra Ouadjet, dame de la ville d'Imet (actuellement Tell Farâoun/Nebesheh), près de Bubastis ; . Les viols d'Anat et Ouadjet se présentent comme des variantes de l'étrange naissance du disque lunaire évoquée par les "Aventures". Tous ces récits se basent sur deux jeux de mots majeurs. Premièrement sur le mot égyptien "metout" qui signifie conjointement « semence » et « venin » et, deuxièmement, sur la paronymie des mots "oupet" « front » et "oupty" « singe ». Concernant le viol de Ouadjet, lors de l'assaut, Seth est touché au front par le venin lancé par la victime. Il se produit ainsi un échange de semences, le dieu fécondant la déesse et inversement. Blessé par le venin-semence, Seth donne naissance à Thot qui surgit hors de son front. La déesse Ouadjet donne quant à elle la vie à un singe prématuré dans les eaux du Nil où il reste immergé. Ce petit être symbolise l'astre lunaire dans sa période d'invisibilité mais prêt à réapparaître. Nephtys, l'épouse adultère. D'après le Grec Plutarque, la déesse Nephtys est l'épouse de Seth. Celle-ci est inféconde avec lui et une allusion des "Textes des pyramides" va même jusqu'à affirmer qu'elle est privée de vagin. Cependant, avec Osiris qui croyait s'unir avec Isis, elle conçoit clandestinement Anubis. Dans la peur de Seth, Nephtys abandonne son fils et le confie aux bons soins d'Isis qui l'élève comme son propre enfant. Depuis lors, Anubis le dieu chacal est le gardien et le protecteur de sa mère adoptive pourchassée par Seth ("Sur Isis et Osiris", ). L'union de Seth et Nephtys est confirmée par des sources égyptiennes. Dans la ville de Seper-Merou consacrée à Seth, la déesse est ainsi placée à ses côtés en disposant d'un sanctuaire propre à son culte. Pour Plutarque la stérilité de Nephtys avec Seth est une métaphore destinée à expliquer l'infertilité des sols agraires rendus secs et durs par un excès de chaleur et un manque d'eau. Cet auteur explique le mythe osirien en faisant des deux frères Osiris et Seth des dieux cosmiques antagonistes mais complémentaires. À Osiris, il attribue les notions bénéfiques de calme, de justice, de fertilité et d'humidité tandis qu'à Seth échoient les notions négatives de colère, d'injustice meurtrière, d'infertilité et de chaleur dévastatrice. Osiris est l'eau du Nil qui féconde Isis, c'est-à-dire l'étroite bande de terre située de part et d'autre du fleuve chargée des limons noirs et fertiles charriés par la crue annuelle. Quant à Nephtys, elle est le symbole des parties extrêmes de la terre d'Égypte, les terres qui sont proches du désert et de la mer, à savoir les deux zones gouvernées par Seth. Ces terres extrêmes sous l'influence de Seth sont habituellement desséchées et infécondes. Mais, lors d'inondations plus fortes, elles se trouvent sous la puissance fécondante d'Osiris. Gorgées d'eau, ces terres stériles deviennent propre à la vie et aussitôt voient croître des plantes. Tel est le cas du mélilot dont une couronne tressée laissée par Nephtys sur le lit d'Osiris a permis à Isis et Seth de constater l'union du couple illicite ("Sur Isis et Osiris", ). Isis, la sœur rivale. Frère et sœur, Seth et Isis entretiennent des relations basées sur la rivalité et le conflit. La déesse Isis est le personnage principal du mythe osirien, bien plus que son époux Osiris qui est un personnage essentiellement passif du fait de sa mort tragique. Dotée d'un caractère vif et rusé ainsi que d'une puissance magique incomparable, Isis devient au cours du premier millénaire avant notre ère, la figure la plus populaire du panthéon égyptien. Son adoration s'exerce même au-delà des frontières égyptiennes lorsque les cultes isiaques se sont vus se répandre dans tout l'Empire romain. Dans de nombreux épisodes mythologiques, la déesse joue le rôle touchant de la mère parfaite, prête à tous les stratagèmes afin de venir à bout des prétentions royales de Seth. Fidèle à Osiris par delà la mort, elle éloigne l'assassin du trône en concevant le malingre Horus, né d'une union posthume entre elle et la momie d'Osiris. Durant l'enfance d'Horus, la déesse-mère, dans la peur de Seth, est condamnée à l'errance et, cachée dans les marais de Chemnis, elle élève son fils avec l'aide de quelques proches dont Thot, Anubis et Nephtys. Toujours sur ses gardes, Isis se doit de protéger la vie de son fils qui est constamment en danger de mort. Débarrassé d'Horus, Seth est le seul prétendant au trône. Durant cette période d'exil, la colère de Seth se manifeste au détriment d'Horus sous la forme de fièvres, de piqûres de scorpions et de morsures de serpents toutes heureusement guéries par la magie médicale des dieux alliés. Isis doit aussi veiller à échapper aux assauts sexuels de Seth. Pour ce dernier, violer Isis l'épouse d'Osiris et la reine d'Égypte revient "de facto" à contracter un mariage et ainsi à s'emparer définitivement de la fonction royale tant convoitée. Dans les "Aventures d'Horus et Seth", au milieu du récit, un épisode cocasse rapporte qu'Isis a retourné la libido débordante de Seth à son encontre. Tandis que les dieux s'offrent une pause lors de leurs délibérations pour savoir à qui des deux rivaux doit revenir le trône, Isis se transforme en la plus désirable des jeunes femmes du monde. Aussitôt Seth remarque la belle et veut la séduire. Voyant que Seth veut lui être agréable, Isis lui expose sa vie dans une parabole : En entendant cette histoire, Seth tombe dans le piège. Il s'offusque et donne raison à la belle. Folle de joie, Isis raille Seth qui s'est déjugé lui-même de ses prétentions. Vexé, ce dernier répète la fable à Rê mais en des termes altérés qui nuisent encore plus à sa cause. Halluciné par la bêtise de Seth, Rê ne peut que donner raison à Horus et ordonne son couronnement. Punition de Seth. Procès. Dans le mythe osirien, la mort n'est pas un état de fait mais une personne, à savoir Seth le meurtrier. Le moment le plus critique, l'acmé du mythe, n'est cependant pas l'assassinat d'Osiris et son démembrement par Seth mais sa renaissance qui n'est pas garantie par avance. La première étape du retour d'Osiris est la reconstitution de son corps. Son épouse Isis parcourt le pays et, au bout d'une longue quête, parvient à rassembler les quatorze lambeaux que le meurtrier avait dispersé. La seconde étape est la lutte d'Horus pour faire reconnaître ses droits à la succession au trône. Sans cette reconnaissance, Horus n'est rien. Il en va de même pour Osiris, tant que son fils n'est pas conforté dans ses droits, il reste une victime inerte privée de tout statut. Ce n'est qu'après le couronnement d'Horus qu'Osiris trouve une place sociale dans le cosmos ; celle de souverain de l'au-delà entouré et protégé par les dieux. L'épisode le plus important, tant pour Horus que pour Osiris, est celui de l'affrontement judiciaire qui voit le fils et le père triompher de Seth le perturbateur de la Maât. Jugé et puni par ses pairs, Seth (et donc la mort) est éliminé et vaincu. Lors des cérémoniels funéraires, chaque défunt égyptien, par la magie des rituels et des paroles invocatoires devient un nouvel Osiris et suit la même procédure judiciaire. Comme chaque décès est une atteinte à la Maât, chaque enterrement devient une procédure visant à s'emparer de Seth. Le but recherché n'est pas de nier la mort (chaque défunt se doit de rejoindre l'au-delà de la nécropole) mais de rétablir l'équilibre social que Seth a bouleversé en s'en prenant à l'un des membres du corps social. Par la capture de Seth et le versement de son sang par le truchement d'un sacrifice taurin il s'agit de mettre fin à la confusion que le trublion divin a semé au sein de la famille et, plus largement, dans l'ensemble de la communauté égyptienne. Victoire d'Horus. La victoire du jeune Horus sur son oncle Seth est l'un des points essentiels du mythe osirien. Le conte ramesside des "Aventures d'Horus et Seth", aussi dénommé "Procès d'Horus et Seth", rédigé aux alentours du -, rapporte un long conflit judiciaire entre deux logiques successorales. En fin de compte, au bout de , Rê le juge suprême donne la préférence à la succession directe (du père au fils) sur la succession collatérale (du frère au frère). Cette notion judiciaire est évoquée dès les "Textes des pyramides", dans la chambre funéraire de (). Un passage évoque le procès de Seth devant le tribunal des dieux à Héliopolis dans le "Hout-Ser" ou « Château du Prince ». Le prêtre ritualiste rappelle à Seth sa défense maladroite devant ses juges ; ses paroles n'ayant pas convaincu le dieu Geb et l'Ennéade. Le verdict de Geb, père d'Osiris et Seth, en faveur de son petit-fils Horus est le reflet d'une volonté politique. Il s'agit de privilégier le fils et de rendre le frère illégitime en cas de conflit dynastique au sein de la famille royale : La défense de Seth ne consiste pas à nier son geste meurtrier mais de fournir une explication censée le disculper. Afin de pouvoir prétendre à l'héritage d'Osiris, Seth rejette la faute sur son frère Osiris qui, selon lui, l'aurait attaqué en premier. Seth aurait alors été contraint de riposter en état de légitime défense. Selon ce dernier, Osiris a été victime de sa propre brutalité. Cet argument ne dupe pas son auditoire et les juges condamnent Seth. Le discours de Seth permet même la création de deux glorieux surnoms attribués à Osiris. Le terme "ik" « attaquer » qui peut aussi se traduire par « secouer » est à l'origine de "Ikouta" « Celui-qui-secoue-la-terre », tandis que le terme "sah" « assaillir, atteindre » est à l'origine du nom "Sah" désignation égyptienne de la constellation d'Orion, la forme astrale d'Osiris dans le ciel nocturne. Bête de sacrifice. Déféré devant le tribunal divin, Seth est reconnu coupable par les dieux. Il est fait prisonnier et solidement ligoté. Horus et Osiris sont rétablis dans leurs droits ; le fils règne sur la terre et le père sur le monde de l'au-delà. Tout au long de l'histoire égyptienne, de l'Ancien Empire à la période gréco-romaine, la condamnation de Seth et son exécution donnent lieu à un rite d'abattage sacrificiel. Un taureau est conduit devant la momie du défunt et sa mise à mort constitue la fin de la liturgie funéraire. Dans la pensée mythologique égyptienne Horus et Osiris symbolisent la pérennité des liens familiaux par delà la mort. Horus est le fils idéal qui offre au père décédé les rituels funéraires et donc une place dans l'éternité. En contrepartie, Osiris est l'ancêtre idéal qui, depuis l'au-delà, offre aux vivants la prospérité agraire, la fertilité des troupeaux, en bref, l'épanouissement de la descendance. Osiris est aussi le symbole du pouvoir monarchique. Or tout pouvoir doit faire face à l'opposition et à la rébellion. Le geste meurtrier de Seth sur Osiris est une transgression qui doit être suivie d'un châtiment. La mort sacrificielle de Seth vise à rétablir l'ordre cosmique que son action funeste a ébranlé. Seth n'est pas le Diable ou le Mal absolu tel qu'il est entendu dans les conceptions chrétiennes. Seth est la contrepartie d'Osiris ; l'agent qui apporte la canicule, la sécheresse, le désordre et la stérilité. Seth participe à une dynamique ; il explique la présence du mal et de la mort dans le monde. Mais, en même temps, à travers son assimilation à l'animal sacrifié, Seth est la mort que l'on peut faire mourir. Le sacrifice du taureau symbolise la fin de Seth, la fin de la mort, la fin de l'ennemi, la fin de la dualité Vie / Mort. Lors du sacrifice, le coup que Seth a porté à Osiris rejaillit sur lui. Ce fait est murmuré à l'oreille du taureau par une prêtresse qui joue le rôle d'Isis. La puissance vitale de Seth, contenue dans le sang de l'animal sacrifié, est offerte au défunt. Pour ce dernier, la mort est une maladie dont on peut guérir ; la guérison complète coïncide avec l'exécution du taureau. Dans le rituel de l'Ouverture de la bouche, point d'orgue des cérémoniels funéraires, les cinq sens sont redonnés au défunt. Le rite donne lieu à une série de sacrifices animaliers où le prêtre cérémoniaire joue le rôle d'Horus. Les animaux sont les substituts de Seth et de ses complices qui s'en sont pris au défunt : Porteur d'Osiris. Dès l'époque des "Textes des pyramides" (), la littérature funéraire déclare que Seth est condamné à porter Osiris sur son dos. À partir de la dynastie saïte () ce propos vient à être illustré sur les sarcophages, dans les temples et les tombeaux par le taureau Apis portant une momie vers son tombeau. D'après le "Papyrus de Brooklin", une monographie religieuse rédigée sous et traitant des mythes du Delta, le transport des lambeaux du corps d'Osiris est confié à deux animaux ; les viscères sur le dos du taureau Mnévis, le tibia et l'omoplate sur celui d'un âne guidé par Isis. Selon un épisode mythique rapporté par le "Papyrus Jumilhac" (époque gréco-romaine), Seth est capturé au lasso par Anubis, castré par ce dernier et condamné à porter la momie d'Osiris sur son dos. Depuis sa castration, Seth porte le nom de Bata, le bœuf sacré de la ville de Saka. Le transport d'Osiris sur le dos de Seth a été diversement interprété par les égyptologues. Pour Hermann te Velde, une allusion des "Textes des pyramides" montre que le taureau ou la tête de taureau ont un rapport avec la barque funéraire chargée de convoyer les défunts vers la nécropole. Il est plausible de penser que la barque d'Osiris ait pu être décorée avec la tête d'un taureau sacrifié. Placé à la proue, le protome représente Seth portant le défunt en tant que bateau funéraire. Pour Frédéric Servajean, le "Papyrus Jumilhac" est à mettre en rapport avec le "Conte des deux frères", un texte mythologique ramesside qui narre les aventures d'Anubis et Bata. Dans ce texte, durant la période des semailles, Anubis propriétaire d'une grande ferme ordonne à Bata, son valet, de porter sur ses épaules une lourde charge de grains, du grenier depuis les champs. Après une étude structurelle des deux textes, il apparait que le transport de la momie ou des grains par Bata (Seth castré) aurait pour origine un ancien mythe agraire où Anubis est un dieu civilisateur qui fait passer les animaux du monde sauvage au monde domestique. Constellation de la Patte-du-Taureau (Grande Ourse). D'après une tradition égyptienne rapporté par le "papyrus Leide I348", Seth tue Osiris alors qu'il s'est transformé en taureau. Il frappe son frère avec sa patte antérieure, une partie du corps dénommée "khepesh" en langue égyptienne : . Selon le "Papyrus Jumilhac" (époque gréco-romaine), Horus s'est vengé de Seth en anéantissant tous ses complices, en détruisant ses possessions et en mutilant l'agresseur. Il lui coupe la patte et la jette dans le ciel, formant ainsi une nouvelle constellation : Dans les sept étoiles qui constituent la constellation de la Grande Ourse (ou "Grand chariot"), les Anciens Égyptiens voyaient soit une herminette-"meskhtyou" soit la cuisse avant d'un taureau. D'après le du "Livre des Morts", les enfants d'Horus sont quatre des sept divinités chargée de protéger Osiris d'une ruade de Seth. Dans les scènes astronomiques peintes sur les sarcophages à partir de la Première Période intermédiaire et sur les plafonds des tombes du Nouvel Empire, les sept étoiles sont figurées soit comme une patte, soit comme un taureau en entier. La dangerosité de ce dernier est maîtrisée par la déesse Taouret figurée avec un corps d'hippopotame muni de pattes de lion et d'un dos de crocodile (peut-être la constellation du dragon). Lieux de culte. Tout au long de l'histoire de l'Égypte antique, le dieu Seth a bénéficié de lieux de culte, grands ou petits, disséminés le long de la vallée du Nil mais de préférence en lisière du désert au débouché de routes caravanières. Les hauts lieux de la croyance ont été le temple de la ville de Noubt (Ombos), le temple de Seper-Merou et le temple d'Avaris (Pi-Ramsès). Ces trois sanctuaires sont à présent arasés. Zones désertiques. Seigneur des pays étrangers. Dès les débuts de la civilisation égyptienne, Seth a été considéré comme le dieu qui régente les pays étrangers, les espaces désertiques en manque d'eau, les oasis du désert et tous les territoires extérieurs à l'Égypte. Le dieu Anty, tel Horus, peut être représenté avec une tête de faucon. Sur une stèle du Moyen Empire trouvée dans le désert du Sinaï, en tant que « Seigneur de l'Est », il est cependant représenté avec une tête de Seth. Dès la , le dieu Ach « Seigneur de la Libye » peut être figuré avec une tête séthienne. Durant la période tardive, ce même dieu voit son nom déterminé par le hiéroglyphe de l'animal séthien. À partir du Nouvel Empire, les sources écrites démontrent que Seth assure la protection des oasis et des routes qui y mènent depuis la vallée du Nil. L'archéologie a montré que jusqu'à la fin du paganisme, les oasis du désert Libyque ont voué un culte à Seth. L'égyptologue Hermann Kees a en outre remarqué que le culte de Seth, en Égypte même, était principalement pratiqué en des villes situées aux portes du désert et d'où partaient des routes caravanières (Ombos, Seper-Merou). L'implantation de Seth en ces lieux n'est pas un fait anodin. La construction d'un temple mais aussi son entretien et ses dotations résultent de choix décidés par les pharaons eux-mêmes. Dans le cadre d'une politique religieuse planifiée, les souverains ont ainsi verrouillé les frontières du pays par le moyen des rites afin d'apaiser Seth, le perturbateur mythique de la paix, pour qu'il n'envoie pas des hordes bédouines sur le pays du Nil. Oasis de Kharga. À l'ouest de la vallée du Nil, le désert Libyque est une vaste étendue aride qui abrite quelques îlots de verdure due à la présence de points d'eau. Les oasis les plus importantes sont, du sud au nord, Kharga, Dakhla, Farafra, Bahariya et Siwa. L'oasis de Kharga est un site ponctué de nombreux sites archéologiques. Parmi eux figure la ville de Hibis (nom grec), en égyptien "Hebet" « la ville de l'araire ». Cette cité est un carrefour de routes caravanières ; étape obligée entre la vallée du Nil et l'oasis de Dakhla. Plusieurs pistes y convergent depuis les villes nilotiques de Lycopolis, Diospolis Parva, Thèbes, Latopolis et Hermonthis. Assez bien conservé, le temple d'Hibis est principalement consacré à la triade thébaine (Amenebis « "Amon d'Hibis" », Mout, Khonsou) et à la triade abydéenne (Osiris, Isis, Horus). Le sanctuaire est de taille moyenne, de long pour de large. Le bâtiment a été construit en plusieurs étapes, la partie centrale remonte à , des éléments de décoration de et les portails de l'allée processionnelle de . Le temple est édifié perpendiculairement au lac de l'oasis auquel il est relié par une allée bordée de sphinx. Sur cette étendue d'eau, longue de pour de large, naviguait la barque sacrée conduite en procession lors des festivités cérémonielles ; durant les Mystères d'Osiris par exemple. Dans le temple, un curieux bas-relief met en scène « Seth, grand de force, qui réside à Hibis » en un personnage anthropomorphe à tête de faucon couronné du pschent. Son corps se double par la silhouette d'un faucon aux ailes déployées. Entre ses jambes, il est accompagné d'un lion dont la tête est malheureusement perdue. Dans ses mains, Seth tient une lance et, très vigoureusement, il transperce le serpent Apophis. Oasis de Dakhla. L'oasis de Dakhla est un îlot de verdure, de de long sur de large, perdu dans les sables sahariens à quelque à l'ouest du Caire. Le culte de Seth était implanté à Mout, la cité principale, sur le site de l'actuelle Mout el-Kharab. Les sources gréco-romaines mentionnent le lieu sous les toponymes de "Môthis" et "Môthiton polis", la « Ville-des-Môthites ». Les ruines du temple de Seth ont disparu sous la ville moderne mais des fouilles archéologiques ont démontré qu'il se dressait dans un enclos rectangulaire de de long pour de large. Des blocs épars mentionnent le dieu Seth ainsi que les noms de plusieurs souverains qui lui ont rendu hommage : , Horemheb, un et . Après la Troisième Période intermédiaire, les représentations de Seth ne font plus voir l'animal séthien mais une divinité à tête de faucon surmonté du disque solaire, près proche des représentations d'Horus. Durant la période ptolémaïque, le culte de Seth subit la concurrence d'un dieu nouveau Amon-Nakht « Amon est puissant » issu de la fusion théologique des dieux Amon-Rê-Horus et doté d'un temple d'importance à Ain Birbiyeh. Seth n'est pourtant pas entièrement supplanté. Même en ce sanctuaire, un relief du un des derniers gravés, fait voir la figure du dieu, preuve de la suprématie persistante de Seth à Dakhla. Nome coptite. Noubt (Ombos). Le dieu Seth est très anciennement lié au nome coptite ( de Haute-Égypte) localisé à une quarantaine de kilomètres au nord de Louxor. Ce nome tire son nom de Coptos, ville vouée au dieu Min et située sur la rive orientale du Nil. Un peu plus en amont et sur l'autre rive se situe la ville de Noubt ("Ombos" en langue grecque et "Nagada" en arabe) plus spécialement consacrée au dieu Seth. Le toponyme égyptien Noubt « La Cité de l'Or » trouve probablement son origine au fait que le lieu se trouve être placé au débouché des principales routes conduisant aux mines aurifères, jadis prospères, du désert Arabique. L'expression « Seth de Noubt » est connue dès les débuts de la civilisation pharaonique. Elle se trouve gravée sur un fragment de bol en porphyre, de provenance inconnue, daté de la , sur un fragment d'un naos héliopolitain daté du règne de Djéser () ou, encore, sur un bloc de pierre issu du temple funéraire de Sahourê (). Dans les "Textes des pyramides", Seth est indifféremment appelé « Seth de Noubt », « Seth qui est à Noubt », « Celui de Noubt » ou « Le Haut de Noubt qui est à l'avant de sa chapelle ». Le dieu disposait dans cette ville d'un temple qui lui était consacré, un lieu saint déjà mentionné sur une stèle érigée à Saqqarah dans le mastaba du prêtre Khâbaousokar (). Temple de Seth. Le temple, aujourd'hui arasé, fut reconstruit et remanié plusieurs fois au cours de l'histoire. Des fouilles menées à la fin du par les Anglais William Petrie (1853-1943) et James E. Quibell (1867-1935) ont montré que le dernier état remonte pour l'essentiel au Nouvel Empire. Il est probable que le culte se soit maintenu jusqu'à la Basse époque. Le temple suivait un axe est-ouest. Le sanctuaire construit en blocs de calcaire était enfermé dans une enceinte de briques crues longue d'une soixantaine de mètres et ouverte à l'est et à l'ouest par deux pylônes également en briques crues. La plupart des blocs retrouvés datent de la et notamment de . Le Musée du Caire conserve un linteau de porte au nom de ce pharaon où l'on peut voir « Seth de Noubt » faisant face à la titulature royale du souverain et lui tendre les signes de la vie et de la puissance. Certaines indications laissent à penser que le monument fut restauré sous . D'après le "Papyrus Harris", un long texte qui résume les bienfaits de envers les dieux, le roi a procédé à des reconstructions et a doté le lieu en personnels et en fournitures diverses : Sceptre Ouas monumental. Dans la salle nord-ouest du temple de Seth à Noubt, les fouilleurs ont découvert en 1895 une grande quantité de fragments en émail bleu qui se sont trouvées être les parties d'un gigantesque sceptre Ouas dédicacé par le pharaon . Restauré, cet artefact mesure quelque de haut pour . Il est depuis conservé dans une vitrine du Victoria and Albert Museum de Londres. La nature de cet objet n’est pas certaine. Il pourrait s'agir soit d'un ' déposé par le souverain soit de la « statue » à travers laquelle les prêtres rendaient un culte journalier au dieu. D'une manière générale, le sceptre Ouas est représenté comme une longue canne raide dont la partie inférieure est fourchue à l'imitation des bâtons utilisés pour immobiliser les serpents. L'extrémité supérieure représente une tête de canidé stylisée aux longues oreilles rabattues vers l'arrière. Le sceptre Djam lui ressemble, mis à part le manche qui est ondulé. Selon Alan Henderson Gardiner (1879-1963), la tête de ces deux sceptres est une figuration de l'animal séthien. Cette identification n'est cependant pas assurée et d'autres propositions ont été avancées (lévrier, oiseau huppé). Gerald Avery Wainwright (1879-1964) a quant à lui fait remarquer que les deux sceptres Ouas et Djam ont entretenu une relation spéciale et privilégiée avec le dieu Seth. Il y a d'une part la découverte du sceptre monumental à Noubt et, d'autre part, le fait que l'emblème du de Haute-Égypte, un territoire voué à Seth, consiste en deux sceptres Ouas, figuration du "Ouabou", l'objet sacré local. À l'origine, les sceptres Ouas et Djam ont d'abord été considérés comme de possibles piliers du ciel. Dans la prière figurant sur la "Stèle du Mariage" de , c'est Seth lui-même qui est décrit comme soutenant le ciel. Ailleurs, dans le "Papyrus Bremmer-Rhind", le dieu est accusé d'avoir laissé tombé le ciel sur terre. Le sceptre Ouas dont le nom signifie « pouvoir, domination » est souvent figuré tenu dans la main des dieux. Dans le conte mythologique des "Aventures d'Horus et Seth", le dieu Seth se fâche contre l'ensemble des dieux et menace de les tuer tous, un par un, en les assommant avec son sceptre Djam lourd de (unité de poids égyptienne). Ces sceptres peuvent donc aussi être perçu comme des symboles du désordre d'autant plus que le verbe "ouasy" signifie « détruire, mettre en ruine ». Nome oxyrhynchite. Seper-Merou. Le nome oxyrhynchite ( de Haute-Égypte), de son nom égyptien "Ouabou" « les Deux Sceptres » est un territoire entièrement dévolu au dieu Seth. Sa capitale est la ville de "Ouab" qui se trouve située le long du Bahr Youssouf, un antique canal qui relie le Nil à la région du Fayoum. De ce fait, la cité est aussi dénommée "Seper-Merou" « qui atteint les canaux » ou "Sepet Merou" « le bord des canaux ». La ville et ses temples n'ont laissé que peu de vestiges. Durant l'époque ramesside, Seper-Merou est la capitale régionale d'un administrativement autonome. D'après le "Papyrus Wilbour" daté du règne de , Seth et sa parèdre Nephtys y bénéficient de sanctuaires et de fondations terriennes vouées au financement de ces cultes. La plus grande de ces institutions est le temple nommé « Maison de Seth, Seigneur de Seper-Merou ». Le petit temple dédié à Nephtys est quant à lui dénommé la « Maison de Nephtys de Ramsès-Mériamon ». On ignore l'époque de la fondation du temple de Seth, mais il est toutefois évident que le temple de Nephtys est une création spécifique (ou pour le moins une rénovation) de de la . Le culte de Seth a probablement décliné après la , en raison de la diabolisation de plus en plus grande de cette divinité. Après cette époque, l'administration du nome a été déplacée, plus au sud, à Oxyrhynque. Toutefois, il se peut que le culte de Seth ait survécu sous une forme ou une autre à Seper-Merou, longtemps après le déclin politique de la ville. En effet, d'après une inscription tardive gravée dans le temple ptolémaïque d'Edfou, (dédié à Horus le neveu et le rival de Seth), il est toujours fait mention de « Seth de Seper-Merou » mais sous la forme d'une imprécation insultante. Oxyrhynque. Le site le mieux renseigné de ce nome est la ville de "Per-Medjed" connue sous les toponymes grecs de ("Pémptê") et ("Oxyrhynchos"). Ce dernier nom signifie « nez effilé » et fait référence au poisson Oxyrhynque vénéré par les habitants de cette cité. Ce poisson a la particularité d'être dotée d'un en forme de trompe ce qui fait vaguement ressembler sa tête à celle de l'animal séthien. Le lien entre le poisson et Seth ne sont pourtant pas établis avec certitude. Durant la période gréco-romaine, le poisson a été représenté par une multitude de petites statuettes en bronze coiffées du disque solaire entouré de cornes bovines. Ce symbole lie le poisson à la déesse Hathor mais une inscription sur une figurine conservée au Musée d'archéologie méditerranéenne de Marseille indique clairement que l'animal était consacré à la déesse hippopotame Taouret (Thouéris). À cette époque, la divinité principale de la ville est alors Thouéris assimilée à la grecque Athéna. Toutefois, cette déesse ne fait que remplacer l'hippopotame de Seth primitivement adoré en cette ville et dont elle est la parèdre. Le culte de Seth n'est pas absent et jusqu'au début du de notre ère, le temple de la déesse conservait aussi une statuette de Typhon, à savoir Seth. Au , alors que l'Égypte est sous occupation romaine, le grec Plutarque rapporte que les habitants de ce nome, sectateur du dieu Seth, étaient constamment en conflit avec leurs voisins du nome cynopolite ( de Haute-Égypte), sectateurs du dieu chacal Anubis : Avaris / Pi-Ramsès. Occupation hyksôs. Après les règnes glorieux des et s (Moyen Empire), le royaume égyptien connaît une période d'affaiblissement politique. Durant soixante-dix ans, le principe de la succession héréditaire est remis en cause et la se voit composée d'une soixantaine d'obscurs représentants (militaires, usurpateurs). Tout en réussissant à maintenir la paix sociale, ces derniers ne parviennent pas à éviter la déliquescence de l'État. Dans le delta du Nil, apparaissent conjointement deux royaumes indépendants, l'un à Xoïs, l'autre à Avaris (). Située dans l'est du Delta, Avaris est alors un port fluvial prospère situé sur la branche pélusiaque du Nil occupé à commercer le cuivre avec Byblos (Liban actuel). Durant tout le Moyen Empire, la Basse-Égypte voit s'installer une population sémite syro-palestinienne. Au milieu du , lors d'un nouvel afflux, un groupe de rois sémites, les Hyksôs, parvient à prendre le contrôle des régions du Delta () et à faire payer tribut aux roitelets thébains de la . Durant plus d'un siècle, approximativement entre -1650 et -1540, les rois Hyksôs font d'Avaris leur résidence et place forte. Sous le Nouvel Empire, lorsque le pays fut à nouveau libre, l'occupation des rois Hyksôs fut noircie à l'extrême et ces derniers furent accusés d'impiété. Dans la région d'Avaris, les occupants imposèrent certes leur civilisation avec des sépultures dans les habitations, le sacrifice d'ânes et le culte de divinités cananéennes tels Adad et Baal. Toutefois, ces derniers s'approprièrent aussi des éléments de la culture pharaonique comme la titulature royale, l'architecture et certaines pratiques cultuelles. La présence d'un temple de Seth à Avaris remonte peut-être à la . Une des premières attestations certaines est sa mention sur l'obélisque du roi Néhési probable fondateur de la . Durant l'occupation hyksôs, le culte de Seth ne cessa pas mais fut encouragé avec son assimilation à Baal, divinité de l'orage et de la fertilité. La vénération des Hyksôs envers Seth se reflète dans le "Conte d'Apophis et Seqenenrê" (papyrus , British Museum), une histoire consignée durant le règne de Mérenptah. Le roi hyksôs Apophis y est décrit comme un adorateur exclusif de Seth, une manière de montrer ses origines étrangères et la bizarrerie de ses croyances : Période ramesside. Après le pillage d'Avaris par les forces thébaines du pharaon Ahmôsis, la ville est en grande partie abandonnée. Le site retrouve quelques activités durant la en devenant un site militaire voué à la protection du royaume face aux Hittites et aux Bédouins. Un militaire originaire de la région, le pharaon fait de la ville une résidence royale. Son fils, porte le site à son apogée et le baptise à son nom ; "Per-Ramsès Mery-Amon", la « Demeure de Ramsès, l'aimé d'Amon » ; mentionné dans la Bible sous le toponyme de "Pi-Ramsès". Dès son accession au trône, fait de la ville sa capitale et la dote de somptueux palais et temples, de quartiers résidentiels luxueux ou populaires, de zones portuaires et de camps militaires. Très vite, la ville nouvelle, répartie sur différents îlots, déborde largement l'ancienne Avaris vers le nord et s'étend sur une superficie considérable de . La ville conserve sa puissance durant quelque . Sous , la réputation de la ville est intacte. Par la suite, Pi-Ramsès décline lentement du fait de la décadence socio-politique du pays et à cause de l'assèchement de la branche pélusiaque du Nil sur laquelle elle est installée. Au début de la Troisième Période intermédiaire, la ville de Tanis la surpasse et récupère ses monuments après leur démantèlement et déménagement. Un hymne à la gloire de la ville mentionne quatre temples majeurs. Celui de Seth est situé au sud sur l'emplacement de l'ancienne Avaris : D'après le "Papyrus Harris", et à l'instar du temple séthien de Noubt, le pharaon a fait procéder à des travaux d'entretien et de décoration dans le temple de Seth à Pi-Ramsès, sans oublier les habituelles dotations (personnels, troupeaux, matières précieuses) et les diverses offrandes alimentaires destinées au dieu et à ses desservants : "Stèle des quatre cents ans". La "Stèle des quatre cents ans" est une pièce archéologique découverte à Tanis en 1863 par Auguste Mariette et redécouverte en 1931 par Pierre Montet après désensablement. Elle est à présent conservée au Musée égyptien du Caire. La stèle, en granite rose, haute de , fut érigée à Pi-Ramsès par le pharaon afin de commémorer ses ancêtres : son père , son grand-père , son arrière-grand-père l'officier Séthi ainsi que le dieu Seth présenté comme le père de cette dynastie. Le décor montre , au centre, en train d'offrir du vin au dieu Seth. Derrière le souverain se tient un autre personnage, probablement l'officier Séthi. Le dieu est représenté d'une manière inaccoutumé mêlant influences égyptiennes et étrangères. Tel le dieu cananéen Baal, Seth est couronné d'une tiare conique dotée de deux cornes de taureau munie d'un long ruban pendant à l'arrière. Les traits du visage sont ceux d'un sémite, sa poitrine est barré par un baudrier et son pagne, exotique, est ornée de glands. Dans les mains, Seth tient toutefois des attributs typiquement égyptiens, le signe de la vie et de sceptre de la puissance. La stèle remonte dans le temps, quatre cents ans en arrière, à une époque où la domination, tant abhorrée, des Hyksôs ne s'étaient pas encore exercée. Elle dédouane ainsi la famille royale de porter des noms séthiens et de rendre un culte à un dieu égyptien jadis récupéré par les envahisseurs. Dans une réécriture de l'histoire, tente de montrer que le culte de Seth sous sa forme baalienne est déjà vieux de quatre cents ans, qu'il ne s'agit pas d'un syncrétisme orchestré par les Hyksôs, mais d'une vieille coutume égyptienne en rien répréhensible. Le souverain montre à ses sujets, et plus particulièrement aux officiers de l'armée égyptienne qu'il ne manifeste aucune objection à ce qu'ils rendent un culte à Seth sous la forme asiatique de Baal, une pratique alors très en vogue dans cette région jadis occupée par des princes étrangers. Aspects religieux. Un "fripon" égyptien. Mythes de la transgression. Dès 1928, l'historien des religions norvégien (1867-1953) a rangé Seth parmi les « décepteurs divins » du fait de ses paroles et actions ambiguës<ref>, "<!-- |
Shinjuku est l'un des fondés en 1947 en remplacement de la municipalité de Tokyo. En 2008, sa population était de pour une superficie de . C'est là que se trouve le gouvernement de la métropole de Tokyo. Shinjuku est l'arrondissement de Tokyo comptant le plus grand nombre d'étrangers. Au , on en comptait de 107 nationalités différentes. Il s'agit d'abord de ressortissants de Corée (du Nord et du Sud), de Chine, du Viêt Nam, de Birmanie et des Philippines. De façon plus restreinte, Shinjuku est un quartier situé autour de la gare de Shinjuku. C'est l'un des quartiers les plus animés de Tokyo, mais aussi un haut lieu des affaires abritant le siège de nombreuses grandes sociétés. La plupart des grands magasins japonais (Isetan, Keiō, Odakyu, Marui, Seibu, Takashimaya et Tōkyū) sont présents à Shinjuku. On y trouve aussi des cinémas, restaurants, bars, et des hôtels internationaux. Géographie. Les arrondissements limitrophes de Shinjuku sont : Chiyoda à l'est ; Bunkyō et Toshima au nord ; Nakano à l'ouest, et Shibuya et Minato au sud. Nerima se situe à une centaine de mètres. Le point culminant de Shinjuku est la colline de Hakone, , dans le parc Toyama à l'est des stations de Takadanobaba et de Shin-Okubo. Le point le plus bas est près d'Iidabashi. À l'ouest de la gare se trouve Nishi-shinjuku (Shinjuku ouest), où se situe le . Le bâtiment de la mairie, commencé en 1988 et achevé en 1991, formé de deux tours jumelles de 48 étages, était le plus haut de la ville () jusqu'en 2006. Il a été conçu par l'architecte Kenzo Tange et l'accès aux deux tours est libre et gratuit. L'observatoire, à , permet de découvrir de très belles vues d'ensemble de l'est de Tokyo et aussi le sud-ouest, vers le mont Fuji (quand la météo le permet). Les environs de la mairie sont composés essentiellement de gratte-ciel, comme la Shinjuku Park Tower ou la tour Tōkyō Opera City. Quartiers de l'arrondissement de Shinjuku. L'arrondissement de Shinjuku comporte de nombreux quartiers dont ceux-ci : Histoire. En 1634, pendant l'époque d'Edo, et à la suite de la construction des douves du château d'Edo, un certain nombre de temples et sanctuaires ont déménagé vers le quartier de Yotsuya à l'ouest de Shinjuku. En 1698, Naitō-Shinjuku a développé un nouveau tracé d'une route passant désormais par Shinjuku, Kōshū Kaidō, une des cinq routes principales de l'époque. Naitō était le nom de famille d'un daimyō dont la maison se trouvait dans la région, et est maintenant un parc public, le Shinjuku gyoen. La gare de Shinjuku a été inaugurée le sur la ligne Akabane-Shinagawa devenue aujourd'hui la ligne Yamanote. En 1920, la ville de Naitō-Shinjuku, qui comprenait une grande partie de l'actuel Shinjuku, a été intégrée dans la ville de Tokyo. L'arrondissement de Shinjuku a commencé à se développer dans sa forme actuelle à la suite du séisme de Kantō en 1923, après que l'on a découvert que le lieu était une zone sismique stable car il avait très largement échappé à la dévastation du séisme. Pour cette raison, de nos jours, l'ouest de Shinjuku est une des rares zones de Tokyo comprenant un grand nombre de gratte-ciel. En 1927 s'ouvre la première librairie Kinokuniya et ,en 1933, le grand magasin Isetan, deux symboles du quartier de Shinjuku. Le cinéma Musashinokan, qui projetait des films étrangers, et le théâtre de variétés , attirent alors les foules. De mai à , les raids aériens sur Tokyo ont détruit près de 90 % des bâtiments autour de la zone de la gare de Shinjuku. Le quartier devient alors une plaque tournante du marché noir et un quartier chaud à Shinjuku ni-chōme. Le découpage des différents quartiers de Tokyo, comprenant celui de Shinjuku, est resté le même car la plupart des routes et des rails ont résisté bien que très largement endommagés après les bombardements. Ils sont au cœur même de Shinjuku pour la construction d'après guerre. Seul le quartier de Kabuki-cho a nécessité un plan de reconstruction intégral. L'actuel découpage de l'arrondissement est défini le , avec la fusion des quartiers de Yotsuya, Ushigome et Yodobashi, dès lors compris dans l'arrondissement de Shinjuku. Dans les années 1960, le quartier Shinjuku ni-chōme devient le quartier gay de Tokyo. L'arrondissement a hébergé des épreuves d'athlétisme aux jeux olympiques d'été de 1964 ; le marathon et le 50 kilomètres marche. En 1991, le siège du gouvernement métropolitain de Tokyo a été déplacé du quartier de Marunouchi de Chiyoda vers le bâtiment actuel à Shinjuku (le Tokyo International Forum se trouve désormais dans l'ancien bâtiment du siège du gouvernement, qui reste inoccupé). Économie. De nombreuses entreprises ont un siège social ou des bureaux dans l'arrondissement de Shinjuku : Gouvernement. Comme les autres arrondissements de Tokyo, Shinjuku a un statut équivalent à une municipalité. En 2005, le maire est Mme Hiroko Nakayama. Le kugikai (conseil) se compose de 38 membres élus. L'adresse de la mairie est 1-4-1 Kabukicho. Transport. Rail. Il y a plusieurs gares dans l'arrondissement et parmi elles, la gare de JR East Shinjuku, qui voit plus de deux millions de passagers par jour, est la station principale. On y compte aussi plusieurs exploitants privés de trains et de métro desservant l'arrondissement. Films. Le district Shinjuku de nombreux films dont : |
SMTP |
Sahara Le Sahara (en "", , « le grand désert », en berbère : ⵜⵉⵏⵉⵔⵉ "Tiniri" ou ⵜⵏⵔ "Tenere") est un vaste désert chaud situé dans la partie nord du continent africain. Il s'étend sur d'ouest en est, de l'océan Atlantique à la mer Rouge, et couvre plus de (soit près de 30 % de la surface du continent africain), ce qui en fait la plus grande étendue de terre aride d'un seul tenant dans le monde. Le Sahara peut même être prolongé au-delà de la mer Rouge, les géographes parlant alors d'un grand « désert saharo-arabique ». Plus largement encore, le Sahara constitue la partie occidentale d'une vaste diagonale sèche qui s'étend des abords du fleuve Sénégal à la Mongolie. Plus vaste désert chaud du monde, il divise le continent d'est en ouest. Il couvre d'immenses étendues et s'étend sur le territoire de dix États : le Mali, la Mauritanie, le Niger, le Tchad, le Soudan, l'Algérie, la Tunisie, le Maroc, la Libye, et l'Égypte, ainsi que sur le territoire contesté du Sahara occidental. Le désert de sable ne couvre que 20 % de sa superficie, les 80 % restant sont constitués de surfaces rocheuses où dominent des roches sédimentaires. La zone géographique comprend plusieurs paysages et climats ; on y trouve des déserts de sable (Grand Erg oriental et Grand Erg occidental), des montagnes (Hoggar, Tassili, Tibesti), des hamadas (plateaux rocailleux) et des regs (déserts de pierre) tel le Tanezrouft. Terminologie. Le mot "Sahārā" est récent dans l'Histoire, il signifie « vaste zone dépourvue de végétation » en arabe, qui désigne dans toutes les langues le grand désert nord-africain. Avant l'arabisation de l'Afrique du Nord, le nom "Tiniri" (« Ténéré ») qui signifie « grande plaine étendue, sans montagne ni dune, désert plat » en tamasheq, la langue tamazight des autochtones berbères (Touaregs), désignait la région la plus aride de ce désert ; ce mot était utilisé dans la plupart des régions du nord pour désigner le grand Sahara, en Kabylie et au Rif. L'hypothèse ancienne selon laquelle "Sahara" pourrait également provenir de l'addition des mots égyptiens "sah" (« pays ») et "ka" (« hauteur, élévation, colline ») n'est pas confirmée; Cependant, par opposition à la vallée du Nil nommée Kemet en égyptien ancien (qui veut dire noir/sombre, à cause du limon noir et fertile des crues du Nil), le territoire aride au-delà de la vallée était nommé "Decheret", "dšr.t" /[des'ʁt]'/, c'est-à-dire la "terre ocre stérile", on notera la consonance proche avec le mot latin de "desertus", /[des'ɛʁt'us']/, à la signification similaire qui devint "désert" en français ("desert" en anglais, "desierto" en espagnol, "deserto" en italien, etc). Composante d'un vaste ensemble aride. Ce grand désert est le plus vaste et le seul vrai désert au sens géographique du terme car il comporte des régions hyperarides (moins de de précipitations annuelles mais avec une extrême irrégularité interannuelle), arides (moins de de précipitations annuelles et une végétation concentrée dans les oueds), semi-arides et sub-humides sèches. La "diagonale sèche" dont il fait partie comprend également l'Arabie, le désert de Syrie (Syrie, Jordanie et Irak), le Dasht-e Kavir (Iran), le Dasht-e Lut (Iran), le Thar (Inde) et se poursuit par les déserts de latitude moyenne d'Asie centrale (le Karakoum, le Kyzyl Kum et en Chine le Taklamakan et le désert de Gobi). Cette aridité s'explique par l'absence des deux sources principales de précipitations : le front polaire et les courants équatoriaux d'ouest et elle conduit à des épisodes de sécheresse particulièrement importants en intensité et en durée. Limites géographiques bioclimatiques. Selon des critères climatiques, la limite septentrionale du Sahara est l'isohyète des (+ ou - ), correspondant à peu près à la limite d'implantation du palmier-dattier, l'une des espèces les plus caractéristiques de la zone de transition Méditerranée/Sahara. La limite sud est plus floue, elle peut être située sur l'isohyète des , voire . Selon des critères biogéographiques ou bioclimatiques, la limite au nord correspond à la limite septentrionale de maturité du palmier-dattier ("Phoenix dactylifera") et à la limite méridionale de l’alfa). Au sud, elle correspond à la limite méridionale de ("Cornulaca monacantha"), "Stipagrostis pungens" et "Panicum turgidum" ou à la limite septentrionale de plusieurs espèces sahéliennes, notamment le cram-cram ("Cenchrus biflorus", Poaceae sahélienne) et, parmi les plantes ligneuses, "Commiphora africana" et "Boscia senegalensis". Toutefois le cram-cram est une espèce annuelle à durée de vie brève, n'est généralement plus visible après quelques mois de saison sèche, et son abondance varie directement en fonction des précipitations. Elle est de surcroit véhiculée sous forme d'épillets munis de glumes à crochets redoutablement efficaces par les animaux qui peuvent ainsi la transporter loin de son aire. Pour ces raisons, des auteurs ont proposé de déterminer la limite bio-climatique saharo-sahélienne à partir d'espèces arbustives qui intègrent les conditions pluviométriques tout au long de leur vie et sont aisément repérables : "Commiphora africana" se rencontre en abondance au Nord-Sahel. "Acacia senegal" (le gommier du Sénégal) et "Zyziphus mauritiana" ont la même répartition. Du côté saharien, s'observeront "Stipagrostis pungens", (arabe : "sbot" ou "Drinn"), puissante graminée pérenne, "Calligonum comosum" (arabe : "awarach") et "Zyziphus lotus" (arabe : "Sder"). Climats. Circulation atmosphérique. Son climat est conditionné par le mouvement descendant (subsidence) des masses d'air mises en mouvement par les cellules de Hadley. Dans une zone comprise entre les tropiques et l'équateur, la zone de convergence intertropicale (ZCIT), l'air humide apporté par les alizés suit un mouvement ascendant. La montée en altitude rafraîchit l’air et l’humidité est relâchée sous forme de précipitations à hauteur de l'équateur. L'air asséché converge ensuite vers les tropiques nord et sud, ce qui crée un climat aride à ces endroits, aux alentours des nord et sud. Cela correspond au Sahara au nord, et au Kalahari au sud. La zone correspond donc à une ceinture de hautes pressions subtropicales semi-permanentes où l'air venu des niveaux supérieurs de la troposphère tend à s'abaisser vers le sol. La subsidence empêche les ascendances de l'air et par conséquent annihile tout refroidissement adiabatique, ce qui rend la formation de nuages très difficile voire quasiment impossible. La masse d'air dominante stationnant sur le Sahara est donc un air tropical continental (cT), extrêmement chaud et sec. La dissipation permanente de la couverture nuageuse permet un ensoleillement et une radiation thermique ininterrompue. En conséquence, le ciel est le plus souvent clair, le temps est sec, stable, parfois avec une présence de sable dans l'atmosphère (couche d'air saharien). Le climat saharien est caractérisé par l'extrême faiblesse, la rareté et la grande irrégularité des précipitations, les très hautes températures de l'air et du sol, l'insolation exceptionnelle, l'hygrométrie moyenne très basse en dehors des côtes, des contrastes thermiques (annuels et journaliers) accentués, une évaporation potentielle considérable, la plus forte de tous les déserts chauds du monde. Le Sahara est le désert le plus absolu : une sécheresse comparable à celle du Sahara ne se voit qu'au nord du Chili, mais sur une étendue infiniment moindre ; partout ailleurs les déserts sont bien plus « pluvieux ». Pluviométrie. L'aridité particulière du Sahara tient à la vigueur et surtout à la permanence des hautes pressions. Dans ces conditions, l'air surchauffé au sol ne peut s'élever ; il renforce l'anticyclone en se comprimant. L'affaissement de l'air est le plus fort et le plus efficace au-dessus du Sahara oriental, où l'absence de pluie est absolue, rivalisant avec le désert d'Atacama situé au Chili. L'inhibition pluviométrique et la dissolution des nuages sont par conséquent plus accentuées dans la partie orientale que dans l'occidentale. L'aridité plus grande du Sahara oriental vient du fait qu'il se retrouve encore plus rarement sur la trajectoire des systèmes dépressionnaires chargés de pluie. On y trouve donc les pluies annuelles les plus faibles de la planète ; ainsi, la moyenne annuelle est-elle à peine de dans la région de Taoudeni (Mali), elle descend à à Tedjerhi au sud du Fezzan (Libye) et elle devient quasiment nulle () à Louxor (Haute-Égypte). Ces moyennes sont d'ailleurs peu significatives car la variabilité interannuelle des précipitations peut être énorme, plus la moyenne annuelle pluviométrique est faible, plus celle-ci est variable d'une année à l'autre. Au sud du désert, au niveau de la zone climatique sahélo-saharienne, la remontée latitudinaire de la zone de convergence intertropicale en été peut donner des averses brèves mais très irrégulières avec des précipitations annuelles moyennes comprises entre et , comme c'est le cas à Tombouctou (Mali) entre juillet et septembre, où tombe l'immense majorité des faibles précipitations annuelles. Dans ce cas, les hautes pressions ont migré vers des latitudes plus septentrionales. Si la ceinture anticyclonique est toujours présente au-dessus du Sahara, elle est relativement peu épaisse en hiver sur le Sahara septentrional ou bien rejetée en altitude dans le Sahara méridional à cause de la dépression thermique qui se forme dans les basses couches de l'atmosphère en été. La pluviogenèse requiert toutefois l'intervention de processus atmosphériques extérieurs suffisamment puissants pour annuler de façon temporaire le caractère stérilisant des structures aérologiques saisonnières, en raison de la grande vigueur des facteurs contrariants. Sur les 8 ou de désert au Sahara, l'équivalent de la superficie cumulée de l'Australie et de la Nouvelle-Zélande, une superficie d'environ (31 % de la superficie totale) reçoit des précipitations moyennes annuelles inférieures ou égales à et près de (17 % de la superficie totale) reçoivent ou moins par an. La quantité annuelle moyenne de pluie est théoriquement de sur plus de (11 % de la superficie totale) au Sahara oriental en Libye, en Égypte et au Soudan où la moyenne calculée à long terme approche par an. L'aridité extrême des régions sahariennes ne tient pas seulement à l'excessive faiblesse des précipitations. En effet, à précipitations égales, l'aridité est d'autant plus forte que les températures et l'évaporation potentielle sont élevées. Le minimum pluviométrique est atteint au Sahara oriental alors que le maximum thermique est atteint au Sahara occidental. À altitudes égales, les déserts de Libye et d'Égypte sont relativement moins chauds que les déserts d'Algérie et du Maroc. Insolation. Au Sahara, on enregistre de façon courante une durée moyenne effective d'insolation supérieure à , soit plus de par jour. Dans la mesure où la condensation de la vapeur d'eau contenue dans l'atmosphère saharienne ne peut s'effectuer normalement et donc donner des précipitations, sauf sur la côte atlantique où se forment des brouillards et des nuages bas à cause du courant des Canaries, un courant océanique frais qui longe la côte, la nébulosité (fraction du ciel couvert par les nuages) est extrêmement faible. Les journées partiellement couvertes sont rarissimes dans les zones les plus centrales ; les nuages de « corps » (présents dans le corps d'une perturbation) type cirrostratus sont rarissimes, alors que les nuages de « marge » type cirrus sont beaucoup plus fréquents, surtout à l'ouest, en hiver ou au printemps. Aussi existe-t-il un fort contraste entre les jours calmes et ceux où soufflent des vents qui peuvent être violents et provoquer des tempêtes de sable. Le ciel peut parfois rester nuageux plusieurs jours consécutifs mais ce sont des cas exceptionnels qui n'entraînent pas de précipitions. Le Sahara central constitue la zone la plus étendue du monde dans laquelle la barre des d'insolation, sur maximum théorique, est dépassée, ce qui équivaut à plus de 11 h par jour. Dans le Sahara oriental, cette durée effective frôle le maximum théorique, avec une valeur extrême approximative de par an, ce qui revient à près de par jour. Wadi Halfa, un village situé au niveau de la frontière soudano-égyptienne, semble être le point le plus ensoleillé du globe à l'année. Sur l'année, l'ensoleillement s'établit entre 80 % et 98 % ; cette valeur descend en dessous de 75 à 65 % sur la côte atlantique, beaucoup plus nuageuse. Les maximums de durée d'insolation se trouvent aux latitudes 17º en hiver (Tombouctou, Khartoum, Agadez…) et 27° en été (Sebha, Kharga, In Salah…). La quantité moyenne annuelle d'énergie reçue au sol dépasse /an dans les régions sahariennes centrales, de part et d'autre du tropique (latitudes 18° à 28°) et s'abaisse à /an sur les marges septentrionales et méridionales. Deux zones de maxima existent, l'une, assez restreinte, au centre du Sahara occidental, axée sur le tropique, particulièrement dans le Tanezrouft et dans l'Erg Chech et l'autre, très étendue, au centre du Sahara oriental où les valeurs dépassent /an. Cette énergie est deux fois supérieure à celle que reçoivent les pays tempérés, /an à Paris, et /an pour les régions méditerranéennes de France métropolitaine, par exemple. Températures. La température moyenne annuelle du Sahara, ramenée au niveau de la mer, est supérieure à celle de tous les autres déserts. L'été saharien, torride, est très long ; au sud, il dure d'avril à octobre inclus ; cependant des irrégularités de températures subsistent : à latitude et altitude similaires, le Sahara occidental est nettement plus chaud en période estivale que son homologue oriental. Cette irrégularité de température s'explique par l'influence rafraîchissante des vents étésiens qui soufflent dans l'ensemble du bassin de la Méditerranée orientale sans l'interposition d'une barrière montagneuse, et qui atténuent considérablement l'échauffement. Partout au Sahara, à altitude raisonnable, la moyenne des maxima du mois le plus chaud dépasse . Il existe une zone située presque exactement au centre géographique du Sahara algérien, baptisée le « triangle de feu », délimitée par Adrar - Reggane - In Salah, où l'on enregistre régulièrement des températures de plus de , notamment dans la région d'In Salah. Les étés les plus chauds se rencontrent dans les basses vallées et dépressions du Sahara central, particulièrement sur le flanc occidental de ce dernier, dans le sud de l'Algérie (Tidikelt, Tanezrouft) ainsi que dans le nord du Mali et de la Mauritanie (El Djouf, El Hank) où les maximales moyennes sont extrêmement élevées de juin à août (45 à ). L'Erg Chech, au nord du Tanezrouft représente un îlot de chaleur avec des températures moyennes journalières de juillet, jour et nuit confondus, supérieures à . La moyenne des maxima diurnes peut dépasser pendant cinq à sept mois consécutifs dans le Sahara méridional et dans le sud du Sahara central. En été, les moyennes des minima nocturnes sont toujours supérieures à sur l'ensemble du Sahara, et dans l'immense majorité, celles-ci se situent entre et . Les amplitudes thermiques journalières moyennes annuelles se situent généralement entre 15 et , excepté dans le Sahara atlantique où elles sont bien inférieures. Ces écarts ne sont pas supérieurs à ceux de certaines régions de France. Malgré la chaleur suffocante qui règne au Sahara en été (les nuits peuvent être cependant très froides en hiver dans les massifs montagneux), le climat est en général sain grâce à l'extrême sécheresse de l'air. Écorégion. Le désert du Sahara constitue une écorégion terrestre, selon la classification du Fonds mondial pour la nature (WWF), appartenant au biome des déserts et brousses xériques de l'écozone paléarctique. Elle comprend la partie hyper-aride du Sahara central, où les précipitations sont minimes et sporadiques, et exclut ses marges méridionales et septentrionales, plus humides. Bien que la biodiversité et l'endémisme y soient relativement faibles, la région abrite néanmoins une faune hautement adaptée aux conditions très particulières de végétation et de température qui y règnent. Plusieurs massifs montagneux forment des enclaves relativement humides et boisées au milieu du désert et constituent des écorégions particulières, abritant des populations reliques : les et celles de l'Est du Sahara. Flore. Le Sahara central abrite, selon les estimations, 500 espèces de plantes, ce qui est extrêmement bas comparé à la superficie sur laquelle elles poussent. Les plantes telles que les acacias, les palmiers et les herbes xérophiles se sont adaptées aux conditions arides. Les montagnes du Hoggar (Algérie), de l'Aïr (Niger) et du Djebel Marra (Soudan) abritent l'olivier de Laperrine. Faune. Les dromadaires et chèvres sont des animaux domestiqués par l'homme. Les camélidés originaires d'Arabie ont été adoptés par les nomades, en raison de leurs qualités de sobriété, d'endurance et de rapidité. Diverses espèces de scorpions jaunes le plus souvent, mais aussi noirs, et de tailles diverses. "Androctonus amoreuxi" est l'un des plus courants, son venin n'est pas des plus actifs. Il n'est sans doute pas dangereux pour l'Homme. Bien d'autres espèces présentes au Sahara ne sont également pas potentiellement létales. "Androctonus australis" qui lui ressemble, mais avec une queue bien plus large, peut atteindre comme le précédent près de de long et son venin est des plus dangereux, notamment pour les petits enfants et les personnes âgées. Le Varan du désert ou Varan gris ("Varanus griseus") est une espèce vulnérable et en danger d'extinction. À ce titre, il est classé en Annexe 1 de la Convention de Washington. La vipère des sables ("Cerastes vipera") dotée d'une tête plate et quelque-peu triangulaire, s'enfouit pour se protéger, ainsi que pour chasser, dans le sable grâce à des mouvements giratoires du tronc. La vipère à cornes ("Cerastes cerastes") lui est proche, mais elle est moins inféodée au sable. Le fennec appelé aussi "renard des sables" est rencontré un peu partout dans le Sahara. Le fennec passe la journée à l'abri dans son terrier. La nuit, il chasse des insectes et des rongeurs. Son ouïe extrêmement développée lui permet de localiser ses proies rapidement, grâce à ses oreilles disproportionnées. On rencontre également de belles antilopes et gazelles dans le Sahara, elles sont particulièrement bien adaptées à cet habitat aride. Parmi ses espèces, il y a l'Oryx algazelle, l'Addax, la gazelle Dama, la gazelle de Rhim, la gazelle de Cuvier et la gazelle dorcas qui est la plus petite. Le guépard saharien vit majoritairement en Algérie mais aussi au Niger, au Mali, au Bénin et dans le Burkina Faso. À ces endroits peuvent être retrouvés 250 guépards adultes très craintifs et fuyant la présence de l'homme. Le guépard évite le soleil du mois d'avril jusqu'en octobre. Ensuite, il recherche un abri dans les arbrisseaux tels que les acacias. Ils sont inhabituellement pâles. Les autres animaux incluent les varanus, les damans du cap, les vipères des sables et une petite population de Lycaon dans peut-être 14 pays et des autruches. Il existe d'autres animaux dans le Sahara (volatiles en particulier), entre autres, tels que l'amarante masqué et le capucin bec-d'argent. Il existe également une population de crocodiles du Nil en Mauritanie et dans le plateau de l'Ennedi Tchadien. Menaces et conservation. Les activités humaines affectent les zones dans lesquelles l'eau peut être trouvée. Ici, les ressources naturelles peuvent être menacées. Les populations restantes de grands mammifères ont été fortement réduites à cause de la chasse. Récemment, des projets de développement ont été organisés dans les déserts d'Algérie et de Tunisie. Milieux naturels (habitats). Le Sahara possède 20 % de surfaces sableuses et 80 % de surfaces rocheuses où dominent des roches sédimentaires. Milieux secs. Le Sahara est essentiellement composé de milieux secs, c'est-à-dire sans traces d'eau pérennes en surface. Parmi ceux-ci, les ergs sont de grands massifs de dunes, ils occupent environ 20 % de la surface du Sahara et évoluent en fonction des vents dominants. Le Grand Erg occidental en Algérie et le Grand Erg oriental en Tunisie comptent parmi les plus importants, de même que le désert libyque. Les régions de sable peuvent aussi prendre la forme d'immenses nappes comme la Majabat al Koubra, à cheval entre la Mauritanie et le Mali et grande comme la moitié de la France, que Théodore Monod explora entre 1953 et 1964 au cours de six expéditions successives. Les regs sont des étendues plates, caillouteuses et constituent le paysage le plus fréquent du Sahara. Les grands regs sont particulièrement inhospitaliers. Le reg du Tanezrouft, qui veut dire « pays de la soif » (Algérie), le serir libyen ou le reg du Ténéré qui occupent chacun des centaines de milliers de km², peuvent être cités. Ils peuvent occuper aussi le sommet des plateaux. Les hamadas sont les plateaux rocheux tabulaires limités par des falaises. Ils sont d'origine sédimentaire, le plus souvent calcaire. Lorsqu'ils sont recouverts de grès, ils sont nommés tassilis (par exemple : Tassili des Ajjer en Algérie). En général la surface montre de la roche nue, lissée par l'érosion éolienne. Les termes « "djebel" » ou «"adrar»" désignent tous les autres reliefs que ce soient des collines ou des massifs montagneux plus importants. Le massif le plus important est le Tibesti dans le nord du Tchad (région du Borkou-Ennedi-Tibesti) formé d'un massif volcanique émergeant d'une épaisse nappe sédimentaire reposant sur le socle cristallin. Il culmine à à l'Emi Koussi, dont l'immense caldeira de 35 km de circonférence fait la même superficie que celle de Paris "intra muros". Le Hoggar est un autre imposant massif volcanique dont la partie la plus élevée, l'Atakor, repose sur un socle granitique. Il culmine à . au Tahat. L'Aïr est moins élevé et ses sommets sont plus tabulaires mais il culmine tout de même à . L'Adrar des Ifhoras au sud du Hoggar en est un prolongement cristallin et métamorphique qui culmine à . L'Ennedi (région du Borkou-Ennedi-Tibesti) est un massif gréseux au sud-est du Tibesti et il atteint . En Mauritanie, le massif de l'Adrar est un massif tabulaire gréseux culminant au Teniaggouri (815 mètres). Ce massif au cœur du pays maure est surtout connu par l'extraordinaire formation géologique du Guelb er Richat, souvent surnommé l’œil de l'Afrique . Milieux humides. Les milieux humides désertiques concentrent l'essentiel de la biodiversité en raison de la présence temporaire ou surtout pérenne de l'eau et également, de la vie humaine. Le taux d'endémisme y est particulièrement élevé. À la différence des précédentes, les sebkhas forment des marais salants temporaires. L'eau peut provenir du ruissellement ou de sources temporaires. La plus grande, le Chott el-Jérid, couvre . Certaines sont exploitées sous forme de salines depuis le comme à Taoudeni au Mali. Guelta est un terme d'origine berbère (Tageyilt) qui désigne des plans d'eau temporaires ou pérennes, sans écoulement apparent : des mares dans les lits des cours d'eau ou des "citernes naturelles" dans la roche en place. Ils peuvent être trouvés dans les situations protégées d'une trop grande exposition au soleil dans les massifs montagneux comme l'Ennedi et l'Adrar des Ifoghas au Mali. Les "dayas" (pluriel dayate ou daia (daiate), dhaia) sont des dépressions fermées d'extension limitée (quelques mètres à de diamètre), au fond en général argileux ou argilo-sableux dans lesquelles l'eau de ruissellement peut s'accumuler. Une alternance d'inondation et d'exondation associée à une érosion éolienne participe à leur formation : parfois d'origine karstique (dolines) sur certains plateaux par exemple, issues de la déflation éolienne ou mixtes. Elles constituent des zones de végétation pérennes. Elles peuvent être trouvées surtout au Nord du Sahara. Ces dépressions à fond cultivable servent l’autoconsommation familiale. Ces trois termes d'origine arabe sont en usage en géomorphologie dynamique. Les oasis sahariennes, milieu naturel et aménagé, n'occupent qu'un millième de la surface du Sahara. Elles sont situées parfois sur le lit des oueds venant se perdre dans le désert ou au pied de massifs produisant des sources ou encore directement au-dessus de nappes phréatiques affleurantes ou peu profondes. Les oueds sont des cours d'eau à écoulement apparent temporaire (voir aréisme et endoréisme) indissociable du phénomène de crue (les deux mots en arabe sont liés). La majorité du temps, ils sont à sec, mais des poches d'eau durables peuvent persister en profondeur, et des gueltas peuvent être alimentées par une résurgence. Ce sont les crues qui alimentent ce réseau hydrographique temporaire, leur origine est essentiellement dans les massifs montagneux et la violence du débit a des conséquences morphologiques fortes sur le lit des oueds. La partie amont naît du rassemblement de chenaux de ruissellement, la partie médiane forme un lit large et dont les limites sont parfois difficiles à reconnaître en plaine et la partie aval peut se diviser en plusieurs bras sur un cône étendu d'alluvions. C'est le long des oueds que les seules formations arborées un peu denses dans le Sahara sont observées. Aménagements traditionnels. Les foggaras, sont des ouvrages souterrains de grande longueur permettant l'adduction d'eau dans certaines oasis, depuis les plateaux ou les massifs montagneux. Cette technique ancestrale se retrouve dans ce qui est aujourd'hui l'Iran, sous le nom de Qanat. Elle a été apportée du Sahara dans les steppes marocaines par les Almoravides à qui elle a permis la fondation de la ville de Marrakech. Populations et cultures. Plus de cinq millions d'habitants vivent dans le Sahara, un habitant sur deux vit dans des villes, un habitant sur huit dans le Sahara maghrébin (estimation en 1990). Jean Bisson estimait la population saharienne à 7 millions de personnes en 2003. On peut estimer aujourd'hui que la densité de population du Sahara est d'environ un habitant au kilomètre carré (8 millions d'habitants pour 8 millions de km²). Les populations actuelles du Sahara incluent les Toubous (Libye, Tchad, Niger, Égypte, Soudan soit environ ) ; les Touaregs (un peuple de nomades dont l'effectif est estimé à un million de personnes ; vêtus traditionnellement de tissus de couleur bleu indigo qui déteignent sur la peau, ils furent aussi appelés les « "hommes bleus" » ou les « "seigneurs du désert" » par les voyageurs occidentaux) ; les Saharaouis et les Maures. Dans plusieurs régions, notamment au sud du Sahara, des espaces bénéficiant autrefois du climat semi-aride du Sahel tendent à se désertifier, notamment à cause de l'action de l'homme. Ce phénomène est à l'origine d'importants mouvements de population. Histoire. Préhistoire. Au Sahara, de nombreuses traces d'une activité humaine préhistorique peuvent être découvertes (outils, poteries, et peintures rupestres). L'alternance humide/aride. Le climat du Sahara a subi des variations importantes durant la préhistoire. Dans l'oasis de Bilma (Niger), des cratères de salines glauques sont les vestiges des mers qui couvraient le Sahara il y a d'années (paléo-océan Téthys & Téthys alpine) et se sont retirées lors de la remontée de l'Afrique vers l'Europe, engendrant alors les Alpes et rehaussant l'Afrique du Nord. La genèse du Sahara est datée à environ 7 millions d'années, consécutivement au retrait de la Thétys. Cette zone géographique est soumise aux cycles glaciaires/interglaciaires depuis 2,7 millions d'années, passant de verdoyant à désert tous les 5 à . Il y a environ , il existait de grands lacs au Sahara, peuplé alors de semi-nomades. Il y a , le Sahara était hyperaride. La théorie astronomique des paléoclimats postule que les oscillations de la Terre autour de son axe engendrerait, avec une périodicité de environ, un cycle d'épisodes glaciaires suivis de périodes interglaciaires entraînant le verdissement et la désertification (au moment des glaciations) du Sahara. Le dernier Sahara vert. À la sortie de la dernière glaciation, qui était marquée par une aridité très élevée et un Sahara plus étendu qu'aujourd'hui, le monde se réchauffe et les précipitations augmentent. Vers , la limite sud-orientale était remontée à hauteur du tropique du Cancer. Vers , c'est sa limite sud-occidentale qui était remontée, la surface désertique étant alors moitié moindre que l'actuelle. Le climat radouci de cette écorégion demeura tempéré jusqu'aux alentours de . L'étude des foraminifères de la côte ouest-atlantique indique une très rapide remontée des températures, vers , et vers , un maximum avec des températures supérieures aux actuelles. Durant cette période chaude appelée subpluvial néolithique, correspondant à l'optimum climatique de l'Holocène, le « Sahara vert » reçut une pluviosité abondante. Il comprenait alors des lacs, des sources où vivaient des poissons et était couvert de végétations en bordure de cours d'eau (forêt galerie) et au fond des vallées. Il était peuplé d'une faune riche et de populations ethniquement diverses de chasseurs-cueilleurs qui connurent alors la révolution néolithique environ , caractérisée par des céramiques décorées à la molette du millénaire BP (la « molette » pouvait être un outil en bois servant à appliquer le motif en creux, une bague de bois porte le motif sculpté, et peut tourner autour d'un manche). Des fossiles d'animaux marins ont été retrouvés ainsi que des peintures de troupeaux de bœufs sur les parois de certaines grottes de cette époque. Par ailleurs, au centre du Soudan (4-6 cataracte) on a découvert des os de bœuf domestique datant du Néolithique ancien (7200-6500) ; cette découverte remet en cause l'hypothèse selon laquelle l'origine de la domestication du bétail, en Afrique, serait à rechercher en Basse Nubie (1-2 cataracte). Marquant des points forts sur les parcours de nomadisation, les sites rupestres de Gilf Kébir et du Djebel Ouweinat, parmi d'autres, portent des représentations de bétail et non seulement d'animaux sauvages. Mais le régime alimentaire ne semble alors reposer qu'en faible partie sur l'élevage, tandis que la collecte de céréales sauvages, la chasse et la pêche assurent l'essentiel, comme à Al-Farafra. Au milieu de cette époque de pastoralisme (6080–5120 BP ou 5200–3800 AEC), au cœur du Sahara vert, sur le plateau libyen de Messak connu pour ses ensembles de gravures rupestres (Wadi Mathendous), dont les styles sont bien distincts mais plus ou moins datables, un rituel complexe était centré sur le dépôt fréquent, dans des monuments circulaires en pierre, de restes d'animaux désarticulés, principalement du bétail. Ces monuments étaient associés à l'art rupestre gravé sur les stèles, placées au centre. Les massifs montagneux du Sahara montrent des reliques de souches tropicales humides (acacias, "Calotropis", "Balanites") et de souches méditerranéennes (olivier sauvage, myrte, lavande) très minoritaires, qui restent subordonnées à la végétation proprement désertique (palmier, tamaris) mais attestent du passé humide et forestier datant du temps du « Sahara vert ». Bien que le changement climatique se fût amorcé, le Sahara était encore humide vers Il devint progressivement de plus en plus aride à partir de (Événement climatique de 5900 BP), entraînant la migration des populations du centre de l'Afrique du Nord vers la vallée du Nil, ce qui a finalement conduit à l'émergence des premières sociétés complexes dans la vallée du Nil, avec la culture de Nagada (3800-3150 AEC), et l'avènement des premières monarchies nilotiques à Abydos et Hiérakonpolis. Colonisation. Au Ier millénaire av. J.-C., des nomades libyco-berbères s'implantent progressivement dans le Sahara, le parcourant du Nil à l'Atlantique. À la même période, les Phéniciens qui ont établi des comptoirs commerciaux sur la côte d'Afrique du Nord, pratiquent le commerce des esclaves, notamment via le circuit transsaharien. Les Grecs colonisent la Cyrénaïque et la Tripolitaine à partir du et établissent des comptoirs le long de la Mer Rouge qui favorisent le commerce avec les Berbères. Parallèlement, le peuple berbère des Garamantes fonde une véritable civilisation urbaine dans le Fezzan et le Carthaginois Hannon le Navigateur explore les sites côtiers du Sahara occidental sur la façade atlantique du Maroc. La province romaine d’Afrique du Nord est conquise en 146 av. J.-C. lors de la troisième guerre punique alors que des expéditions romaines atteignent le Sahara, telles celles de Lucius Bulbus en 50 av. J.-C. ou du général romain Septimus Flaccus et de l'explorateur militaire Julius Matermus qui parviennent au Tchad à la fin du . L'Empire romain d'Orient règne sur les côtes nord du Sahara du au , puis la conquête musulmane du Maghreb atteint rapidement le Sahara à partir du . Les musulmans arabes et berbères développent les systèmes de commerce transsaharien, aussi bien sur les marchandises que les hommes (traite arabe). Le Sahara reste à cette époque l'axe principal d'échange entre l'Afrique subsaharienne et l'Afrique du Nord et cette source de revenus considérables est très convoitée. L'empire ottoman s'étend sur l'Afrique du Nord (à l'exception du Maroc) jusqu'à son déclin à la fin du , mais il est incapable d'étendre son autorité de manière efficace et durable aux régions sahariennes. Cela permet aux Européens de s'imposer à leur tour, d'abord par les explorations puis par la colonisation. La traversée nord-sud du Sahara est ainsi réalisée en 1822 par les deux explorateurs anglais Hugh Clapperton et Dixon Denham. En 1828, l'explorateur français René Caillié atteint Tombouctou, seul, et il est le premier à en revenir, au terme d'une éprouvante traversée vers le Maroc, alors que l'Anglais Alexander Laing qui l'avait précédé avait été assassiné par son guide peu de temps après avoir quitté la ville. Le partage de l'Afrique consacre la domination de la France sur le Sahara (Sahara français) contrôlé par les Compagnies méharistes sahariennes fondées en 1902 par le commandant Laperrine. Les aviateurs français réalisent la première traversée du Sahara du 3 février au 31 mars 1920, durant laquelle le même Laperrine trouve la mort. L'intérêt économique du Sahara, manifesté par les projets du chemin de fer transsaharien et de l'Organisation commune des régions sahariennes en 1957, explique le maintien de la présence européenne dans cette vaste région mais n'empêche pas la décolonisation de l'Afrique. Le Sahara demeure l'objet d'enjeux économiques et politiques, liés aux richesses de son sous-sol (hydrocarbures, minerais dont le phosphate et le fer) qui donnent une impulsion à la construction du réseau des routes transafricaines (notamment la route transsaharienne), mais aussi aux tensions et aux crises de nations en devenir. Progression. Depuis 1900, le Sahara a progressé vers le sud de et ce sur un front qui en fait plus de , la cause de cette progression du désert étant cependant surtout d'origine anthropique. C'est ainsi que la steppe du Sahel connaît un dessèchement relativement brutal. Néanmoins, la décennie qui suit l'année 2000 a connu un reverdissement dans le Sahel. |
Webzine Un webzine est un magazine publié sous forme d'un site web, sans contrepartie imprimée. Le webzine peut être publié par des amateurs ou des journalistes professionnels. Il peut aussi être gratuit ou payant. On parle de webzine interactif lorsque les visiteurs peuvent commenter les articles ou de webzine collaboratif lorsque les internautes peuvent publier eux-mêmes leurs chroniques sur le site. Dans le microcosme de la littérature de science-fiction et de fantasy, on appelle couramment webzine un fichier téléchargeable contenant aussi bien des nouvelles, que des articles, des interviews et des step-by-step d'illustrateurs. Comme les fanzines, les webzines sont souvent thématiques. Ils sont réalisés par des passionnés, souvent en équipe. Les thèmes abordés tournent souvent autour de sujets peu traités par les médias traditionnels : bande dessinée, musique alternative (rock indépendant, heavy metal, punk rock), jeu de rôle mais aussi cinéma, histoire, Internet, mode, etc. Peu de critères objectifs différencient un webzine amateur d'un site personnel : le nombre de contributeurs, leur passion, la qualité technique de la réalisation sont comparables. Couramment, on attend d'un webzine une ambition rédactionnelle : du contenu original et une parution relativement régulière. La compétence technique nécessaire peut être minime : la maîtrise d'un logiciel de conception de site web comme les CMS ou du langage HTML suffit. Contrairement à leurs homologues sur papier, ils bénéficient avec Internet de moyens de publication moins onéreux et de diffusion plus large. Certains webzines réalisent des audiences qui n'ont rien à envier aux médias classiques et certains jouissent d'une certaine reconnaissance. Comme ils ont remplacé les fanzines, les webzines voient leur importance mise à mal par le développement des blogues, encore plus simples à mettre en œuvre. Historique en France. En France, le premier webzine fut "Cybersphère", créé par Cyril Fievet en 1995, qui proposait des articles gratuits et d'autres payants et qui s'arrêta en 1996. D'autres sites amateurs, lancés à peu près à la même époque, sont aujourd'hui encore bien vivants - notamment les webzines consacrés à la musique classique, ConcertoNet (1997), Forumopera, Altamusica et ResMusica (1999). On peut citer notamment les webzines "Soitditenpassant.com" (fondé en 1996), "W-Fenec.org", "Les Chroniques du Menteur" fondées en 1998, "Mysterious Yanick D" et "Les Nuées" créées en 1997, ces webzines font la part belle à l'humour et à l'ironie. On peut également citer, dans le domaine historique, le webzine "Histomag'44", bimensuel consacré à la Seconde Guerre mondiale fondé en 2001 et devenu "Histomag 39-45". Avec le temps et le développement des performances en ligne, l'offre s'est diversifiée. Helloways en est un exemple dans le domaine ténu de la randonnée pédestre. |
Steve Jobs Steve Jobs, né le à San Francisco (Californie) et mort le à Palo Alto (dans le même État), est un entrepreneur et inventeur américain, souvent qualifié de visionnaire, et une figure majeure de l'électronique grand public, notamment pionnier de l'avènement de l'ordinateur personnel, du baladeur numérique, du smartphone et de la tablette tactile. Cofondateur, directeur général et président du conseil d'administration de l'entreprise multinationale américaine Apple Inc, il dirige aussi les studios Pixar et devient membre du conseil d'administration de Disney lors du rachat en 2006 de Pixar par Disney. Steve Jobs, Steve Wozniak et Ronald Wayne créent Apple le à Cupertino. Au début des années 1980, Steve Jobs saisit le potentiel commercial des travaux du Xerox Parc sur le couple interface graphique/souris, ce qui conduit à la conception du Lisa, puis du Macintosh en 1984, les premiers ordinateurs grand public à profiter de ces innovations. Après avoir perdu sa lutte de pouvoir à la tête d'Apple avec John Sculley, le directeur général qu'il avait pourtant recruté, il quitte l'entreprise en pour fonder NeXT. En 1986, il rachète la division "Graphics Group" de Lucasfilm, la transforme en Pixar Animation Studios et rencontre le succès commercial en 1995 avec "Toy Story", un film dont il est le producteur exécutif. Il reste directeur général propriétaire de la société (à 50,1 %) jusqu'à son acquisition par la Walt Disney Company en 2006. Début 1997, Apple, alors au bord de la faillite, rachète NeXT. L'opération permet à Steve Jobs de revenir à la tête de la firme qu'il a cofondée et fournit à Apple le code source de NeXTSTEP à partir duquel est développé le système d'exploitation Mac OS X. Il supervise durant les quatorze années suivantes la création, le lancement et le développement de l'iMac (1998), de l'iPod, d'iTunes et de la chaîne de magasins Apple Store (2001), de l'iTunes Store (2003), de l'iPhone (2007) et de l'iPad (2010), présentant les différents produits à un rythme pluriannuel lors de ses fameuses "" et faisant de son entreprise une des plus riches au monde au moment de sa mort. En 2003, Steve Jobs apprend qu'il est atteint d'une forme rare de cancer pancréatique. Il refuse d'abord la chirurgie et a recours à différentes méthodes pseudo-scientifiques (acupuncture, consommation de carottes et jus de fruits), qui ne retarderont pas la progression de sa maladie et l'apparition de métastases. Il fait finalement l'objet de plusieurs hospitalisations et arrêts de travail, apparaissant de plus en plus amaigri au fur et à mesure que sa santé décline. Il meurt le à son domicile de Palo Alto, à l'âge de cinquante-six ans. Sa mort soulève une importante vague d’émotions à travers le monde. Jeunesse et études. Steven Paul Jobs naît le à San Francisco en Californie, d'un père d'origine syrienne étudiant en sciences politiques, Abdulfattah « John » Jandali (en ), et de Joanne Carole Schieble, américaine d'origine suisse. Ils ne sont à l'époque pas mariés. Alors que Joanne est enceinte, le père de Joanne menace de la déshériter si elle épouse Abdulfattah « John » Jandali, car il est non catholique, ce qui l'amène à consulter un avocat de San Francisco pour trouver une famille adoptive à l'enfant. Le nouveau-né est alors adopté par Paul Reinhold Jobs (1922–1993) et son épouse Clara, née Hagopian, d'origine arménienne (1924–1986). Adulte, lorsqu'il est interrogé à propos de ses parents adoptifs, Jobs répond que Paul et Clara Jobs . Dans sa biographie autorisée, il déclare que ce sont ses parents à %. Quant à ses parents biologiques, ils se marient en 1955 et ont un second enfant, Mona Simpson en 1957, puis divorcent en 1962. Lorsque Steve a deux ans, ses parents adoptent une fille, Patty. Trois ans plus tard, la famille Jobs déménage de San Francisco pour s'installer à Mountain View, en Californie, après la mutation de Paul Jobs à Palo Alto. Celui-ci est alors machiniste dans une entreprise qui fabrique des lasers, et enseigne à son fils des rudiments d'électronique, tout comme à se servir de ses mains. Pour sa part, Clara est comptable et apprend à lire à Steve avant qu'il n'aille à l'école. Jobs entame sa scolarité à la à Mountain View puis intègre la toute proche mais, à la suite de problèmes scolaires, il lance un ultimatum à ses parents : soit ils le font changer d'établissement, soit il arrête l'école. La famille déménage alors cinq kilomètres plus au sud, au 2066 Crist Drive à Los Altos, ce qui permet à Steve de poursuivre son cursus scolaire à la puis à la à Cupertino. Larry Lang, un ingénieur qui habite à cent mètres de leur ancienne maison et chez qui Jobs passe de nombreuses soirées, le fait entrer au club des Explorateurs d'Hewlett-Packard. Quinze élèves s'y réunissent tous les mardis soir dans la cafétéria de l'entreprise et font venir un ingénieur en informatique de la société pour parler de ses travaux. À la suite de l'une de ces conférences, il convie l'un des élèves à visiter son laboratoire ; c'est à cette occasion que le jeune Steve voit le premier ordinateur de bureau qu'Hewlett-Packard développe, le 9100A. Âgé de treize ans, il n'hésite pas à téléphoner à William Hewlett, le président de l'entreprise qui porte en partie son nom. Steve est en train de construire un fréquencemètre et il a besoin de pièces. Ils discutent pendant vingt minutes, Hewlett lui expédie les composants dont il a besoin et lui offre un emploi d'été dans son entreprise. Après sa première année à , Steve Jobs travaille donc durant l'été sur l'une des chaînes d'assemblage d'Hewlett-Packard. À la même époque, un camarade de classe de Homestead High, Bill Fernandez, lui présente Steve Wozniak. Ils partagent la même passion de l'électronique, ils deviennent amis et réalisent ensemble de nombreux canulars. En , les deux Steve mettent la main sur un article du magazine "Esquire" qui explique comment fabriquer une "", un appareil qui permet de passer des appels longue distance de façon entièrement gratuite en fraudant donc les sociétés téléphoniques, et plus précisément AT&T. Ils décident alors d'en monter et de les vendre. Selon Jobs, cette expérience est à l'origine d'Apple. En 1972, à sa sortie de Homestead High, il décide de poursuivre ses études à Reed College à Portland dans l'Oregon où il rencontre Daniel Kottke. À la suite de plusieurs lectures d'ouvrages sur la spiritualité orientale lors de cette première année à Reed, ils deviennent tous les deux végétariens. Toujours à Reed College, il rencontre un autre adepte de la spiritualité orientale et son futur gourou, Robert Friedland. Ce dernier dirige une grande ferme communautaire de cent hectares, l"", où le jeune Steve se rend souvent. Très vite, Jobs se rend compte qu'il s'ennuie à Reed, se trouvant dans l'obligation de suivre un certain nombre de cours qui ne l'intéressent pas. Il décide donc d'abandonner ce cursus, sans en informer ses parents qui se sont pourtant littéralement ruinés pour l'y inscrire, et se choisit d'autres cours où il se rend en tant qu'auditeur libre. En 2005, Steve Jobs déclare : C'est une période où Steve Jobs expérimente assidument le LSD en écoutant les disques de Bob Dylan, des Beatles et des groupes phares de la contre-culture californienne. Il déclare plus tard que prendre du LSD a été l'une des deux ou trois expériences les plus importantes de sa vie. Il évoque cette substance psychotrope hallucinogène comme une des principales raisons de sa réussite, pour lui avoir ouvert l'esprit en grand. Il déclare également : . Carrière. Début. Après avoir passé dix-huit mois au Reed College, Jobs revient chez ses parents à Los Altos en 1974 pour se trouver un emploi. Le hippie négligé qu'il est se présente chez Atari, firme en vogue à l'époque, avec la ferme intention d'y obtenir un emploi. Il s'attire les faveurs de son patron Nolan Bushnell qui l'embauche comme technicien, mais pas celles de nombreux employés, du fait notamment de sa forte odeur. Il estime, en effet, que son régime alimentaire végétarien strict et tout à fait personnel lui permet d'éviter la production de mucus et de toute odeur corporelle et ne se lave donc pas. Il se retrouve donc à devoir travailler pendant le service de nuit. Pendant son séjour chez Atari, il rencontre entre autres le dessinateur industriel Ronald Wayne, avec qui il devient ami. Il décide à cette époque de suivre la trace de son gourou du Reed College, Robert Friedland. Il entreprend donc un voyage en Inde. Sur place, il se rend à Haridwar pour le pèlerinage du Kumbhamela puis prend la direction de Nainital au pied de l'Himalaya où vivait le gourou Neem Karoli Baba. Il y rencontre l'épidémiologiste Larry Brilliant avec qui il devient ami. Par la suite, il est rejoint par son ami Daniel Kottke. Après avoir passé sept mois en Inde, Steve revient aux États-Unis, tête rasée et portant des habits traditionnels indiens, à l'image des Hare Krishna. À son retour, il récupère son poste chez Atari. Bushnell lui demande alors de concevoir le circuit imprimé du jeu "" avec le moins de puces possibles. À la clé, en plus de la rémunération, il y aura un bonus proportionnel au nombre de puces économisées. Pour cela, il fait appel à son acolyte Steve Wozniak pour l'aider à le réaliser. Ce dernier réussit, en quatre jours, à concevoir un circuit en n'utilisant que quarante-cinq puces. Pour le travail réalisé, Jobs annonce à son compère qu'il coupe la poire en deux, trois cent cinquante dollars chacun. Bien que Jobs le nie, certains témoins, dont Bushnell, confirment que Jobs a obtenu cinq mille dollars et non sept cents pour le travail réalisé. Wozniak, qui ne découvre les faits que dix ans plus tard à la lecture de "Zap", un ouvrage sur l'épopée d'Atari, reconnaît avoir été blessé par l'attitude de son ami. Apple Computer. En 1975, Jobs et Wozniak participent aux rencontres du Homebrew Computer Club, où les amateurs d'informatique viennent échanger leurs idées concernant les machines de l'époque, telles que l'Altair 8800. Steve Wozniak s'initie aux microprocesseurs en découvrant l'Altair équipé d'un Intel 8080. Il conçoit à la suite de cela l'Apple I pendant l'année 1975. La machine, bien que sommaire, impressionne Steve Jobs. Munis d'un petit moniteur, ils l'emmènent pour le présenter au Homebrew Computer Club. L'altruisme de Wozniak l'aurait amené à distribuer gratuitement ses schémas de montage. Jobs, au contraire, voit plus loin. Considérant que la plupart des gens n'ont pas le temps de monter une machine, Jobs et Wozniak pourraient donc assembler les circuits pour leur vendre l'ordinateur monté. Jobs suggère donc à son acolyte de créer leur propre entreprise. Pour réunir les fonds nécessaires au lancement, Jobs, âgé de 21 ans, vend son Volkswagen Combi, Wozniak, 25 ans, sa calculatrice HP-65. L'acte de la fondation d'Apple est signé le par Steve Jobs, Steve Wozniak et Ronald Wayne. Moins de deux semaines après, Wayne se sépare des deux Steve et récupère sa mise mais, très vite, un élément va apporter un coup d'accélérateur à Apple : Mike Markkula, un business angel californien, apporte à la nouvelle société, en plus d'un plan d'affaires. Wozniak et Jobs se mettent au travail dans le garage de la maison familiale de ce dernier, à Los Altos, où, avec quelques proches, ils assemblent les cinquante premiers Apple I que Steve Jobs a vendus au magasin "Byte Shop" de Menlo Park. Le nom de l'entreprise est une idée de Jobs : "". Il est en effet dans la phase « pomme » de son régime et revient tout juste d'une plantation de pommiers. Il sait aussi qu'Apple se trouvera devant Atari dans l'annuaire. Ce nom se trouve cependant être aussi celui de la société des Beatles (). Cela vaudra à son entreprise plusieurs contentieux en justice durant les décennies suivantes. Apple est constituée sous forme de société le . Pour faire la promotion de ses produits, Jobs contacte le grand publicitaire de la vallée, Regis McKenna. L'une des priorités est de trouver un nouveau logo. Steve Jobs précise alors . Début , Apple commercialise l'Apple II, conçu par Steve Wozniak. Il peut être considéré, trois ans avant la sortie de l'IBM PC, comme le premier ordinateur personnel construit à grande échelle. Il rencontre le succès et fait la richesse de la jeune entreprise. En 1978, Apple recrute Michael Scott de la National Semiconductor afin de devenir son directeur général. En , Apple, qui a gagné sa renommée avec l'Apple II, est introduite en bourse, ce qui fait de Steve Jobs un multimillionnaire à vingt-cinq ans et enrichit considérablement environ trois cents de ses dirigeants et cadres, mais pas Daniel Kottke. Le grand ami d'adolescence de Steve Jobs n'occupe pas un poste hiérarchique assez élevé pour détenir des actions et le jeune patron se montre intraitable avec lui en refusant catégoriquement de lui permettre de profiter de cette manne. Au début des années 1980, Jobs est l'un des premiers à cerner le potentiel commercial de l'interface graphique couplée avec l'usage d'une souris développée au Xerox PARC. Pour avoir accès à cette technologie alors balbutiante, il propose aux responsables de Xerox d'investir dans Apple (à hauteur d'un million de dollars en actions Apple) et, en échange, Steve et ses collègues obtiennent l'autorisation en de se rendre au PARC pour y voir une démonstration complète du système développé par les ingénieurs de Xerox. Ce qu'ils y voient leur sert de base à la conception de leur interface maison à laquelle ils apportent leurs propres améliorations. Cela conduira au lancement de l'Apple Lisa en 1983 puis du Macintosh en 1984, les premiers ordinateurs personnels à profiter de ces innovations qui restent aujourd'hui le standard général. À la question de savoir s'il s'agit de ce qui a pu être considéré comme le , Steve Jobs répond : , et ajoute à propos de Xerox qu'ils ont raté le coche, qu'ils n'avaient pas conscience du potentiel de ce qu'ils étaient en train de développer alors qu'ils auraient pu devenir les maîtres de toute l'industrie informatique. Le projet Macintosh est lancé et mené par Jef Raskin, brutalement écarté pour des problèmes d'ego par Steve Jobs en , lorsqu'il s'en saisit pour mettre en pratique ses idées — déjà développées sur le Lisa — d'une machine avec interface graphique et souris. Débarqué du projet Lisa quelques mois plus tôt par Michael Scott et Mike Markkula qui trouvent que ses accès de colère empêchent son équipe de travailler sereinement, il prend dès lors la tête d'un groupe de jeunes ingénieurs talentueux (au premier rang desquels figurent Andy Hertzfeld, Bill Atkinson, Burrell Smith, Susan Kare, Joanna Hoffman, Bud Tribble) dont certains resteront ses amis. Ils sont regroupés dans un bâtiment sur lequel flotte un drapeau noir orné d'un crâne barré par deux os et se baptisent « les pirates ». Ils conçoivent ce que tous les utilisateurs d'ordinateurs ont connu : une souris à un seul bouton, qui déplace le pointeur à l'écran dans toutes les directions grâce à une unique bille placée en dessous et qui doit pouvoir comme le spécifie Jobs (bien loin du concept de départ des ingénieurs du PARC), les menus déroulants, le « glisser-déposer », le chevauchement des fenêtres, les icônes, la corbeille, apportant des évolutions décisives au principe du WYSIWYG (""/Ce que vous voyez est ce que vous obtenez) et donc à ce qui est connu sous le nom de « bureau ». Steve Jobs veut embaucher les meilleurs pour chaque poste et sa façon de recruter peut se révéler très déstabilisante pour les candidats. Andy Hertzfeld raconte ainsi un entretien d'embauche pour le poste de responsable de la division logiciels auquel il assiste début 1982. Jobs demande à l'impétrant, interloqué : , et enchaîne : , répond le candidat. lâche Jobs devant ses plus proches collaborateurs qui répriment un fou-rire. C'est dans cette même période, en 1983, que Steve Jobs débauche John Sculley, alors directeur général de Pepsi, pour remplacer Scott, en lui demandant Le lancement du Macintosh est accompagné d'une campagne publicitaire d'envergure décidée par Jobs et Sculley. Pendant la mi-temps du Super Bowl, le , Apple fait diffuser à la télévision le spot publicitaire 1984 réalisé par Ridley Scott devant plus de 90 millions de téléspectateurs. Ce spot remportera plusieurs prix prestigieux et redéfinira la façon dont les entreprises envisagent leurs campagnes publicitaires, en privilégiant de montrer le signe, l'évocation, plutôt que le produit en lui-même. Bien que Jobs soit un chef charismatique et persuasif, certains salariés d'Apple le décrivent comme erratique et capricieux. Bud Tribble invente à cette époque le terme de « champ de distorsion de la réalité » qu'il emprunte à la série "Star Trek" et qui décrit la capacité de son patron à imposer aux autres ses conceptions, quelles qu'elles soient. Ce dernier n'hésite pas, en effet, à humilier ses collaborateurs en public et est réputé pour sa vision « binaire » de leur travail : soit , soit, le plus souvent, . Le même principe est appliqué aux êtres humains qui sont soit , et peu nombreux, soit font partie de la masse des , des qui tirent une entreprise vers le bas et dont il faut se séparer au plus vite. Jobs est capable de repousser une idée d'un de ses collaborateurs en la qualifiant de « stupide » et de revenir plus tard en s'étant attribué cette idée. Il sait imposer des délais qui paraissent impossibles à tenir en disant juste qu'il n'acceptera aucune objection. Par ailleurs, il scelle le malheureux destin du Lisa (échec commercial, rapide arrêt de la production) en rendant le Macintosh incompatible avec cet appareil et crée un rapport de force et un lourd climat de tension entre son équipe et celle qui s'occupe de l'ordinateur qui continue à cette époque à assurer l'essentiel des revenus de son entreprise, l'Apple II, en expliquant notamment : . La relation entre Jobs et Sculley devient tendue en raison des ventes en berne fin 1984. Une lutte de pouvoir interne va les amener à se tirer dans les pieds. Jobs manœuvre pour débarquer Sculley, sûr de son fait, mais, à son grand dam, ce dernier réussit dans les derniers jours de à ranger l'ensemble des membres du conseil d'administration de son côté, et ceux-ci décident donc d'écarter Steve Jobs, en le , déchargé de tout rôle décisionnel et opérationnel, avec le vague titre de responsable du dans un bureau éloigné du centre décisionnel de l'entreprise. Désabusé, il quitte la société en pour fonder NeXT Inc. et ne parlera plus jamais à John Sculley. NeXT Computer. Après son départ amer d’Apple, Jobs fonde NeXT Computer, en déboursant sept millions de dollars. Il s'attire par ailleurs des ennuis en justice avec Apple, car il emmène avec lui quelques-uns des plus brillants ingénieurs. Un an plus tard, manquant de fonds et en l’absence d’un produit sur le marché, il se lance à la recherche d’investisseurs. Il attire l’attention du milliardaire Ross Perot qui investit massivement dans la société. La station de travail NeXT, le NeXT Computer, est commercialisée en 1988 pour un prix de six mille cinq cents dollars. À l’image du Macintosh, les ordinateurs NeXT possèdent une belle avance technologique, mais leur coût se révèle prohibitif pour le secteur de l’éducation auquel ils sont destinés. Et les ventes sont très décevantes. Les produits de la marque gagnent toutefois une belle réputation pour leurs atouts techniques, au premier rang desquels figure la programmation orientée objet. Jobs veut vendre les produits NeXT aux communautés financière, scientifique et académique, soulignant les nouvelles technologies innovantes et expérimentales de l'ordinateur, telles que son noyau Mach, son processeur de signal numérique et le port Ethernet intégré. L’ordinateur de seconde génération, le NeXTcube, est commercialisé en 1990. Jobs qualifie ce produit de qui va remplacer l’ordinateur personnel. Avec son client de messagerie NeXTMail, un système multimédia de courrier électronique, le NeXTcube peut pour la première fois offrir le partage de la voix, de l’image, des graphismes et de la vidéo dans un courriel. , explique un Steve Jobs visionnaire à des journalistes le . D'ailleurs, Tim Berners-Lee invente à cette époque le "" au CERN sur un NeXT Computer. Steve Jobs dirige NeXT avec une obsession de la perfection esthétique, comme le souligne le développement et l’attention portée au cadre magnésium du NeXT Cube, en mettant une pression terrible à la division « matériel » de sa société. En 1993, après n’avoir vendu que cinquante mille machines, NeXT abandonne la fabrication pour se consacrer exclusivement au développement de logiciels, avec la mise en vente du NeXSTEP/Intel. La société annonce ses premiers bénéfices de en 1994. En 1996, NeXT Software, Inc. commercialise WebObjects, un système conçu pour le développement d’applications web. Après l’acquisition de NeXT Software par Apple en 1997, WebObjects est utilisé pour concevoir et exploiter les Apple Stores, l’ITunes Store et les services en ligne de MobileMe. Avec le recul, il dit à propos de ces années-là . Pixar et Disney. En 1986, Steve Jobs rachète la division « graphisme par ordinateur » de Lucasfilm, le ' qui sera renommé Pixar. Il débourse dix millions de dollars dont la moitié est versée au capital de la nouvelle société. L'entreprise est basée aux studios Kerner de George Lucas à San Rafael, avant de s’installer à Emeryville. Steve Jobs investit environ cinquante millions de dollars à perte dans cette société qui traverse plusieurs années sans aucune rentabilité. Ses principales activités sont de développer et fournir du matériel numérique de conception graphique haut de gamme et de vendre en petite quantité l'ordinateur « Pixar Image », notamment au secteur de la médecine. Mais, au sein de Pixar, il existe une division « animation » qui sauve finalement l’entreprise en remportant l'Oscar du meilleur court métrage d'animation avec ' en 1989. Par la suite, le studio décroche un contrat avec le studio Walt Disney Pictures pour réaliser une série de longs métrages d'animation par ordinateur, Disney assurant le financement et la distribution. Le premier film issu de ce partenariat est ' (1995), dans lequel Steve Jobs est crédité en tant que producteur délégué. Le film apporte la célébrité ainsi qu'une reconnaissance critique et commerciale sur un plan mondial à Pixar. La recette globale est de 362 millions de dollars. Une semaine après la sortie de ', la société Pixar est introduite en bourse, avec un résultat aussi glorieux et profitable que pour Apple en 1980. Durant les quinze années suivantes, sous la houlette du créatif directeur artistique John Lasseter, le studio aligne les succès : "1001 pattes" (1998), ' (1999) "Monstres et Cie" (2001), "Le Monde de Nemo" (2003), "Les Indestructibles" (2004), ' (2006), "Ratatouille" (2007), "WALL-E" (2008), "Là-haut" (2009), ' (2010), ' (2011). La plupart des films sortis à partir de 2003 ont reçu l'Oscar du meilleur film d'animation. Dans les années 2003-2004, alors que le contrat liant Pixar à Disney arrive à échéance, les négociations entre Steve Jobs et Michael Eisner destinées à renouveler le partenariat échouent. En , Jobs annonce que Pixar cherche un autre distributeur pour les films de son studio. En , Robert Iger remplace Michael Eisner à la tête de Disney et il se met rapidement à l’œuvre pour renouer de bonnes relations avec Jobs et Pixar. Le , Jobs et Iger annoncent que Disney a décidé d’acheter Pixar pour une transaction de 7,4 milliards de dollars. Steve Jobs devient alors le premier actionnaire individuel de la plus grande société de divertissement mondiale, avec environ 7 % de parts. Celles-ci sont en effet, et de loin, supérieures à celles de Michael Eisner (1,7 %) ou de l'héritier Roy Edward Disney qui détient 1 % jusqu'à sa mort en 2009 et dont les critiques envers Eisner (portant notamment sur son échec à négocier avec Pixar et Steve Jobs) ont accéléré le départ. Steve Jobs rejoint le conseil d’administration de Disney où il supervise la division « animation » de la société au sein d’un comité spécial de pilotage constitué de six membres. Retour à Apple et montée en puissance de l'entreprise. En , Apple annonce son intention de racheter NeXT. L’opération, effective le , est estimée à . Propriétaire à 45 % de NeXT, Steve Jobs obtient cent millions de dollars ainsi qu'un million et demi d'actions Apple. Cela lui permet de reprendre pied dans la société qu’il a cofondée en tant que « conseiller à mi-temps ». Steve Jobs déclare en : . Apple est à ce moment au bord de la faillite. Il redevient "de facto" le patron d'Apple lorsque le directeur général de l’époque, Gil Amelio, est remercié en . Jobs est officiellement nommé « directeur général par intérim » au mois de septembre. À cette époque, il est surnommé iPDG (iCEO) par ses équipes qui s'inspirent de la lettre « i » comme marque de fabrique désignant les produits à venir. Selon Adam Lashinsky dans son ouvrage "Inside Apple" publié en 2012, la lettre i faisant référence au statut d'intérimaire du PDG. Le site Reference for Business attribue cette première lettre à l'attrait vendeur d'Internet. En et afin de concentrer les efforts d’Apple sur un retour aux bénéfices, il met un point final aux programmes Newton, Cyberdog et OpenDoc ainsi qu'à la vente de licence Mac OS afin d'empêcher la multiplication des « clones » et explique à ses collaborateurs qu'ils doivent désormais se concentrer sur pas plus de quatre produits. Il met au point le slogan ' avec son erreur grammaticale délibérée, en compagnie de son ami publicitaire Lee Clow, et lance une grande campagne d'affichage et un spot télévisé intitulé ' (les fous) où ce est illustré avec les plus grandes figures du , comme Albert Einstein, Gandhi, Martin Luther King, John Lennon, Alfred Hitchcock, Bob Dylan, Pablo Picasso. La technologie de NeXT étant devenue propriété d’Apple une fois le rachat conclu, bon nombre de ses réalisations vont trouver place dans les produits de la firme à la pomme, au premier rang desquels figure NeXTSTEP qui est la base du système d’exploitation Mac OS X. Sous la houlette de Steve Jobs, Apple se déploie avec tout d’abord l’introduction de l’iMac en 1998 puis, chaque année, de nouveaux produits qui assoient la puissance de la marque. Lors de la Macworld Expo de l’an 2000, Steve Jobs enlève officiellement « intérim » du titre de sa fonction et devient directeur-général permanent. Dans le même temps, il souligne qu’il utilisera le titre « iCEO ». Apple continue son développement, introduisant et développant de nouveaux appareils numériques et leur environnement au cours des années 2000. Avec le lancement de l’iPod et d’iTunes en 2001 puis de l’iTunes Store en 2003, la société crée une véritable révolution dans l’industrie de la musique, désormais dématérialisée. Steve Jobs supervise dans le même temps la création de la chaîne de magasins Apple Store, d'abord aux États-Unis puis dans le monde entier. Le succès est fulgurant. Le , Apple entre dans le marché des téléphones portables avec la commercialisation de l’iPhone, un appareil cellulaire doté d’un écran tactile "multi-touch" qui comprend aussi un iPod et un navigateur web, révolutionnant là aussi le marché de la téléphonie mobile, Steve Jobs ayant comme le dit le président des États-Unis Barack Obama . Il lance l'année suivante un véritable « écosystème » pour cet appareil, et bientôt pour tous les produits Apple : l'App Store, créant ainsi une forme de standard pour tous les smartphones. Le , Steve Jobs présente l’iPad, une tablette numérique reprenant le principe de l’écran tactile multipoints. C’est encore une forme de révolution, la porte ouverte à un nouveau marché dans lequel vont s'engouffrer bien des marques. Sans parvenir à égaler son succès, l'iPad captant 62 % du marché mondial des tablettes en 2011. Enfin, tous les contenus personnels des utilisateurs stockés sur les différents appareils se retrouveront dans le « nuage numérique », l'iCloud, à partir duquel ils pourront être redistribués , un service présenté par Jobs en , lors de sa toute dernière "keynote". Sur l'enchaînement des deux derniers produits phares d'Apple, Steve Jobs explique à Walt Mossberg lors du forum D8 en 2010 : . À partir d', après quatorze années de montée en puissance sous la direction de son charismatique patron et au gré des fluctuations du marché, Apple est l'entreprise la plus riche au monde par sa capitalisation boursière, son trésor de guerre dépassant notamment celui du gouvernement des États-Unis. L'entreprise qu'il a fondée continue sa course en tête à partir de 2012. Toujours enclin à stimuler l’innovation, Jobs n’a jamais manqué de rappeler à ses collaborateurs une vieille maxime qu’il avait trouvée à l’époque du lancement du Macintosh : « », c'est-à-dire que les vrais artistes savent aussi vendre leurs créations, et que la finalité d’un produit reste d’être distribué au public. De son vivant, Steve Jobs est à la fois admiré et critiqué pour ses formidables talents de persuasion, ce fameux « champ de distorsion de la réalité », c’est-à-dire qu’il est capable d’altérer la perception de son ou de ses interlocuteurs pour leur faire adopter ses propres conceptions, qu’elles se révèlent par la suite justes ou non. Il sait ainsi décrocher des partenariats, avec l’industrie de la musique ou les opérateurs téléphoniques, à des conditions exceptionnelles pour son entreprise. Ce talent particulier apparaît au grand public lors des discours de Steve Jobs aux Macworld Expos ou aux Worldwide Developers Conferences, où il présente l’actualité de son entreprise lors de ses ', renommées pour l’occasion '. Lors de ces grandes messes où il parcourt la scène en jeans, baskets, et vêtu d'un pull à col roulé de marque, le patron d'Apple sait captiver son auditoire, notamment en répétant à l'envi des mots récurrents tels que , etc.. Il sait aussi maintenir le suspense et ravir son public avec le fameux () qu'il prononce à la fin de ses présentations pour annoncer par surprise une autre nouveauté importante. Démission. Steve Jobs lutte durant plus de sept ans contre la maladie, subissant notamment une greffe du foie en . Au fil des années, la santé florissante de son entreprise contraste avec son apparence de plus en plus frêle. Le , il prend un nouveau congé « pour une durée indéterminée » qui se révélera être le dernier. Le , le monde entier apprend qu'il démissionne de son poste de directeur-général d'Apple, annonçant dans une lettre adressée à tous ses collaborateurs qu'il souhaite que Tim Cook prenne définitivement sa place, et qu'il restera président du conseil d'administration afin de pouvoir continuer à superviser les activités de la marque qu'il a fondée. Quelques heures après cette annonce, les actions boursières de la société chutent de 5 %. L'entrepreneur. Patrimoine. Steve Jobs ne gagne qu’un dollar symbolique par an en tant que directeur-général d’Apple, mais il possède dans le même temps d’actions de son entreprise, tout comme d’actions Disney, celles qu’il avait reçues en 2006 lors du rachat de Pixar. Il plaisante en expliquant que son dollar annuel de revenu est divisé en cinquante cents pour participer aux réunions, et cinquante cents basés sur la performance. En plus de son salaire, il obtient de la part d'Apple le remboursement de ses frais de transport (deux cent mille dollars en 2010) mais aussi un jet Gulfstream V en tant que bonus. En 2011, Forbes estime sa fortune personnelle à sept milliards de dollars, faisant de lui la trente-neuvième plus grande fortune américaine. Style de management et personnalité. Steve Jobs est un perfectionniste d’une grande exigence qui a toujours voulu positionner ses entreprises et leurs produits à la pointe de l’industrie des technologies de l’information en prévoyant les tendances du marché, mais aussi en les créant, tout du moins en termes d’innovations et de style. Jobs résume cela en par une maxime de la star canadienne du hockey Wayne Gretzky : . Sur un plan personnel, ce n'est pas tant la richesse qui l'intéresse (il se range dans la catégorie des grands patrons les moins ostentatoires) que de laisser sa trace, d'assurer sa place parmi les grands entrepreneurs et inventeurs de l'histoire de son pays, ainsi que la pérennité de son entreprise, qui devra lui survivre. Il restera toute sa vie un adepte de l'intégration verticale, ou « système fermé », qui veut que son entreprise conçoive tout à la fois de façon exclusive : le matériel, le système d'exploitation qui l'anime, les logiciels, les applications, les périphériques. Cette philosophie débouchant sur des appareils « tout-en-un » qui, reliés entre eux, proposeront l'expérience unique du « foyer numérique », un environnement totalement généré par Apple : une vision que Jobs a dès le début des années 2000. Tout doit donc être contrôlé à 100 %. L'intérieur (ce qui ne se voit pas et auquel, du premier Macintosh au dernier iPhone, on ne peut pas accéder) doit être aussi parfait que l'extérieur. Il fait, par exemple, changer les vis du boitier du premier Macintosh afin qu'il soit impossible pour le public de l'ouvrir avec un tournevis conventionnel et refait la même chose vingt-six ans plus tard avec l'iPhone 4. Jobs s'oppose aussi formellement, à quelques années d'écart, à la mise à disposition d'iTunes sur les plates-formes Windows ou à l'ouverture de l'App Store aux développeurs externes qui viendront y déposer leurs créations, et doit à chaque fois être convaincu par ses plus proches collaborateurs, à l'aide d'arguments imparables et dans le dernier cas, à la condition expresse que ce soit Apple qui teste et qui approuve ces « apps » venues de l'extérieur avant de les proposer en ligne. Sa philosophie consistant à positionner son entreprise et ses productions à la convergence de l'art et de la technologie, Steve Jobs est également littéralement obsédé par le design. Il considère que c'est une absolue priorité, la beauté et la simplicité, stimulé et épaulé dans la deuxième partie de sa carrière chez Apple par le britannique Jonathan Ive, le patron de ce secteur. Une démarche globale, qui va des cordons, adaptateurs électriques ou emballages aux escaliers translucides en colimaçon des Apple Stores, pour le moins couronnée de succès. Mais elle peut aussi conduire en 2010 à l'affaire de l"Antennagate", ce premier modèle de l'iPhone 4 qui rencontre des problèmes de réseau quand on le tient d'une certaine façon, car Jobs et Ive ont tenu à ce que son contour soit d'une pureté de ligne parfaite, en aluminium brossé, au détriment du fonctionnement de son antenne, et sans tenir compte des avertissements de leurs ingénieurs à ce sujet. Contraint de réagir par le "buzz" négatif qui enfle dans les semaines suivant la commercialisation de l'appareil, Jobs convoque une conférence de presse où il explique avant tout que les concurrents ne font pas mieux, que le problème a été surestimé par la sphère médiatique, et offre un contour de protection ("") à tous les possesseurs de l'appareil. Il a beaucoup été question de la personnalité agressive et exigeante de Steve Jobs. Le magazine "Fortune" (qui a sacré Jobs « directeur général de la décennie » en ) a, par exemple, écrit qu’il était « considéré comme un des plus grands égotistes de la Silicon Valley ». En 1993, Jobs figure dans la liste des patrons les plus durs de "Fortune", en regard de la façon dont il dirige NeXT. Le cofondateur de cette entreprise, Dan’l Lewin, déclare dans ce même magazine que Steve Jobs, durant cette période, « avait des sautes d'humeur inimaginables ». Jef Raskin, qui fut un temps au début des années 1980 chef de projet pour le Macintosh, a déclaré que Jobs , faisant ainsi allusion à sa personnalité impérieuse et démesurée. Pour ce qui est de son style de management chez Pixar, l’animateur américain Floyd Norman déclare qu’il . Le biographe autorisé Walter Isaacson, qui publie "Steve Jobs" en 2011, se demande tout au long de son livre si la méchanceté ou la malveillance dont fait parfois preuve son sujet est intentionnelle ou fait simplement partie d’un personnage entier, qui dit ce qu’il pense, pense ce qu’il dit même si cela s'écarte de la réalité, ne s'embarrasse jamais de considérations liées à l’empathie et ne peut pas (ou ne veut pas) contenir ses émotions. Il y a beaucoup d'exemples frappants à ce titre, le plus récent voyant un Steve Jobs très affaibli par la maladie en 2009, trouvant l'énergie de démolir littéralement et publiquement, dans l'auditorium du quartier général de Cupertino, l'équipe du service en ligne MobileMe (lancé en 2008, fermé en 2011) en lui disant et en congédiant sur-le-champ les responsables. On apprend aussi que le fondateur d'Apple s'estime souvent au-dessus des lois des hommes, affectant notamment de rouler dans une Mercedes sans plaques d'immatriculation et la garant n'importe où, par exemple, sur les places réservées aux handicapés. Dans son ouvrage, Isaacson décrit à plusieurs reprises Steve Jobs comme un personnage qui pour le meilleur ou pour le pire . Steve Jobs est également un grand fan de musique et, à son panthéon, figurent Bob Dylan dont il collectionne les albums depuis son plus jeune âge et les Beatles. Il se réfère souvent au groupe de Liverpool, notamment au cours de ses ' (en , lorsqu'il présente la fonction iPod du premier iPhone, il joue deux morceaux de ') ou la même année lors de la conférence télévisée "All Things Digital" où il partage le plateau avec Bill Gates et où il choisit un vers de la chanson "" pour décrire avec beaucoup d'émotion leurs tumultueuses relations désormais apaisées : (). Il déclare par ailleurs lors de l'émission "60 Minutes" de CBS en 2003 : . À propos de la conception de l'iPhone, il dit aussi : . Il met également, à la fin de sa vie, toute son énergie dans les négociations avec EMI et la compagnie homonyme Apple Corps pour mettre fin au contentieux qui les oppose afin de pouvoir proposer l'œuvre de son groupe favori en téléchargement légal sur iTunes. C'est chose faite le , et Steve Jobs s'occupe personnellement du lancement en grande pompe de cet événement. Steve Jobs résume sa façon d’être dans son fameux discours à l’adresse des étudiants de l’université de Stanford en 2005 : . Relation avec Bill Gates et autres personnalités de l'industrie. Steve Jobs et Bill Gates, tous deux nés en 1955, sont à l'origine d'un pan entier de l'histoire de la révolution micro-informatique. Ils partagent le fait d'avoir eu très tôt la vision d'un monde où tous les foyers seraient équipés d'un ordinateur et d'avoir été des acteurs majeurs de cette évolution. Là où l'un, intuitif, développe très vite des talents de design, de persuasion et de vente, l'autre, homme d'affaires précoce et avisé, sait aussi programmer, ce qu'il ne manquera jamais de souligner. En , avant même la création d'Apple, Bill Gates écrit une fameuse lettre ouverte au club informatique, dont sont membres Jobs et Wozniak, pour fustiger l'utilisation libre des logiciels (en l'occurrence, son tout récent BASIC), créant un véritable précédent historique dans le monde numérique sur la question de la licence des programmes. Comme le raconte Andy Hertzfeld, . Mais Apple est déjà sur le devant de la scène lorsque Microsoft balbutie, et c'est Apple qui « met le pied à l'étrier » à la jeune firme de Seattle en lui faisant développer son tableur (Excel) et son traitement de texte (Word) pour le premier Macintosh commercialisé en 1984. Les relations entre les deux patrons vont s'envenimer lorsque Microsoft développe son propre système d'exploitation, Windows, en reprenant les principes inventés par Rank-Xerox et développés sur les ordinateurs Apple Lisa et MacIntosh : l'interface graphique et la souris. Un accord stipulait, en effet, que Microsoft ne développerait rien dans ce sens pendant un an après la sortie du Macintosh programmée en . Mais l'appareil pommé prend un an de retard et, en novembre de la même année, Gates présente à New York les principes de son nouvel « OS ». Une scène passée à la postérité se déroule alors à Cupertino où Gates est venu seul pour prendre un véritable savon. hurle Jobs. , répond Bill, . Bill Gates se trouve être une des très rares personnes totalement insensibles au champ de distorsion de la réalité de Jobs. Cette histoire, , restera toujours un point d'achoppement entre les deux géants. À la fin de sa vie, Jobs dit encore : , à quoi ce dernier répond : Au cours des années 1990, Windows gagne haut la main la « guerre des systèmes d'exploitation » en atteignant une position quasi hégémonique. Ce qui n'empêche pas Steve Jobs de dire à cette époque : Ils s'opposent en fait sur un principe industriel : la verticalité (le système fermé) prônée par Jobs, et l'horizontalité (la mise en licence des programmes pour tous les appareils), "credo" de Gates. Les relations sont souvent houleuses, comme lorsque Gates, en position de force, refuse de créer le moindre programme pour les ordinateurs NeXT en dénigrant le nouveau produit lancé par Jobs après son départ d'Apple. Lorsqu'il y revient, en 1997, Jobs décide d'enterrer la hache de guerre, de mettre un terme à une décennie de poursuites judiciaires avec Microsoft, et propose à Gates d'entrer au capital d'Apple en investissant cent cinquante millions de dollars tout en continuant à développer des programmes compatibles pour Apple. Il lui explique qu'en poursuivant les actions en justice pour « vol de brevets », Microsoft pourrait finir par être condamné à verser une véritable fortune à Apple, mais que cette dernière pourrait disparaitre avant cette échéance. L'accord est entériné lors de la ' de la MacWorld Expo de Boston, le , où le patron de Microsoft apparaît en direct sur l'écran géant devant un Jobs du coup tout petit et un public stupéfait, ce qu'il considérera "a posteriori" comme une gaffe magistrale. Les observateurs ne manquent pas, en effet, de relever l'étonnant parallèle entre le Big Brother fracassé par Apple dans la publicité 1984 et l'apparition de Bill Gates lors de cette '. Durant les années 2000, chaque entreprise ayant trouvé sa place dominante sur le marché de l'électronique grand public, les relations s'apaisent. Ainsi, lors du forum télévisé "All Things Digital" en , les deux hommes qui partagent le plateau de Walt Mossberg se couvrent de louanges. Les yeux dans ceux de son rival historique, Gates déclare : , tandis que Jobs conclut cet entretien avec le vers de "" en écrasant une larme. À l'été 2011, Bill Gates rend une dernière visite à Steve Jobs, dont le cancer est en phase terminale. Ils restent plus de trois heures ensemble à discuter avec beaucoup d'émotion dans le salon de sa maison de Palo Alto, et concluent : , dit Gates. , lui répond Jobs. Avec les autres grands patrons de l'industrie informatique américaine, Steve Jobs n'est pas toujours tendre. Ainsi, une guerre des mots éclate à la fin des années 1990 avec le constructeur d’ordinateurs Michael Dell. C’est d’abord le patron d’Apple qui qualifie les produits Dell de . Le , lorsque l’on demande à Michael Dell ce qu’il ferait s’il possédait un ordinateur Apple, il répond : . En 2006, Jobs envoie un courriel à tous les salariés de sa compagnie, au moment où la capitalisation boursière d'Apple dépasse celle de Dell : . Son côté rancunier s'exprime aussi lorsqu'il barre l'accès de la technologie Flash d'Adobe à la plate-forme iOS en 2010. Très proche du fondateur de cette entreprise, John Warnock, il avait aidé à la lancer en lui faisant développer Adobe Illustrator pour le Macintosh au début des années 1980. Mais Warnock prend sa retraite et, en 1999, les nouveaux dirigeants refusent d'adapter leurs produits phares, tel Photoshop pour le premier iMac. Dix ans plus tard, Jobs se venge. , dit-il. Il ajoute : . Un de ses plus grands amis de l'industrie informatique est Larry Ellison, le patron fondateur d'Oracle. En 1995, Ellison veut entraîner son ami dans une tentative de putsch contre Apple, en rachetant l'entreprise et en lui donnant dans la foulée 25 % des parts pour lui permettre de reprendre les rênes. Mais Jobs n'est pas un partisan de ce genre d'offensive inamicale en bourse. Il veut revenir par la grande porte, ce qu'il fera fin 1996, avant d'inviter Ellison à siéger au conseil d'administration d'Apple. Situé dans le top dix des entrepreneurs les plus nantis au monde, Ellison, qui invite souvent la famille Jobs en croisière sur un de ses luxueux yachts, est surnommé « notre ami riche » par le fils de Steve, Reed Jobs, qui souligne ainsi le refus de son père d'afficher tout signe ostentatoire. Un autre grand ami de Jobs est Millard « Mickey » Drexler, directeur général du fabricant de vêtements Gap quand il lui offre un siège dans ce conseil d'administration d'Apple qu'il taille à sa mesure lors de son retour, à la fin des années 1990. Drexler donne souvent des conseils avisés à Jobs et il dira de lui au moment de sa démission en : . Au début de son parcours d'entrepreneur, l'ennemi s'appelait IBM. Il est ensuite devenu Microsoft. À la fin de sa vie, Steve Jobs va ferrailler contre Google, sur un problème similaire : la naissance d'Android, le système d'exploitation ouvert pour appareils mobiles développé par le géant de Moutain View qui, selon lui, est une honteuse copie d'iOS. Il avait pourtant fait entrer le patron de Google, Eric Schmidt, au conseil d'administration d'Apple, mais en 2010, il lui explique que son entreprise a les mains sales et qu'au lieu de cinq milliards de dollars de dédommagement, il souhaiterait qu'Android cesse de voler ses idées à Apple. Il déclare aussi qu'il est prêt à lancer une guerre thermonucléaire pour détruire le système d'exploitation pour appareils mobiles de Google. Étrange parallèle avec ce qui s'est passé un quart de siècle auparavant avec Windows, et issue identique. Les éventuelles actions en justice sont vouées à l'échec. Pourtant, alors que sa mort approche, lors de son ultime congé maladie en 2011, Steve Jobs reçoit Larry Page à son domicile de Palo Alto. Ce dernier vient de reprendre les rênes de l'entreprise qu'il a cofondée avec Sergey Brin et a sollicité une « audience » pour prendre conseil auprès du patron légendaire. , dit Jobs. Il lui parle de l'importance du recrutement, du fait qu'il faut rester concentré sur pas plus de cinq produits phares car tous les autres , et raconte : . Inventions et design. Le sens du design de Steve Jobs a été grandement influencé par le bouddhisme qu’il a expérimenté en Inde lors d’un voyage spirituel de sept mois. Ses capacités intuitives si développées ont également connu l’influence de la spiritualité qu’il a étudiée avec différents maîtres, et selon lui, du LSD. Au , il est listé comme inventeur ou coinventeur de trois cent quarante-deux brevets américains liés à la technologie, allant des ordinateurs actuels et appareils portables aux interfaces utilisateurs (dont les tactiles), haut-parleurs, claviers, adaptateurs électriques, coffrets, fermoirs, pochettes, cordons et emballages. La plupart de ces brevets ont trait au design, mais quarante-trois d’entre eux sont listés comme des inventions de produits. Celui du nouveau dock du système d’exploitation Mac OS X 10.7 ("Lion") a été validé le jour précédant sa mort. Philanthropie. L'engagement philanthropique de Steve Jobs, comparé à celui de Bill Gates, par exemple, est resté très discret. Après avoir quitté Apple et fondé NeXT, il lance la "Steven P. Jobs Foundation", mais l'abandonne un an plus tard. Lors de son retour à la tête d'Apple en 1997, il arrête le programme caritatif de la firme. Cependant, sous l'ère Jobs, Apple participe au programme Product Red en produisant des modèles rouges de ses iPods dont une partie des profits générés sont reversés au Fonds mondial de lutte contre le sida, la tuberculose et le paludisme, faisant d'Apple son contributeur le plus important. Son non-ralliement à The Giving Pledge, mouvement philanthropique lancé par Bill Gates et Warren Buffett en , n'est pas passé inaperçu. Ces derniers invitaient les plus fortunés du pays à prendre l’engagement moral — et public — de destiner une grande partie de leur fortune à la philanthropie. Après une critique au sujet de sa philanthropie dans "The New York Times", Bono, l'un des fondateurs de (RED), prend sa défense en rapportant que, lorsqu'il a approché Steve Jobs au sujet de la marque (RED), il aurait dit : . Vie privée. Vie familiale. Les parents biologiques de Steve Jobs se rencontrent à l'université du Wisconsin. Abdulfattah « John » Jandali, un Syrien musulman, y fait ses études en sciences politiques puis les enseigne fin des années 1960 à l'université du Nevada à Reno. Rapidement, il se reconvertit dans la restauration en rachetant un restaurant dans cette même ville. Il est, depuis 2006, vice-président de l'hôtel-casino Boomtown, toujours à Reno. En , dix mois après avoir donné leur enfant à l'adoption, Joanne Carole Schieble et Adbulfattah se marient. En 1957, ils ont ensemble une fille, Mona. Après leur divorce, en 1962, Jandali perd le contact avec sa fille. Schieble quant à elle se remarie et Mona prend alors le nom de son beau-père et devient ainsi connue sous le nom de Mona Simpson. Dans les années 1980, Steve Jobs retrouve sa mère biologique Joanne qui lui révèle qu'il a une sœur biologique, Mona Simpson. Ils se rencontrent pour la première fois en 1985 et deviennent de proches amis. Mona décide par la suite de partir à la recherche de son père, elle le retrouve alors qu'il dirige un petit restaurant à Sacramento. Sans savoir ce que son fils est devenu, Jandali raconte à sa fille qu'il a, par le passé, dirigé un grand restaurant dans la Silicon Valley où même Steve Jobs est venu manger. . Lors d'une de ses interviews enregistrées avec son biographe Walter Isaacson, Steve Jobs dit : . En parlant de ses parents, Steve déclare : . Jandali rapporte, lui, de son côté au "Sun" que ses efforts pour contacter Jobs ont été vains. La première fille de Steve Jobs, Lisa Brennan-Jobs, naît en 1978 de sa relation avec sa petite amie de l'époque, Chrisann Brennan. Pendant deux ans, elle élève l'enfant seule alors que Jobs nie en être le père, prétendant qu'il est stérile. À la même époque, il lance l'ordinateur Lisa. Par la suite, au moment de l'introduction en bourse d'Apple et sous la pression de ses associés, il finit par reconnaître Lisa comme sa fille, et elle viendra vivre à ses côtés pendant quatre ans lors de son adolescence avant d'aller poursuivre ses études à Harvard. En 1982, il rencontre la chanteuse Joan Baez avec qui il entretient une relation. Pour Elizabeth Holmes, l'amie de Steve Jobs depuis les années Reed, la principale raison de son intérêt pour Joan — hormis le fait qu'elle est belle, drôle et talentueuse — est qu'elle a eu une liaison avec Bob Dylan. Après s'être posé la question d'un hypothétique mariage avec cette femme, plus vieille que lui et qui ne voudrait probablement plus d'enfants, ils mettent fin à leur relation après trois ans. Steve Jobs passe les années suivantes auprès de Tina Redse, qui se trouve à ses côtés au moment où il doit quitter Apple en 1985, et qui restera sa petite amie jusqu'à sa rencontre avec Laurene Powell. Steve Jobs se rend à la "" pour y donner une conférence en . Il y rencontre donc une autre femme, Laurene Powell, qui y poursuit des études. Ils échangent leurs numéros de téléphone, il repart, puis il raconte, dix ans plus tard : . Le , Steve (36 ans à l'époque) se marie avec Laurene (27 ans), lors d'une cérémonie au Ahwahnee Hotel dans le Parc national de Yosemite. Le mariage est présidé par le moine bouddhiste zen Kobun Chino Otogawa. Le premier enfant issu de cette union, Reed, voit le jour en , puis naissent ses sœurs Erin en et Eve en 1998. La famille vit depuis à Palo Alto. Il a commandé à l'architecte Philippe Starck la construction d'un yacht de de long, "Venus", qui ne sera achevé qu'après sa mort. Problèmes de santé. En , les médecins apprennent à Steve Jobs qu'il est atteint d'un cancer. Il ne révèle sa maladie à ses employés et au grand public qu'en , après avoir subi une intervention pour faire retirer une tumeur cancéreuse de son pancréas. Jobs est atteint d'une forme relativement rare de tumeur, plus simple à traiter, une « tumeur neuroendocrinienne des îlots de Langerhans ». Dans un premier temps, et malgré le diagnostic des médecins, il va à l'encontre de leurs recommandations en refusant de subir une intervention chirurgicale. Il lui préfère un régime alimentaire végétarien strict avec une grande quantité de carottes et de jus de fruits frais, des séances d'acupuncture et divers remèdes à base de plantes. C'est seulement au bout de neuf mois, après que sa femme et ses amis ont tenté de le raisonner et qu'il apprend que la tumeur a encore grossi, qu'il décide de se faire opérer. Il subit alors une opération de Whipple au le , tandis que Tim Cook le remplace à la tête d'Apple. Dans la foulée, il annonce dans un courriel à ses employés qu'il est guéri, qu'il n'a pas besoin de subir une chimiothérapie ou une radiothérapie et qu'il reprendra le travail en septembre. La vérité est différente, mais elle restera bien cachée : lors de l'opération, les médecins ont découvert des métastases au foie. Il évoque publiquement cet épisode lors de son discours à l'adresse des étudiants de Stanford le . Début , Steve Jobs est sur la scène de l'annuel ' pour une de ses traditionnelles '. Son extrême minceur, son apparence décharnée et sa présentation inhabituellement apathique, ajoutées à son choix de déléguer une partie importante de cette "" à ses principaux collaborateurs, alimentent un florilège de commentaires dans la presse et sur internet à propos de son état de santé. Pourtant, selon un article de l"Ars Technica journal", les participants à cette WWDC qui ont rencontré Jobs en personne déclarent qu'il « a l'air de bien se porter ». Un porte-parole d'Apple souligne pour sa part que « la santé de Steve est robuste ». Deux ans plus tard, en , les rumeurs repartent de plus belle après la ' de Steve Jobs au WWDC 2008. Les responsables d'Apple déclarent qu'il est victime d'un « problème courant » et qu'il prend des antibiotiques, tandis que l'on conjecture sur son extrême pâleur qui serait due aux conséquences de l'opération de Whipple qu'il a subie. Les rumeurs ne se trompent pas, les médecins constatent que son cancer se propage. Il a par ailleurs de plus en plus de mal à s'alimenter. Mais le secret reste bien gardé. Durant une conférence téléphonique de présentation des revenus d'Apple, en , les participants doivent répondre à une série de questions tournant autour de la santé de leur patron et insistent sur le fait qu'il s'agit d'une « affaire privée ». Le ' publie à ce moment un article qui conclut que le cancer de Jobs « n'a pas connu de récurrence ». Le , l'agence Bloomberg publie par erreur une nécrologie de Steve Jobs de deux mille cinq cents mots dans son fil d'informations qui comprend des blancs sur son âge et la cause de sa mort (le fait est que les agences de presse gardent toujours sous la main des nécrologies préparées afin de réagir rapidement lors de la disparition de personnalités). Bien que cette erreur soit rapidement rectifiée, la nouvelle est reprise dans la presse et sur internet. Steve Jobs apporte sa réponse au siège d'Apple lors de la "keynote Let's Rock" en septembre, choisissant de citer Mark Twain : . Plus tard, lors d'un nouvel événement médiatique, Steve Jobs conclut sa présentation en affichant sur l'écran géant une diapositive sur laquelle est inscrit « 110/70 », c'est-à-dire l'état de sa pression artérielle, expliquant par ailleurs qu'il n'acceptera aucune question supplémentaire sur sa santé. Le , Apple annonce que le vice-président chargé du marketing, Phil Schiller, se chargera de la "" au Macworld Conference and Expo 2009, ce qui relance à nouveau les spéculations sur la santé de Jobs. Ce dernier explique sur une page publiée le sur le site apple.com qu'il souffre d'un « déséquilibre hormonal » depuis plusieurs mois. Le , dans une note interne à Apple, Steve Jobs écrit que, durant les semaines précédentes, il a « appris que [ses] problèmes de santé étaient plus complexes que ce [qu'il] croyai[t] » et annonce un congé maladie de six mois, jusqu'à la fin , pour lui permettre de mieux se concentrer sur sa santé. Tim Cook prend à nouveau les rênes de la compagnie tandis que Jobs reste impliqué dans les « décisions stratégiques majeures ». En , il subit une greffe du foie au Methodist University Hospital Transplant Institute de Memphis, Tennessee. Le pronostic vital pour Jobs est à ce moment déclaré « excellent ». Le , un an et demi après son retour consécutif à sa greffe du foie, Apple annonce qu'il prend un nouveau congé maladie. Jobs écrit à ses collaborateurs pour expliquer qu'il a pris cette décision, à nouveau, pour se concentrer sur sa santé. Comme en 2004 et en 2009, Tim Cook reprend son poste de directeur-général opérationnel tandis que Jobs continuera à superviser les décisions stratégiques majeures de l'entreprise. Malgré ce nouveau congé maladie, Steve Jobs apparaît lors du lancement de l' (le ), lors de la "" où est présenté le service iCloud (le ) et, enfin, devant le conseil municipal de la ville de Cupertino (le ), sa dernière apparition publique et télévisée où il présente le nouveau projet de campus géant d'Apple, un énorme bâtiment en forme d'anneau circulaire entouré de verdure qui doit abriter douze mille employés. Steve Jobs annonce finalement sa démission de son poste de directeur général d'Apple le . « Malheureusement, ce jour est arrivé », écrit-il, car il ne « peut plus, désormais, assumer [ses] fonctions et [ses] attentes en tant que directeur général d'Apple. » Il devient le président du conseil d'administration d'Apple et nomme Tim Cook comme son successeur. Steve Jobs continue à travailler pour l'entreprise qu'il a fondée jusqu'à la veille de sa mort. Mort et hommages. Steve Jobs meurt le vers (heure locale), dans son domicile de Palo Alto en Californie, des complications engendrées par la récidive de son cancer pancréatique neuroendocrinien, résultant en un arrêt cardiorespiratoire. L'annonce de sa mort est faite par Apple sous la forme d'un communiqué de presse. Sa famille déclare dans un communiqué distinct : . Selon sa sœur Mona Simpson, présente à ses côtés, Steve . Ses derniers mots, prononcés plusieurs heures avant sa mort, ont été . Pendant les deux semaines qui suivent sa disparition, le site web d'Apple affiche une page d'accueil sobre, comportant une photo de lui en noir et blanc, son nom ainsi que ses dates de naissance et de mort. L'hyperlien de l'image mène vers une nécrologie qui rend hommage à un visionnaire et à un génie créatif. Une adresse de courriel en fin de page permet d'adresser des condoléances, mémoires et pensées qui sont maintenant affichées sur sa page commémorative. Apple annonce avoir reçu plus d'un million de courriels à cette adresse. La mort de Steve Jobs déclenche aux États-Unis mais aussi dans le monde entier une importante vague d'émotion. Devant tous les Apple Store du monde, la foule se presse pour déposer des fleurs, des mots de condoléance, des pommes, des appareils tactiles de la marque qui affichent des chandelles. De nombreuses personnalités, plus ou moins proches de lui, lui rendent également hommage. C'est, par exemple, le cas du président démocrate des États-Unis Barack Obama, de Bill Gates, du PDG de The Walt Disney Company Robert Iger, de Steve Wozniak, de Mark Zuckerberg ainsi que d'autres grandes figures de la Silicon Valley, tout comme de nombreuses personnalités du monde du spectacle, de la politique, de l'industrie et des médias. En marge de ces hommages, l'informaticien et militant américain du logiciel libre Richard Stallman, déclare : . Ses obsèques se déroulent le lors d'une petite cérémonie privée dont les modalités n'ont pas été révélées par respect envers la famille Jobs. Il est inhumé dans Alta Mesa Memorial Park. Honneurs et reconnaissance. Après avoir fondé Apple, Steve Jobs devient un symbole pour sa firme, mais aussi l'industrie informatique. Lorsque "", en 1982, nomme l'ordinateur homme de l'année, le magazine publie un long profil de Steve Jobs en l'appelant . En 1985, le président républicain américain Ronald Reagan remet à Steve Jobs et à son collègue Steve Wozniak la . Ils sont parmi les premiers à recevoir cette décoration. En , le magazine "Fortune" lui donne le titre d'. En , le magazine "Forbes" le classe dix-septième dans son classement des personnes les plus puissantes. En , le "Financial Times" nomme Jobs personnalité de l'année et conclut son article sur une déclaration de John Sculley en 1987, évoquant les ambitions de l'homme qu'il a évincé : et le journaliste y ajoute de façon rhétorique : . Le magazine américain "TIME" lui consacre sa une de couverture le avec une photographie du Suisse Marco Grob. Au moment de sa démission puis de nouveau après sa mort, Steve Jobs est décrit par beaucoup comme un visionnaire, un pionnier et un génie. Il est parfois considéré comme le Thomas Edison et le Henry Ford de son époque. , dit Bill Gates. , déclare Mark Zuckerberg. , dit de lui le président des États-Unis Barack Obama. Le , la société Graphisoft dévoile à Budapest la première statue en bronze au monde de Steve Jobs. Biopics à la télévision et au cinéma. L'histoire d'un entrepreneur qui révolutionna de manière durable le monde technologique malgré les nombreux obstacles sur sa route est un sujet qui attire les producteurs hollywoodiens, friands des "success-stories". "Les Pirates de la Silicon Valley". "Les Pirates de la Silicon Valley" est un téléfilm de Martyn Burke réalisé en 1999. Il relate les débuts de la micro-informatique individuelle aux États-Unis du début des années 1970 à la fin des années 1980 et met en scène la rivalité entre les célèbres duos Steve Jobs et Steve Wozniak, et William Henry "Bill" Gates III et Paul Allen. Steve Jobs y est interprété par Noah Wyle. Le narrateur de ce téléfilm est Steve Ballmer, joué par John DiMaggio. "Jobs". Un biopic indépendant, "Jobs", est sorti à l'été 2013. Réalisé par Joshua Michael Stern, le film se concentre sur la naissance d'Apple, l'épisode de NeXT et s'achève avec la présentation de l'iPod. Steve Jobs est incarné par Ashton Kutcher, Steve Wozniak est joué par Josh Gad. La critique est très médiocre (y compris sur l'interprétation de Kutcher), le film est un échec au box-office. "Steve Jobs". Un autre film est développé en parallèle par Sony Pictures Entertainment. Ce biopic est plus exhaustif que le premier, en se basant sur la biographie de Walter Isaacson. Le film est réalisé par Danny Boyle et écrit par Aaron Sorkin (notamment scénariste du film "The Social Network", autre biopic sur une star des nouvelles technologies). Seth Rogen est sélectionné pour être l'interprète de Wozniak. Le rôle principal, d'abord proposé à Leonardo DiCaprio et à Christian Bale, qui l'ont tour à tour refusé, revient finalement à Michael Fassbender. Cependant, en , Sony Pictures renonce à produire ce film et le traitement du film est mis en vente. Le projet est ensuite relancé par Universal Pictures. Le film, simplement intitulé "Steve Jobs", est tourné au cours de l'année 2015 et sorti le en France. Il tourne autour de trois présentations majeures qui ont ponctué la carrière de Jobs (celle du Macintosh 128K en 1984, du NeXT Computer en 1988 et de l'iMac G3 en 1998), et se penche principalement sur ses relations avec sa fille Lisa Brennan-Jobs. Le film comporte bon nombre d'inexactitudes historiques, le scénariste Aaron Sorkin a, par ailleurs, déclaré que le film était « un portrait, plus qu'une photographie » peu avant la sortie du film. |
Système international d'unités Le Système international d'unités (abrégé en SI), inspiré du système métrique, est le système d'unités le plus largement employé au monde ; il n'est pas officiellement utilisé aux États-Unis, au Liberia et en Birmanie. Il s’agit d’un système décimal (on passe d’une unité à ses multiples ou sous-multiples à l’aide de puissances de 10) sauf pour la mesure du temps et des angles. C’est la Conférence générale des poids et mesures, rassemblant des délégués des États membres de la Convention du Mètre, qui décide de son évolution, tous les quatre ans, à Paris. L’abréviation de « Système international » est SI, quelle que soit la langue utilisée. La norme internationale ISO 80000-1:2009 décrit les unités du Système international et les recommandations pour l’emploi de leurs multiples et de certaines autres unités. Unités et préfixes. Le Système international d'unités se compose d'un ensemble d'unités de base, d'unités dérivées et de multiplicateurs à base décimale qui sont utilisés comme préfixes. La Conférence générale des poids et mesures, rassemblant des délégués des États membres de la Convention du Mètre, décide de leur évolution, tous les quatre ans, à Paris. La norme internationale ISO 80000-1:2009 décrit les unités du Système international et les recommandations pour l’emploi de leurs multiples et de certaines autres unités. Unités de base. Le Système international comporte sept unités de base, destinées à mesurer des grandeurs physiques indépendantes et possédant chacune un symbole : Unités dérivées. Les unités dérivées dans le SI sont formées par les puissances, les produits ou les quotients des unités de base et sont potentiellement illimitées en nombre. Les unités dérivées sont associées à des grandeurs dérivées ; par exemple, la vitesse est une grandeur dérivée des grandeurs de base du temps et de la longueur, et l'unité SI dérivée est donc le mètre par seconde (symbole m/s). Les dimensions des unités dérivées peuvent être exprimées en fonction des dimensions des unités de base. Des combinaisons d'unités de base et d'unités dérivées peuvent être utilisées pour exprimer d'autres unités dérivées. Par exemple, l'unité SI de force est le newton (N), l'unité SI de pression est le pascal (Pa), qui correspond à un newton par mètre carré (). Préfixes. Des préfixes officiels permettent de désigner les unités multiples et sous-multiples d'une unité. Par exemple, le sous-multiple du mètre valant est appelé centimètre (symbole cm) puisque le préfixe correspondant à est "centi-". Règles orthographiques et typographiques. Les principes de l'écriture des nombres, des grandeurs, des unités et des symboles forment ce que l'on peut appeler la « grammaire » du Système international d'unités. Les références normatives sont le Bureau international des poids et mesures, la norme internationale et, en France, le fascicule de documentation de l'AFNOR : de . Les unités ne peuvent être désignées que par leur nom (pouvant varier d'une langue à une autre), ou par leur symbole (international, indépendant de la langue). Il ne faut pas mélanger les "symboles" et les "noms" des unités. On écrit, correctement, « newton par kilogramme » ou N/kg mais jamais « newton par kg », « newton/kg », « newton/kilogramme », ni « km/heure ». Sont prohibées les abréviations telles que « sec » pour la seconde (s), « mn » pour la minute (min) ou « cc » pour le centimètre cube (cm). Les "symboles" des unités (mais pas leurs noms) commencent par une majuscule si le nom de l'unité provient d'un nom propre, et une minuscule dans le cas contraire. Ainsi, on peut comparer les symboles du pascal (Pa) et de la seconde (s). La seule exception à cette règle est le symbole du litre, qui peut s'écrire au choix « l » ou « L », pour éviter les confusions avec le ou la majuscule (I) selon les polices de caractères utilisées. Les symboles des unités sont toujours écrits en caractères romains quelle que soit la police du texte où ils figurent : ils ne sont pas mis en italique ; ils sont grammaticalement invariables et ne sont pas suivis d'un point (sauf nécessité typographique, par exemple en fin de phrase). Toutes les unités, toujours à droite de la valeur, sont par convention séparées de la valeur par une espace insécable, exceptions faites des symboles des unités sexagésimales d'angle, par exemple : (symboles prime ′ pour les minutes et double prime ″ pour les secondes) et des degrés d'alcool, par exemple : alcool à 90°). Ainsi, on écrit « » mais pas « 30cm » ; de même, on écrit « » mais pas « 30,2°C » ni « », le symbole °C étant composé du « ° » et du « C » qui sont, eux deux, indissociables. Le "nom" des unités écrit en entier est quant à lui un nom commun : même si l'unité dérive d'un nom propre, la première lettre du nom d'une unité est donc toujours une minuscule (contrairement à son symbole) ; en toutes lettres, le nom d'une unité prend la marque du pluriel. On écrit ainsi « trois ampères », « deux teslas ». Note : contrairement au cas du kelvin, le nom du degré Celsius (°C) est composé, c'est alors la première lettre du mot « degré » qui prend la minuscule et la marque du pluriel. On écrit ainsi « deux degrés Celsius ». Les notations de la division et de la multiplication s'appliquent aux symboles des unités dérivées. Ainsi on peut écrire le symbole du mètre par seconde m⋅s ou m/s et celui du kilowatt-heure kWh ou kW⋅h. Lorsque deux unités sont multipliées, on utilise, entre les symboles, un point à mi-hauteur centré [⋅] ou par une espace, pour distinguer certains préfixes de symboles d'unités. En ce qui concerne la division, tout ce qui est affecté d'un exposant négatif est énoncé à la suite de la barre oblique ou du mot « par » : ainsi, l'unité SI de vitesse est le mètre par seconde (m/s), la forme « mètre seconde » étant incorrecte (elle désignerait le produit d'une distance par une durée). Pour éviter les notations ambiguës, on n'utilise jamais plus d'une barre oblique dans le symbole d'une unité (A/m/s, qui correspond à l'ampère par mètre par seconde, A⋅m⋅s, pourrait être pris pour A/(m/s), qui correspond à l'ampère seconde par mètre, A⋅s⋅m ou A⋅s/m). Ainsi la conductivité thermique s'exprime par le watt mètre par mètre carré kelvin, , ou par le watt par mètre kelvin, . En cas de produit d'unités, on utilise dans le nom de l'unité dérivée un tiret ou une espace. Ainsi, les bonnes orthographes de l'unité dont le symbole est kWh sont « kilowatt-heure » et « kilowatt heure ». Dans ces deux cas, chacun des noms d'unités prend la marque du pluriel : kilowatts-heures ou kilowatts heures. En l'absence de trait d'union ou d'espace, seul le deuxième nom d'unité prend la marque du pluriel : wattheures, voltampères. Quand une même unité entre plusieurs fois dans un produit, on peut l'énoncer en faisant suivre son nom, selon le cas, des adjectifs « carré », « cube » ou « bicarré », ou des expressions « au carré », « au cube » ou « à la puissance "n" » : Aucune adjonction au symbole d'une unité pour donner une information concernant la nature particulière de la grandeur ou le contexte de mesurage considéré n'est permise : et non (« tension efficace exprimée en volts » et non « volts efficaces »). De même, l'appellation « mètre linéaire » ne doit pas être employée, l'adjectif « linéaire » n'apportant aucune notion supplémentaire à l'unité. Pour former les noms des unités multiples et sous-multiples, des préfixes du Système international sont simplement accolés (sans espace ni tiret) à gauche de l'unité, toujours sans mélanger les symboles (entités mathématiques) et les noms des unités et préfixes : kilomètre (ou km), milliseconde (ou ms). On ne peut pas accoler plusieurs préfixes à une unité (nanomètre mais pas millimicromètre). Ainsi, même si le décanewton (daN) est une unité correcte (qui traduit approximativement l'ancien kilogramme-force), le kilodécanewton (kdaN, qui traduirait la tonne-force) ne l'est pas. De même, un hectopascal (hPa) est un multiple correct de l'unité dérivée, le pascal, mais le kilohectopascal (khPa, qui correspond sensiblement à une pression d'une atmosphère) ne l'est pas. Note : dans le cas du kilogramme, unité de base qui pour des raisons historiques comporte dans son nom le préfixe « kilo », les multiples et sous-multiples restent formés sur le gramme. Histoire et évolutions. Avant la Révolution française : premières ébauches d'un système d'unités universel. La première tentative notable d'établir des unités universelles (c'est-à-dire fondées sur des phénomènes physiques reproductibles) est, dans le monde anglo-saxon, celle de John Wilkins, un scientifique anglais membre de la , qui définit en 1668 une longueur puis un volume universel et enfin une masse universelle (celle de la quantité d'eau de pluie contenue dans un cube de côté valant la longueur universelle). La longueur universelle ainsi définie est prise comme valant (approximativement ) soit environ celle d'un pendule simple dont la demi-période des petites oscillations est d'une seconde. Vers 1670 Gabriel Mouton, religieux lyonnais, propose une unité de longueur en se basant sur la mesure d'un arc de méridien terrestre. Il définit aussi la série de multiples et sous-multiples d'unité basée sur le système décimal. En 1675, le savant italien Tito Livio Burattini renomme la mesure universelle de John Wilkins en « mètre » () et en prend pour définition exacte celle du pendule précédemment décrit (et non plus celle de ), aboutissant ainsi à une longueur de . Cette valeur dépend cependant de l'accélération de la pesanteur et varie donc légèrement d'un lieu à l'autre. Révolution française et naissance du système métrique. En 1790, l’Assemblée nationale constituante se prononce, sur proposition de Talleyrand, lui-même conseillé par Condorcet, pour la création d'un système de mesure stable, uniforme et simple, et c'est l'unité de Burattini qui est d'abord adoptée comme unité de base. Mais du fait que la longueur du pendule battant la seconde n’est pas la même selon l’endroit où l'on se trouve, en raison de la différence de gravité selon la distance avec l'équateur (voir "supra"), c’est finalement une mesure fondée sur la mesure du méridien de la Terre qui est choisie en 1793. Cette longueur sera précisée, par la (), comme étant . Deux savants sont chargés d'effectuer les mesures géodésiques nécessaires, Delambre et Méchain, lesquels vont, durant sept ans, mesurer la distance entre Dunkerque et Barcelone. Avec le mètre sont définies les unités de surface et de volume, l'unité de masse (le gramme) et l'unité monétaire (le franc germinal) : on crée ainsi le système métrique décimal, permettant de convertir plus aisément les unités puisque, désormais, pour passer d'une unité à ses multiples et sous-multiples, il suffit de déplacer la virgule. Dans le même décret, la Convention nationale prévoit la création d'étalons pour le mètre. La définition ainsi choisie est définitivement adoptée le () par décret de la Convention nationale française. Ce système métrique est alors désigné par le sigle MKpS, pour « mètre, kilogramme-poids, seconde ». Les étalons du mètre et du kilogramme, en platine, prévus par les décrets de la Convention nationale sont déposés aux Archives nationales de France le (), ce qui est parfois considéré comme l’acte fondateur du système métrique. Introduit par le décret du (), le système métrique est rendu obligatoire en France à l’occasion de son cinquième anniversaire par l'arrêté du (), l'emploi de tout autre système étant interdit. Dans ses mémoires de Sainte-Hélène, Napoléon, qui avait naguère soutenu l'expédition géodésique en vue de déterminer la nouvelle mesure, mais pris conscience de la difficulté d'acclimatation à de nouvelles unités, écrit : Évolutions du système métrique au. Dès 1801, la République helvétique tente d'introduire le système métrique, « mais la loi ne fut jamais appliquée » — il fallut attendre 1877. C'est le Royaume uni des Pays-Bas (comprenant les actuels Pays-Bas, la Belgique et une partie du Luxembourg) qui l'adopte à nouveau le premier en 1816, sur l'impulsion de son souverain , quatorze ans avant la révolution française de 1830, qui signe sa réintroduction en France. Le , Napoléon prend un décret impérial instaurant pour le commerce de nouvelles unités au nom conforme à l'usage ancien, comme "aune, toise, boisseau, livre", mais avec de nouvelles valeurs fixées en référence au système métrique, et surtout, autorise pour ces nouvelles unités des fractions non décimales. Après la Restauration française en 1814, confirme dans un premier temps vouloir poursuivre l'établissement du système métrique, mais sous la pression des plaintes, un arrêté ministériel du ordonne la suppression des fractions décimales des poids et mesures, et l'emploi exclusif des mesures « usuelles » pour la vente au détail des denrées et marchandises. Le système métrique n'est néanmoins pas abandonné dans l'enseignement et la recherche, et petit à petit, on prend conscience qu'il est temps de renoncer aux facilités introduites par le décret de 1812 et de s'en tenir aux unités légales établies par l'arrêté du . Ce sera l'objet de la loi du signée par Louis-Philippe, qui rend obligatoire l'usage des unités du système métrique à partir du , dans le commerce et dans la vie civile et juridique. En 1832, Gauss travaille pour l'application du système métrique comme système d'unités cohérent en sciences physiques. Il établit des mesures absolues du champ magnétique terrestre en utilisant un système d'unités fondé sur les unités centimètre, gramme et seconde parfois appelé « Système de Gauss ». Dans les , Maxwell et Kelvin s’impliquent au sein de la (BA), fondée en 1831, pour la mise en place d'un système d'unités composé d'unités de base et d'unités dérivées. Ceci aboutit en 1874 à la création du « système CGS » fondé sur les unités centimètre, gramme et seconde. Dans les , la BA et le Congrès international d’électricité, ancêtre de la Commission électrotechnique internationale, s’accordent sur un système d'unités pratiques, parmi lesquelles l’ohm, le volt et l’ampère. Depuis la fondation de la Convention du Mètre. En 1875, la Convention du Mètre est créée et instaure le Bureau international des poids et mesures (BIPM), le Comité international des poids et mesures (CIPM) et la Conférence générale des poids et mesures (CGPM). La première CGPM a lieu en 1889 et adopte de nouveaux prototypes pour le mètre et le kilogramme. Le système d'unités consacré est alors le « système MKS », du nom de ses unités de base, le mètre, le kilogramme et la seconde. En 1901, le physicien Giovanni Giorgi montre qu'il est possible de combiner les unités électriques à celles du système MKS en ajoutant, à ce dernier, une unité électrique. La discussion de cette proposition par des organisations internationales parmi lesquelles l'Union internationale de physique pure et appliquée (IUPPA) et la Commission électrotechnique internationale aboutit en 1946 à l'adoption par le CIPM du « système MKSA », fondé sur le mètre, le kilogramme, la seconde et l'ampère. En 1954, après une enquête du BIPM ayant commencé en 1948, la CGPM entérine l'adoption des unités de base supplémentaires que sont le kelvin et la candela. Il reste alors peu d'étapes avant l'achèvement du système métrique actuel. Tout d'abord, lui donner son nom (« Système international d'unités », avec comme abréviation internationale « SI ») ; ce qui est fait en 1960. Ensuite, lui adjoindre comme dernière unité la mole, ce qui est fait en 1971. Redéfinition de 2018-2019. Les unités de base du Système international sont redéfinies lors de la conférence générale des poids et mesures du 13 au (à Versailles), à partir de sept constantes physiques dont la valeur exacte est alors « définitivement fixée ». Cette réforme entre en vigueur le . Utilisation dans le monde. La plupart des pays du monde ont fait du Système international leur système officiel d'unités. En Asie de l'Est, ce fut au début du . Durant les , le gouvernement du Canada procède à la conversion au système métrique, sous l'égide de la Commission du système métrique. Cette action (passer officiellement d'un système d'unités national au système métrique) s'appelle métrification. En 2008, seuls trois pays dans le monde n'ont pas officiellement adopté le Système international : les États-Unis, le Liberia et la Birmanie. Il convient de nuancer en ce qui concerne les États-Unis, signataire de la Convention du Mètre : Exceptions notables. Par pays. En France, il existe quelques exceptions notables, utilisant les unités impériales, des unités dérivées du SI, ou d’anciennes unités d’origine plus obscure : Au Royaume-Uni, l'usage du système métrique est légalisé depuis 1897 mais dans certains domaines tels que le commerce, la santé publique, la sécurité, l'administration, la signalisation routière et la vente de métaux précieux, l'équivalent en unités impériales est toléré. Aux États-Unis, il est possible de trouver dans la même documentation des données métriques et impériales. Cette utilisation conjointe de deux types d'unités de mesure est à l'origine de la perte de la sonde spatiale en . Au Canada, y compris au Québec, l'usage du système métrique est obligatoire depuis 1975, mais dans la plupart des domaines de la vie quotidienne, du commerce, de la construction, c'est le système impérial qui prédomine (surtout en dehors du Québec). Il est commun que des individus ignorent comment utiliser le système métrique dans le domaine des distances (en dehors du code de la route, où il est appliqué systématiquement) : nombreux sont ceux qui ignorent leur taille en mètres (pieds, pouces) et leur poids en kilogrammes (livres) ; de même il est commun de mesurer les dimensions d'un appartement (pieds-carrés), la largeur d'un terrain (pieds), la diagonale d'affichage des écrans électroniques (ordinateurs, TV, mobiles), ou en plomberie, en système impérial. La plupart des unités de mesures non métriques sont maintenant définies à partir des unités du Système international. Par exemple, le édite une table des définitions des unités de mesure anglo-saxonnes à partir des unités métriques. Par domaine. Dans la navigation maritime, on compte les distances en milles marins, ou « nautiques ». Les marins francophones utilisent le nautique à la place du mille marin pour éviter la confusion entre l’adjectif numéral et l’unité de distance. Un mille nautique égale et un mille vaut . Enfin, la vitesse est exprimée en nœuds, un nœud valant un mille marin par heure. Dans la navigation aérienne, on compte les distances et les vitesses de la même façon que sur un navire : les distances en nautiques et les vitesses en nœuds ( en anglais, langue internationale de l'aéronautique). Les anémomètres, instruments du tableau de bord des avions qui mesurent la vitesse par rapport à l'air, s'ils ne sont gradués que d'une seule grandeur, le sont en ; s'ils sont gradués de deux grandeurs, ils sont gradués concentriquement en et en , dont le rapport est de 1/1,852. L'altitude (par rapport au niveau de la mer ) et la hauteur (par rapport à la piste) sont exprimées en pieds anglais (un pied valant ). Opérationnellement, on compte en milliers de pieds. Le niveau de vol (FL, « "flight level" » par rapport à l'isobare ) est exprimé en centaines de pieds. Par exemple, un niveau de croisière 350 vaut , soit . De même, les circuits d'attente au-dessus des aéroports sont espacés verticalement de (altimètre calé sur le QFE - la pression de la piste). La vitesse verticale d'un avion de ligne, quant à elle, est indiquée par un variomètre, gradué le plus souvent en milliers de pieds par minute. |
Seconde Guerre mondiale La Seconde Guerre mondiale, ou Deuxième Guerre mondiale, est un conflit armé à l'échelle planétaire qui dure du au . Ce conflit oppose schématiquement les Alliés et l’Axe. Provoquée par le règlement insatisfaisant de la Première Guerre mondiale et par les ambitions expansionnistes et hégémoniques des trois principales nations de l’Axe (le Troisième Reich, l'Italie fasciste et l'empire du Japon), elle est favorisée par la convergence d’un ensemble de tensions et conflits régionaux, notamment en Afrique (Seconde guerre italo-éthiopienne dès 1935), en Espagne où la guerre civile commence le , en Chine où les agressions du Japon débutent le , et en Europe centrale où l'Allemagne annexe autoritairement l'Autriche le puis les territoires des Sudètes pris à la Tchécoslovaquie le et où enfin, le , elle agresse militairement la Pologne selon un pacte conclu avec l'Union soviétique. Ce dernier événement provoque dès le l'entrée en guerre du Royaume-Uni (à ), de la France (à ), et de leurs empires coloniaux respectifs. Tout d'abord associée à l'Allemagne dans le partage de l'Europe, l'URSS rejoint le camp allié sur le front est-européen à la suite de l'invasion allemande le . Quant aux États-Unis, ils abandonnent leur neutralité après l'attaque de Pearl Harbor par les forces japonaises, le . Dès lors, le conflit devient vraiment mondial, impliquant toutes les grandes puissances, et la majorité des nations du monde sur la quasi-totalité des continents. La Seconde Guerre mondiale prend fin sur le théâtre d'opérations européen le (date en Europe de l'Ouest), ( en URSS du fait du décalage horaire) par la capitulation sans condition du Troisième Reich, puis s’achève définitivement sur le théâtre d'opérations Asie-Pacifique le par la capitulation également sans condition de l'empire du Japon, dernière nation de l’Axe à connaître une défaite totale. La Seconde Guerre mondiale constitue le conflit armé le plus vaste que l’humanité ait connu, mobilisant plus de de combattants de , déployant les hostilités sur quelque , et tuant environ de personnes, dont une majorité de civils. La Seconde Guerre mondiale est aussi la plus grande guerre idéologique de l’Histoire, ce qui explique que les forces de collaboration en Europe et en Asie occupées aient pu être solidaires de pays envahisseurs ou ennemis, ou qu’une résistance ait pu exister jusqu’en plein cœur de l’Allemagne nazie en guerre. Guerre totale, elle gomme presque entièrement la séparation entre espaces civils et militaires et donne lieu dans les deux camps à une mobilisation massive des ressources non seulement matérielles mais aussi morales et politiques, dans un engagement des sociétés tout entières. La somme des dégâts matériels n’est pas évaluée avec certitude. Les pertes en vies humaines et les traumatismes collectifs et individuels sont considérables, la violence ayant pris des proportions inédites. Le conflit donne en effet lieu à de multiples crimes de guerre, crimes favorisés et banalisés par une violence militaire et policière d'une intensité et d'une profondeur inégalées, cette violence notamment contre les civils étant parfois un élément de la stratégie militaire. On assiste ainsi à l'émergence à une échelle inconnue jusqu'alors de crimes de masse particulièrement atroces et pour certains sans précédent, tout particulièrement à l'instigation de l'Allemagne nazie et du Japon impérial. Parmi ces crimes figurent des massacres génocidaires allant jusqu'à une organisation industrielle s’appuyant sur la déportation en camps de concentration, camps de travail et centres d'extermination, comportant des chambres à gaz à des fins d’extermination de populations entières (Juifs, Slaves, Tziganes) ou de catégories particulières d’individus (communistes, homosexuels, handicapés, Témoins de Jéhovah, etc.) particulièrement à l’instigation du régime nazi. L'ampleur des crimes des vaincus suscite la définition d'une incrimination nouvelle par les vainqueurs : le crime contre l'humanité, appliquée notamment au génocide des juifs d'Europe. Le régime Shōwa n'est nullement en reste en Asie avec, à son actif, dix millions de civils chinois enrôlés de force par la au Mandchoukouo, environ « femmes de réconfort » enrôlées en Corée et dans tout l’Extrême-Orient, ainsi que l’annihilation systématique de populations civiles, principalement en Chine. Il faut ajouter à cela l'assassinat systématique de résistants et d'opposants politiques, ainsi que les représailles contre les civils, comme le firent par exemple les nazis ; les viols généralisés des femmes dans les territoires ennemis occupés, crimes perpétrés tant par un camp que par l'autre, et à une moindre échelle dans les territoires amis ; les expérimentations sur des êtres humains auxquelles se livrèrent des médecins nazis tels le SS Josef Mengele, et l’unité japonaise 731 ; les bombardements aériens massifs de civils d’abord par l’Axe en Europe (Coventry au Royaume-Uni, Rotterdam aux Pays-Bas) et en Asie (Shanghai, Canton, Chongqing en Chine, cette dernière étant la ville la plus bombardée du conflit sino-japonais), puis par les Alliés : bombardement à grande échelle de nombreuses villes allemandes et notamment Dresde et Hambourg en Allemagne, attaques sur Tokyo au napalm au Japon. Développée par les États-Unis lors du conflit, la bombe atomique est utilisée pour la première fois de l'Histoire : deux larguées sur des cibles civiles par les États-Unis explosent à trois jours d’intervalle, à Hiroshima et à Nagasaki, au Japon. La Seconde Guerre mondiale propulse les États-Unis et l’URSS, principaux vainqueurs, au rang de superpuissances concurrentes appelées à dominer le monde et à se confronter dans une vive rivalité idéologique et politique, pendant près d'un demi-siècle, et à s'affronter militairement par États interposés comme pour la guerre de Corée, celle du Viêt Nam et celle d'Afghanistan. Elle scelle le déclin des vieilles puissances impériales d’Europe et ouvre le processus de décolonisation qui s’accélère dans l'après-guerre en Asie, dans le monde arabe et en Afrique, jusqu'aux années 1960. L'ampleur des destructions et des morts suscite la création d'instances internationales, politiques et économiques, visant à éviter la réapparition des conditions ayant mené à la guerre (Organisation des Nations unies, Fonds monétaire international, Banque mondiale et Accord général sur les tarifs douaniers et le commerce pour les plus connues). Enfin, ce dernier conflit d'ampleur sur le continent européen est suivi en Europe de l'Ouest par une période de prospérité sans précédent, dans la foulée de la reconstruction, et l'émergence progressive d'un projet d'unification politique pacifique porté en premier lieu par les deux adversaires historiques, l'Allemagne et la France. Marche vers la guerre. Origines du conflit en Europe. Les traités de Versailles, Saint-Germain-en-Laye, Trianon et Neuilly avaient suscité rancœurs, frustrations et désirs de reconquête chez les peuples allemand, autrichien-hongrois et bulgare. L'humiliation de la défaite de 1918 et la signature du traité de Versailles sont vécues comme un "diktat" en Allemagne. C'est l'idée que la classe politique allemande est à l'origine de cette défaite qui entraîne un sentiment de rancœur au sein de l'armée qui rejoindra les nazis dans leur ascension au pouvoir. La crise de 1929 conduit les différents États à adopter des mesures protectionnistes et à se placer en rivaux. Alors que l’agressivité des démocraties se situe sur le plan économique, les dictatures fascistes vont adopter une stricte autarcie et, naturellement, penser leur défense et leur expansion en termes militaires. Mais partout, des politiques d’armement sont mises en place efficacement pour sortir du marasme économique. Ceci pourrait expliquer une guerre dans un contexte où la politique de l’Allemagne aurait été inspirée par les classes dominantes traditionnelles. La guerre en Europe est toutefois directement issue des ambitions expansionnistes du parti nazi — au pouvoir en Allemagne — exprimées dès 1924 par Adolf Hitler dans "Mein Kampf". Sur ces ambitions visant à conquérir un espace vital pour le peuple germanique se sont greffées les velléités expansionnistes du régime fasciste italien qui tenta tant bien que mal de se constituer un empire colonial en Éthiopie et en Europe du Sud. Origines du conflit en Asie. Ulcérées par le traitement imposé à l'empire du Japon par les puissances occidentales lors du traité de Versailles et les traités navals de Washington et de Londres, de nombreuses personnalités politiques et militaires japonaises, tels Fumimaro Konoe et Sadao Araki, réactualisent la doctrine du "hakkō ichi’u" (« les huit coins du monde sous un seul toit ») et mettent en place une idéologie fondée sur la suprématie de la race japonaise et son droit à dominer l’Asie. Cette idéologie raciste présente le Japon comme le centre du monde et prend assise sur l’institution impériale et l’empereur, être divin et descendant de la déesse Amaterasu Omikami. Elle donne lieu à une tentative de restauration Shōwa. Porté par l’influence des factions militaires, le Japon envahit ainsi la Mandchourie en 1931 puis le reste de la Chine en 1937. Le refus du Japon de se retirer de l’Indochine française, envahie en 1941, et de la Chine, à l’exclusion du Mandchoukouo, mène, l'été de la même année, à l’imposition par les États-Unis d’un embargo sur le pétrole. En réaction, Hirohito lance alors la guerre de la Grande Asie orientale ("Dai Tô-A sensô") et autorise l’attaque de Pearl Harbor ainsi que l’invasion de l’Asie du Sud-Est. Massacre de Nankin. Après avoir gagné la bataille de Nankin, les Japonais se livrent à six semaines de viols, de pillage et de carnage. Ils incendient les maisons et magasins au hasard, parfois simplement pour se réchauffer. Plusieurs dizaines de milliers de civils s'agglutinent dans la zone de sécurité mise en place par la petite colonie occidentale. Les Japonais reçoivent l'ordre d'exécuter les soldats chinois restés en ville. La convention de Genève protégeant les prisonniers de guerre n'est pas appliquée étant donné que pour le commandant japonais, le conflit est un « incident » et non une guerre. Des milliers de prisonniers chinois sont exécutés par des mitrailleuses, leurs cadavres sont jetés dans le Yang-Tsé-Kiang, d'autres sont brûlés à l'essence. Certains soldats sont décapités ou transpercés à la baïonnette. Certains soldats chinois trouvent refuge dans la zone de sécurité, mais sont traqués. Les Japonais arrêtent tous les hommes en âge de combattre et les exécutent sommairement. Au total, on estime que très peu de prisonniers chinois ont réussi à échapper au massacre. Le nombre de morts peut être évalué entre et hommes. Les Japonais se livrent aussi au massacre des civils qui n'ont pas pu se placer sous la protection des Occidentaux. Ce sont entre et civils qui sont tués au cours du massacre. Les femmes ne sont pas épargnées puisque d'entre elles sont violées, y compris des fillettes. Celles qui s'y opposent sont tuées. Si aucun ordre criminel n'a été donné au sujet des civils, le haut commandement ― qui n'ignorait rien du sort qui leur était réservé ― n'est pas intervenu. Le bilan global du massacre est difficile à établir. À la fin de la guerre, le bilan établi par le tribunal international de Tokyo fait état de victimes, tandis que les Chinois en dénombrent . Pendant l'année 1938, l'armée japonaise continue sa progression dans la grande plaine, entre le fleuve Bleu et le fleuve Jaune. Malgré un cinglant revers infligé par les Chinois à Hsuchow, l'avancée japonaise se poursuit, notamment grâce à l'arrivée constante de nouvelles unités. Le 9 juin, le Kuomintang ordonne la destruction des digues du fleuve Jaune dans le Henan, provoquant des inondations, qui entrainent des noyades et des épidémies tuant des centaines de milliers de personnes. Belligérants. L'affrontement central du conflit oppose les « Alliés » aux « Forces de l’Axe », c'est-à-dire les signataires du Pacte tripartite et les pays qui les soutiennent. Cependant les alliances furent parfois profondément modifiées durant le conflit et ses préambules. Ainsi, la Pologne participa au partage de la Tchécoslovaquie en 1938 aux côtés de l'Allemagne nazie, mais elle fut à son tour envahie et partagée par l'Allemagne nazie et l'URSS dans le cadre du pacte germano-soviétique, qui prévoyait également l'occupation des Pays baltes. La Finlande, lors de la Guerre d'Hiver en 1939 contre l'URSS, reçoit le soutien des Britanniques et des Français, mais elle se range aux côtés de l'Allemagne nazie après l'invasion de l'URSS par celle-ci, avant de changer de camp en 1944. La Roumanie, pro-occidentale au début de la guerre, se range du côté des nazis après le renversement de la monarchie par le mouvement fasciste de la Garde de fer, avant de retrouver le camp allié en 1944. Membres de l'Axe. La marche à la guerre en Europe a été rythmée de façon constante par les initiatives allemandes. Selon les mots d’Yves Durand, Lorsque la Pologne est envahie par l’Allemagne et par l’URSS, la Chine a déjà été envahie par le Japon depuis 1937, mais les relations entre Berlin et Tokyo restent distantes, et l’Allemagne ne soutient pas le Japon. L’empire du Japon, enlisé dans une guerre estimée au départ de trois mois, occupe difficilement un territoire trop vaste. Ses exactions contre les populations civiles (massacre de Nankin) ainsi que son recours aux armes chimiques et bactériologiques produites par l’unité 731 lui valent un surcroît d’hostilité en Europe. Le a lieu à Berlin la signature du pacte tripartite par lequel le Japon reconnaît la prédominance de l’Allemagne et de l’Italie en Europe, et ces deux derniers États la suprématie du Japon en Asie orientale : les trois pays signent un pacte d’assistance mutuelle. Quant à l’Italie, théoriquement alliée de l’Allemagne depuis 1936, elle n’a déclaré la guerre à la France et au Royaume-Uni que le , et attaque le royaume de Grèce sans consulter les Allemands le . L’alliance de la Hongrie avec l’Allemagne à partir de 1938 lui vaut des agrandissements territoriaux aux dépens de la Tchécoslovaquie et de la Roumanie, mais le pays n’est pas belligérant lorsqu’il rejoint l’Axe le . La Hongrie n’intervient militairement que lors de l’invasion de la Yougoslavie en , puis lors de l’attaque contre l’URSS en juin. Le Royaume-Uni et les États-Unis lui déclarent la guerre le . Après avoir été attaquée par l’URSS le lors de la guerre d'Hiver, la Finlande s’allie de facto à l’Allemagne (sans rejoindre l’Axe) et déclare la guerre à l’URSS le , dans le cadre de la « guerre de Continuation ». Cependant, le maréchal finlandais Mannerheim borne explicitement ses objectifs à la reprise des terres annexées à l'Union soviétique par le Traité de Moscou du . Après avoir dû céder un cinquième de son territoire à l’URSS le , la Roumanie subit le coup d’État du maréchal pro-nazi Ion Antonescu le , l’occupation par les troupes allemandes le et rejoint l’Axe le . Le , elle participe à l’attaque allemande contre l’URSS pour récupérer les territoires, perdus un an plus tôt, mais contrairement à l’armée finlandaise, l’armée roumaine est engagée dans les opérations jusqu’à Stalingrad et participe à des atrocités : massacre de civils à Odessa, déportation et extermination de Juifs en Transnistrie. Le Royaume-Uni et les États-Unis lui déclarent la guerre le . La Hongrie et la Roumanie ont envoyé plusieurs centaines de milliers d’hommes combattre aux côtés de l’Allemagne en URSS. Les contingents de volontaires étrangers engagés sur le front soviétique au nom de l’anti-bolchevisme, comme la division espagnole "Azul" ou la Légion des volontaires français, ont des effectifs beaucoup plus modestes. Le régent du Royaume de Yougoslavie, Paul de Yougoslavie signe une alliance avec l’Allemagne en . Il s’ensuit aussitôt un coup d'État militaire anti-allemand : lorsque le nouveau roi imposé par le putsch dénonce l’alliance, l’Allemagne et l’Italie envahissent et démantèlent la Yougoslavie. L’État indépendant de Croatie devient un satellite de l’Allemagne nazie. Autre satellite de l’Allemagne, la Slovaquie, qui a adhéré au pacte tripartite en , déclare la guerre à l’URSS le . La Bulgarie rejoint l’Axe le puis laisse la Wehrmacht traverser son territoire pour envahir la Grèce. La Bulgarie profite de cette alliance pour s’agrandir aux dépens de ses voisins mais ne participe pas à l’invasion de l’URSS. Le Royaume-Uni et les États-Unis lui déclarent la guerre le . Elle n’est en guerre contre l’URSS que pendant vingt-quatre heures, les 5 et . En détruisant une partie de la flotte des États-Unis à Pearl Harbor le et en envahissant la Malaisie, possession britannique, le Japon entre résolument dans la guerre contre les États-Unis et le Royaume-Uni. Le Japon et l’URSS s’affrontent en , sans déclaration de guerre, en Mongolie (bataille de Halhin Gol). Les Soviétiques ne déclarent toutefois officiellement la guerre au Japon que le . Le , la Thaïlande signe un pacte défensif avec le Japon et déclare la guerre aux États-Unis et au Royaume-Uni. La chute du gouvernement de Plaek Pibulsonggram en ne rompt pas officiellement l’alliance, mais la Thaïlande se retire du conflit en évacuant les territoires pris aux Britanniques et des contacts sont pris avec les Alliés. Le , Badoglio, qui a remplacé Mussolini, rompt l’alliance avec l’Allemagne en signant un armistice avec les Alliés. Hitler envahit aussitôt la péninsule qu’il occupe jusqu’à Naples. À partir de la fin , la Hongrie envisage un retournement d’alliance. Informé de ces préparatifs, Hitler ordonne l’occupation de la Hongrie le , destitue le régent Horthy et offre le pouvoir à Ferenc Szálasi qui reste dans l'Axe. Adversaires de l'Axe. De l'invasion de la Pologne à la bataille de France. Comme l’armée tchécoslovaque n’avait pas opposé de résistance lors de l’invasion de la Bohême-Moravie, le , on peut considérer que la Pologne est le premier adversaire de l’Allemagne belligérant à partir du lorsqu’elle résiste à son invasion par l’Allemagne. L’invasion de la Pologne provoque les déclarations de guerre du Royaume-Uni et de la France le , à respectivement 11 et . Le Royaume-Uni justifiait sa déclaration de guerre à l'Allemagne par la garantie qu'elle avait donnée à la Pologne le . Après la guerre, Alexander Cadogan, qui, lors des événements, était sous-secrétaire d'État permanent aux Affaires étrangères du Royaume-Uni, déclara au sujet de cette garantie : Avec le Royaume-Uni, l’Australie et la Nouvelle-Zélande déclarent également la guerre à l’Allemagne. Au fil de la guerre, tous les dominions (Canada, Afrique du Sud, Terre-Neuve) et toutes les colonies (Inde, Nigeria, Kenya, etc.) de l’Empire britannique deviennent tôt ou tard partie prenante du conflit, à l'exception de l’Irlande du Sud qui reste officiellement neutre sous la direction de Éamon de Valera. En , lorsque l’Allemagne envahit le Danemark et la Norvège, la Norvège oppose une résistance armée alors que le Danemark, trop faible militairement, tente plusieurs contre-attaques sans succès puis se place , selon les paroles de son roi. Le , la bataille de France démarre par l'invasion par les Allemands du Luxembourg, de la Belgique et des Pays-Bas, jusqu'alors tous neutres. Les autorités du Luxembourg, lequel ne possède pas de véritable armée, opposent une protestation de pure forme à leurs envahisseurs, qui s'emparent du pays dans la journée. Au bout de cinq jours, les forces militaires néerlandaises se rendent et les Pays-Bas sont entièrement occupés par l'Allemagne; la reine et le gouvernement s'exilent à Londres. Les Indes orientales néerlandaises sont encore sous le contrôle du gouvernement jusqu'à l'invasion japonaise en mars 1942. Pour les Belges, c'est la campagne des dix-huit jours, qui se termine par la reddition de l'armée le . Le gouvernement se réfugie en France, puis au Royaume-Uni après l'armistice du 22 juin. Avec les forces qui ont pu échapper à l'ennemi, il poursuit la guerre au service ou aux côtés des Alliés, utilisant notamment sa colonie du Congo. La bataille de France entraîne la destruction de l'essentiel des armées françaises en mai et juin 1940, ce qui pousse le gouvernement français à demander l'armistice, qui est signé le 22 juin. Le 18 juin, depuis Londres, refusant de cesser le combat, le général français De Gaulle lance un appel à le rejoindre pour poursuivre la lutte contre l'Allemagne aux côtés de l'Empire britannique. Par l'armistice, la France s'est retirée de la guerre, entreprenant avec l'Allemagne une collaboration économique forcée qui englobe tout son empire colonial. Malgré cela, les dirigeants de l’Empire britannique écartent toute perspective de paix avec l'Allemagne. La Grande-Bretagne héberge d'ailleurs un certain nombre de gouvernements en exil ou dissidents qui rangent ce qui reste de leurs forces armées – notamment polonaises, tchèques, yougoslaves, belges, néerlandaises et françaises – plus ou moins importantes, aux côtés du Royaume-Uni. L'entrée en guerre des États-Unis puis de l'empire colonial français. Durant la Seconde Guerre mondiale, l’Allemagne et ses alliés, l’Italie et le Japon, étaient unis selon les termes du pacte tripartite. Depuis de nombreuses années, il existait déjà entre les États-Unis et le Troisième Reich certaines tensions telles que des provocations orales ou des torpillages de navires de la marine américaine par des sous-marins allemands (par exemple le "Robin Moor" le ). Cet incident exacerbe ces tensions et Roosevelt assure dans un discours, six jours plus tard, qu’il ne laisserait pas les Allemands dominer l’Atlantique. Cependant, ni l'un ni l'autre des deux pays n'est prêt à s’engager dans la guerre dans l’Atlantique ; ce sont les événements qui vont se dérouler dans l’océan Pacifique qui amènent l’Allemagne à déclarer la guerre aux États-Unis. Par ailleurs, les relations entre le Japon et les États-Unis sont également tendues. Hitler souhaite une attaque japonaise envers les Américains afin de les distraire du front à l’Est de l’Europe entre la Wehrmacht et les Russes. Il commence à douter, à l'automne 1941, lorsqu’il comprend qu’une attaque japonaise majeure contre la flotte américaine n’est pas prévue par Hideki Tōjō, le nouveau Premier ministre japonais, arrivé récemment au pouvoir. Malgré le scepticisme d’Hitler, les affaires entre le Japon et les Allemands commencent à se concrétiser. Hitler annonce aux Japonais que s’ils attaquent les États-Unis, les Allemands seront les premiers à rejoindre la guerre. Un nouvel accord remplaçant le pacte tripartite a été rédigé au début du mois de décembre 1941 et présenté au Japon et à l’Italie, mais il n’a pas été signé tout de suite. Ce pacte créait une aide réciproque en cas de guerre entre l’un d’eux et les États-Unis, et conditionnait toute demande de paix ou d’armistice avec les États-Unis et le Royaume-Uni à l'accord de tous les signataires. Au début du mois de , les tensions entre le Japon et les États-Unis commencent sérieusement à s’intensifier et à devenir aux yeux des chefs militaires allemands, le signe d’un conflit imminent entre les deux parties. Le , le souhait du Troisième Reich se réalise à la surprise générale : les Japonais attaquent Pearl Harbor. Cette attaque a surpris les dirigeants allemands et beaucoup s’en sont réjouis. Hitler avait l’occasion de déclarer la guerre aux États-Unis en ayant le soutien du Japon et il prit sa décision très rapidement. Mais Hitler aurait pu ne pas attaquer les États-Unis, puisque le nouvel accord n’était pas encore signé lorsque Pearl Harbor fut annoncé. Rien ne l’obligeait à le faire et il aurait pu simplement laisser le Japon détourner l’attention des États-Unis dans le Pacifique. Hitler aurait aussi pu se concentrer sur le front de l’Est, mais Hitler a déclaré la guerre pour obliger les États-Unis à se battre sur deux fronts et donc à ne pas pouvoir utiliser leur pleine puissance militaire contre l’Allemagne ou le Japon, car il pensait que leur puissance militaire maximale serait atteinte en 1942 et il fallait donc les vaincre avant. Hitler avait aussi prévu d’utiliser cette déclaration de guerre comme un moyen de propagande afin de se montrer comme un pays fort et puissant qui déclare la guerre au lieu de la subir. Il ne voulait pas rester passif. Mais il aurait également pu attendre que les États-Unis lui déclarent la guerre afin d’utiliser cela comme un moyen de propagande. Après l’attaque de Pearl Harbor, le , les États-Unis sont entrés en guerre contre le Japon ; et de fait contre l’Allemagne et l’Italie, puisque les deux États déclarent la guerre aux États-Unis le en guise de soutien affiché au régime japonais. Lors de la conférence de Washington, au début de l'année 1942, les États-Unis et le Royaume-Uni décident que l'objectif prioritaire pour remporter la guerre est de vaincre l'Allemagne (« L'Allemagne d'abord »). La république de Chine, en guerre avec le Japon depuis 1937, se retrouve dès lors dans le camp des puissances alliées. De nombreux pays d’Amérique latine déclarent la guerre à l’Allemagne, notamment le Brésil en et le Mexique en mai de la même année. Après le débarquement allié en Afrique du Nord, en , la majeure partie de l’Empire colonial français se retrouve du côté des Alliés. En le gouvernement italien Badoglio déclare la guerre à l’Allemagne, mettant l’armée italienne, grossie de nombreux engagés venus de la résistance, au service des Alliés. D’autres États auparavant membres de l’Axe, tels que la Finlande ou la Roumanie qui, amputées territorialement par l’URSS en 1940, avaient participé à l’attaque allemande contre l’URSS en 1941 pour récupérer les territoires perdus (respectivement Carélie et Bessarabie), rejoignent à leur tour les Alliés lorsque l’Armée Rouge revient sur leurs frontières, la première en (Guerre de Laponie), la seconde le (en outre, la Roumanie avait eu deux divisions engagées du côté allié dès 1941). Dans la nuit du 8 au , la Bulgarie, occupée par l’Armée Rouge depuis trois jours, déclare à son tour la guerre à l’Allemagne. Toutefois, ces ralliements tardifs et contraints ne permettent pas à ces trois pays de participer à la fondation de l’Organisation des Nations unies. À l’ouest, l’effondrement du régime de Vichy en France métropolitaine met toutes les ressources du pays et de nombreux engagés au service de la France libre. En 1945, les Alliés avertissent tous les États que ceux qui auront déclaré la guerre à l’Allemagne seront admis à la conférence fondatrice de l’ONU. Ce qui entraîne, au printemps 1945, une cascade de nouvelles déclarations de guerre au Troisième Reich, qui pour la plupart restent sans aucun effet militaire : il s’agit de pays sud-américains tels que le Paraguay, l’Équateur, le Pérou, l’Argentine, ou du Moyen-Orient tels que l’Égypte, la Syrie, le Liban, la Turquie (le ) et quelques autres. En tout, 51 États se sont trouvés en état de guerre avec l’Allemagne hitlérienne, sans pour autant être admis aux conférences interalliées, réservées aux « trois grands » (États-Unis, Empire britannique, URSS et, après l’été 1944, France), état de guerre auquel aucun traité de paix après 1945 n’est jamais venu mettre juridiquement fin. Le , lendemain de la capitulation allemande, les dernières délégations diplomatiques nazies sont expulsées des États neutres : la Suisse, la république d'Irlande, l’Espagne, le Portugal, l’Afghanistan et le Chili. URSS. Lorsque l’URSS attaque la Pologne le , conformément au protocole secret du pacte germano-soviétique, elle est, d’un point de vue polonais, dans le même camp que l’Allemagne, sans pour autant être en état de guerre déclarée avec la France et le Royaume-Uni. Lorsque l’URSS attaque la Finlande en , la Finlande se trouve plutôt du côté de la France et du Royaume-Uni. Cette agression vaut par ailleurs à l’URSS de se voir expulsée de la SDN fin 1939. Pendant la durée du pacte, Staline livre ponctuellement et à crédit du pétrole, des matières premières et des céréales permettant au Reich de contourner partiellement le blocus des Alliés. Il lui livre aussi plusieurs dizaines de communistes allemands réfugiés en URSS. À partir du , l’URSS, attaquée par l’Allemagne, se retrouve dans le camp des Alliés. Elle bénéficie du prêt-bail américain en échange des réserves en or de la Banque d'État d’URSS. À défaut de pouvoir ouvrir avant 1944 le second front instamment réclamé par Moscou, les Alliés fournissent à l’URSS une aide importante, qui transite notamment par la dangereuse voie de navigation arctique. Selon Raymond Cartier et John Keegan, entre et , les États-Unis livrent avions, chars, mitrailleuses, téléphones de campagne, de fil téléphonique. En 1943, des de l’Armée rouge viennent d’outre-Pacifique. L’Amérique fournit aussi 13 millions de bottes, 5 millions de tonnes de vivres ou encore locomotives, wagons, de rail. Trois quarts du cuivre soviétique viennent des États-Unis, mais aussi une grande partie du pétrole de haute teneur sans lequel il est impossible de fabriquer du carburant pour avion. La défaite allemande est impensable sans l’Armée rouge, qui fixe en les deux tiers de la Wehrmacht, en général les troupes les plus jeunes et les mieux équipées. Résumé chronologique des opérations militaires. Succès des Forces de l'Axe (1939-1942). La majorité des historiens situent le début de la Seconde Guerre mondiale le , lorsque après l'invasion de la Pologne par l'Allemagne, la France et le Royaume-Uni déclarent la guerre à l'Allemagne en vertu d'un traité de février 1921 les liant à la Pologne. L'historien marxiste Eric Hobsbawm, dans son ouvrage "L'Âge des extrêmes" (1994), arguë cependant que les gouvernements britannique et français étaient enclins à négocier malgré l'invasion de la Pologne et que c'est sous la pression de leur population qu'ils furent contraints de ne pas reculer. Front de l'Est (1939-1940). Après une opération de provocation connue sous le nom d'incident de Gleiwitz, les troupes allemandes envahissent la Pologne sur tous les fronts, le , à du matin. Le , en application des clauses secrètes du Pacte germano-soviétique, l'Union soviétique envahit à son tour la Pologne par l'est. Prise en étau et largement inférieure en nombre et équipement, l'armée polonaise est écrasée avant la fin septembre. Après le refus de la Finlande d'échanger des territoires revendiqués pour assurer la défense de Leningrad contre des terres situées plus au nord, l'URSS attaque la Finlande le . En dépit de la disproportion des forces, la résistance finlandaise est particulièrement vive et l'URSS subit de lourdes pertes. La Guerre d'Hiver dure jusqu'au . Elle se conclut par le traité de Moscou du qui met un terme provisoire aux hostilités entre les deux pays. L'URSS obtient d'annexer la Carélie dont l'isthme commande l'accès à Léningrad ainsi que plusieurs îles à caractère stratégique du golfe de Finlande. En application toujours du Pacte germano-soviétique, l'URSS occupe en les trois pays baltes, puis les annexe. Front de l'Ouest (1940). Sur le front ouest, une fois passée la démonstration sans lendemain de Gamelin dans la Sarre allemande (6-13 ), les troupes franco-britanniques, sous commandement français, ne prennent aucune initiative militaire et ne mènent aucune opération offensive pendant plusieurs mois, restant retranchées derrière la ligne Maginot. Au printemps 1940, les Alliés se préparent à couper l'approvisionnement en fer de l'Allemagne, qui transite de la Suède vers le Reich par la Norvège, mais l'opération tourne au fiasco : c'est l'incident de Narvik. L'Allemagne envahit alors le Danemark et la Norvège le . Une majorité du corps expéditionnaire du Royaume-Uni et de la France doit rembarquer précipitamment, ce qui entraîne la chute de Chamberlain et son remplacement par Churchill le . Le , les Français de Béthouart s'emparent de Narvik, mais ils doivent l'abandonner quelques jours plus tard car, en France même, la victoire allemande est alors pratiquement acquise. En effet, en mai-juin 1940, l'armée allemande mène à bien l'invasion foudroyante des Pays-Bas, du Luxembourg, de la Belgique et de la France. Dans cette campagne fulgurante les Allemands mettent en œuvre leur doctrine de percée et d'avance par l'usage coordonné des forces blindées, mécanisées et aériennes : la "Blitzkrieg" ou guerre-éclair. Malgré les avertissements des attachés militaires alliés à l'étranger et la communication des Belges au général en chef français Maurice Gamelin des plans allemands d'attaque par l'Ardenne, la surprise devant la tactique allemande est complète. Dès le 25 mai, la défaite des armées franco-belgo-britanniques du nord se précise après 18 jours de combat au cours desquels les Chasseurs ardennais, troupe d'élite de l'armée belge, ont retardé la percée allemande en Ardenne pendant deux jours et que les Français percés à Sedan se soient provisoirement rendus maîtres du terrain à Gembloux, au sud de Bruxelles, dans une bataille de chars sous les ordres du général Prioux. Le fort belge d'Ében-Émael étant tombé le 11 mai en 24 heures et l'armée hollandaise ayant battu en retraite précipitamment vers le réduit de Zélande, découvrant ainsi la gauche de l'armée belge, celle-ci finit par livrer une bataille d'arrêt de quatre jours sur la Lys du 24 au 27 mai. Cet affrontement fait suite à des retraites successives sur la Meuse et la Dendre, en coordination plus ou moins réussie avec les armées française et britannique du nord devant les percées profondes des armées allemandes, alors que le front belge est tourné sur sa gauche par la reddition néerlandaise du 14 mai. Le roi des Belges Léopold III sait que les Britanniques préparent un rapatriement à Dunkerque et ne prévoient pas de sauver ce qui reste des combattants belges, comme l'avoue Lord Keyes, attaché militaire britannique auprès du roi. Le , l'armée belge étant à court de munitions et de moyens logistiques, le roi donne un ordre de reddition acte purement militaire qui ne concerne pas la force armée du Congo belge et laisse intact le pouvoir du gouvernement civil qui se réfugie en France porteur de toute sa légitimité, puis qui gagne la Grande-Bretagne lors de la défaite française. Dès le , le gouverneur général du Congo belge déclare que le Congo poursuit la guerre en accord avec le ministre des colonies Albert de Vleeschauwer. C'est la première réaction anti-allemande d'un territoire européen d'outre-mer (avant même le ralliement de quelques colonies françaises au général de Gaulle). Le Royaume-Uni réussit, du au , à sauver au cours de la plus vaste opération de rapatriement de l'histoire militaire. Le , Hitler reprend l'offensive en France et perce les lignes de défense du nouveau généralissime Weygand sur la Somme et l'Aisne. L'Italie se joint alors à l'Allemagne et déclare la guerre à la France le . Puis, en France, le nouveau gouvernement Pétain demande l'armistice le 17 et en accepte les conditions le 22. Après l'armistice franco-italien qui suit, le 24, les combats cessent le . À la surprise générale, l'armée française, réputée depuis 1918 la meilleure du monde, s'est effondrée en quelques semaines. Contre l'attente des stratèges nazis et des généraux français battus, le Royaume-Uni résiste avec succès à l'aviation allemande, car, malgré la faiblesse de son armée de terre, il dispose d'une flotte puissante (qui ne semble pas menacée par une mainmise allemande sur la flotte française, grâce aux clauses de l'armistice et après la destruction de quelques-unes de ses unités à Mers El Kebir) et d'une aviation bien organisée. En outre, le premier ministre Churchill, qui a remplacé Chamberlain, parvient à galvaniser le pays. Soumis d'abord à des attaques aériennes sur des cibles stratégiques, le Royaume-Uni fait face de à au bombardement de ses villes : ce "« Blitz »", qui détruit notamment la City de Londres et la ville de Coventry, ne parvient ni à entamer la résolution britannique ni à compenser les pertes de la Luftwaffe de Göring, vaincue par les pilotes de la Royal Air Force. Pour tenir seul face à Hitler, le Royaume-Uni dispose de l'aide d'abord économique des États-Unis, puisque ceux-ci, bien qu'officiellement neutres, l'approvisionnent en armes et en ravitaillement. Roosevelt obtient du Congrès en le vote de la « loi Prêt-Bail », qui lui permet d'apporter une aide matérielle illimitée au Royaume-Uni et à ses alliés. Front d'Afrique du Nord (1940). En septembre 1940, les forces italiennes avaient attaqué l'Égypte, pays alors sous influence britannique. Mais dès le mois de décembre, les Britanniques, appuyés par les forces du Commonwealth, passent à la contre-attaque, et les Allemands doivent envoyer ce que l'on appelle l'Afrika Korps en renfort pour secourir leurs alliés italiens. En , l'Afrika Korps de Rommel n'est plus qu'à quelques dizaines de kilomètres d'Alexandrie. Front des Balkans (1941). Hitler, désespérant de prendre le Royaume-Uni et de l'amener à faire la paix, érige une puissante chaîne de fortifications, surnommée « mur de l'Atlantique », sur les côtes de l'Atlantique et de la Manche, et décide d'attaquer l'URSS. Mais l'Italie fasciste vient elle-même d'agresser, à partir de l'Albanie, la Grèce qu'elle croyait sans défense. Or ce sont les forces grecques du dictateur nationaliste Metaxás qui sont victorieuses : après avoir contenu l'attaque des troupes de Mussolini, l'armée grecque et un corps expéditionnaire britannique, australien, néo-zélandais, indien et sud-africain les repousse et envahit à son tour l'Albanie italienne. C'est alors que, pour prêter main-forte aux Italiens, Hitler repousse de plusieurs semaines son opération contre l'URSS et envoie en ses troupes vers la Grèce, à travers la Hongrie sympathisante et après avoir envahi au passage la Yougoslavie. Les nazis battent les armées yougoslave et grecque, ce qui leur permet d'occuper tout le sud de l'Europe. Mais, du même coup, ils viennent de créer un front supplémentaire en Yougoslavie, où les résistances monarchiste de Draža Mihailović (Tchetniks) et communiste de Tito (Partisans), allaient immobiliser de 13 à 20 divisions allemandes jusqu'à la fin de la guerre. De plus, l'invasion de l'URSS est différée, du 15 mai au 22 juin. Front de l'Est (1941). Le , la Wehrmacht envahit l'URSS dans le cadre de l'opération Barbarossa. Elle mobilise 3,2 millions de soldats allemands, et des États alliés de Hongrie, de Roumanie, de Finlande, de Slovaquie et d'Italie. C'est à ce jour la plus grande offensive militaire de l'histoire. Malgré une avance foudroyante et la capture ou le massacre de plusieurs millions de Soviétiques, la Wehrmacht est stoppée en , à une trentaine de kilomètres de Moscou dans un froid glacial et sans équipement adéquat. Pour la seconde fois depuis la campagne de Russie de 1812, les Russes sont sauvés par la rigueur de leur hiver, et aussi par un appel pressant au patriotisme et au sacrifice face à des combats très meurtriers. Les Allemands restent également bloqués devant Léningrad, délibérément soumise par Hitler à un siège de 900 jours (jusqu'au 27 janvier 1944), qui fait périr de faim . Dès lors, la campagne de Russie mobilise l'essentiel des efforts militaires allemands. Malgré leurs pertes énormes, les Soviétiques ont pu replier leur potentiel industriel dans l'ordre, plus de 10 millions de travailleurs et des milliers d'usines démontées étant réinstallées à l'est de l'Oural. La réintégration de l'URSS dans le camp allié lui permet aussi de recevoir une forte aide américano-britannique en matériel de qualité et en ravitaillement. Staline proclame aussi l'union sacrée et galvanise les énergies, tout en maintenant intacte la terreur contre les soldats défaillants ou les officiers vaincus. Enfin, les Soviétiques ont encore des réserves : la trentaine de divisions qu'ils ont pu rapatrier d'Extrême-Orient, après confirmation en fin par leur espion établi à Tokyo Richard Sorge que les Japonais, conformément au pacte nippo-soviétique de non-agression signé le précédent, n'attaqueront pas l'Union Soviétique mais bien les États-Unis. C'est ainsi que, redéployées par le maréchal Joukov au cours de l'hiver 1941-42, ces troupes sibériennes fraîches contre-attaquent devant Moscou et obligent l'envahisseur allemand à reculer. Front d'Afrique de l'Est (1941). En 1941, les troupes coloniales du Congo belge battent les Italiens à Asosa, au sud de l'Abyssinie tandis que les troupes britanniques, appuyées par des forces françaises libres battent l'armée italienne et réinstallent le Négus sur son trône à Addis-Abeba. Front d'Extrême-Orient et du Pacifique (1941). Désireux de venger l'affront fait par la France au royaume de Siam en 1893 et 1904, la Thaïlande profite de l'invasion de celle-ci par l'Allemagne et se lance en dans une série d'attaques contre l'Indochine française, déclenchant la guerre franco-thaïlandaise. Aucun camp n'étant en mesure de s'imposer, le litige est tranché par le Japon, présent au nord de l'Indochine depuis et qui octroie à la Thaïlande une partie du Laos et du Cambodge. Le , l'empire du Japon, allié de l'Allemagne depuis 1936 et en guerre depuis 1937 avec la république de Chine, attaque les États-Unis, restés jusque-là en dehors de la guerre. Il détruit par surprise l'essentiel de la flotte américaine du Pacifique à Pearl Harbor. Au même moment a lieu l'invasion de la Malaisie britannique. L'Armée impériale japonaise envahit ensuite le Commonwealth des Philippines et les Indes orientales néerlandaises. Tournant de 1942. L’attaque de Pearl Harbor provoque l’entrée en guerre des États-Unis, bientôt suivis par le Mexique et par d’autres États latino-américains. Affaiblis par l’attaque japonaise, les États-Unis mettent toute leur puissance industrielle au service de la guerre et sont bientôt en mesure de porter des coups. En mai lors de la bataille de la mer de Corail, en dépit d'une défaite tactique, ils empêchent le débarquement japonais en Nouvelle-Guinée, puis au début de , la bataille aéronavale des îles Midway coûte quatre porte-avions au Japon, désormais placé sur la défensive dans le Pacifique. Les États-Unis commencent la reconquête de l'océan Pacifique, île par île. En Europe, l’Union soviétique supporte presque seule l’effort de guerre contre l’Allemagne nazie. À partir de , les Allemands ont relancé leur offensive vers l’est, en direction de la Volga et des pétroles du Caucase. Mais les troupes allemandes restent bloquées devant Stalingrad. En Afrique du Nord, les Britanniques ont repris l’initiative à partir de . Ils remportent une victoire décisive à El-Alamein et commencent à repousser l'Afrika Korps vers l’ouest. Staline presse ses alliés d’ouvrir un deuxième front à l’ouest. Après des hésitations, Churchill et Roosevelt se décident pour l’Afrique du Nord. C’est l’opération Torch, qui se traduit par le débarquement des forces alliées au Maroc et en Algérie, le . Le , l’amiral Darlan, à Alger, engage l’Afrique à reprendre le combat aux côtés des Alliés. Il est officiellement désavoué par le maréchal Pétain. Cependant, les Allemands considèrent que l’armistice de est rompu et envahissent alors le la zone sud de la France que cet armistice avait prévu non occupée. L’armée française d’Afrique se joint aux armées alliées. En Afrique du Nord, les Allemands sont alors pris en tenaille entre les Britanniques à l’est et les Franco-Américains à l’ouest. Au cours de l’année 1942, l’entrée en guerre des États-Unis avait entraîné une extension à tout l’océan Atlantique de la lutte des sous-marins allemands contre les navires alliés qui assurent l’approvisionnement de la Grande-Bretagne. Les convois alliés subissent de très lourdes pertes tout au long de l’année, mais à partir de la fin de l’année 1942 et plus encore au début de 1943, de nouveaux moyens techniques – décryptage des communications ennemies, radars, sonars – permettent aux Alliés de détruire de plus en plus de sous-marins allemands, et les pertes alliées décroissent inexorablement. Victoires des Alliés (1943-1944). Au début de l’année 1943, les Allemands subissent sur le front oriental une très lourde défaite à Stalingrad. Après les capitulations du et du , les Soviétiques font prisonniers, dont le maréchal Paulus, premier militaire allemand de ce rang capturé depuis 1806. Après avoir libéré le Caucase, les Soviétiques tentent de libérer l'Ukraine alors que les Allemands et leurs alliés sont à bout de souffle, mais une contre-attaque allemande à Kharkov (Ukraine orientale) stoppe l'Armée Rouge. Les Allemands mènent une offensive d'été limitée à Koursk (en Russie, au nord de Kharkov), en compensant leur manque d'infanterie, à la suite de la bataille de Stalingrad, par un fort déploiement de chars avec de nouveaux matériels. Attendus par les Soviétiques qui fortifient la région et amassent de grande quantité de blindés, les Allemands sont de nouveau défaits. Sans attendre, les Soviétiques déploient leurs chars et reprennent leurs offensives pour la libération de l'Ukraine. Avec la prise de Tunis, le et la reddition des troupes allemandes et italiennes, les Alliés sont maîtres de toute l’Afrique du Nord. Le , ils débarquent en Sicile et prennent pied sur la péninsule italienne en septembre, le jour même où Badoglio, le successeur de Mussolini, évincé du pouvoir, annonce un armistice qui préfigure un retournement d’alliance. Les Allemands envahissent le territoire de leur ancien partenaire et bloquent de longs mois les troupes alliées de onze nationalités au mont Cassin. Rome n'est libérée que le , la Toscane en . La plaine du Pô n'est atteinte qu’en . Pour la première fois depuis le début de la guerre, les trois dirigeants alliés, Churchill, Roosevelt et Staline se rencontrent à Téhéran à la fin du mois de pour esquisser ce que sera le monde de l’après-guerre. Sur le front oriental, l’Armée rouge ne cesse de progresser vers l’ouest. Elle entre à Kiev, en Ukraine, en , dégage Leningrad en . Le , alors qu’un front à l’ouest a été ouvert en Normandie, elle lance la plus grande offensive de son histoire : l’opération Bagration, qui libère la Biélorussie en quelques semaines et occupe la Prusse-Orientale et la Pologne jusqu’aux faubourgs de Varsovie. Toutefois, l’Armée rouge s’arrête tant pour des raisons militaires notamment « l’épuisement de la dynamique de l’offensive » face à la « contre-offensive de panzer SS » que politiques, en laissant écraser l’insurrection de Varsovie (-), Staline élimine en pratique la résistance non communiste du jeu politique d'après guerre. Du au , le front roumain cède, Roumanie et Bulgarie passent dans le camp des Alliés, mais, en occupant le son alliée la Hongrie, Hitler empêche le régent Miklós Horthy d’en faire autant, et il faut ensuite aux Soviétiques cinq mois de siège de Budapest pour s’ouvrir en la route de Vienne. En Yougoslavie, les partisans de Tito libèrent une grande partie du pays et entrent dans Belgrade en sans l’aide de l’Armée rouge. Le , alliés réussissent le plus grand débarquement de l’Histoire sur les plages de Normandie, prenant les Allemands par surprise et ouvrant enfin le second front. Malgré l’exploit logistique, l’armée hitlérienne parvient à contenir les Anglo-Saxons en Normandie pendant plus de dix semaines dans une longue bataille d’usure (bataille des Haies, bataille de Caen), jusqu’à ce que la percée d’Avranches () ouvre la voie de la Bretagne et prenne les troupes allemandes à revers en les encerclant dans la poche de Falaise. Paris insurgée est libérée le . Auparavant, le , des troupes américaines et françaises avaient débarqué en Provence, sur la côte méditerranéenne. La progression se fait alors rapidement et, à la mi-septembre, presque toute la France et la Belgique sont libérées par les armées alliées. Mais alors que les Alliés espéraient une fin du conflit avant la fin 1944, la résistance nazie allemande va s’intensifier. L’opération aéroportée pour tenter une percée vers l’Allemagne par les Pays-Bas échoue (). La pénurie d’essence et les problèmes logistiques obligent à une bataille sur les abords de l’Escaut (novembre 1944) menée par les Canadiens pour libérer les accès maritimes du port d’Anvers. Dans l'est de la France, les Américains et les Français, d'abord à court de carburant, n'avancent que lentement face à une défense allemande qui s'est renforcée. La contre-attaque allemande dans les Ardennes (Noël 1944) surprend totalement les Américains mais s'essouffle au bout d'une dizaine de jours. Elle contribue toutefois à retarder le passage du Rhin jusqu’à fin . Une large famine touche les Pays-Bas durant l'hiver de 1944, tuant plus de . L'opération Manna est déclenchée par les Alliés pour parachuter des vivres à la population. Victoire des Alliés et capitulation des forces de l'Axe (1945). Écrasée sous les bombes, assaillie de tous côtés, l’Allemagne nazie voit sa capitale Berlin investie le par les Soviétiques. Hitler s’y donne la mort dans son bunker le même jour. Le à Reims au QG du SHAEF, le colonel général Alfred Jodl signe l’acte de reddition inconditionnelle des forces armées allemandes. Pour des questions de prestige, Staline exige cependant une capitulation signée à Berlin par les plus hauts représentants de la Wehrmacht et des alliés. Un embargo est posé sur l'annonce de la capitulation de Reims. Dans la nuit du 8 au 9 mai 1945, à Berlin, le maréchal Wilhelm Keitel, l'amiral von Friedeburg et le général Stumpff signent à leur tour la capitulation du Troisième Reich en présence des représentants des Alliés, le maréchal Joukov, le maréchal Tedder, le général de Lattre de Tassigny et le général Spaatz. C’est donc officiellement le que l'Allemagne capitule, ce qui met fin à la guerre en Europe. Il est communément admis que la signature a lieu peu avant minuit (peu après à l'heure de Moscou) ; néanmoins, certains historiens la situent peu après minuit, antidatée du 8 mai, afin de se conformer à ce qui a été signé à Reims. En Asie, si l'empire du Japon n'a plus l'initiative, il défend pied à pied ses territoires conquis que les Américains prennent au prix de lourdes pertes. Ils s'emparent ainsi d'Iwo Jima et d'Okinawa Hontō, des îles proches de l’archipel japonais permettant aux Alliés des attaques aériennes directes et massives sur le Japon comme les bombardements successifs sur Tokyo. Le , après le largage par les États-Unis des deux premières bombes atomiques sur les villes de Hiroshima et de Nagasaki et l'invasion de la Mandchourie et de la Corée par l’URSS, l'empereur Hirohito annonce la capitulation du Japon. Les actes de capitulation inconditionnelle du Japon sont signés le et closent presque six ans jour pour jour après son début la Seconde Guerre mondiale. Différents théâtres d’opération. Théâtre européen. De l'attaque nazie aux résistances anglaises et grecques. Après s’être assuré de ne pas risquer une guerre avec l’URSS en signant le Pacte germano-soviétique, Hitler lance ses armées sur la Pologne, le , sans déclaration de guerre (voir : incident de Gleiwitz). En application de leur alliance, la France et le Royaume-Uni déclarent la guerre à l’Allemagne le . En particulier, la France a garanti après 1918 par des traités d’assistance mutuelle l’existence de la plupart des pays nouvellement créés en Europe centrale. Cependant, malgré la pression de Chamberlain, pas plus qu’elle n’a respecté ses engagements envers les précédentes victimes d’Hitler, la France rechigne à ses obligations envers la Pologne : celles-ci prévoyaient que la France attaquerait l’Allemagne après le début de la mobilisation générale. Mais mise à part une brève offensive limitée en Sarre du 6 au , les Français restent l’arme au pied, alors que la Pologne fait seule face à l’agression allemande puis soviétique. Les Allemands utilisent pour la première fois leurs tactiques innovantes, communément appelées « guerre éclair » ("Blitzkrieg"), qui assurent à la "Wehrmacht" une victoire rapide, essentielle pour elle puisqu'elle écarte ainsi le risque d'avoir à mener une guerre sur deux fronts. Conformément aux clauses du pacte signé, l’URSS prend sa part de la Pologne en l'attaquant le . Le , toujours suivant ce pacte, l'URSS attaque la Finlande pour lui prendre la région frontalière de Carélie, près de Leningrad, malgré les protestations des Franco-Britanniques qui menacent d'intervenir. Les Finlandais se battirent cinq mois, puis finissent par céder. À l'été 1940, l'URSS intègre les États baltes et la Moldavie, sans combats. Après sa première campagne victorieuse, Hitler se tourne vers l’ouest, mais rien ne se passe sur ce front pendant plusieurs mois. Retranchés derrière la ligne Maginot, une partie des soldats français attend l’assaut allemand pour l’endiguer. C’est ce que les Français appellent la "Drôle de guerre". Le généralissime Gamelin, s'attendant à une réitération de 1914, où les Allemands étaient passés par la Belgique neutre, une partie de l'armée française se prépare à s'avancer en Belgique, et éventuellement aux Pays-Bas, si les Allemands les attaquaient. Le , l'Allemagne s'empare simultanément du Danemark et de la Norvège afin de sécuriser ses importations de fer depuis Narvik, au nord de la Norvège, où se concentre la principale réaction franco-britannique, qui se termine par le rembarquement de ces derniers le malgré le succès local rencontré. Enfin, le , l’Allemagne lance l’opération "Fall Gelb", une vaste offensive sur les Pays-Bas, la Belgique et le Luxembourg, violant la neutralité de ces États. Une partie importante des armées françaises se déploient alors vers la Belgique et les Pays-Bas, mais elles sont prises à revers par les blindés allemands qui passent par les Ardennes – la percée de Sedan –, jugées infranchissables par les Français et malgré des batailles de retardement livrés par les Chasseurs ardennais belges aux frontières et dans les forêts. Après une victoire éphémère des blindés français du général Prioux à Gembloux, au sud de Bruxelles, et des reculs successifs des franco-belgo-britannique sur la Meuse et la Dendre, les blindés allemands atteignent alors la Manche le puis remontent vers le nord, encerclant les Belges et les Franco-Britanniques, dos à la mer. Les Belges, tournés sur leur gauche après l'effondrement de l'armée néerlandaise le et n'ayant plus de réserves au terme d'une ultime résistance de quatre jours, lors de la bataille d'arrêt de la Lys, cessent le combat le à court de munitions et après que les troupes britanniques qui occupaient la droite belge eurent précipitamment fait retraite vers Dunkerque. En France, le général Gamelin, commandant en chef des armées alliées, est révoqué par le gouvernement français. Sa stratégie consistant à tenter sans cesse de recréer un front continu franco-belgo-britannique s'est révélée impuissante face au système allemand de guerre éclair dit « blitzkrieg » fait de percées profondes par des chars suivis de troupes motorisées qui désarticulent les armées alliées. Le , Gamelin est remplacé par le général Maxime Weygand. Mais, faute de réserves suffisantes, les Franco-Britanniques, qui n'ont jamais pu mener de contre-offensive satisfaisante, sont repoussés dans une poche autour de Dunkerque. La Royal Navy et les bateaux de plaisance britanniques parviennent à évacuer les troupes britanniques et une petite partie des forces françaises à Dunkerque (opération Dynamo) en perdant leurs équipements lourds et sans rien préparer pour évacuer ce qui reste de l'armée belge qui, faute de munitions et sans presque plus de territoire à défendre, tombe dans les mains allemandes par la reddition du . Il s'agit d'un acte purement militaire conclu sous la contrainte des événements et dans lequel le lâchage de l'aile droite belge par les Britanniques joue un rôle déterminant. Ce n'est pas une capitulation comme celle à laquelle les Français vont se résigner en juin, engageant leur gouvernement et tout l'empire français dans la voie d'une tentative de collaboration avec l'Allemagne. Le roi des Belges Léopold III est prisonnier, mais le gouvernement belge, qui refuse de baisser les bras, se réfugie en France avant, à l'armistice franco-allemand, de gagner le Royaume-Uni pour y représenter la Belgique à la tête de quelques forces militaires et du Congo belge avec sa force armée et son potentiel minier et agricole. Ayant perdu tout le nord de la France, les Franco-Britanniques entreprennent d'établir une ligne de défense le long de la Somme, de l'Aisne, jusqu’à la ligne Maginot. Ayant perdu beaucoup de leurs moyens dans la bataille qui a précédé, les Alliés ne peuvent empêcher une nouvelle percée allemande début juin. L'armée allemande se répand alors sur toute la France, prenant Paris le . Le président du Conseil Paul Reynaud démissionne et le nouveau gouvernement du maréchal Philippe Pétain choisit de demander l’armistice le 17 juin, contre l'avis de l'allié britannique. Il est signé le : l’Allemagne occupe la partie nord et ouest de la France. En France, Pétain instaure un régime autoritaire et collaborateur, désigné sous le nom officiel d'État français, dit plus couramment . En Belgique, c'est un gouverneur militaire qui exerce le pouvoir en concurrence avec les S.S.. Le roi Léopold III, considéré prisonnier, n'a plus aucun pouvoir et est ensuite déporté. Mais quelques ministres et parlementaires sous l'autorité des principaux ministres du gouvernement, Pierlot, Spaak et Gutt se sont réfugiés à Londres après l'effondrement de la France et sont reconnus par toutes les puissances belligérantes comme représentant légalement la Belgique. Le ministre Albert de Vleeschauwer, chargé des finances de la Belgique et du Grand Duché de Luxembourg (unies en vertu de l'accord économique de 1920) est aussi en possession de larges pouvoirs au Congo belge, avec sa puissance économique et sa force armée. Les Belges exilés et les Belges d'Afrique continuent donc la guerre en allant remporter une victoire sur les Italiens d'Abyssinie, tandis que les militaires qui ont pu atteindre l'Angleterre continuent la guerre dans l'aviation et la marine. Voyant les succès de l’Allemagne, Mussolini avait voulu aussi lancer son pays dans les conquêtes. Il avait déjà occupé l’Albanie au début de 1939 et, le , il attaque également la France, mais ne progresse que de quelques kilomètres. N'ayant pu obtenir de paix avec la Grande-Bretagne, Hitler lance une offensive aérienne sur celle-ci, préparant un débarquement. Mais l’Allemagne ne parvient pas à vaincre la Royal Air Force dans la bataille d'Angleterre. Ainsi, elle ne peut obtenir la supériorité aérienne nécessaire pour envahir les îles Britanniques. Afin de pousser les Britanniques à la paix, Hitler commence en septembre une campagne de bombardement sur les villes britanniques (dite le Blitz, "l’éclair"), principalement sur Londres et intensifie son blocus (dit bataille de l’Atlantique), essentiellement par sous-marins, pour affaiblir le Royaume-Uni. Mais c’est un échec, l’Allemagne ne parvient pas à briser rapidement la résistance britannique, qui réussit grâce à des pilotes de la RAF. Après la Seconde Guerre mondiale, Churchill écrit : « Dans l'histoire des luttes humaines, il n'y avait jamais tant de gens qui étaient tellement obligés à si peu de gens. » Le , sans consulter son allié allemand, Mussolini décide d’attaquer la Grèce. Mais la résistance de l’armée grecque du dictateur Metaxás parvient à arrêter les Italiens et à passer à la contre-offensive, avec succès : les Grecs occupent alors le quart sud de l’Albanie italienne. Pour prêter main-forte aux Italiens, Hitler repousse de plusieurs semaines l’opération contre l'URSS, et envoie en avril 1941 ses troupes vers la Grèce, à travers son allié la Hongrie, et la Yougoslavie, envahie car refusant de laisser le passage, et où les Allemands sont aidés par les Oustachis, croates nationalistes d’Ante Pavelić. Les armées yougoslave et grecque sont écrasées en trois semaines, ce qui permet à Hitler d’occuper tout le sud de l’Europe. La Résistance armée est plus vigoureuse en Yougoslavie que partout ailleurs en Europe : les résistances nationaliste de Draža Mihailović (Tchetniks) et communiste de Tito (Partisans), vont immobiliser de nombreuses troupes depuis la fin de 1942 jusqu’à la fin de la guerre. L'Armée rouge et les Alliés. Les opérations dans les Balkans ont retardé l’invasion de l’URSS connue sous le nom d’opération Barbarossa. Celle-ci ne commence que le . L’Allemagne, en attaquant par surprise l’Union soviétique, s’empare de grandes portions de territoires et capture de nombreux soldats. Ils le font d’autant plus facilement que Staline a choisi de faire confiance à Hitler, alors qu’il reçoit depuis des mois des informations précises et concordantes de ses agents à l’étranger. « Pour des raisons politiques, Staline s’abstient d’utiliser leurs informations. Jusqu’au dernier moment, il s’attend à une réouverture des négociations avec les Allemands… Les généraux soviétiques partagent souvent ce point de vue… » De plus, aux premières heures de l’attaque, Staline, dans l’espoir d’arranger les choses avec Hitler, interdit même aux forces soviétiques de traverser la frontière en cas de contre-attaque victorieuse, et initialement celles-ci n’osent pas ouvrir le feu alors qu’elles sont martelées par les bombes allemandes. Cependant, pour la première fois, une armée ne s’effondre pas devant la Wehrmacht : en dépit de ses lourdes défaites, l’Armée rouge ne cesse dès le premier jour de multiplier les contre-attaques, à la surprise des officiers allemands. L’avance considérable des troupes hitlériennes se révèle en même temps plus lente que prévu, le nombre de divisions et de chars soviétiques nettement supérieurs aux estimations des services secrets. Les Soviétiques déplacent leur base industrielle dans l’Oural, reçoivent l‘aide alliée par les ports arctiques toujours en leurs mains, et produisent dès 1942 plus d’armes que l’Allemagne, tandis que l’Armée rouge oppose une défense héroïque qui, aidée par un hiver éprouvant, leur permet de défendre notamment Moscou et Leningrad. Staline a par ailleurs su réveiller le nationalisme russe et organiser l’union sacrée face à l’agresseur : il reçoit le soutien des Églises, met en veilleuse le collectivisme agraire et une partie du contrôle policier sur la société, et substitue les références patriotiques à celles au communisme, dès son discours du où il s’adresse habilement à ses « frères et sœurs » soviétiques. Il ne néglige pas non plus de maintenir une réelle terreur contre ses officiers et ses généraux, dont beaucoup sont fusillés pour « incompétence » dans les premiers mois de la guerre, tandis que les millions de prisonniers sont officiellement reniés et considérés comme des traîtres (et leurs familles avec eux), et les soldats défaillants exposés à l’exécution ou à la déportation au Goulag : au front, des équipes spéciales du NKVD se chargent même, en 1941 comme à Stalingrad, de mitrailler les soldats qui refluent vers l’arrière. Au printemps 1942, l’armée allemande reprend l’offensive en concentrant celle-ci vers les champs de pétrole du Caucase, au sud. À la fin de l’année, la armée, avec plus de , est détruite à Stalingrad qui représente un verrou pour le contrôle du Caucase. En 1943, la "Wehrmacht" reprend l’initiative à la troisième bataille de Kharkov, mais est brisée à la grande bataille de Koursk. En 1943, après le débarquement en Sicile, puis un autre dans la péninsule italienne, les Alliés entament la campagne d’Italie. Mussolini chassé, le pays capitule et se range du côté des Alliés. Néanmoins, l’Allemagne peut tenir une ligne de défense dans les montagnes qui freine cette progression dans la péninsule. Il faut attendre début 1945 pour que les nazis soient complètement repoussés d’Italie. Les Alliés prennent pied en Normandie avec l’opération Overlord à partir du . Les soldats alliés qui débarquent sont principalement américains, britanniques et canadiens. Un autre débarquement est organisé en août (à partir du 15), en Provence avec l’opération Anvil Dragoon, pour libérer le sud de la France et ouvrir un deuxième front en France. L’Allemagne tente une contre-offensive désespérée dans la bataille des Ardennes en décembre, où elle perd ses dernières réserves militaires. Les derniers défenseurs du Reich seront souvent des civils, des vieillards et des enfants de la Volkssturm, une milice montée par Martin Bormann. Fin , les Alliés peuvent enfin franchir le Rhin et occuper de vastes secteurs de l’Ouest et du Sud de l’Allemagne, tandis que, à l’Est, les Soviétiques progressent de façon continue, libérant l’Europe centrale puis atteignant Berlin. Dans les rues de Vienne et Berlin assaillies par l’Armée rouge, des escadrons SS font encore régner la terreur en pendant en public ceux qui refusent de continuer un combat sans espoirs. Hitler se suicide le 30 avril d’une balle dans la tête dans le "Führerbunker" de la Chancellerie du Reich. Le même jour, les Soviétiques plantent leur drapeau sur le toit du palais du Reichstag, l’ancien siège du Parlement allemand, dans un Berlin en ruines. La bataille de Berlin continue jusqu’au 2 mai. L’Allemagne capitule sans condition le . Le Troisième Reich pour lequel Hitler prédisait une durée d’un millénaire n’aura finalement duré qu’un peu plus de 12 ans. Théâtres africain et moyen-oriental. L’armée italienne, partant de sa colonie de Libye, attaque les troupes britanniques et du Commonwealth en Égypte, mais est mise en déroute jusqu’à ce que l’Allemagne la renforce. Des combats se succèdent alors, dans le désert d’Afrique du Nord, entre les forces italiennes appuyées par l’Afrika-Korps d’Erwin Rommel et la britannique. En Abyssinie, une armée britannique venant du nord accompagnée par un contingent français, et, au sud, une force belge venant du Congo Belge prennent les Italiens en tenaille et les battent. Le Negus est réinstallé sur son trône à Addis-Abeba. Au Moyen-Orient, les Britanniques envahissent en avril 1941 le territoire du Royaume d'Irak, dont le gouvernement nationaliste s'était rapproché de l'Axe à la suite du coup d'État de 1941. En juin, les autorités vichystes permettant aux Allemands d'utiliser les territoires de la Syrie et du Liban, alors sous mandat français, les Alliés envahissent les deux pays et en prennent le contrôle. En août, le Royaume-Uni et l'Union soviétique réalisent conjointement une invasion de l'État impérial d'Iran afin d'assurer le ravitaillement "via" le corridor Perse et d'empêcher un basculement pro-allemand du pays. En , Rommel lance une grande offensive vers l'est pour atteindre Suez, et bouscule les forces britanniques, mais il est stoppé quatorze jours à Bir Hakeim par la française libre du général Kœnig, ce qui donna le temps aux Britanniques en déroute de se regrouper sur la ligne fortifiée d’El Alamein, que Rommel ne parvient pas à franchir. Puis en octobre 1942, c’est la britannique, commandée par Montgomery, qui attaque à son tour les forces de l’Axe et remporte la seconde bataille d'El Alamein. Celle-ci met fin à la présence de l’Axe en Libye, quelques jours après le succès du débarquement allié en Afrique du Nord. Le a lieu l'opération Ironclad, une invasion amphibie de la colonie française de Madagascar, sur Diégo-Suarez, contrôlée par le gouvernement de Vichy. Le , pour soulager l’Union soviétique qui résiste seule à l’assaut allemand, les forces américaines et britanniques débarquent au Maroc et en Algérie, contrôlés par le gouvernement de Vichy : c’est l’opération Torch. Les troupes françaises de Vichy ripostent et s’opposent aux alliés débarqués jusqu’à ce qu’un accord négocié avec l’amiral Darlan mette fin aux combats. Les alliés chassent finalement l’Axe du continent africain, avec l’aide de l’armée d’Afrique retournée et des Forces françaises libres. Depuis l’Afrique du Nord, les Alliés peuvent alors organiser les débarquements en Sicile et en Italie en 1943, et en Provence en 1944. Théâtre asiatique. À compter de 1937 en Chine, l’Armée nationale révolutionnaire du Kuomintang de Tchang Kaï-chek et le Parti communiste de Mao Zedong font front commun contre les Japonais mais généralement sans coopérer. Enlisée en Chine, l’Armée impériale japonaise a systématiquement recours, dès 1937, à l’utilisation d’armes chimiques. Selon les historiens Matsuno et Yoshimi, celles-ci furent notamment utilisées à 375 reprises lors de la bataille de Wuhan à l’automne 1938. L’emploi d’armes bactériologiques est quant à lui autorisé par le Quartier général impérial à compter de 1940 mais jamais contre des Occidentaux. Soumis à compter de 1941 à un embargo sur le pétrole après son occupation de l’Indochine, le Japon ne peut plus désormais réaliser sa politique expansionniste sans détruire la principale menace qui peut encore s’opposer à lui dans le Pacifique : la force navale des États-Unis basée à Hawaï. Employant à nouveau la stratégie qui lui a réussi contre la Russie, le Japon décide de bombarder Pearl Harbor le par surprise, débutant ainsi la guerre du Pacifique. La flotte est fortement endommagée, mais les porte-avions sont en mer. Simultanément, l’armée japonaise occupe les possessions britanniques, hollandaises et américaines d’Asie du Sud-Est comme Hong Kong, Singapour (massacre de civils), les Philippines (marche de la mort de Bataan) et s’empare des champs pétroliers de la Malaisie britannique et des Indes orientales néerlandaises, menaçant même l’Australie. L’Indochine française est déjà passée sous son contrôle militaire avec l’accord du régime de Vichy, le . Le coup de force du 9 mars 1945 achèvera la mainmise nippone sur la péninsule : le vide politique consécutif à la guerre mondiale favorisera la prise du pouvoir par le Việt Minh de Hô Chi Minh. Le raid de Doolittle en marque le début de la riposte américaine. En mai 1942, la bataille entre porte-avions de la mer de Corail tourne à l’avantage des alliés. Un mois plus tard, celui-ci est accentué par celle de Midway. À partir du début 1942, l’Armée impériale japonaise tente de neutraliser la résistance communiste chinoise en lançant la , une stratégie de la terre brûlée, dans le Nord de la Chine, tandis que des attaques répétées sont lancées contre les place-fortes des nationalistes chinois. En dépit de la détermination de l’armée japonaise, les Alliés reprennent peu à peu les îles du Pacifique comme à Guadalcanal, les Salomon puis les Philippines après la bataille du golfe de Leyte (octobre 1944), cette dernière restant la plus grande bataille aéronavale jamais survenue. Soumis à blocus et coupé progressivement de ses ravitaillements en matières premières, le Japon est au bord de l’asphyxie économique à l'été 1945. L’engagement en 1944 des premiers kamikazes de l’histoire — ces avions-suicides qui se jettent sur les navires ennemis — ne peut freiner la reconquête américaine, mais prouve la détermination des Japonais. La capture des îles proches du Japon comme Iwo Jima et Okinawa permet de lancer des attaques aériennes directes. Tokyo notamment subit un bombardement incendiaire le . Surtout, Hiroshima le 6 août et Nagasaki le 9 (ce devait être Kokura) subissent une attaque nucléaire. Conjuguée à la déclaration de guerre de l’URSS et l’invasion du Mandchoukouo par les forces soviétiques, les bombardements atomiques provoquent finalement la reddition du Japon, annoncée par Hirohito le , confirmée par la signature des actes officiels le à bord de l’. Moyens militaires des belligérants. Armes. Véhicules terrestres. « "Guerre de mouvement sur de vastes espaces, la Deuxième Guerre mondiale a été une guerre du moteur" ». L’usage généralisé des chars est une première illustration de cette tendance à la motorisation. Alors que l’armée française fait le choix d’une dispersion des chars, mis au service des unités d’infanterie, les Allemands en adoptant une tactique basée sur l’utilisation des chars groupés sortent vainqueurs de la bataille de France. La conception du char lui-même oscille entre deux tendances : la puissance et la maniabilité. L’expérience de la guerre d’Espagne a montré que le blindage est moins important que la silhouette basse, moins vulnérable, la tourelle mobile à 360° et la puissance du canon. Mais au cours de la Seconde Guerre mondiale, on assiste à une croissance en poids, en blindage et en puissance de feu. Ainsi, le char allemand Tigre I fait . L’américain Sherman M4 et le soviétique T-34, utilisés jusqu’à la fin de la guerre restent dans la gamme des . La concentration de chars dans des divisions blindées permettent de mener des guerres éclairs (Blitzkrieg), comme la Bataille de France en mai-juin 1940 remportée par les Allemands. L’Allemagne nazie commet l’erreur d’envahir l’URSS en sous-estimant le nombre de ses chars et la qualité des nouveaux, comme le T-34, rustique et endurant. La plus grande concentration de chars a eu lieu lors de la bataille de Koursk, en Russie, en . Les progrès des chars vont de pair avec les progrès de l’armement antichar : l’usage de la charge creuse permet de percer des blindages de plus en plus épais. Des tubes lance-roquettes comme le bazooka permettent au fantassin de disposer contre les chars de la puissance d’un artilleur. Aviation. Parallèlement à l’utilisation de chars, on assiste tout au long de la guerre à un accroissement des transports motorisés des troupes, au détriment des chevaux, encore très présents tant du côté français que du côté allemand lors de la bataille de France ou encore sur le front de l’Est, principalement pour des raisons logistiques. La division blindée américaine de 1944, sera, elle, entièrement motorisée. Les immenses progrès de l’aviation réalisés entre les deux guerres vont donner aux différents avions de guerre une place de première importance. L’amélioration des structures de l’avion permet aux chasseurs-bombardiers comme le Stuka d’opérer des bombardements en piqué et de prendre ainsi toute leur part dans les combats terrestres. Les bombardiers lourds comme la forteresse volante américaine, dont le rayon d’action atteint, à la fin de la guerre, kilomètres, sont utilisés dans des raids massifs de mille avions et plus, mettant ainsi en œuvre le concept de Bombardement stratégique. Pour contrer les bombardiers, les belligérants font usage de leurs avions de chasse et de canons de défense contre avions (DCA). C’est l’efficacité de la DCA qui oblige à organiser les opérations de bombardement la nuit. On demande aux avions de chasse d’assurer la maîtrise de l’espace aérien sur un champ de bataille ou sur un front donné. Dominés par l'aviation alliée dans la seconde partie de la guerre, les Allemands auraient pu retrouver un certain avantage dans la bataille aérienne, grâce à la première construction en série d'avions à réaction par Messerschmitt. Mais Hitler gâche cette chance en exigeant d’en faire des bombardiers, contre l’avis de ses officiers, et non des avions de chasse, ce qui aurait été bien plus approprié. La DCA doit son efficacité aux progrès techniques des radars qui surveillent le ciel et guident le tir des canons anti-aériens. À partir de 1942, les bombardiers alliés sont équipés de radars, des chasseurs de nuit allemands également. Grâce à leurs qualités croissantes, les radars sont également utilisés dans les navires alliés pour la direction des tirs. D’une façon générale, les télécommunications font partie intégrante de l’arsenal militaire. Les blindés allemands sont reliés entre eux par radio dès 1939 en liaison avec les avions, alors que leurs adversaires français ne le sont que très partiellement. Les techniques de chiffrage et de déchiffrage suivent l'évolution des techniques. Les Allemands utilisent la machine de codage Enigma, mais le déchiffrement d’Enigma par les alliés occidentaux est un facteur fondamental qui leur permet d’inverser le cours de la bataille de l’Atlantique et d’assurer finalement leur victoire finale. Marine. Sur mer, après la Première Guerre mondiale, le choix guidant la construction des navires de ligne consistait en un compromis entre le blindage et la vitesse. Les croiseurs de bataille, plus rapides que les cuirassés étaient moins bien protégés. Ce n'est qu'à la fin des années 1930 qu'apparurent les premiers cuirassés rapides. Mais ces bâtiments constituaient des cibles idéales pour l'aviation embarquée à bord des porte-avions, notamment les bombardiers en piqué et les avions torpilleurs. Malgré une puissante défense aérienne, disposant parfois de conduite de tir radar, le cuirassé reste vulnérable et cesse d'être le « "capital ship" » de la guerre sur mer. Le porte-avions, qui peut disposer d'un parc aérien de , prend un rôle de plus en plus déterminant, surtout grâce à « l'allonge » que lui permet ses escadrilles embarquées, lorsque le théâtre des opérations est éloigné de toute base terrestre, comme c’est le cas pour les États-Unis ou le Japon dans les batailles du Pacifique. Le porte-avions devient la pièce centrale d’un dispositif que les Américains appellent « Task force » et où les autres navires lui servent le plus souvent d'escorteurs. Comme lors de la Première Guerre mondiale, les sous-marins sont largement employés pour bloquer l’approvisionnement ennemi, mais la lutte anti-sous-marine a fait d'énormes progrès depuis la Première Guerre mondiale, d'abord avec l'asdic puis avec le sonar. Les destroyers, les frégates et les corvettes sont spécialisées dans la lutte anti-sous marine et assurent l'escorte des convois. Dans les derniers jours de la guerre, la Kriegsmarine lance de tout nouveau type de sous-marins. Les mines sous marines constituent un autre danger pour les navires. Elles se sont considérablement perfectionnées depuis la fin du premier conflit mondial. D'abord « de contact », explosant au choc, elles sont mises à feu par le champ magnétique et les bruits rayonnants des bateaux de guerre ou de commerce. Ce sont les mines à influences magnétiques et acoustiques. Les navires s'en protègent grâce à des circuits d'immunisation magnétique (degaussing) et une meilleure signature acoustique. Des petites unités spécialisées, les dragueurs de mines sont construites pour neutraliser ces millions d'engins de mort mouillés partout où le trafic maritime est important. Les mines sont particulièrement efficaces pour un coût modeste. Wunderwaffe. À la fin de la Seconde Guerre, de nouvelles armes font apparition sur le champ de bataille, comme l’avion sans pilote V1 lancé pour la première fois par les Allemands sur l’Angleterre dans la nuit du 13 au 14 ou le missile V2 lancé pour la première fois sur Londres le 8 . Contrairement aux craintes des alliés, les Allemands n’avaient pas de projet de bombe atomique. Les Américains, au contraire, avaient mis à partir de de gigantesques ressources dans le projet Manhattan qui aboutit le 16 juillet 1945, après la reddition de l’Allemagne, à la première explosion nucléaire dans le désert du Nouveau-Mexique et aux bombardements atomiques d'Hiroshima et Nagasaki les 6 et 9 août 1945. Drogues. L'usage des drogues durant la Seconde Guerre mondiale est le fait à la fois des puissances alliés et des forces de l'Axe. L'objectif était de rendre les soldats plus combatif en résistant mieux à la faim et la fatigue mais créera de graves complications et des effets secondaires pour la santé des troupes. Les soldats de la Wehrmacht recevaient des quantités importante de méthamphétamine à travers une « pilule d’attaque » nommée "Pervitin" et produite dés 1938. Cette dernière se présentait sous la forme de barre chocolatée qui étaient fourni avec la ration militaire de base. Au mois de décembre 1940, le nombre de pilules consommées baissa considérablement passant de 12,4 millions à 1,2 millions par mois. Lors de la Percée de Sedan, le général Heinz Guderian fit donner environ 20 000 comprimés de Pervitin pour la 1er Panzerdivision. Les aviateurs de la Luftwaffe, recevaient quant à eux, une formule modifier qui servait à atténuer leur sentiment d’anxiété, à augmenter leurs performances en vol, à se concentrer tout en augmentant l’estime de soi. En Asie, L'Armée Impériale japonaise commercialisa dés 1941 des pilules d’amphétamine sous le nom de "Philopon", la présentant comme un stimulant et distribua également des injections de méthamphétamine. A la fin de la guerre, le Japon connaît une importante crise de consommation de drogue parmi sa population. Les Alliés ont quant à eux privilégié les amphétamine à travers des cachets de Benzédrine, l'Armée Britannique en distribuant jusqu'à 72 millions de cachets et l'Armée Américaine entre 250 et 500 millions de pilules. Les pilotes de la Royal Air Force recevront notamment de la méthédrine. Europe sous domination nazie. À partir de la victoire éclair de l’Allemagne sur la France, et plus encore à partir de 1941, avec l’invasion des Balkans et de l’Union soviétique, et jusqu’à la fin 1944, la presque totalité de l’Europe est sous domination Allemande. Certains pays et certaines régions ont carrément été rattachés au Grand Reich, comme l’Autriche, le Protectorat de Bohême-Moravie, ou l’ouest de la Pologne. D’autres pays se sont alliés volontairement à l’Allemagne, il s’agit de la Bulgarie, de la Roumanie et de la Hongrie, mais ils sont complètement dépendants de l’Allemagne. Certains pays, comme la Slovaquie et la Croatie, doivent leur indépendance à l’Allemagne nazie. D’autres sont occupés à la suite de victoires allemandes. C’est le cas des Pays-Bas, de la Belgique, de la Norvège, du Danemark, de la France, de la Serbie, de la Grèce. Domination économique et asservissement. La domination allemande en Europe revêt un caractère différent à l’est et à l’ouest. Les pays de l’Est européens, au peuplement slave sont considérés par les nazis comme un « espace vital » (Lebensraum) revenant à la « Race des Seigneurs ». Dans cet espace immense, il s’agit à la fois d’implanter des colons allemands, de germaniser de force les populations qui peuvent l'être, de déplacer, stériliser ou faire mourir des millions de « sous-hommes » : Polonais, Slaves soviétiques ou Tziganes, en utilisant les survivants comme esclaves, allant jusqu'à la solution finale pour les juifs. L’Ouest n’est pas considéré comme un espace vital à vider pour que des Allemands puissent y prendre place. Dans le nouvel ordre européen, un pays comme la France garde sa place, mais à un rang inférieur à celui de l’Allemagne. Si l’occupant allemand exerce une terreur moindre, il n’en soumet pas moins les ressources des pays conquis au pillage systématique. En effet, sur le plan économique, le continent européen est soumis à l’hégémonie du "Reich". Pour l’Allemagne, il s’agit d’abord de mettre l’ensemble des ressources et capacités économiques du continent au service du "Reich" en guerre. D’autre part, des jalons sont posés pour une intégration de toutes les économies nationales dans un grand espace économique dominé par l’Allemagne. En France, on appelle les soldats allemands « doryphores », qui ravagent tout. Dans la pratique, les différents moyens pour mettre l'économie de l’Europe au service de l’Allemagne vont des accords de compensation avec taux de change avantageux pour les pays alliés au pillage massif pour les pays comme la Pologne ou l’Union soviétique en passant par le paiement d’indemnités pour un pays comme la France. La mise au travail des prisonniers de guerre et les déplacements en Allemagne de millions de travailleurs représentent une forme encore plus directe de l’exploitation des ressources. Collaborations et résistances en Europe. Pour Yves Durand, « Les occupations engendrent parmi les occupés, des comportements qui vont de la collaboration à la résistance en passant par toute une gamme d’attitudes qui ne peuvent être réduites ni à l’une ni à l’autre ». Tous les pays vaincus doivent accepter au moins une forme de collaboration minimale qui permet aux peuples de survivre en acceptant au moins temporairement les conditions du vainqueur. C’est ce que Werner Rings appelle la collaboration neutre qui est typiquement pratiquée aux Pays-Bas et en Belgique dont les gouvernements ont quitté le pays mais dont les administrations font le nécessaire pour permettre aux habitants de survivre et à l'économie de tourner en étant réquisitionnée au service de l’effort de guerre allemand. Aux Pays-Bas, la résistance est surtout urbaine, vu la géographie du pays qui n'offre pas de sites isolés et difficiles d'accès où l'on puisse organiser une activité clandestine. Il s'agit d'espionnage et de presse clandestine. En Belgique, l'espionnage se manifeste à travers des agents britanniques et belges recrutés et formés directement par les Britanniques et aussi par des réseaux de résistance intérieure belge dont le réseau Clarence de Walthère Dewé et des réseaux d'évasion dont le Réseau Comète. À partir de 1942, les sabotages vont commencer, notamment ceux du Groupe G, une organisation d'ingénieurs qui entravent scientifiquement le potentiel militaire allemand en détruisant les équipements stratégiques comme les lignes à haute tension et des stations électriques dans le but de paralyser la production de guerre des usines réquisitionnées. Mais, en Ardenne belge, dans la province de Luxembourg, région accidentée et boisée, se développent des groupes de maquisards. Des parachutages d'armes depuis l'Angleterre les équiperont au fur et à mesure des années en vue des combats de la Libération. En 1944, beaucoup de ces résistants s'engageront dans les troupes belges participant à la libération de la Belgique et iront combattre avec elles aux Pays-Bas et en Allemagne avec les alliés. Dans certains pays, comme pour la Norvège de Quisling à partir de 1942, ce sont les partisans des nazis qui gouvernent directement le pays. Les historiens les appellent généralement des « collaborationnistes ». Dans d'autres pays, l'Allemagne préfère favoriser des dirigeants conservateurs comme Pétain en France ou Nedić en Serbie qui sont présumés mieux gérer leur gouvernement. En Serbie, en Croatie, ou au Monténégro, les séparatismes locaux sont encouragés pour installer des gouvernements favorables à l'Allemagne et à ses alliés. En France, les différents gouvernements vichystes proposent d’eux-mêmes une collaboration qui va au-delà de ce qui est prévu par l’armistice de en espérant obtenir pour le pays une meilleure place dans l’Europe allemande. Selon les termes de Paxton, « Hitler repousse la main tendue ». C’est lui qui choisit ses alliés. Devant les compromissions de plus en plus graves du gouvernement Laval, une résistance s'organise, déjà à partir de l'été 1940. Dans le courant de la guerre, à cause des déportations d'ouvriers, des réseaux de réfractaires s'organisent qui deviennent des maquisards combattants. Grâce aux parachutages d'armes depuis Londres, ils entreprennent des sabotages et attaqueront les troupes allemandes en retraite en 1944. En Pologne, gouvernée directement par les Allemands pour être pillée et complètement asservie, il ne peut y avoir ni collaborationnistes ni collaborateurs. L’engagement dans la « résistance » permet aux peuples dominés de continuer à s’opposer au vainqueur, à participer à l’effort de guerre des Alliés et éventuellement à la libération de leur pays. La résistance s’organise par la création de mouvements, de réseaux et de maquis, regroupant une minorité de la population et souvent en liaison avec les gouvernements en exil ou les services de renseignement britannique, soviétique ou américain. Génocides, déportations, concentrations. La guerre et la domination de l’Europe qui en a résulté ont permis au régime nazi de pousser à l’extrême son idéologie raciste. Selon les termes de Goebbels : « La guerre nous offre toutes sortes de possibilités que la paix nous refusait. » Parmi ces possibilités figure un plan de nettoyage ethnique visant les populations d'Europe de l'Est : le Schéma directeur pour l'Est ; son application dans les terres conquises aura pour effet de les désorganiser en profondeur. Le jour même de l’entrée en guerre, en , Hitler autorise l’extermination des handicapés mentaux allemands et autres malades incurables. Officiellement stoppée en août 1941 grâce à un mouvement d’opinion, l’aktion T4 conduit à « l'euthanasie » par le gaz de plus de handicapés, nombre de techniciens de l’opération étant ensuite réaffectés au gazage massif des Juifs dans les camps de la mort. Dès 1939, les Juifs sont concentrés de force dans des ghettos misérables, surpeuplés et délibérément affamés, notamment dans le Gouvernement général de Pologne (voir : ghettos en Pologne occupée). Leur extermination systématique, que l’on désigne sous le nom de Shoah, est d’abord mise en œuvre par des exécutions de masse pratiquées par la Wehrmacht puis par les Einsatzgruppen dans les territoires polonais et soviétiques. En URSS et dans une partie de la Pologne, la « Shoah par balles » cède en 1942 le pas à l’emploi méthodique de "camions à gaz". Après la conférence de Wannsee (), la politique d’extermination (« la solution finale de la question juive » dans la terminologie nazie) vise les Juifs de tous les pays occupés et prend un tour industriel. Les Juifs sont déportés dans des camps d’exterminations dans lesquels les victimes sont gazées en masse, et leurs corps réduits en cendres dans des "fours crématoires". Au total, environ les trois quarts des Juifs de l’Europe occupée, totalisant selon Raul Hilberg au minimum , sont exterminées. d'entre-eux étaient Polonais, soit 90 % de la population juive du pays, et périront lors de la . Les Tziganes sont également victimes de la politique raciale des nazis. L’extermination des Tziganes est connue sous le nom de Porajmos. En décembre 1942, Himmler prend la décision de déporter vers Auschwitz tous les Tziganes d’Europe, mais se désintéresse rapidement du sujet qui ne constitue pas un enjeu stratégique de première importance. On peut estimer que pendant la Seconde Guerre mondiale, entre et Tziganes sont morts à la suite des mesures de persécution nazies. En plus des camps d’extermination dont la finalité est l’élimination immédiate des Juifs et autres catégories qualifiées de « sous-hommes », les nazis multiplient les camps de concentration et leurs commandos pour enfermer, et généralement exterminer par le travail forcé, les opposants réels ou présumés, ou des droits communs. Les conditions particulièrement déshumanisantes de la détention et les traitements brutaux des SS et des kapo y entraînent une mortalité extrêmement forte (40 % des déportés français ne survivent pas). Au départ, ce sont des unités mobiles qui sont chargées d’exterminer les Juifs — ainsi que les Tziganes, les cadres communistes, voire les handicapés et les homosexuels. Extrême-Orient sous domination japonaise. En Asie également, l’empire du Japon suscite des gouvernements collaborateurs et a recours à grande échelle au pillage des matières premières et au travail forcé des prisonniers de guerre et des populations locales qu’il prétendait libérer de la servitude coloniale. En Chine, les Japonais jouent des divisions politiques locales pour s'assurer le soutien de Wang Jingwei, ancien premier ministre et ancien chef du Kuomintang, qui dirige un gouvernement collaborateur à Nankin. Pour se donner un profil patriotique, ce gouvernement met fin au régime des concessions européennes à Shanghai. Dans plusieurs colonies occidentales asiatiques occupées, les Japonais composent avec les indépendantistes locaux, créant des régimes comme l'État de Birmanie, dirigé par Ba Maw, ou la république des Philippines, dirigée par José P. Laurel. L'empire du Japon use du concept de la Sphère de coprospérité de la grande Asie orientale pour promouvoir l'idée d'une Asie auto-suffisante et justifier sa politique expansionniste. Envahie en 1931, la Mandchourie est devenue l'État du Mandchoukouo, où l'ancien empereur de Chine Puyi exerce une autorité de façade, et qui garantit au Japon d'importantes ressources naturelles. Dans le cadre de la campagne de Birmanie, les Japonais bénéficient de l’appui du gouvernement thaïlandais de Plaek Pibulsonggram et du leader indépendantiste indien Subhas Chandra Bose, qui crée l'Armée nationale indienne. Aux Indes orientales néerlandaises occupées, qui leur fournissent de très importantes réserves de pétrole, les Japonais ne créent pas de gouvernement, mais se ménagent l'appui des leaders indépendantistes comme Soekarno (futur président de l'Indonésie). Camps de prisonniers et esclavage. Disséminés sur tout le territoire de la Sphère, les camps de prisonniers japonais connurent un taux important de décès car la majorité d’entre eux impliquaient le travail forcé des prisonniers. Selon le Tribunal de Tokyo, le taux de mortalité des occidentaux y était de 27,1 %, sept fois celui des prisonniers des camps allemands ou italiens. Le taux de mortalité des prisonniers chinois était bien supérieur en raison d’une directive ratifiée le 5 août 1937 par Hirohito qui éliminait les mesures de protection du droit international à l'égard de ces prisonniers. Ainsi, si prisonniers britanniques, néerlandais et américains furent relâchés après la reddition du Japon, le nombre de Chinois libérés ne fut que de 56. Selon une étude de l’historienne Zhifen Ju, plus de 10 millions de Chinois furent mobilisés par l’armée impériale japonaise et transformés en esclaves par la Kōa-in au Manchukuo et en Chine du nord. Des documents retrouvés à la Bibliothèque du Congrès américain démontrent qu’entre 4 et 10 millions de "romusha", des civils indonésiens, ont été soumis au travail forcé à Java par le régime Shōwa et que le taux de mortalité y fut de 80 %. En Amérique du Nord, à la suite de l’attaque de Pearl Harbor par les Japonais et à l’entrée en guerre contre l’Allemagne et l’Italie, le président Franklin Roosevelt autorise le l’internement de dizaines de milliers d’Américains d’origine japonaise, italienne et allemande : . Le Canada, dans une moindre mesure, a également détenu des citoyens originaires de ces pays dans des camps. Conséquences historiques. La Seconde Guerre mondiale contribue, à travers son bilan plus ou moins préjudiciable aux participants, à l’émergence de deux superpuissances qui vont se partager le monde : les États-Unis et l’Union des républiques socialistes soviétiques (URSS). La Société des Nations, à laquelle on impute d’avoir échoué à empêcher la guerre, est remplacée par l’Organisation des Nations unies dont la Charte est rédigée à San Francisco en . L’Allemagne est soumise à plusieurs années d’occupation. En 1949, elle est séparée en deux États, désignés des noms d’Allemagne de l'Ouest (démocratie libérale, dans la zone occupée précédemment par les Américains, les Britanniques et les Français) et d’Allemagne de l'Est (régime communiste, dans la zone occupée par les Soviétiques). La réunification allemande n’aura lieu qu’en 1990. L’Allemagne de l’Ouest et le Japon sont démilitarisés et démocratisés par les Occidentaux. Les principaux dignitaires de la hiérarchie nazie sont jugés, et la plupart condamnés pour crime contre l'humanité (une notion nouvelle, juridiquement définie à la suite des crimes nazis) ou pour crime de guerre lors d’un procès international à Nuremberg. Les chefs militaires japonais répondent de leurs exactions devant le tribunal international de Tokyo, mais l’empereur Hirohito et des criminels de guerre comme Shirō Ishii, ancien chef de l’unité 731, sont exempts de toute poursuite pour leur coopération avec les États-Unis. Un certain nombre d'ex-responsables nazis obtiennent aussi l’impunité grâce à des initiatives américaines comme l’opération Paperclip et retrouvent plus tard des postes de responsabilité. En Europe centrale et en Europe de l'Est, zones investies en 1944-1945 par l’Armée rouge, les partis communistes locaux prennent le pouvoir entre 1945 et 1948 sous influence de l’Union soviétique. Dès mars 1946, Winston Churchill, qui, pour garder la Grèce dans le giron occidental, avait consenti à un partage de l’Europe en « zones d’influence » par l’accord de Moscou du , déclare qu’. En Grèce, malgré l’absence de soutien de l’URSS aux communistes grecs, majoritaires dans la résistance locale, une guerre civile se prolonge jusqu’en 1949 et manque de faire basculer la Grèce dans le camp communiste, avant que le gouvernement monarchique ne remporte à grand-peine la victoire grâce au soutien du Royaume-Uni. En Pologne, Tchécoslovaquie, Hongrie, Roumanie, Bulgarie, Yougoslavie et Albanie, où les communistes étaient largement minoritaires, des régimes communistes sont mis en place : le bloc de l'Est se constitue en Europe, signant le début de la guerre froide. Seul le régime communiste de Tito, qui avait en Yougoslavie une certaine assise populaire, surtout chez les Serbes, prend en 1948 une position indépendante vis-à-vis de l’URSS. La république de Chine de Tchang Kaï-chek est affaiblie par les années de guerre. La guerre civile chinoise, interrompue par l’agression japonaise, reprend dès 1946. En 1949, les nationalistes de Tchang Kaï-chek sont battus par les communistes, largement soutenus par l’URSS. Mao Zedong proclame sur le continent la république populaire de Chine, tandis que Tchang Kaï-chek se réfugie à Taïwan, rendue par les Japonais. Les institutions d’avant-guerre ne perdurent que dans une minorité d’États européens et asiatiques. Toutes les monarchies d’Europe de l’Est sont abolies par la construction rapide des régimes communistes, qui balayent également les entreprises, le tissu syndical et associatif, et les libertés publiques de ces pays. Un référendum abolit la royauté en Italie () ; elle ne se maintient en Grèce qu’au prix d’une guerre civile, et en Belgique la « question royale » posée par l’attitude de Léopold III pendant la guerre, ne trouve de réponse qu’avec son abdication en 1951. Au Japon, les Américains maintiennent l’empereur Hirohito, pourtant constamment tenu informé des crimes commis par ses armées, mais imposent l’abolition du culte impérial qui le proclamait d’essence divine. En France, la République, rendue responsable de la défaite, cède la place à une nouvelle constitution. Partout à l’Ouest, les gouvernements s’engagent dans la construction du "Welfare State" ou État-Providence : nationalisations, planification, intervention de l’État, lois de protection sociale sont désormais à l’ordre du jour pour une trentaine d’années. Nationalisations, planification et intervention de l’État prennent des formes extrêmes à l’Est, où la sphère privée se réduit désormais aux seules familles et à leurs biens meubles. La recherche scientifique et technique, dans l’ensemble, bénéficient d’une forte impulsion, en particulier pour la maîtrise de l’atome dans le projet Manhattan et la recherche sur les fusées qui permettra des programmes spatiaux. La guerre a aussi vu le premier usage massif des antibiotiques dont la pénicilline inventée par les Britanniques, ou encore du DDT, utile aux Américains dans les marais du Pacifique. Mais, pendant quarante ans, la guerre froide entre « zones d’influence » empêche les scientifiques de communiquer librement entre eux et draine de nombreuses ressources et technologies vers la sphère militaro-industrielle, au détriment du développement civil. Conséquences au Royaume-Uni. Les autres alliés en effet, et si l’on excepte le Royaume-Uni, ont un rôle mineur ou bien sont écartés des négociations qui aboutissent à la mise en place de deux zones d’influence, suivant les accords de Yalta et de Potsdam. Cette situation, qui porte en elle les germes de la guerre froide, dure jusqu’en 1989. Le Royaume-Uni sort considérablement affaibli de la guerre. Celle-ci, en effet, a consacré le déclin des puissances coloniales : le mouvement Quit India s'est développé durant le conflit aux Indes britanniques, les indépendantismes indien et birman ayant pris des formes parfois violentes. L'Indian Independence Act de 1947 prend effet à l'été 1947, immédiatement suivi par la partition des Indes. La Birmanie obtient son indépendance en 1948. Par la suite, les îles britanniques connaissent une crise sans précédent, due à la reconstruction et à la restructuration de son économie. Conséquences en France. Au cours de la bataille de Normandie, le général de Gaulle, accueilli en libérateur par les Français, parvient à obtenir des alliés la reconnaissance de la pleine autorité de son gouvernement, le gouvernement provisoire de la République française (GPRF) — proclamé le 3 juin à Alger —, sur la métropole. Il fait en sorte que la France soit reconnue par le camp allié comme un vainqueur. Cette reconnaissance lui permet d’occuper une partie de l’Allemagne et d’obtenir un siège de membre permanent au Conseil de sécurité de l’ONU. La Libération de la France s’accompagne de l’épuration d’une partie des personnes suspectées d’avoir collaboré. Les Allemands et leurs collaborateurs ont multiplié les atrocités sous l’Occupation, puis pendant leur retraite. Aussi dans les territoires libérés par les résistants, et malgré les efforts de la plupart de leurs chefs et des commissaires de la République pour instaurer au plus vite une épuration légale et judiciaire, de nombreuses exécutions sont expéditives et pas toujours précédées de jugements. Environ sont tondues pour « collaboration horizontale ». De ce fait, des erreurs sont commises dans cette libération rapide, et des innocents injustement assassinés. Les historiens estiment qu’environ exécutions sommaires ont lieu, aux trois quarts pendant les combats. L'épuration sauvage a pu être d’autant plus brutale que la population peut avoir envie de se venger des exactions de la milice et des Allemands dans leur déroute et que le gonflement des effectifs de la Résistance a permis à certains résistants de la de se dédouaner ainsi à peu de frais. À l’opposé, certains collaborateurs sont parfois acquittés ou condamnés à de faibles peines (malgré la gravité de leurs crimes) par les tribunaux réguliers dont la majorité des juges ont prêté serment à Pétain. D’autres furent jugés par la Haute Cour composée de résistants, mais l’importance des condamnations décrut avec le temps. C’est ainsi qu’en 1949, le dernier accusé jugé est acquitté : le secrétaire d'État à l’Intérieur de Pétain, René Bousquet (qui mit la police et la gendarmerie françaises à la disposition des occupants pour faire la chasse aux résistants et déporter près de Juifs) est acquitté. Les collaborateurs n’ont été poursuivis que pour trahison et non pour crime contre l’humanité. De Gaulle empêche le développement d’une situation armée insurrectionnelle (voir Histoire de France), en amalgamant les mouvements ayant participé à la Résistance à l’armée régulière issue de l’armée d’armistice cantonnée en Afrique (dont nombre de cadres avaient été vichystes avant de se rallier en 1942). Non sans mal, les résistants des Forces françaises de l'intérieur ("FFI") et des Francs-tireurs et partisans ("FTP") sont intégrés dans l’armée régulière sans trop d’à-coups. L’intégration des milices patriotiques du PCF est négociée contre leur participation au gouvernement et l’amnistie de Maurice Thorez. Au nom de la reconstruction du pays, qui s'effectue "via" une forte croissance et afin de permettre à la France de tenir son rang nouvellement restauré aux côtés des Alliés, l’épuration de l’administration est limitée. Certains hauts fonctionnaires invoquent la continuité de l’État comme acte de résistance. Les policiers dont une partie a poursuivi les résistants se dédouanent par une insurrection à Paris à la veille de la Libération. Certains collaborateurs se font oublier en intégrant des régiments de FFI ou en s’engageant dans le corps expéditionnaire d’Extrême-Orient (engagé en Indochine), ce qui est par la suite exploité par la propagande Việt Minh. La France oublie qu’elle fut anglophobe et pétainiste après le bombardement de Mers el-Kébir, que des gendarmes français gardèrent le camp de concentration de Drancy et convoyèrent les convois de déportés jusqu’à la frontière. La proportion de Juifs d’avant-guerre ayant survécu n'est pas la plus importante de tous les pays occupés, les Juifs dit apatrides ont été bien moins protégés que les Juifs français. Pour un temps, la législation française considéra que seuls les Allemands peuvent être poursuivis pour crime contre l'humanité. Le procès manqué de Bousquet ainsi que les procès tardifs de Paul Touvier et Maurice Papon sont emblématiques de cette politique. Conséquences en Belgique. Le différend né le entre le roi Léopold III et le gouvernement ne sera apaisé qu'en 1950 avec l'abdication du roi revenu d'exil. Voulant rester avec l'armée prisonnière, Léopold III avait veillé à ne faire signer qu'une reddition limitée aux troupes sur le terrain, ce qui permit au gouvernement de partir pour continuer la guerre avec les troupes du Congo belge et celles qu'il put reconstituer en Angleterre (armée, aviation, marine). Le reproche du gouvernement et d'une partie de la population était que le roi aurait dû se réfugier à l'étranger pour prendre la tête de la résistance à l'Allemagne. La division de l'opinion publique à ce sujet donna lieu, après la guerre, à des affrontements allant jusqu'à des manifestations violentes entre défenseurs du roi et partisans de son abdication. Des violences avaient déjà atteint le pays pendant l'occupation allemande, les collaborateurs de l'ennemi ayant perpétré des attentats contre la population (entre autres la tuerie de Courcelles) et l'exécution de personnalités politiques et économiques abattues en pleine rue car suspectées d'être en faveur des alliés et de la résistance intérieure. Les actions de résistance intérieure belge se manifestèrent d'abord par de l'espionnage, notamment par le réseau Clarence organisé dès 1939 par Walthère Dewé (qui avait déjà dirigé le réseau de la Dame Blanche en 1914-18). Dès 1942, commencèrent des actions de sabotage de voies ferrées, la destruction de lignes à haute tension alimentant l'industrie allemande avec de l'électricité belge par le Groupe G. Il en résulta des représailles sous la forme de prises d'otages et l'exécution de résistants arrêtés. Le roi lui-même, auteur de lettres à Hitler pour protester contre les déportations, reçut en réponse une menace de déportation, ce qui arriva lorsqu'il fut emmené en Allemagne avec sa famille en 1944. Mais cela ne suffit pas à le populariser auprès de ses adversaires. D'autre part, après la guerre, des centaines de procès entrainèrent l'exécution capitale par fusillade de collaborateurs de l'ennemi, mais aussi de dénonciateurs désignant aux autorités allemandes des résistants, voire des personnes innocentes dont d'aucuns voulaient se débarrasser pour des raisons privées. Furent, entre autres, exécutés des tortionnaires du camp de concentration installé à Breendonk, entre Bruxelles et Anvers et des collaborateurs de la police allemande. Le gouverneur allemand de la Belgique, le général Alexander von Falkenhausen fut tenu prisonnier jusqu'en 1949, puis jugé, condamné à vingt ans de prison, les juges militaires belges ayant tenu compte de son opposition aux nazis -qui lui valut d'être arrêtés par ceux-ci- Après quelques années, il fut libéré et rentra en Allemagne où il épousa une ancienne résistante. Sur divers plans, la guerre et l'occupation allemande eurent des suites durables dans l'évolution historique de la Belgique. C'est surtout sur le plan des communautés linguistiques et culturelles que la politique allemande de division entre flamands et wallons s'est faite sentir. Déjà, pendant la Première Guerre mondiale, les Allemands -qui occupaient les neuf dixièmes du territoire belge- avaient imposé la scission des administrations belges en deux autorités séparées, l'une à Namur pour la Wallonie, l'autre à Bruxelles pour la Flandre, cette région étant considérée comme germanique pour la seule raison de la langue parlée par la majorité de sa population. D'aucuns affirment que la présence en Belgique occupée du roi Léopold III a empêché l'Allemagne de reprendre cette politique entre 1940 et 1944. Ce serait sous l'influence du gouverneur général allemand Von Falkenhausen hostile aux nazis (et que ceux-ci arrêtèrent en 1944). L'action de diplomates allemands traditionalistes non nazis aurait eu également une influence dans la relative modération politique du Reich à l'égard du régime politique de la Belgique. Modération qui prit fin en 1944 avec la division de la Belgique en deux gaus allemands, Flandre et Wallonie, sous l'égide des S.S. tandis que le roi était déporté avec sa famille. Quant à l'activité économique, elle subit des atteintes telles que la reconstruction d'après-guerre et les procès d'épuration ne purent en effacer complètement les conséquences. Ce qui restait d'industrie automobile et aéronautique nationale indépendante de sociétés étrangères disparut dans les bombardements. Les destructions industrielles, pillages et déportations (entre autres dans les charbonnages du Hainaut) ne furent pas compensées par la modernisation qu'il aurait fallu mettre en œuvre après la guerre. Sur le plan culturel, des journaux disparurent, d'autres apparurent dont beaucoup ne tinrent pas longtemps. De nombreuses personnes des milieux de presse, du cinéma et de la culture qui avaient cru pouvoir travailler sous l'égide allemande furent condamnées ou s'enfuirent ou, à tout le moins, furent mises à l'index. On peut citer quelques cinéastes dont Henri Storck avec sa symphonie paysanne, hymne dédié à l'idéologie du retour à la terre dans l'esprit mis à l'honneur en France sous le régime du gouvernement Pétain. Storck n'eut pas d'ennui à la libération, étant considéré comme un brave homme étranger aux malheurs de son époque, malgré la lettre dans laquelle il se décrivait comme étant d'ascendance pure aryenne afin de pouvoir devenir membre de la corporation du cinéma créée par l'occupant allemand. Avec un documentaire à la gloire de l'Allemagne, "Deutsche Grosse", Jan Meeuwissen se montra beaucoup plus engagé en 1943. En 1943 encore, Frans Develter produisit un film de long métrage en trois parties "Vlaanderen te Weer" destiné à montrer que la Flandre, martyrisée par la Belgique, avait retrouvé sa grandeur grâce au national-socialisme. À Anvers, Jan Vanderheyden, par ailleurs cheville ouvrière de la corporation du film, "führer" de la branche production-distribution, produisit plusieurs courts métrages et longs métrages purement distractifs, ce qui lui valut seulement quelques critiques après la guerre. En Wallonie, le peintre liégeois Auguste Mambour fut condamné parce qu'on lui reprochait sa sympathie pour l'ordre nouveau installé par les amis de l'Allemagne, notamment un voyage culturel en Allemagne comme ceux qu'organisait le ministre nazi Joseph Goebbels à l'intention d'artistes des pays occupés. Dans le domaine de la presse et de la littérature, le dessinateur de presse Paul Jamin, collaborateur du journal d’extrême droite "Le Pays Réel", d'abord condamné à mort puis, finalement, sorti de prison après une commutation de peine, devint le dessinateur attitré du journal satirique belge "Pan" fondé par un Léo Campion anarchiste et résistant. Le dessinateur et auteur de bandes dessinées Georges Remi, plus connu sous son pseudonyme Hergé, créateur de Tintin, ne passa qu'une nuit en prison pour avoir publié dans le journal "Le Soir" alors que ce plus important organe de la presse belge de l'époque avait été réquisitionné par les collaborateurs des Allemands, ce qui, depuis, fait désigner ce journal sous le nom de "Soir volé". Ce journal fut imité dans un pastiche resté célèbre en Belgique sous le nom de faux Soir. Les auteurs parvinrent à distribuer dans les kiosques cette imitation du journal collaborateur. Ils y avaient imprimé plaisanteries anti-allemandes et articles contre la collaboration qui mettaient en cause des journalistes ralliés aux occupants. Parmi ces écrivains et journalistes qui soutenaient l'Allemagne dans la presse, Robert Poulet avait fondé un quotidien "le Nouveau Journal" soutien des occupants et qui, plus tard, prétendit qu'il était . Prenant ses distances en 1943 avec la politique pro-allemande, il fut cependant condamné à mort par la justice belge, peine commuée en détention à perpétuité suivie d'une grâce avec expulsion en France où il entama une carrière de penseur et philosophe. De même, Félicien Marceau, pseudonyme de Louis Carette, journaliste à la radio sous contrôle allemand qui démissionna en 1942 pour devenir éditeur indépendant et réfugié en France en 1945, étant poursuivi notamment pour des émissions qui parurent favorables à l'appel au travail volontaire en Allemagne. Sous son pseudonyme de Félicien Marceau, il poursuivit à Paris une carrière d'écrivain et d'homme de théâtre qui lui valut le prix Goncourt et une place à l'Académie française avant de mourir à 98 ans. L'indulgence à l'égard des artistes et intellectuels de la collaboration ne fut pas toujours la règle. On peut citer le cas emblématique du brillant essayiste et critique d'art Paul Colin, qui fut apparemment de gauche comme le révèlent ses écrits d'avant-guerre en faveur du surréalisme, mais qui, dès 1940, se rallia aux idées des collaborateurs de l'ennemi partisans d'un régime autoritaire. En 1942, il était abattu en pleine rue par de jeunes résistants, malgré la présence de gardes du corps allemands. Conséquences aux États-Unis. Les États-Unis prennent l’initiative d’avoir une attitude "positive". Ils imposent la démocratie, particulièrement en Allemagne de l'Ouest et au Japon, à travers une épuration et un contrôle des rouages de l'État et de l'éducation. Parallèlement, ils fournissent à partir de 1947 une aide économique à la reconstruction de l’Europe, connue sous le nom de plan Marshall. Celle-ci permet une reconstruction rapide des économies occidentales, achevée au début des années 1950, et évite aux populations la tentation de s’abandonner au communisme ou aux néo-fascismes. À l’issue de la Seconde Guerre mondiale, les États-Unis sont avec l’URSS l’une des deux plus grandes puissances mondiales. Les États-Unis possèdent la première flotte de guerre, la première flotte de commerce, ils détiennent 75 % des stocks d’or du monde (d’où la devise « "dollar as good as gold" », le dollar est aussi sûr que l’or). 16 millions d’Américains furent incorporés dans les forces armées des États-Unis, y périrent, dont sur le champ de bataille. Conséquences en Italie. Après 1945, l'Italie accuse le coup de la défaite des puissances de l'Axe : le référendum constitutionnel de 1946 signe le passage du régime monarchique qui avait survécu tout au long de la guerre, au régime républicain. Grâce à la stabilité et aux politiques keynésiennes des nouveaux gouvernements républicains, l'Italie connaît ensuite une très forte expansion, phénomène appelé les Trente Glorieuses. Le constructeur automobile Fiat devient le symbole du miracle italien, dont la période va des élections d'avril 1948 aux Jeux Olympiques de Rome en 1960 : automobiles en 1955, cinq ans après. Le fabricant de scooters Vespa n'est pas en reste ; entre 1945 et 1965, il en vend en Italie. Dans le sillage de son expansion économique et de son retour à un statut de puissance de moyenne taille, l’Italie adhère en 1949 à l'Organisation du traité de l'Atlantique nord et en 1955, elle est admise aux Nations unies. Conséquences en URSS. Staline n’est pas en reste et fut l’un des grands gagnants du conflit. Le prestige et le rôle de l’Union soviétique sortent grandis bien au-delà des seuls cercles communistes. Réintégrée dans le concert des nations, l’URSS est membre permanent du Conseil de Sécurité. Pour les Russes, cette "grande guerre patriotique" menée sur le front de l’Est invoqua la survie de la nation. En portant un toast au peuple russe lors du défilé de la victoire, le 24 juin 1945, Staline confirmait le retour de l’URSS à une forme plus accentuée de nationalisme grand-russe voire de chauvinisme, aux dépens des minorités nationales et, bien vite, des Juifs « cosmopolites ». Les annexions de 1939-1940 sont confirmées, et d’autres sont venues s’ajouter à la victoire. L’URSS a augmenté sa superficie de et sa population de 24 millions d’habitants, aussitôt soumis à une très brutale soviétisation par la terreur. Derrière le rideau de fer, le système stalinien est progressivement imposé pour des décennies à un empire immense allant de Berlin-Est à la Corée du Nord, en attendant le basculement de la Chine et du Viêt Nam dans le camp communiste. Cependant, l’URSS sort considérablement appauvrie de la guerre, qui lui a coûté plus de 25 millions de morts, ainsi que les pires destructions jamais subies par un belligérant dans l’histoire humaine. En 1945, une commission officielle estime que le coût des destructions équivaut au double des investissements consentis lors des deux premiers plans quinquennaux des années 1930. Enfin, technologiquement, l’Union soviétique accuse un retard sur l’Amérique, dont elle ne brise le monopole nucléaire qu’en 1949. Coûts humains en fonction des pays. En tout environ 38 millions de civils furent tués par les nazis et leurs alliés. En Europe : entre 8,8 et 10,7 millions de militaires soviétiques, 5,3 millions de militaires allemands, six millions de Polonais, dont trois millions de Juifs et trois millions de catholiques ; trois millions de Juifs des autres pays d’Europe ; deux millions de Tziganes, handicapés, homosexuels et autres. Concernant les seules pertes militaires en Europe, selon les estimations, environ sont morts sur les champs de bataille européens, dont du côté des alliés et du côté des forces de l'Axe. Les tués de l’Armée rouge constituent 53 % du total des pertes militaires connues en Europe, ceux de la Wehrmacht 31 %, ceux du Royaume-Uni 1,8 %, ceux de la France 1,4 % et ceux de l’armée nord-américaine 1,3 %. Les pertes militaires de l’Union soviétique représentent 88 % du total des pertes alliées en Europe (Royaume-Uni 3 %, France 2,3 % et États-Unis 2,2 %). Le total des pertes militaires seules de l'Allemagne et de l'Union soviétique réunies représentent 84 % du total de toutes les pertes militaires subies en Europe. Les pertes militaires du conflit germano-russe seul sont de soit 78 % du total des pertes militaires subies en Europe. En Asie : les historiens évaluent entre 10 et 30 millions le nombre de morts causées par les exactions japonaises, dont 2,7 millions pour la seule opération de la menée dans le Nord de la Chine par le général Yasuji Okamura. Exactions et crimes de guerre. Sur le théâtre d’opération européen. De nombreux massacres de civils ou crimes de guerre ont été perpétrés au cours du conflit, en particulier par les "Einsatzgruppen" sur le front de l'Est, mais aussi de façon plus générale par la Wehrmacht et les SS. Dès le , les Alliés mettaient en place la « Commission des crimes de guerre des Nations unies » chargée d'enquêter sur les crimes de guerre commis par l'Axe. Une semaine plus tard, la Déclaration de Moscou énonçait la volonté de traquer les criminels de guerre nazis « jusqu'aux confins de la Terre ». Non lié à l'ONU (qui ne fut fondée qu'en 1945), celle-là fut assistée à partir de mars 1945 par CROWCASS, chargé par le SHAEF d'établir une liste des criminels de guerre nazis. Cette volonté présida à l'instauration du tribunal de Nuremberg, jugeant les plus hauts responsables nazis encore vivants. CROWCASS fut cependant rapidement dépassé, la volonté initiale de traque contre les criminels de guerre cédant dès 1945 à d'autres priorités, marquées en particulier par l'éclatement de la guerre froide en 1947. Parmi les divers crimes de guerre, on peut citer : Il faut encore mentionner l’exécution sommaire de civils et de soldats alliés en uniforme (en particulier certains paras parachutés par le SOE afin d’encadrer les maquis ainsi que de certains pilotes, dont Martin Bormann autorisa et encouragea le lynchage en 1944). Bombardements de villes. Certaines opérations de bombardement de villes ont causé de nombreuses victimes civiles. Le nombre de victimes civiles était parfois un but recherché pour affaiblir le « moral » de l'adversaire. Sur le théâtre d’opération asiatique. La décision prise en août 1937 par Hirohito d’approuver une directive de son état-major supprimant l’application des traités internationaux sur la protection des prisonniers de guerre entraîna la mort de plusieurs millions de civils en Chine. Étendue à compter de 1941 aux autres pays conquis, cette mesure causa la mort d’une quantité phénoménale de civils et de prisonniers alliés détenus dans des conditions atroces (témoignage de Roger Cyr des Royal rifles). Parmi les crimes de l’armée impériale japonaise au cours de l'Ère Shōwa (1926-1989), les plus notables sont les suivants : Cannibalisme. Plusieurs rapports écrits et témoignages colligés par la Section australienne des Crimes de guerre du Tribunal de Tokyo et analysés par l’enquêteur (le futur juge en chef du Tribunal), démontrent que les soldats japonais commirent des actes de cannibalisme à l’encontre des prisonniers alliés. Dans bien des cas, ces actes étaient motivés par la famine mais selon l’historien Yuki Tanaka, « le cannibalisme était souvent une activité systématique menée par des escouades entières et sous le commandement d’officiers. » Selon le témoignage de nombreux prisonniers comme le soldat indien Hatam Ali, les victimes étaient parfois dépecées vivantes. Les plus hauts gradés connus ayant pratiqué le cannibalisme sont le lieutenant-général Yoshio Tachibana, qui avec 11 membres de son personnel, a été jugé pour avoir fait décapiter et mangé un aviateur américain en août 1944 à Chichi Jima et le vice-amiral Mori pour avoir mangé un prisonnier lors d’une réception tenue en février 1945. Bombardements. Le Service aérien de l'armée impériale japonaise et celui de la marine menèrent, de 1937 à 1945, une campagne systématique de bombardements contre des objectifs civils en Extrême-orient et même contre la ville de Darwin en Australie (voir : raids aériens sur l'Australie). Les zones les plus éprouvées furent les grandes villes chinoises comme Shanghai et Chongqing. À l’automne 1937, la violence des bombardements de Nankin et de Canton entraina une résolution de blâme du Comité aviseur de l’Extrême-Orient de la Société des Nations à l’encontre du Japon. Lord Cranborne, le sous-secrétaire d'État aux Affaires étrangères de Grande-Bretagne, émit sa propre déclaration d’indignation : Pour la première fois dans l'histoire de l'humanité l'arme nucléaire est utilisée par les États-Unis pour les bombardements atomiques d'Hiroshima et Nagasaki. Le nombre de victimes immédiates est estimé pour Hiroshima et Nagasaki. Le nombre d'habitants étant très mal connu à cause des mouvements de population en temps de guerre, d'autres estimations montent à . Armes chimiques et bactériologiques. En Europe, les gaz de combat ne furent pas utilisés dans les combats entre belligérants, mais « seulement » contre les civils déportés, dans les camps d’extermination nazis. Des réserves importantes de gaz "tabun" et "sarin" furent retrouvées en Allemagne en 1945, suffisantes pour tuer des millions de personnes. Elles furent immergées dans des caissons de béton sous la Manche. On s’inquiète de leur état de conservation aujourd’hui. En Asie toutefois, les travaux des historiens Yoshiaki Yoshimi et Seiya Matsuno, démontrent que Hirohito permettait dès juillet 1937 l’utilisation systématique de gaz toxiques contre l’armée chinoise et les populations civiles. Par peur des représailles et afin de s’assurer que ces armes ne soient jamais employées contre des intérêts occidentaux, chaque utilisation faisait l’objet d’une directive spécifique approuvée par l’empereur et transmise par le chef d'état-major de l’armée, le prince Kotohito Kan'in (le général Hajime Sugiyama à compter de 1940). Dès 1939, les armes chimiques furent employées en URSS et en Mongolie puis aux Philippines en 1942. En 2004, Yoshimi découvrit toutefois dans les archives nationales australiennes des documents démontrant que des gaz toxiques avaient été testés sur des prisonniers australiens et néerlandais en 1944 en Indonésie. À ces armes chimiques, s’ajoutent les armes bactériologiques produites par l’unité 731 et employées à maintes reprises contre des civils en Chine et contre l’armée soviétique lors de la bataille de Halhin Gol. Viols de guerre. Toutes les troupes belligérantes de la Grande Guerre avaient commis ou laissé commettre de nombreux viols de guerre. Les historiens Ian Kershaw et Rees rapportent que contrairement à la propagande de la Wehrmacht qui défendait le mythe d'une armée saine, des viols à grande échelle ont été commis par l'armée allemande. Les estimations concernant le nombre de viols de femmes soviétiques par la Wehrmacht atteint , avec entre nés du fait de ces viols. L’Armée rouge fut explicitement encouragée, en représailles aux exactions massives du Reich en URSS, à terroriser les populations allemandes par le viol et les pillages à grande échelle : selon Hanna Schissler, de nombreuses Allemandes de l’Est envahi ont subi en 1945 les violences systématiques des soldats soviétiques. En Yougoslavie théoriquement alliée, Milovan Djilas se plaignit en personne à Staline de milliers de viols, le dictateur soviétique lui répondant cyniquement que l’Armée rouge avait assez enduré pour ne pas devoir s’attarder à ce genre de récriminations. Selon l'historien Robert J. Lilly, environ auraient été violées par les troupes américaines en Angleterre puis en Normandie. Quant au nombre de victimes en Allemagne, territoire ennemi, il est inconnu. Certains militaires coupables ont été exécutés, comme dans l'Affaire Clarence Whitfield, condamné à mort par pendaison le 20 juin 1944 à Canisy par la cour martiale. Vingt-et-un GIs furent condamnés en France pour viol, et les autorités militaires américaines invitèrent les victimes à assister à la pendaison des coupables. L'historien Peter Schrijvers estime que plus de ont été violées par les troupes américaines à l'occasion de la bataille d'Okinawa. Déportation de minorités par Staline en URSS. Dès avant-guerre, Staline considère les minorités vivant aux frontières de l'URSS comme suspectes d’anti-stalinisme par définition, et, dans l’éventualité d’un conflit, ordonne pendant les Grandes Purges de 1937-1938 la déportation de centaines de milliers de Polonais, de Caréliens, de Lettons, mais aussi, à la frontière asiatique, de près de Chinois, Bouriates, Mongols et Coréens qui se retrouvent tous en Sibérie et au Kazakhstan. Lors du pacte germano-soviétique, l’URSS brise toute résistance à la soviétisation en déportant de l’automne 1939 à l’été 1941 plus d’un million de citoyens nouvellement annexés, Polonais, Moldaves, Baltes, Finlandais et autres, soit plus de par jour au total. Selon les rapports du commissaire Krouglov à Staline cités par l’historien russe Nikolaï Bougaï, la moitié meurent en déportation dans l’année de leur arrivée à destination, faute de structures adéquates pour permettre leur survie sur place. Des forces non négligeables sont ensuite distraites du front en pleine offensive allemande de l’été 1941, afin de déporter la totalité des Allemands de la Volga et du reste de l’URSS, descendants de colons présents depuis deux siècles. Au printemps 1944, sous la fausse accusation de collaboration, quatorze peuples représentant deux millions de victimes, dont l’intégralité des Tchétchènes-Ingouches, des Tatars de Crimée, des Kalmouks, des Karatchaïs, etc. sont déportés collectivement en Sibérie et en Asie centrale. La déportation des Tchétchènes, femmes, enfants, militants communistes et soldats décorés compris, fut accomplie en six jours par le NKVD en mars 1944, ce qui reste à ce jour la plus rapide déportation de l’histoire. Les biens des peuples déportés furent cédés à des colons russes. Leurs républiques autonomes souvent supprimées et leurs villes débaptisées, et en 1949, un décret du Soviet Suprême déclara que les peuples « punis » resteraient exilés à perpétuité. Ces mesures ne furent abrogées que sous Khrouchtchev puis sous Gorbatchev. À la reprise des Pays baltes, de l’Ukraine, de la Moldavie et de la Pologne orientale (1945), de nouvelles déportations massives au Goulag frappèrent bien sûr les collaborateurs locaux des nazis, mais aussi les résistants non communistes et ceux qui après s'être battus contre les nazis ou leurs équivalents locaux, refusèrent de déposer les armes, enfin les populations civiles accusées à tort ou à raison de soutenir ces derniers. Selon Anne Applebaum et Jean-Jacques Marie, 6 à 10 % des populations baltes, polonaise, ouest-ukrainienne ou moldave se trouvent ainsi en déportation à la fin des années 1940. Des rafles massives de "suspects" ont également lieu au fur et à mesure de l’avancée de l’Armée rouge en Europe de l’Est, emportant sans retour des milliers d’intellectuels, démocrates, francs-maçons, réseaux juifs de résistance, prêtres ou étrangers : ainsi disparut en février 1945 à Budapest, le héros du sauvetage des Juifs hongrois, Raoul Wallenberg. Il faut leur ajouter les centaines de milliers de soldats soviétiques déportés pendant la guerre pour « défaillance » ou pour esprit critique, tel Alexandre Soljenitsyne arrêté sur le front de Prusse-Orientale en février 1945 pour avoir mis en doute, dans une lettre privée, le génie militaire de Staline. De nombreux anciens prisonniers de guerre des Allemands (avoir été capturés faisait d’eux des « traîtres »), travailleurs civils volontaires ou forcés en Allemagne, furent également traités en coupables à leur retour (souvent forcé) au pays, au même titre que les débris de l’armée Vlassov, et allèrent former la génération d’après-guerre des captifs du Goulag. Quant aux centaines de milliers de prisonniers de guerre, les derniers Allemands ne furent relâchés qu’au milieu des années 1950, beaucoup périrent en détention, et les Japonais survivants furent définitivement assignés au Kazakhstan parmi les Coréens déjà déportés là depuis les années 1930. Expulsion des minorités des pays de l'Axe en Europe et au Pacifique. Il y avait en Europe centrale (Prusse, Tchécoslovaquie, Pologne et pays baltes) des implantations allemandes depuis de nombreux siècles. L'existence de ces implantations avait joué un rôle dans l'enclenchement des hostilités. Ainsi la demande de rattachement à l'Allemagne pour les Allemands des Sudètes avait servi de prétexte au démantèlement de la Tchécoslovaquie, validé par les accords de Munich en 1938. De la même façon le gouvernement nazi s'était appuyé sur l'isolement géographique des populations de Prusse-Orientale pour réclamer l'annexion du corridor de Dantzig et préparer ainsi la guerre contre la Pologne. Durant la guerre, le ralliement de ces minorités allemandes à l'occupation nazie, et la colonisation de zones conquises à l'Est, combinées aux atrocités imputables aux troupes nazies, créèrent ou renforcèrent à l'égard des populations civiles allemandes un sentiment de rejet parmi les populations autochtones. De plus, les populations civiles allemandes à l'est des territoires du Reich, redoutaient les exactions des troupes soviétiques en représailles des atrocités commises en URSS par les troupes nazies. Enfin à l'issue de la guerre, les frontières furent redessinées, réduisant globalement l'espace de l'Allemagne d'avant-guerre. L'ensemble de ces éléments conduit à la fin de la guerre et dans les années qui suivent à d'importants transferts de populations d'est en ouest, notamment de nombreux germanophones. En tout, 8 millions d’Allemands ont été expulsés en 1945 de l’Europe centrale et orientale, dont 2 millions des anciens territoires du Reich situés de l’est de la ligne Oder-Neisse, et cédés à la Pologne. Ces populations ont dû chercher refuge au sein de l'Allemagne occupée où des camps de réfugiés, les Grenzdurchgangslager, ont dû être construits à la hâte pour les héberger. Des consistantes minorités italiennes existaient avant la guerre dans les Balkans, et notamment en Dalmatie et en Istrie. Entre 1945 et 1947, à la suite de la cession de l'Istrie et de la ville de Zadar à la Yougoslavie, plus de Italiens d'Istrie et Dalmatie furent obligés de quitter ces régions et de rejoindre l'Italie. De même, pour les Italiens qui habitaient les anciennes colonies italiennes de Rhodes et du Dodécanèse, cédées à la Grèce. Un phénomène comparable s’est produit en Asie : 13 millions de Japonais durent quitter la Corée, la Chine et les îles du Pacifique conquises au par l’empire du Soleil-Levant. Comme en Allemagne, cet afflux important de réfugiés dans un pays en ruines accrut dans l’immédiat la misère des civils, mais compensa les pertes démographiques pour relever les défis de la reconstruction. Dégâts culturels. Dans les pays occupés, les nazis ont volé d’innombrables œuvres d’art, collections juives en tête. Ce pillage est orchestré particulièrement par Hermann Göring et Alfred Rosenberg suivant le principe du "Kunstschutz". Selon l’historien Marc Mazower, les agents de Rosenberg, rien qu’en Europe occidentale, ont pillé pour 674 trains de marchandises, meubles et objets saisis dans les appartements des Juifs déportés. Sur le territoire soviétique, près de et plus de villages, industrielles, fermes collectives et étatiques, , , universités et bibliothèques publiques ont été détruits. Dans l’ensemble, les pertes matérielles ont été estimées à 600 milliards d’euros. La Shoah est aussi une catastrophe culturelle irréparable. Le "yiddishland" d’Europe centrale et orientale, les derniers romaniotes de Grèce sont pratiquement anéantis, et l’on estime que les trois quarts des locuteurs du yiddish et les cinq sixièmes du yévanique ont disparu pendant la guerre. Si le monde israélite français a survécu malgré la perte d'un quart de la population juive, en revanche, les communautés juives d’Amsterdam, Berlin, Vienne, Budapest ou Vilnius ont été éradiquées sans retour, à plus de 90 %. Les nazis ont aussi cherché à effacer toute trace du passé juif multiséculaire en spoliant leurs victimes de tous leurs biens et œuvres d’art (aryanisation), en détruisant les synagogues, en brûlant des livres de prières, en retournant les cimetières. Les Allemands ont aussi emmené de nombreuses archives privées et publiques de toute sorte, dont beaucoup ont été perdues, ou récupérées par les Russes qui les dissimulèrent pendant un demi-siècle. Si une partie des trésors volés est découverte par les Alliés à la chute du Reich et rendue aux musées et aux propriétaires légitimes de France, de Belgique et des Pays-Bas, l’URSS puis la Russie ont toujours refusé de restituer certains chefs-d’œuvre figurant dans le butin de l’Armée rouge en 1945, ainsi le célèbre « trésor de Priam ». Les nazis ont aussi, çà et là, détruit des toiles représentatives de ce qu’ils qualifiaient d’« art dégénéré ». Par exemple, ils ont organisé au jardin des Tuileries, le 27 mai 1943, un autodafé de 500 œuvres de Picasso, Léger, Klee et Ernst. Quant aux Soviétiques, ils ont aussi emmené de nombreuses archives et œuvres d’art privées dans les pays qu’ils ont libérés ou occupés en 1944-45, dont fort peu ont revu, après 1990, leur pays d’origine. Nombre de vieilles villes japonaises, surtout faites de bois et de papier, ont flambé sous les bombardements. Des villes telle Kyoto ont toutefois été épargnées par les bombardiers américains en raison de leur patrimoine prestigieux. En Europe, l’abbaye du Mont-Cassin, berceau du monachisme bénédictin au , a été bombardée par les alliés lors de la bataille du Monte Cassino en 1944. L’historien Jörg Friedrich a établi la liste des dégâts patrimoniaux subis par les villes allemandes : ainsi ont été radicalement dévastées des villes telles Berlin, Hambourg, Cologne, Dresde, Nuremberg, Breslau, ou encore bon nombre de villes moyennes au passé très prestigieux telles Potsdam, Fribourg, Ulm, Wurtzbourg, ou Bayreuth. Les 28 villes de la Ruhr ont aussi été durement bombardées et inondées. En sus de divers cathédrales, palais et centres historiques, ont par exemple flambé les maisons natales de Goethe, de Kleist, de Martin Luther ou des frères Grimm. Jörg Friedrich établit aussi que quelque 40 % des archives allemandes totales ont été perdues, ainsi que quelque 8 millions d’ouvrages des bibliothèques publiques, dont des milliers de thèses irremplaçables, des incunables et des manuscrits précieux. À titre d’exemple, la bibliothèque nationale bavaroise de Munich a perdu volumes, celle de Hambourg , celle de l’université de Münster . Selon l’historien, « on n’avait jamais brûlé autant de livres de l’histoire de l’Humanité ». Toutefois, la majorité des ouvrages, documents et œuvres d’art amovibles, dissimulés dans des mines, des bunkers ou des fermes, ont été préservés. John Keegan relève que les bombardements allemands ont détruit toute la vieille ville de Varsovie, le centre Renaissance de Rotterdam (détruit en mai 1940) et une grande partie de la City de Londres. Beaucoup de villes biélorusses (Minsk), ukrainiennes (Kiev, Kherson, Kharkov) et russes (Tsarskoïe Selo près de Petrograd/Leningrad, Tsaristyne/Stalingrad, Koursk) ont été sévèrement endommagées et ont perdu leurs centres anciens lors de leur conquête par les Allemands ou de leur reconquête par l’Armée rouge. En France, Bordeaux est le seul grand port de la côte atlantique française à sortir à peu près indemne de la guerre, mais les centres médiévaux de Caen et de Rouen ont été ravagés par les bombardements américains et les combats de rue. Vienne et Budapest ont été endommagées lors de leur conquête par les Soviétiques. Cependant, relève-t-il, des joyaux tels Oxford et Cambridge n’ont jamais été bombardées, ni Athènes ou Venise. Paris a peu souffert dans son patrimoine, alors que les Allemands ont fait sauter tous les ponts de Florence en août 1944, sauf le Ponte Vecchio, le plus ancien et le plus prestigieux (en fait le seul trop étroit pour les blindés). Après la guerre, beaucoup de centres-villes et de monuments ont dû être reconstruits à l’identique. Quelques-uns sont restés en l'état à titre de mémorial, telle l'église du souvenir sur le Kurfürstendamm de Berlin, d'autres ont simplement disparu. Des impacts de balles sont encore visibles sur certaines façades de monuments parisiens et normands, ainsi à l’École militaire, à l’École des Mines ou sur le palais de Justice à Paris, également sur le Palais de justice de Rouen. D’autres cités ravagées ont été après-guerre le laboratoire de l’urbanisme moderne, ainsi la reconstruction du Havre confiée à l’architecte Auguste Perret. Beaucoup de villes ou villages ont perdu leurs quartiers historiques, tels que ceux situés en Normandie, notamment durant le printemps 1940 et en 1944. Dans cette région seule, en plus des pertes civiles d'au moins , des pertes et dégâts culturels sont à déplorer. Postérité de la Seconde Guerre mondiale. La fin du conflit planétaire ne signifie pas partout le retour à la paix. Des guérillas à la fois antisoviétiques et antiallemandes continuent à se battre aux confins de l’Ukraine et des Pays baltes jusqu’en 1946, voire jusqu’à la fin des années 1940. La Grèce dès décembre 1944, la Chine en 1945 sombrent dans la guerre civile jusqu’en 1949, tandis que de longues guerres d’indépendance commencent immédiatement en Palestine, en Indonésie, en Indochine. En Indochine française, le Việt Minh prend le contrôle d'une partie du territoire au cours de l'épisode dit de la Révolution d'Août : son chef, Hô Chi Minh, proclame le 2 septembre l'indépendance de la république démocratique du Viêt Nam. La situation débouche l'année suivante sur la guerre d'Indochine. Aux Indes orientales néerlandaises, coupées de leur métropole par l'occupation japonaise, Soekarno proclame le 17 août 1945 l'indépendance de l'Indonésie : l'opposition des Pays-Bas débouche sur la période dite de la Révolution nationale indonésienne. En Algérie française, le massacre de Sétif, survenu le jour même de la capitulation allemande (), annonce la future guerre d'Algérie (1954). En Palestine sous mandat britannique, les conflits entre mouvements Juifs sionistes, Arabes et Britanniques débouchent à la fin 1947 sur le plan de partage de la Palestine, dont le refus par les Arabes entraîne la guerre civile de 1947-48. Après la Seconde Guerre mondiale se sont dessinés les rapports de forces qui ont caractérisé la guerre froide, mais aussi un grand nombre de situations géopolitiques actuelles. Le travail de reconstitution historique de cette période est toujours en cours, et sujet à de nombreuses controverses, propres à exacerber les sensibilités nationales : la collaboration française sous Vichy en est un exemple. Les affrontements violents entre collaborateurs et résistants en France, en Italie ou dans les Balkans, ont causé des traumatismes durables, et le conflit meurtrier en ex-Yougoslavie (1991-1995) a vu ressurgir explicitement bien des vieilles rancunes. En Asie, les habitants des pays limitrophes du Japon (particulièrement la Chine et la Corée) restent inquiets du révisionnisme japonais, d’autant que le gouvernement du Japon d’après-guerre a toujours fait preuve d’ambiguité concernant son rôle pendant la période impérialiste (qui commence en 1910 avec la colonisation de la Corée, c’est-à-dire bien avant le début de la Seconde Guerre mondiale) à l’image des visites répétées de personnalités politiques japonaises au très controversé sanctuaire Yasukuni ou encore du problème des manuels scolaires japonais, qui tendent à embellir le passé du Japon. Par ailleurs, le génocide juif a donné lieu à un important programme de dédommagements de guerre. Toutefois, les Alliés n’ont pas souhaité répéter l’erreur des dédommagements trop lourds exigés à l’Allemagne après la Première Guerre mondiale (voir "Réparations de la Première Guerre mondiale"), ce qui a permis au pays de connaître un « miracle économique », et d’intégrer la Communauté européenne du charbon et de l'acier (CECA), prélude à la Communauté européenne. Le plan Marshall a permis aux économies européennes de se reconstruire. Bilan. Ce conflit fut le plus coûteux en vies humaines de toute l’histoire de l’humanité. On recense plus de 55 millions de morts (dont 39 millions d'Européens) avec plus de victimes civiles que militaires. L’URSS a payé le plus lourd tribut avec plus de 26 millions de victimes ( en réalité), civils et militaires (14 % de sa population). Des peuples entiers sont presque décimés : les trois quarts des Juifs d’Europe ont péri par suite du génocide. Le plus terrible s’est produit en Europe centrale et orientale : la Pologne a perdu 18 % de sa population, la Yougoslavie plus de 10,6 %, et la Biélorussie (au sein de l'URSS), entre 25 et 33 % de sa population. Combats, pillages, terres brûlées et sabotages ont ravagé l'économie. Les populations en sortent démunies. Nombre de régions et de villes ont connu des bombardements ravageant plusieurs quartiers : Rotterdam, Bruxelles, Liège entre autres. D'autres sont radicalement ravagées : Caen, Le Havre, Rouen, Saint-Lô, Hiroshima, Nagasaki, Tokyo, Hambourg, Dresde, Stalingrad, Leningrad, Sébastopol, Kharkov, Varsovie, Budapest, Berlin sont les plus connues. Un grand nombre de pays demandent également réparation de guerre à l'Axe. Les Pays-Bas vont jusqu'à proposer un Plan d'annexion d'une partie de l'Allemagne, et renvoient en Allemagne les citoyens allemands ayant aidé le Reich lors de son occupation du pays. Œuvres liées. Radiophonie. La radio fut pendant toute la guerre une arme de propagande fondamentale. Sous l’occupation nazie, des millions d’Européens écoutèrent chaque jour en cachette la BBC, dont les émissions en toutes les langues entretenaient l’espoir. Winston Churchill galvanisa le Parlement, la nation britannique et les peuples occupés à coup de discours radiodiffusés, et Charles de Gaulle, surnommé le "général Micro" par la propagande vichyste, ne fut longtemps qu’une voix pour beaucoup de Français. La radio de Londres accueillit les célèbres chroniques de Jean Oberlé, de Maurice Schumann et de Pierre Dac dans le cadre des émissions « Honneur et Patrie » et « Les Français parlent aux Français ». L’audience énorme acquise par leur ennemi, le redoutable orateur ultra-collaborationniste Philippe Henriot, obligea la Résistance à exécuter ce dernier (). Les Belges Jan Moedwil et Victor de Laveleye parlent au nom de leur gouvernement en exil, de Laveleye inventant un signe de propagande qui devient vite fameux. Il s'agit du signe V exécuté, pour signifier la première lettre du mot Victoire/Victory, avec l'index et le majeur de la main, signe que peuvent exécuter, par défi, les habitants des pays occupés et qui devient vite mondialement connu grâce au premier ministre britannique Winston Churchill à qui on en attribue souvent, et à tort, la paternité. Sont également passées à la postérité les émissions antinazies de Thomas Mann, qui joutait avec Goebbels par-delà l’Atlantique, ou les chroniques de George Orwell en Grande-Bretagne. Avides de nouvelles impartiales, beaucoup de francophones appréciaient aussi la radio suisse, et notamment les éditoriaux réputés de René Payot. Chaque camp utilisa à ses micros des ressortissants du pays ennemi pour saper le moral de ses civils et de ses soldats. Dès la Drôle de Guerre, Goebbels fit parler au micro de Radio-Stuttgart, non sans succès, un animateur francophone identifié comme étant le journaliste pro-nazi Paul Ferdonnet. William Joyce, dit « Lord Haw-Haw », un Américain d'origine nord-irlandaise, anima des émissions de propagande pro-allemande à destination du Royaume-Uni, que captèrent des millions d’auditeurs. Les Japonais utilisèrent également les services de diverses speakerines nippo-américaines ou anglophones, désignées par les GI sous le nom collectif de "Tokyo Rose" (« la Rose de Tokyo »). Inversement, le Ml Paulus, le vaincu de Stalingrad, parla à la radio de Moscou. Cinq volumes de chroniques françaises de la BBC ont été éditées par Jean-Louis Crémieux-Brilhac sous le titre "Les voix de la liberté. Ici Londres", La Documentation française, 1975. Journalisme. Nombre de grands écrivains ont été correspondants de guerre, ainsi l’Américain Ernest Hemingway qui témoigna de la libération de Paris, ou sur le front russe les romanciers Ilya Ehrenbourg et Vassili Grossman, lequel fut le premier journaliste à découvrir les ruines du camp d'extermination de Treblinka. Étroitement censurée par les Allemands et leurs collaborateurs, et souvent compromise, la presse fut soumise à une sévère épuration en France libérée, l’historien Patrick Eveno estimant que 90 % des titres ont disparu ou changé de main. "Le Temps" fut ainsi remplacé par "Le Monde" dès , "L’Auto" par "L'Équipe", ou "Paris-Soir" par "Le Parisien Libéré". Fondés en pleine clandestinité, de nombreux journaux de la Résistance entamaient aussi une carrière plus ou moins longue, à l’image de "Libération", de "Franc-Tireur" ou du "Dauphiné libéré". "Combat", qui s’attache Albert Camus à la Libération, perdure ainsi jusqu’en 1972, de même que "Les Lettres françaises" de Louis Aragon, revue littéraire qui a vu ses fondateurs Jacques Decours et Georges Politzer fusillés par l’occupant dès 1942. "Défense de la France", fondé dans le sous-sol de la Sorbonne le 14 juillet 1941, engendre "France-Soir" en septembre 1944. En Belgique, la presse clandestine se déploie, parfois pour retrouver sa tradition de la Guerre mondiale, comme dans le cas de la Libre Belgique imprimée très professionnellement, mais, le plus souvent, sous la forme de feuilles imprimées avec des moyens modestes ou encore de journaux d'origine syndicale. Un coup extraordinaire est réussi par une équipe de résistants qui imite Le Soir, journal remontant au , mais réquisitionné par les Allemands pour devenir une feuille pro allemande d'où son surnom de « Soir volé ». L'imitation distribuée dans les kiosques ressemble, à première vue, à son modèle, mais le contenu en est truffé d'articles d'informations et de plaisanteries anti nazies. Des milliers d'exemplaires sont dans les mains de la population esbaudie, mais les Allemands n'auront de cesse de découvrir les coupables dont certains seront déportés et fusillés. Photographie. Parmi les nombreux photographes de guerre, on peut citer Robert Capa, présent le jour J sur les plages d’Omaha Beach. Nombre de photos aux auteurs moins connus du grand public sont entrées dans la mémoire collective, ainsi le célèbre cliché des Américains plantant la bannière étoilée au sommet d’Iwo Jima, ou celui des Soviétiques Iegorov et Kantara attachant le drapeau rouge sur le Reichstag. La "V-J Day in Times Square", photo emblématique du "V-J Day" ("Victory over Japan") reste celle qui fit la couverture de "Life Magazine", prise à Times Square le 14 août 1945 (heure de la Côte Est) ; on la doit au photojournaliste allemand Alfred Eisenstaedt. De la même manière que "le jour le plus long", les photographes de presse ont tenté d'immortaliser par le cliché captant le mieux les événements suivants : Elbe Day "(jonction des troupes alliées américaines et soviétiques sur le sol allemand)", Jour V-E "(victoire en Europe)" et Jour V-J "(victoire sur le Japon)". Littérature et bande dessinée. Fondées dans la clandestinité, les Éditions de Minuit entretinrent la résistance intellectuelle en France, publiant notamment "Le Silence de la mer" de Vercors (1941), un appel à opposer un mutisme digne aux tentatives de séduction de l’occupant. Des recueils collectifs tels que "Le Cahier noir" ou "L’Honneur des Poètes" (1943) répliquèrent aux écrivains collaborationnistes tels que Céline, Brasillach, Lucien Rebatet. Des auteurs célèbres tels le prix Nobel norvégien Knut Hamsun ou le philosophe italien Giovanni Gentile mirent aussi leur plume au service de la cause allemande. L'une des premières bandes dessinées destinées à édifier la jeunesse sur le déroulement du conflit fut "La bête est morte !" par Calvo (juin 1945). "Maus", composée par Art Spiegelman, aborde la Shoah. Beaucoup d'écrivains choisirent de ne pas publier pendant la durée de la guerre pour ne pas devoir passer par les services d'éditeurs contrôlés par l’occupant, ainsi André Malraux ou Roger Martin du Gard. Cependant, en France, où la vie culturelle fut particulièrement animée et brillante pendant la guerre, une très large partie de la production théâtrale, littéraire ou philosophique ne fit aucune allusion au conflit en cours, bien des créateurs semblant s’accommoder plus ou moins de la mainmise allemande sur leurs éditeurs en particulier et sur la vie culturelle en général (Philippe Burrin, "La France à l'heure allemande 1940-1944", Seuil, 1995). De nombreux poètes écrivirent pour la Résistance, ainsi Louis Aragon composant "La Rose et le Réséda" pour exalter l’union de « celui qui croyait au ciel, celui qui n’y croyait pas », ou Paul Éluard composant "Liberté" ou chantant le martyre de Gabriel Péri. Ils furent parfois victimes de la répression, ainsi Robert Desnos en France, Kak Munj au Danemark. Des témoins cherchant à analyser les causes de la guerre et de la défaite produisirent des œuvres que leur lucidité reconnue et leur finesse d'écriture rendent toujours utilisables aujourd’hui, ainsi l’historien Marc Bloch (fusillé pour Résistance par les nazis) rédigeant "L'Étrange Défaite" dès l'été 1940, ou le philosophe catholique Jacques Maritain, militant de la France libre, publiant "À travers le désastre" à New York. De nombreux contemporains tinrent des journaux intimes souvent de grande qualité, tels Ernst Jünger, affecté dans les forces d’occupation à Paris, le professeur résistant Jean Guéhenno en France, ou à Amsterdam la très jeune Anne Frank, victime de la Shoah. Le traumatisme immense causé par la Déportation se reflète dès l’immédiat après-guerre dans les nombreux récits aussitôt produits par des rescapés des camps de concentration, qu’ils soient politiques ("L’Espèce humaine" de Robert Antelme, "L’Univers concentrationnaire" de David Rousset, prix Goncourt 1946) ou juifs (ainsi Primo Levi). Après sa conclusion, la Seconde Guerre mondiale n’allait pas cesser d'être une source intarissable d’inspiration et de réflexion pour les auteurs, qu’ils aient ou non vécu les événements. En témoignerait encore, tout récemment, le succès en librairie des "Bienveillantes" de Johnattan Littel (2006). Films. Si l’on produit sans surprise un certain nombre de films de propagande pendant la guerre, beaucoup de réalisations visent d’abord à détendre les spectateurs dans une période très dure. Goebbels fit ainsi délibérément produire beaucoup plus de comédies musicales ou de films de style hollywoodien que d'œuvres proprement nazies ("Le Juif Süss") ; cela dit, la contribution de Leni Riefenstahl au "Triomphe de la volonté" lui sera reprochée régulièrement dans l'Allemagne d'après-guerre. Staline commanda à Serguei Eisenstein le film Alexandre Nevski (1938), transposant le conflit à venir avec la nation germanique dans le contexte des Croisades baltes médiévales. Aux États-Unis, ce sont les personnages de dessin animé qui prennent parti dans le conflit ; projetés avant les actualités cinématographiques, ces dessins animés avaient un fort impact sur l'opinion. "Blitz Wolf" est particulièrement représentatif, par Tex Avery. |
Service public La notion de service public peut désigner : Collectivité publique, pouvoirs publics, administration publique et service public sont souvent employés de façon interchangeable, mais ont des définitions techniques distinctes. Histoire du service public. Ancien Régime. L'existence de services publics au sens fonctionnel, attestée de l'époque médiévale à la Révolution de 1789, se caractérise par des moyens juridiques déjà différents : ce sont des pratiques sociales coordonnées par une autorité commune qui n'est pas forcément à l'origine l'État. Dans l'Europe médiévale, les banalités (un four, un moulin, un pressoir, un entrepôt des grains, etc) sont un monopole du seigneur, qui perçoit à l'occasion de leur utilisation un droit d'usage. Les seigneurs concèdent quelquefois des tâches administratives communes (fiefs). De même, à partir du , les communautés urbaines en certains lieux se substituent aux seigneurs. Les communes — outre les fours, moulins et bans de boucheries — assurent un monopole au maître d'école, fondent des léproseries et pourvoient au fonctionnement des fontaines publiques, l'entretien des remparts, le guet nocturne, etc. Elles emploient à cet effet du personnel (les esclaves ou « officiers » sont titulaires de l'office correspondant) ou imposent des corvées. Au , Louis IX de France fonde les Établissements pour le commun profit, ce que certains associent aux services publics. Au , le terme de police apparaît dans les ordonnances royales et signifie à la fois la politique et la gestion de la chose publique. Aux , dans le mouvement de la monarchie absolue, l'autorité royale assure la mise en œuvre d'activités, exercées par ou pour le compte de la puissance publique : le roi se considère comme le garant de la prospérité du Royaume et entend — par-delà la richesse de celui-ci — satisfaire la demande sociale de l'ensemble de ses sujets. De ce fait, les principaux services publics correspondent aux fonctions dites « régaliennes » et aux intitulés des différentes administrations qui se mettent progressivement en place dans un nombre croissant de domaines : ponts et chaussées, défense, justice, impôts, monnaie, commerce, etc. À cette époque paraissent les « dictionnaires de police » qui sont de véritables codes de droit et de pratique administrative. Le "Traité de la Police de De Lamare" prend pour subdivision la santé, les vivres, la voirie, le commerce, les manufactures et les arts mécaniques… Époque moderne. Avec le siècle des Lumières apparaît la notion de contrat social, qui se concrétise à la Révolution française : le dirigeant n'est plus un « maître », mais un organisateur à qui l'on délègue la gestion et l'administration des biens communs. L'impôt sert alors à assurer cette gestion. Sous la Révolution, le terme moderne de « service public » commence à faire son apparition, parfois assimilé à la fonction publique, parfois à une tâche d'intérêt général, ou à une prestation fournie aux citoyens par un organe particulier. À cette époque se forme l'idée que l'ensemble des institutions publiques constitue un ou des services publics. Au , l'idée de service public se mue en principe volontariste, dotée d’une forte dimension idéologique, qui légitime des mouvements en faveur de l'interventionnisme d'État, du socialisme municipal et de l'État-providence. Avec pour conséquence la constitution de diverses institutions sociales et de nouvelles administrations centrales (Santé, Éducation, Monuments historiques, Affaires sociales, etc.. La création de l'échelon du département marque la volonté d'un mouvement de déconcentration en vue de rapprocher — que l'on puisse effectuer le trajet en une journée de cheval — les citoyens-usagers de l'administration publique. Pour autant, le statut du service public n'émerge pas encore. La notion demeure intuitive, et surtout opératoire. Au milieu du siècle, le député libéral de gauche Frédéric Bastiat explore les différences entre services privés et service public dans son grand œuvre les "Harmonies économiques". Il en conclut que le périmètre des services publics rendus par un gouvernement doit être limité par le principe selon lequel . Fin , des juristes comme Léon Duguit posent que . Le service public est par conséquent une donnée objective et matérielle qui ne se crée pas, mais se constate : . Au lendemain de la Seconde Guerre mondiale, l'École de Bordeaux (Jèze, Rolland, Bonnard, de Laubadère) reprend le concept de service public pour le réorienter et le transformer en « technique juridique ». Louis Rolland expose les critères qui permettent d'identifier le service public : Pour sa part, Gaston Jèze n'hésite pas à conférer à la notion de service public un caractère pleinement subjectif : . Depuis la fin du , des analyses (d'inspiration pragmatique ou relevant de l'école libérale) pointent en réaction le coût budgétaire excessif, le service rendu insuffisant ou inadapté aux besoins réels, voire l'atteinte aux libertés ou la concurrence déloyale. Ces idées convergent et militent pour une mise en œuvre plus systématique de l'évaluation des politiques publiques, leur révision et l'évolution des institutions : fin des monopoles, évolution des entités responsables d'un service public (autonomie, indépendance, changement de statut juridique), extension du principe d'adaptation des politiques publiques aux zones géographiques ou aux publics variés par application du principe de subsidiarité et (en France) les lois de déconcentration et/ou de décentralisation, etc. Dans les années 1970 et 1980, les milieux néo-libéraux introduisent de nouveaux concepts de gestion du service public avec la nouvelle gestion publique, qui aboutira dans de nombreux pays à la réforme de l'État et à la recherche d'une meilleure efficacité à moindre coût. Ce mode de fonctionnement, toujours en vigueur au XXIème siècle, a fait l'objet de critiques répétées de la part des personnes y travaillant ainsi que de la part de l'opinion publique, selon lesquelles cette méthode a conduit les gouvernements successifs à de plus en plus sous-financer les services publics, qui ont dès lors de plus en plus de mal à mener à bien leurs missions, y compris dans des domaines cruciaux pour l'équilibre de la société tels que l'éducation et la justice. Plus récemment, le concept a bénéficié de la création début 2009 du site mon.service-public.fr permettant de centraliser toutes ces démarches administratives par internet. Définition du Service public. Selon Prosper Weil : . Principes directeurs du service public. Poursuivant les travaux de Léon Duguit, Louis Rolland (1877-1956) cherche à systématiser le noyau des principes qui doivent s'appliquer à l'exploitation d'un service public, principes que la doctrine postérieure a ensuite appelés « Lois de Rolland » : À ces trois principes de base peuvent s'ajouter : Modes d'exercice du service public. Les activités d'un service public sont soumises sur certains points à un régime juridique spécifique. Mais pour compléter la distinction entre service public et secteur public, on notera qu'une collectivité publique (État, collectivité territoriale) a notamment le choix entre : Concernant les fonctions de service public remplies par le secteur public, on distingue en outre : La raison généralement avancée dans ce dernier cas est un besoin d'intérêt général essentiel ou stratégique dont la nature est considérée non compatible avec le fonctionnement normal du marché. Sont citées par exemple certaines infrastructures uniques ou essentielles, nécessaires au fonctionnement des entreprises publiques comme privées : routes, voies ferrées principales, ports, troncs communs de réseaux téléphonique fixe… Domaines concernés. L'exercice des activités dites régaliennes a toujours été revendiqué par la puissance publique (qu'il s'agisse des rois, puis à leur suite par les États de toute nature qui leur ont succédé). Ainsi : Mais en réalité, l'observation historique montre que même ces fonctions n'étaient pas toujours (ou pas entièrement) sous le contrôle de l'État : On ajoute aussi parfois l'émission de monnaie, bien que le monopole soit une création très récente, la règle sous le régime de l'étalon métallique étant, au contraire, l'existence de nombreuses monnaies circulant sur un même territoire. On peut aussi ajouter la gestion des situations de crise et de famine, que le souverain se devait de traiter tant par charité que pour éviter les émeutes, révoltes, voire révolutions. Ainsi, alors même que les fonctions dites régaliennes sont généralement considérées comme techniquement et moralement difficiles à sous-traiter à des sociétés privées, il apparaît que ce cas de figure s'est produit par le passé. En la matière, on observe donc une grande variation selon les lieux et les époques. L'évolution de la société peut aussi faire émerger le besoin de nouveaux services publics, comme elle peut en rendre certains inutiles (par abondance, ou par obsolescence). Confusions à éviter. Un service public n'est pas un bien public. Un bien public est un bien dont on ne peut éviter la consommation par ceux qui le souhaitent ("non-exclusion"), et, dans le cas d'un bien public pur, dont la disponibilité pour autrui n'est pas réduite par la consommation ("non-rivalité"), par opposition à un bien public impur. Un service public peut concerner ou non un bien public, tandis que contrairement, un bien public peut être fourni par un service public ou privé. Les deux notions n'ont donc aucun rapport. Le service public n'est pas le secteur public. De grandes « entreprises publiques » nationales comme la SNCF ou EDF appartiennent au secteur public. Cependant, les deux notions restent totalement indépendantes : Le service public n'est pas nécessairement monopolistique. Certains services publics sont exercés dans un cadre concurrentiel (communications électroniques et audiovisuel par exemple). Une partie de la doctrine considère qu'un système monopolistique est plus adapté qu'un système concurrentiel pour atteindre tel objectif politique ou un optimum économique. On parle alors de monopole naturel ou, dans la législation et la jurisprudence européenne, de « droits exclusifs et spéciaux ». Le service public n'est pas nécessairement au service du public. Enfin, certaines administrations publiques n'ont pas pour objet de fournir des prestations directes à leurs usagers. C'est le cas des centres des impôts par exemple, qui assurent une gestion administrative de la collecte publique mais n'offrent pas de prestations à proprement parler. Gestion et organisation. Financement et économie des services publics. Un service public peut être financé directement par les bénéficiaires et ne pose alors pas de problème particulier. Mais l'affaire est fréquemment bien plus compliquée pour diverses raisons, par exemple (sans exhaustivité) : Dans ces conditions, il faut trouver une source de financement alternative pour la « charge de service public ». Le cas est, par exemple, prévu dans la Déclaration des droits de l'homme et du citoyen de 1789, qui pose comme principe à l'article 13 : La DDHC est citée par la Constitution comme étant l'un des fondements de cette dernière ; Dans les deux derniers cas (péréquation tarifaire et lien avec un autre service rentable), on pouvait trouver commode d'instaurer un monopole, pour éviter qu'un opérateur alternatif rende le même service à un coût moindre parce que non grevé par la charge de service public. Cette solution est aujourd'hui abandonnée en Europe, pour ne pas fausser la concurrence et ne pas faciliter la hausse des prix qu'un monopole rend possible. Il reste en revanche possible d'obliger tout opérateur d'un secteur à contribuer à un service public, et donc de participer à une péréquation tarifaire ou de fournir le service même dans certaines conditions où cela lui coûte plus que ne lui rapporte (en bénéficiant alors de subvention ou du droit de majorer ses tarifs sur d'autres secteurs). Voir ci-après. On distingue la "redevance" de la "taxe". Une taxe est une perception fiscale perçue à l'occasion d'une transaction ou d'un service, qui peut s'appliquer à un service public aussi bien qu'à toute autre activité. Mais même si elle est perçue à l'occasion d'un service public, la taxe n'a pas pour autant vocation à le financer : elle alimente simplement le budget général. À l'inverse, une redevance est conçue comme spécifiquement destinée à financer le service, c'est ni plus ni moins que l'équivalent du prix qu'exigerait un prestataire privé (ou que peut exiger un prestataire public dans le cadre d'une activité concurrentielle). Aspect concurrentiel et international. L'intérêt principal d'un service public assuré par un État est qu'il fournirait un service que ne pourraient rendre dans les mêmes conditions des acteurs privés. La gestion publique de certains secteurs économiques peut conduire à des monopoles d'État pouvant, selon les libéraux, nuire à l'émulation et l'efficacité : le service rendu serait selon eux de moindre qualité et plus cher que s'il était soumis à la concurrence. Pour les économistes non libéraux, un monopole d'État pourrait au contraire être avantageux pour l'usager (consommateur ou client dans le secteur privé) dans la mesure où le but de la structure d'État n'est pas d'être rentable, de gagner de l'argent, mais de fournir un service d'une certaine qualité pour la collectivité. Les libéraux affirment que la concurrence stimule sans cesse l'organisation de l'activité de l'entreprise et cela conduit à la traque du gaspillage de l'argent. Certains voient comme avantage du monopole public la suppression des coûts de concurrence (publicité, doublons). Les ressources seraient ainsi occupées à améliorer le service par la recherche et l'investissement, du fait d'un compromis sur le prix du service s'il est facturé directement (il pourrait dans certaines situations être financé par le budget de l'État ou être intégré dans la partie socialisée du salaire). L'émulation peut venir de la coopération avec des services publics étrangers. Certains attribuent à la pensée libérale de graves menaces sur les services publics, celle-ci visant à les restreindre et les soumettre à la concurrence. Cette volonté, mais aussi le souci des États de ne pas dépendre d'entreprises qui appartiendraient à d'autres États, ni de se trouver face à une concurrence déloyale de ceux-ci, se traduit par des traités internationaux, comme l'AGCS qui conduit à la suppression progressive par commun accord des gouvernants de certains types de services publics. Selon cet accord, ces privatisations sont irréversibles. Une autre question concerne le périmètre géographique d'un service public ce qui est lié à la question de la régionalisation et des zones économiques transnationales (Union européenne), voire mondiales. Le service public et l'Union européenne. L'Union européenne, dans ses traités, ne mentionne explicitement le service public que dans le cadre des transports (article 73 CE). La législation et la jurisprudence européennes utilisent habituellement des concepts jugés plus précis et indépendants du pays : Il n'existe pas de réglementation des SIG dans leur ensemble au niveau européen. Le terme ne désigne d'ailleurs parfois que les seuls SIG non marchands. Les SIG restent donc de la compétence des États membres ou des collectivités locales. La Commission a toutefois reconnu en 1996 que les services d'intérêt général « sont au cœur du modèle européen de société ». L'Union européenne s'intéresse en revanche de près aux SIEG, plusieurs fois mentionnés dans les traités (art. 16, 73, 86, 87 CE), sans toutefois les définir très précisément. La Commission et la Cour de justice tentent de concilier, dans le cadre des SIEG, le respect des missions de service public avec le principe de libre concurrence, principe fondamental de la politique économique de l'Union européenne. C'est dans ce cadre que la Commission mène une politique de libéralisation des principaux services dits « d'intérêt économique général » (SIEG). Les principaux secteurs concernés sont : l'énergie (gaz et électricité), les transports (tous modes), les services postaux et les télécommunications. Elle veille tout particulièrement à ce que les financements de service public par les États ne faussent pas le jeu de la concurrence, en particulier sur les points suivants : Certains services ont été reconnus comme services d'intérêt général par la jurisprudence de la Cour de justice des Communautés européennes. À titre d'exemple, la Cour a reconnu comme SIEG (dans certaines conditions précises) : Pour permettre l'introduction de la concurrence dans les services, la Commission pousse à la scission de la gestion des infrastructures (lorsque celles-ci relèvent d'un monopole naturel) de l'exploitation des services, tous les exploitants devant se voir reconnu un droit d'accès égal à l'infrastructure. C'est ce qui a été fait pour les télécommunications (au niveau de la boucle locale, sans que soit imposée la séparation des activités de réseau et de fourniture), l'énergie (gaz et électricité), les chemins de fer, les ports et aéroports. Le financement des SIEG est laissé à l'appréciation des États : il peut provenir de n'importe quelle combinaison des différentes ressources possibles : une redevance perçue auprès des usagers, une subvention de service public allouée par la collectivité, une péréquation entre activités rentables et non rentables de l'exploitant, de ressources commerciales complémentaires (exemple des ressources publicitaires pour la télévision), etc. Services publics en France. En France, les activités de service public peuvent être classées en trois catégories : Parmi les activités concernées on citera par exemple : Quand ils assurent conjointement des services du secteur marchand, les organismes publics correspondants relèvent à la fois du droit administratif et du droit commercial. Services publics en Allemagne. L'organisation des services publics en Allemagne ("Daseinsvorsorge") est géographique et non sectorielle : alors que, en France, une entité nationale gère en général de manière centralisée le service public d'un secteur donné (avec des exceptions comme la gestion de l'eau), ce sont des entreprises municipales ("Stadtwerke") qui gèrent un ensemble de services publics de plusieurs secteurs différents. Dès le début du , les collectivités locales ont commencé à fournir des services publics sans intervention de l'État. Elles ont confié par la suite la gestion de ces services à des établissements publics. La gestion de ces services publics s'est organisée de manière transversale à plusieurs secteurs afin de bénéficier d'un accès plus aisé aux sources de financement, par exemple. Services publics dans le monde. Chaque pays a sa pratique propre en matière de services publics. Il n'est pas de la compétence de l'ONU de posséder des services publics. Les structures de scolarisation et de soin mises en place à son initiative, ou celle d'organisations qui en dépendent comme l'UNESCO, sont de droit privé. En matière maritime, certaines coutumes communes (obligation de secours, etc.) ou les services de positionnement (GPS, GLONASS et bientôt Galileo) peuvent s'apparenter au service public. |
Sûreté biologique La notion de « sûreté biologique » est polysémique (elle peut avoir plusieurs sens). De manière générale la sûreté biologique évoque les mesures à prendre pour sécuriser un patrimoine biologique (qui - selon le contexte - peut être réduit à l'agriculture, à la sylviculture, à la santé humaine ou étendu plus largement jusqu'à la biosphère). Définitions, sémantique. Ces définitions découlent du document "sécurité et sûreté biologique" BWC/MSP/2008/MX/INF.1 , GE.08-61893 (F) 090708 100708 de la Réunion des États Parties à la "Convention sur l'interdiction de la mise au point, de la fabrication et du stockage des armes bactériologiques (biologiques) ou à toxines et sur leur destruction". Définitions relatives. L'expression « "sûreté biologique" » (biosecurity) peut prendre un sens différentes selon le contexte. Des lignes directrices de l'OMS publiées en septembre 2006 dans le contexte de l'alerte et de la réponse à une pandémie (virus H5N1 notamment) rappellent que cette expression a évolué simultanément dans des cadres différents, et qu'elle est donc employée différemment dans chacun de ces contextes. Le glossaire d'un manuel de la FAO sur la production de vaccin contre la maladie de Newcastle définit la sûreté biologique comme les précautions prises pour réduire au minimum le risque d'introduire un agent infectieux dans une population animale (contexte vétérinaire). Le glossaire du Commissaire néo-zélandais sur l’environnement définit la sûreté biologique comme l’exclusion, l’éradication et la gestion efficace des parasites et des organismes indésirables en Nouvelle-Zélande (contexte agricole). Dans le cas des îles Galápagos, elle correspond à la protection de toutes les ressources naturelles contre les dangers liés à l'invasion d'espèces allochtones (contexte écologique). D'autres significations peuvent être proposées (lien vers un métaglossaire en anglais). Dans les contextes afférents à la santé publique, les connotations de l’expression « sûreté biologique » sont plus étroitement liées à la définition retenue par la "Convention sur l'interdiction des armes biologiques". Pour plus de renseignements, on pourra se référer aux parties I et II du manuel de sécurité biologique de l'OMS ( 2005 ). |
Sharon Stone Sharon Stone est une actrice et productrice de cinéma américaine, née le à Meadville (Pennsylvanie). Après des débuts dans le mannequinat, elle commence sa carrière de comédienne dans les années 1980. Le succès arrive seulement en avec sa participation à "Total Recall" de Paul Verhoeven, au côté d’Arnold Schwarzenegger, puis deux ans plus tard quand elle interprète Catherine Tramell dans le thriller sulfureux "Basic Instinct" (1992) du même réalisateur. Ces succès lancent ainsi sa carrière cinématographique. Sa performance dans "Casino" (1995) de Martin Scorsese lui vaut le Golden Globe de la meilleure actrice dans un film dramatique et une nomination aux Oscars. Ses autres succès incluent "Mort ou vif" (1995) ainsi que "Broken Flowers" (2005). Malgré quelques déconvenues, elle reste une icône de Hollywood et possède à ce titre son étoile sur le célèbre Hollywood Walk of Fame de Hollywood Boulevard. En parallèle à sa carrière cinématographique, Sharon Stone met sa célébrité au service de plusieurs causes humanitaires. Elle est ainsi l'ambassadrice de l'AmfAR, association de lutte contre le sida. En 2013, elle reçoit des mains du Dalaï-lama le "" pour son engagement, décerné par les lauréats du prix Nobel de la Paix. Biographie. Enfance et adolescence. Sharon Yvonne Stone naît en Pennsylvanie, dans une famille d'origine irlandaise aux revenus modestes. Elle est la deuxième d'une fratrie de quatre enfants, dont un grand frère Mike Stone, une petite sœur Kelly Stone et un petit frère Patrick Stone. Sa mère, Dorothy Lawson, est mère au foyer et ex-comptable. Son père, Joseph Stone, est manufacturier et ancien ouvrier. Depuis son enfance, Sharon Stone a su prendre des risques, affichant ouvertement sa différence, ou ce qu'elle nommerait plutôt des évidences. Elle n'aime pas les jeux d'enfants, elle préfère s'isoler pour lire, sa distraction favorite depuis l'âge de 3 ans. Dans la cour de récréation, elle annonce, désinvolte, à ses camarades médusés qu'elle sera la nouvelle Marilyn Monroe. Et, si elle ne parvient pas à s'imposer comme telle, elle deviendra ténor du barreau. On dit que Sharon Stone est encouragée très tôt à développer tout son potentiel par des parents aux valeurs féministes : . Son père, ouvrier, pousse sa fille à viser sans complexe les postes les plus hauts sans craindre de concurrencer les hommes. Elle se révèle être une élève extrêmement intelligente, sautant des classes. Elle obtient une bourse qui lui permet de s'inscrire à l'université d'Edinboro. Brillante étudiante universitaire, elle revient à sa passion et obtient finalement un diplôme en Lettres et Beaux-Arts et abandonne définitivement le droit. Âgée de 17 ans à peine, elle s'inscrit à des cours d'art dramatique dans le cadre de ses études. Une fois celles-ci achevées, Sharon Stone remporte divers concours de beauté dont celui de Miss Pennsylvanie et part s'établir à New York. . Stone parcourt alors le monde : New York, Milan, Tokyo, Los Angeles, Paris, Rio de Janeiro, Moscou. et travaille pour des marques prestigieuses (dont Diet Coke et Revlon). Très demandée, Stone s'installe en Europe où au gré des campagnes de publicité, son physique commence à être connu du public. Mais, elle finit par se lasser d'une carrière de mannequin vedette. À son retour à New York en 1980, elle décide de faire carrière au cinéma. Long parcours vers la reconnaissance (années 1980). Les débuts d'actrice sont difficiles pour Sharon Stone. Elle doit continuer son métier de mannequin contre son gré. Un de ses amis lui apprend qu'un casting est en cours pour trouver des figurants pour le prochain film de Woody Allen, "Stardust Memories" (1980). Elle passe avec succès le casting et participe donc au tournage du film. Durant celui-ci, une actrice ne s'est pas présentée pour tourner sa scène et Allen s'entretient avec Stone pour qu'elle puisse la remplacer. Ainsi, Allen lui confie le bref rôle d'une femme vêtue à la , que le personnage d'Allen croise du regard derrière la vitre d'un train. Claude Lelouch la contacte à son tour pour qu'elle figure deux minutes dans "Les Uns et les Autres". Ces premiers pas au cinéma lui permettent de tenir un rôle un peu plus important dans une petite série B d'horreur, "La Ferme de la terreur" de Wes Craven, , "Mike Hammer", "Magnum" et "Hooker", entre 1982 et 1988. Les années 1980 marquent une période dans laquelle l'artiste se cherche. Elle enchaînera, sans grand succès, de petits rôles au cinéma pendant une dizaine d'années. L'apprentie étoile joue aux côtés d'une toute jeune Drew Barrymore dans "Divorce à Hollywood" en 1984 et l'aventurière maladroite et bavarde dans "Allan Quatermain et les Mines du roi Salomon" (1985) et "Allan Quatermain et la Cité de l'or perdu" (1986), films dans lesquels elle donne la réplique à Richard Chamberlain. Elle auditionne pour "Liaison fatale" mais Michael Douglas ne lui trouvant pas assez de piquant pour jouer les femmes fatales, elle laisse la place à Glenn Close. Son manque de notoriété serait aussi responsable du fait que "Liaison fatale" mais également "9 semaines 1/2" lui échappent. S'ensuivent des rôles plutôt oubliables comme celui d'une journaliste dans "" (1987) et . Elle s'essaie péniblement à la science-fiction pour "Beyond the stars" en 1989, se fait évincer par Kim Basinger pour le "Batman" de Tim Burton, obtient un rôle à la Catherine Tramell dans "L'Indomptée" et ne comprend pas elle-même ce qui l'a poussée à tourner dans "Les Arènes sanglantes", ("Sangre y arena", un film de Javier Elorrieta, d'après le roman éponyme de Vicente Blasco-Ibáñez), drame ibérique qui la contraint à boire dès dix heures du matin pour les besoins de son rôle. et, déprimée par les rôles interchangeables de blonde écervelée au service de séries B qu'on lui fait jouer, part se réfugier dans les bras paternels. Ce dernier lui conseille de s'accorder un temps de réflexion. Après un an d'une retraite familiale, Sharon Stone envisage sa carrière différemment et part en quête de rôles plus importants. Lors d'une audition en 1990, Paul Verhoeven la choisit pour son premier véritable second rôle, "Total Recall". Elle incarne le personnage d'une tueuse face à Arnold Schwarzenegger. Le film est un succès, et on la voit en couverture de Playboy. Elle veut alors s’orienter vers des œuvres plus abouties ou plus complexes. Elle n'y parvient pas immédiatement mais elle tient un rôle remarqué dans "Year of the Gun" de John Frankenheimer (1991). Suivent quelques revers comme "Diary of a Hitman" (1992), polar dans lequel elle a pour partenaire James Belushi et Forest Whitaker. Révélation et consécration (1990-1995). Sharon Stone est considérée comme une actrice mineure lorsqu'elle rencontre Paul Verhoeven durant les auditions de "Total Recall" (1990). Satisfait de sa prestation, le réalisateur la présente à Arnold Schwarzenegger, initiateur du projet, qui approuve son choix. Verhoeven estime Stone. Il se souvient d'une scène en particulier, où le personnage qu'elle incarne est surpris par son mari en train de rouer de coups une autre femme. Son visage passe alors . C'est cette séquence qui conduit le cinéaste à l'imposer dans son projet suivant, "Basic Instinct" (1992), contre l'avis de Michael Douglas et du producteur Mario Kassar. Contrairement à plusieurs actrices célèbres, de Michelle Pfeiffer à Geena Davis, Sharon Stone n'a aucune réticence envers le caractère sulfureux du personnage de Catherine Tramell ou les nombreuses scènes dénudées. Sur le tournage, la relation entre Paul Verhoeven et l'actrice se révèle compliquée. Aux dires du réalisateur, Stone oublie régulièrement son texte, ou ne parvient pas à maintenir un jeu correct, lui imposant de multiplier les prises, là où Michael Douglas n'en avait généralement besoin que de quelques-unes. Pourtant, il garde malgré tout une réelle estime pour sa performance et considère sa décision de l'engager comme . L'actrice estime quant à elle que le rôle de Catherine Tramell est . "Basic Instinct" fait scandale à sa sortie et déclenche notamment la colère des ligues féministes et homosexuelles, pour son personnage ambivalent, ses scènes d'amour explicites et surtout la séquence où Sharon Stone décroise les jambes sans porter de sous-vêtement, un selon "Libération". L'actrice déclare s'être fait piéger par le réalisateur, qui lui aurait promis que rien n'apparaîtrait à l'écran, mais celui-ci assure avoir reçu son accord, et même avec enthousiasme. Quoi qu'il en soit, le film permet à Sharon Stone d'accéder à la célébrité dès la première projection du film, présenté en ouverture du Festival de Cannes : . Le film est un grand succès commercial, avec plus de 352 millions de dollars de recettes pour un budget de 49 millions, et permet à Sharon Stone d'être pour la première fois nommée aux Golden Globes, dans la catégorie . Sa performance est jugée par le "The Washington Post" et l'actrice se voit comparée aux « blondes hitchcockiennes », notamment à Kim Novak dans "Sueurs froides". L'année suivante, elle apparaît dans le thriller érotique "Sliver" de Phillip Noyce. Le succès de "Basic Instinct" lui permet de négocier un salaire de 2,5 millions de dollars et un intéressement de 10 % sur les recettes du film. Ce dernier rencontre un succès commercial lors de sa sortie, avec près de 117 millions de dollars de recettes, malgré un accueil critique majoritairement négatif et une nomination pour le Razzie Award de la pire actrice attribué à Sharon Stone. L'actrice reprend ensuite brièvement le rôle de Catherine Tramell, le temps d'une apparition dans le film d'action "Last Action Hero" avec Arnold Schwarzenegger. En 1994, elle donne la réplique à Richard Gere dans "Intersection", remake du film français "Les Choses de la vie" de Claude Sautet, qui rencontre un échec aussi bien commercial que critique. Sharon Stone partage ensuite l'affiche de "L'Expert" avec Sylvester Stallone, film mêlant espionnage, thriller et action. Malgré les critiques négatives, le film est un succès commercial, avec un peu plus de 170 millions de dollars de recettes. L'année suivante, Sharon Stone se voit proposer le rôle principal du western "Mort ou vif". Sa notoriété lui permet d'imposer Sam Raimi à la réalisation ainsi que Russell Crowe et Leonardo DiCaprio comme partenaires. Le film est présenté hors-compétition lors du Festival de Cannes et rencontre un succès commercial modéré, avec plus de 46 millions de dollars de recettes. La même année, Sharon Stone joue l'un des rôles les plus marquants de sa carrière, celui de Ginger McKenna, une prostituée de luxe sombrant dans l’alcool et la déchéance, dans "Casino" de Martin Scorsese. Lorsqu'elle se présente à l'audition, le réalisateur, qui pense également à Kim Basinger, Nicole Kidman, Madonna ou Melanie Griffith, est immédiatement conquis par Sharon Stone chez qui il sent . L'actrice s'immerge intensément dans son rôle au point de ressortir du tournage physiquement épuisée. Le film est un grand succès critique et commercial. La presse est unanime quant à la performance de Sharon Stone, considérée par beaucoup comme la meilleure de sa carrière. "Variety" parle de l'actrice comme d'une tandis que "The New York Times" la juge . "Casino" lui permet de remporter le Golden Globe de la meilleure actrice dans un film dramatique et d'être proposée pour l'Oscar de la meilleure actrice. Toujours en 1995, Sharon Stone reçoit son étoile sur le légendaire Hollywood Walk of Fame. Succès et déconvenues (1996-2016). L'actrice joue ensuite dans le thriller psychologique "Diabolique", remake du film "Les Diaboliques" d'Henri-Georges Clouzot. Sorti en 1996, le film ne rencontre pas les faveurs de la presse et des spectateurs. La même année, elle apparaît dans le drame "Dernière Danse" dans lequel elle joue une femme condamnée à mort pour avoir commis un meurtre de sang froid. Deux ans plus tard, Sharon Stone donne la réplique à Dustin Hoffman et Samuel L. Jackson dans le film de science-fiction "Sphère". Encore une fois le succès n'est pas au rendez-vous. Elle est la voix de Princesse Bala dans le film d'animation "Fourmiz" (1998) avant d'être à l'affiche du drame intimiste "Les Puissants", pour lequel elle est nommée aux Golden Globes, dans la catégorie . L'année suivante, Sharon Stone reprend le rôle de Gena Rowlands dans une nouvelle version du drame de John Cassavetes "Gloria". Réalisé par Sidney Lumet, le film reçoit un accueil critique négatif et est un échec au box-office. Sa performance dans la comédie d'Albert Brooks "La Muse" lui apporte cependant une quatrième proposition pour un Golden Globe, cette fois dans la catégorie . En 2001, l'actrice est victime d'un accident vasculaire cérébral qui la tient éloignée des plateaux. L'année suivante, elle est membre du jury des longs métrages du Festival de Cannes, présidé par le réalisateur américain David Lynch. Après trois ans d'absence cinématographique, Sharon Stone apparaît, le temps de trois épisodes, dans la série "" (2003). Le rôle qu'elle incarne, celui d'une avocate excentrique, lui permet d'obtenir le Primetime Emmy Award de la meilleure actrice invitée dans une série télévisée dramatique. Sur les conseils de son agent, l'actrice accepte ensuite deux films à vocation populaire, le premier étant le thriller "La Gorge du diable" (2003) dans lequel elle joue l'épouse de Dennis Quaid et la mère de Kristen Stewart. Le deuxième est "Catwoman" (2004) avec Halle Berry, considéré comme l'un des pires films jamais réalisés. Sa performance dans "Broken Flowers" de Jim Jarmusch en 2005 est saluée par la critique. Le "New York Magazine" écrit : . L'actrice reprend son rôle de Catherine Tramell dans "Basic Instinct 2" en 2006. Le film reçoit un accueil désastreux de la part de la critique. Le site Rotten Tomatoes résume ainsi l'avis de la presse : . Alors que le film devait marquer son grand retour au cinéma, Sharon Stone apparaît ensuite dans plusieurs films indépendants dont les sorties aux États-Unis sont limitées, principalement destinées au direct-to-video, et quasi inexistantes en France. En 2010, Sharon Stone joue le rôle d'un substitut du procureur dans la série "New York, unité spéciale", le temps des quatre derniers épisodes de la onzième saison. L'expérience se révèle pour l'actrice, amère sur le déclin de sa carrière : . Elle tient ensuite le rôle principal féminin de "Largo Winch 2" aux côtés de Tomer Sisley. Le tournage se révèle plus heureux que le précédent, notamment grâce à sa collaboration avec le réalisateur Jérôme Salle : . Dans le biopic "Lovelace" (2013), sur l'actrice pornographique Linda Lovelace, Sharon Stone incarne la mère de cette dernière. La même année, elle donne la réplique à Woody Allen et John Turturro dans "Apprenti Gigolo" où elle incarne une dermatologue cherchant à vivre un ménage à trois. En 2014, Sharon Stone est pour la première fois de sa carrière l'héroïne d'une série télévisée. Dans "Agent X", l'actrice joue le rôle de la vice-présidente des États-Unis chargée d'assurer la protection de la Constitution lors d'une période de crise sans précédent. La série est cependant annulée dès la première saison, en raison de son insuccès auprès des téléspectateurs. Retour (depuis 2017). Alors que ses apparitions au cinéma se raréfient, l'actrice déclare dans un entretien avec "Madame Figaro" : . En 2017, elle est l'une des nombreuses artistes à faire une apparition dans "The Disaster Artist" de James Franco. L'année suivante, Sharon Stone tourne sous la direction de Steven Soderbergh dans la mini-série "Mosaic". Elle y joue le rôle d'un auteur à succès de livres pour enfants, tuée lors du Réveillon de la Saint-Sylvestre. Avant sa diffusion sur la chaîne HBO, "Mosaic" est proposée au format interactif via une application mobile, où chaque utilisateur peut interagir avec les personnages et influencer l'histoire. La mini-série reçoit des critiques élogieuses et permet à Sharon Stone de voir sa prestation acclamée à l'unanimité. Elle est jugée par "The Daily Beast" et par "Collider", qui ajoute que . Pour "Libération", l'actrice et "Rolling Stone" estime qu'il s'agit de son . Elle fait la couverture du numéro de mai- de "La Septième Obsession". Dans ce même magazine, elle y révèle ses dix films préférés de la décennie 2010 : "Baby Driver, Killing Eve, Birdman, , Locke, The Revenant, La Grande Belleza, Moonlight, La Favorite, Lady Bird". En 2019, elle apparait en tant qu'invitée dans un épisode de la troisième saison de la série "Better Things", créée par Pamela Adlon et Louis C.K.. En 2020, elle joue son propre rôle dans un épisode de la série "The New Pope". La même année, l'actrice obtient un rôle principal dans la série de Ryan Murphy nommée "Ratched", préquel diffusé sur Netflix du roman "Vol au-dessus d'un nid de coucou" qui a notamment connu une adaptation au cinéma par Miloš Forman en 1975. En , elle publie ses mémoires dont le titre est "". En 2022, elle joue son propre rôle dans un épisode de la série policière comique "Murderville", dont le principe repose sur le fait que chaque invité d'un épisode doit résoudre un meurtre sans avoir le scénario à l'avance. La même année, elle apparait dans la deuxième saison de la série "The Flight Attendant", jouant le rôle de la mère de Kaley Cuoco. Vie privée. Religion. Sharon Stone a été membre de la scientologie avant de se convertir au bouddhisme tibétain en 2008. Elle se convertit au bouddhisme tibétain après que son ami, l'acteur Richard Gere, la présente au Dalaï-lama. Elle est ordonnée prêtresse à en 2004. Idylles et mariages. Sharon Stone épouse en premières noces Michael Greenburg, producteur de la série "Stargate SG-1", qu'elle a rencontré sur le plateau du film "The Vegas strip War" dont il assure la production et dont elle est la vedette aux côtés de Rock Hudson et James Earl Jones. Ils se marient le et se séparent au bout de trois ans, le . Leur divorce est prononcé officiellement en 1990. Sharon Stone se fiance au producteur Bill McDonald dont elle fait la connaissance sur les plateaux de tournage du film "Sliver" en 1993. McDonald quitte sa femme, Naomi Baca pour Sharon Stone. La presse qualifie Sharon Stone de briseuse de ménages jusqu'à ce que leur attention se porte sur Baca après que cette dernière fut devenue la maîtresse de Joe Eszterhas, le scénariste de "Basic Instinct", qui a quitté sa femme pour elle. Peu après sa romance avec Eszterhas, Baca commence une liaison avec Joel Swigart, le garde du corps de Stone depuis 1998. Stone et Swigart - marié et père de deux enfants - entretiennent une relation discrète depuis 1995 lorsque la presse découvre l'affaire alors que l'actrice tourne "Mort ou Vif" ("The Quick and the dead") et relève Swigart de ses fonctions de garde du corps sous le prétexte qu'il délaisse sa famille. Stone nie toujours, à l'heure actuelle, avoir eu une quelconque relation avec Swigart. En fait, celui-ci n'est plus réapparu à Hollywood depuis 1995. Après plus de quinze ans de vie célibataire, Sharon Stone épouse le journaliste le , jour de la Saint-Valentin. Leur contrat de mariage stipulait qu'en cas de divorce son mari ne pourrait rien toucher de la fortune de l'actrice. Après cinq ans d'union, ils décident finalement de divorcer en pour incompatibilité de caractère. En fait, le couple vivait séparé depuis que Bronstein a été victime d'un grave infarctus du myocarde. L'actrice réside à Los Angeles et le journaliste dans leur maison de San Francisco. Comme l'a souligné Nordin Blacker, l'avocat de Phil Bronstein, tous deux se dirigeraient vers En 2005, au cours d'un entretien télévisé à l'occasion du film "Basic Instinct 2", l'actrice avoue éprouver un intérêt pour la bisexualité : . Elle avoue avoir été, par le passé, une fille « démodée ». Pendant le tournage de certaines scènes de "Basic Instinct", sa meilleure amie était à ses côtés, hors du champ de la caméra, pour lui tenir la main. Dans "Naked Instinct", la biographie que Frank Sanelloo a écrite au sujet de l'actrice, il est fait part d'une relation sexuelle entre Stone et une autre femme dans la salle de bains du "Beverly Hills Hotel". Au cours d'un autre entretien accordé le à Londres à Michael Parkinson, l'actrice affirme être exclusivement hétérosexuelle. Cependant, en , elle déclare : . En 2007, lors d'une entrevue avec Garry Shandling enregistrée spécialement pour le DVD de ce dernier, "Not Just The Best Of The Larry Sanders Show", Stone admet avoir entretenu une relation avec Shandling au début de 1980 et qu'elle pense avoir contribué, d'une certaine manière, à améliorer ses monologues lorsque Shandling était invité au "The Tonight Show" du présentateur Johnny Carson. Mère. À 42 ans, et après plusieurs fausses couches, Sharon Stone et son ex-époux Phil Bronstein adoptent un petit garçon né le au Texas où le couple s'est précipité, avec leur jet privé, afin de le ramener chez eux au plus vite. Ils le nomment Roan Joseph Bronstein. Par la suite, l'actrice a recours à une mère porteuse pour avoir un deuxième garçon, Laird Vonne Stone, né le . Le , Stone adopte un troisième enfant : Quinn Kelly. Un mois plus tard, Sharon Stone pense adopter un quatrième enfant. Une source confie au magazine "New Weekly" : . Elle renonce finalement à cette idée en estimant qu'il est difficile de s'occuper d'enfants en étant seule. Stone considère que les femmes dans ce cas ont vraiment du mérite mais assure que cela vaut la peine d'être vécu. Elle déclare au magazine "People" : Kelly, la sœur de Sharon Stone, admire l'amour maternel de son aînée : Le 30 août 2021, Sharon Stone apprend la mort de son neveu et filleul River William à l'âge de 11 mois d'un syndrome de défaillance multiviscérale. Mythes et légendes. Pendant plusieurs années, il a été dit que Sharon Stone était membre de l'association Mensa, ce qu'elle dément formellement en . Jim Blackmore, membre de la société regroupant des individus possédant un QI élevé, admet : . Et de rajouter . Santé. Sharon Stone est atteinte de diabète insulino-dépendant. En 2016, elle affirme avoir vécu une expérience de mort imminente quinze ans plus tôt lors d'un accident cérébral. En novembre 2022, elle annonce avoir été diagnostiquée d'une tumeur qui nécessite une opération et plusieurs semaines de convalescence. Causes humanitaires. Tremblement de terre du Sichuan. Le , au moment du Festival de Cannes, Sharon Stone préside le gala de l'Amfar (association de lutte contre le Sida) et, de religion bouddhiste tibétaine, elle y déclare au "", chaîne d'information de "Hong Kong Cable Television Limited", au sujet du tremblement de terre qui a eu lieu dans la province du Sichuan : . Les journalistes ont alors fait remarquer que le district administratif de Wenchuan, épicentre du séisme, est situé dans la préfecture autonome tibétaine et qiang d'Aba où les Tibétains représentent plus de la moitié de la population. La déclaration n'a évidemment pas plu en Chine, où le tremblement de terre du a causé la mort de plus de selon un dernier bilan. D'après "The Hollywood Reporter", une des plus importantes chaînes de salles de cinéma chinoises déclare qu'elle ne projettera plus les films dans lesquelles l'actrice paraît. Le fondateur de la chaîne de cinémas UME Cineplex ainsi que le Président de la fédération des producteurs de films à Hong Kong, Ng See-Yuen, qualifient le commentaire de Stone d'« inapproprié » et que la Chaîne UME Cineplex écartera, à l'avenir, de leur programmation les films dans lesquels joue l'actrice. Sharon Stone est bannie de la liste des invités au Festival International du Film de Shanghai de 2008 et les organisateurs envisagent son bannissement. Les publicités pour la marque Christian Dior (dont Sharon Stone est l'une des égéries publicitaires) représentant des photos de l'actrice sont également interdites en Chine. La filiale chinoise de la marque Dior craint un boycott et s'excuse au nom de l'actrice. Au cours d'un entretien avec un journaliste du "New York Times", cette dernière niera s'être excusée : Elle admet cependant Le Dalaï Lama lui-même, dit-on, aurait pris ses distances vis-à-vis de l'actrice. L'épisode des moustiquaires destinées à la Tanzanie. Le , Sharon Stone réunit en cinq minutes des promesses de dons à hauteur d'un million de dollars (environ ) pour acheter des moustiquaires au profit de la Tanzanie en tournant un spot publicitaire à la télévision sur la pauvreté des Africains lors d'un forum économique mondial qui s'est tenu à Davos en Suisse. Beaucoup d'observateurs, dont l'Unicef, ont critiqué son action en disant qu'elle avait agi instinctivement aux propos du Président de la Tanzanie, Benjamin Mkapa sans faire son enquête sur les causes, les conséquences et les méthodes de prévention du paludisme. . Ambassadrice de la recherche sur le sida. Au mois d', Sharon Stone est honorée du "Spirit Award", prix décerné par le "Centre National pour les Droits des Saphistes" basé à San Francisco, Californie, pour son soutien et son implication dans la cause des Saphistes, des homosexuels et, plus généralement, dans celle des personnes atteintes du sida. Le prix lui est remis par Gavin Newsom, Maire de la ville de San Francisco Alors qu'elle séjourne à Cannes à l'occasion du Festival de Cannes en 2008, elle préside le gala de l'Amfar (association de lutte contre le Sida). Elle y interprète "Can't Get You Out of My Head" avec Kylie Minogue au profit de la recherche sur le sida. Engagement pour l'accès à l'eau. Sharon Stone s'est associée au joaillier Damiani pour concevoir une collection de bijoux dont un pourcentage provenant de leur vente sera reversé à une association humanitaire qui a pour but d'alimenter en eau potable des villages africains. La collection de bijoux devrait être lancée à l'automne 2009. Armes à feu. Le , Sharon Stone s'est rendue au poste de police le plus proche de chez elle afin d'y déposer des armes, un fusil et trois pistolets, qu'elle conservait pour assurer sa propre protection. Interrogée sur la nature de son geste, l'actrice a déclaré : « Notre monde a changé et nos enfants sont en danger. J'ai choisi de renoncer à mon droit de porter des armes, en échange de la paix de l'esprit que procure le fait de faire ce qui est juste. » Sharon Stone a également invité les Américains à suivre son exemple, à renoncer à leur peur et à faire confiance aux agents de police. Son geste intervient approximativement un mois après la fusillade de Columbine qui rouvrit le débat sur le port d'armes aux États-Unis. Distinctions. C'est en 1992, après le succès de "Basic Instinct" que Sharon Stone commence à recevoir des récompenses pour ses différents rôles. À côté de succès indéniables comme Casino et Basic Instinct pour ne citer que ceux-là, Sharon Stone a été nommée neuf fois et trois fois lauréate des Golden Raspberry Awards dont deux fois en 1995 pour sa prestation dans L'Expert et Intersection. Elle réitère en 2004 avec Catwoman. Concert du prix Nobel de la paix. Sharon Stone ouvre le concert du prix Nobel de la paix en 2006. Voix francophones. En version française et dans les années 1980, Céline Monsarrat la double dans "La Ferme de la terreur", "Magnum", "Les Passions oubliées" et "Nico" tandis qu'elle est doublée à deux reprises chacune par Anne Rondeleux dans "Divorce à Hollywood" et "Au-delà des étoiles", ainsi que par Isabelle Ganz dans "Allan Quatermain et les Mines du roi Salomon" et sa suite. Durant cette période, elle est également doublée par Joëlle Fossier dans "Calendrier sanglant", Michèle Bardollet dans "La Guerre des casinos", Michèle Lituac dans "Hooker", Marie-Martine Bisson dans "", Virginie Ledieu dans "Sur le fil du rasoir" et Martine Irzenski dans "Action Jackson". De 1991 à 1995, Béatrice Agenin la double dans "Hitman, un tueur", "Sliver" et "Casino". Françoise Cadol la double de 1994 à 1995 dans "L'Expert", "Intersection" et "Mort ou vif". Michèle Buzynski la double dans "Total Recall", Séverine Morisot dans "Fenêtre sur crime" tandis qu'Irzenski la retrouve dans "He Said, She Said : L'Amour en stéréo", de même que Ledieu dans "Year of the Gun, l'année de plomb". La doublant en 1991 et 1992 dans "Elle et lui" et "Basic Instinct", Micky Sébastian devient à partir de 1996 sa voix dans la quasi-intégralité de ses apparitions. Elle la double à plus de vingt reprises, dont dans "La Muse", "Catwoman", "Bobby", "Largo Winch 2", "New York, unité spéciale", "Apprenti Gigolo", "Mosaic", ', "The New Pope" ou encore "Ratched". En parallèle, Cadol la retrouve dans ' et "Will et Grace", tandis qu'elle est doublée à titre exceptionnel par Déborah Perret dans "Les Puissants", Colette Sodoyez dans "La Gorge du diable", Danièle Douet dans "Broken Flowers", Sylvie Santelli dans "Lovelace", Valérie Even dans "Life on the Line" et Fanny Gatibelza dans "Happy Birthday". En version québécoise, elle est doublée par Anne Dorval à de nombreuses reprises. Elle la double notamment dans "Le Spécialiste", "Instinct de Vengeance", "Diabolique", "Sphère", "Miracle sous la Main", "La Femme-Chat", ou encore "Bobby". Claudie Verdant la double dans "Académie de Police 4 : Aux armes citoyens". |
Seine La Seine est un fleuve français, long de , qui coule dans le Bassin parisien et arrose notamment Troyes, Paris, Rouen et Le Havre. Sa source se situe à d'altitude à Source-Seine, en Côte-d'Or, sur le plateau de Langres. Son cours a une orientation générale du sud-est au nord-ouest. La Seine se jette dans la Manche entre Le Havre et Honfleur. Son bassin versant, d'une superficie de , englobe près de 30 % de la population du pays. Hydronymie. La forme la plus ancienne se trouve chez César : "Sequana", ; le grec Strabon au écrit : "Sēkouanós" ; "Sēkoánas" au chez Ptolémée ; "Sequana" en 558 ; "Segona", "Sigona" au (Grégoire de Tours) ; "Sequana" au ; "Secana" vers 1350 (Pouillé). La plupart des spécialistes considèrent l’origine du nom "Sequana" comme incertaine et obscure. Certains y voient une erreur de transcription d'un ou de plusieurs mots celtiques différents. D'autres un hydronyme préceltique, au motif que le groupe [kʷ] n'existe pas en celtique gaulois (et brittonique), où il a évolué en [p] (exemple : "pinp[etos]" « cinq[uième] » en gaulois, "pimp" en gallois, "pemp" en breton, par contre irlandais "cinc", latin "quinque" > "cinq", etc. —— ils procèdent tous de l'indo-européen "*pénkʷe"). Cependant, cette évolution a pu se produire postérieurement à l'attribution du nom "Sequana" par les premiers arrivants celtes : ceux-ci semblent en effet avoir parlé un « proto-celtique » où la mutation /kʷ/ > /p/ n'était pas encore réalisée, comme l'attestent certaines inscriptions celtibères retrouvées en Espagne. Mais rien n'empêche une réinterprétation du nom en "*se-ku-ana". L'élément "-ana" est fréquent par ailleurs en hydronymie et en toponymie. Il apparaît sous la forme à l'accusatif "anam" dans le glossaire d'Endlicher ; il y est traduit par le latin "paludem" (accusatif de "palus, -udis" « étang, marais »). Le nom de l'Yonne contiendrait plutôt l'élément "-onno" (cf. "onno" donné pour "flumen" « cours d’eau, rivière, fleuve », lui aussi répandu, dans ce même glossaire). On peut douter de la celticité de ces deux termes, notamment du mot "onno", utilisés pourtant en gaulois, semble-t-il. Pour expliquer "Sequana", Ernest Nègre a proposé un hypothétique thème préceltique *"seikw" « verser, couler, ruisseler » suivi du suffixe gaulois "-ana". Une racine indo-européenne "*seikʷ-" de même signification a été conjecturée. Jacques Lacroix le fait dériver d'un radical "(S)Ico-" « eau ». Albert Dauzat propose une racine hydronomique pré-celtique "*sēc-" (cf. "Secalonia" > "Sologne", peut-être de "*sec-" « marécage »), dont des variantes figureraient dans d'autres hydronymes "*seg-, *sac-/*sag-, *sic-/*sig-". Les Vikings la nommaient "Signa" qui est encore son nom en islandais. Géographie. Cours. La Seine est partagée en cinq parties, d'amont en aval : Le lac artificiel de la forêt d'Orient, en amont de Troyes, ainsi que le lac du Der-Chantecoq en amont de Saint-Dizier ont été créés dans les années 1960 et 1970 pour réguler le débit du fleuve. En Île-de-France et en Normandie, la faible déclivité de la vallée de la Seine a causé la formation de multiples et profonds méandres, parfois d'une très forte sinuosité sur plusieurs dizaines de kilomètres. Pour la même raison, les effets de la marée se font sentir sur une centaine de kilomètres, jusqu’au barrage de Poses et se manifestaient jusqu’à un passé récent, par le phénomène du mascaret, appelé "barre" en Normandie. Le phénomène et le mot ont été popularisés par le roman de Maurice Leblanc appartenant à la série des "Arsène Lupin" : "La Barre-y-va". Source. Les « sources officielles » de la Seine sont situées sur le territoire de la commune de Source-Seine, sur le plateau de Langres, à une altitude de . Les sources de la Seine sont la propriété de la ville de Paris depuis 1864. Une grotte artificielle a été construite l'année suivante pour abriter la source principale et la statue d'une nymphe symbolisant le fleuve. Cependant, la capitale s'en est désintéressée et la parcelle devrait revenir à la région Bourgogne qui souhaite valoriser le site. Celui-ci abrite également les vestiges d'un temple gallo-romain (actuellement enfouis). Des objets témoignant du culte aux sources du fleuve "(Dea Sequana)" sont exposés au musée archéologique de Dijon. Bassin versant. Le bassin versant de la Seine, d'une superficie de , est quasi entièrement compris dans le Bassin parisien qui, d'un point de vue géologique, constitue un bassin sédimentaire affectant la forme d'une cuvette ouverte vers la Manche et l'Atlantique. Ce bassin est constitué par un empilement de formations géologiques à faible pente convergeant vers le centre et entre lesquelles s'intercalent d'importantes formations aquifères. Le relief du bassin versant de la Seine ne s'élève généralement pas au-dessus de , sauf sur sa marge sud-est dans le Morvan où il culmine à (Haut-Folin). La modestie de l'altitude moyenne du bassin versant explique les faibles pentes des cours d'eau (entre 0,01 et pour ) qui coulent globalement vers le nord-ouest, en se frayant leur chemin à travers les cuestas faisant saillie à l'est du bassin puis en incisant les plateaux du centre de la région. La quasi intégralité du bassin versant de la Seine se trouve en France, seules les sources et les premiers kilomètres de l'Oise, de l'Artoise, du ruisseau des Anorelles et de leurs petits affluents se trouvent en Belgique, à l'extrémité méridionale de la province de Hainaut. Les tripoints hydrographiques aux extrémités des lignes de partage des eaux séparant le bassin versant de la Seine avec : Géologie. Il est possible que la Loire ait rejoint au Miocène ou au Pliocène, la Seine par le cours de l’actuel Loing. La Seine traversait alors une vaste pénéplaine de nature argileuse sous un climat subtropical. Il y a trois millions d'années, la région subit un refroidissement et un soulèvement dû à la poussée des chaînes pyrénéenne et alpine au sud. Les glaciations de l'ère quaternaire firent baisser le niveau des mers et océans, si bien que la Seine se jetait alors au large de la Bretagne actuelle (la Manche était la vallée du Rhin augmentée de la Meuse, de la Tamise et de la Somme, entre autres). Cette période fut marquée par la migration des méandres du fleuve, encore visible en Normandie, et par une intense érosion rabotant les plateaux et formant des terrasses alluviales. L'aspect actuel de la Seine remonte à la fin de la dernière glaciation, vers . Régions et départements traversés. Les régions et départements traversés sont les suivants, en allant de la source vers l'embouchure : Communes riveraines. De Source-Seine (ex-Saint-Germain-Source-Seine) à Honfleur, il y a 164 communes riveraines de la Seine, parmi lesquelles Paris, capitale de la France. L'une d'elles, L'Île-Saint-Denis est même entourée par le fleuve. Hydrologie. Régime hydrique. Le Bassin parisien connait un climat océanique avec un apport constant d'humidité véhiculé par les vents dominants d'ouest. La pluviométrie est comprise entre et dans les régions côtières s'abaisse jusqu'à dans les régions centrales faute de relief (altitude inférieure à en Île-de-France) avec un minimum dans la Beauce pour remonter sur les marges orientales avec un maximum à dans le Morvan. La Seine et trois de ses principaux affluents qui circulent dans des régions aux caractéristiques similaires (régime océanique, faible relief et géologie identique) partagent le même régime hydrographique avec un débit maximal en janvier et un minimum en août. Le Bassin parisien comprend neuf aquifères qui s'intercalent entre les différentes couches géologiques. Le réseau hydrographique est relié en différents points directement à l'aquifère la moins profonde : en fonction de la hauteur des eaux elle alimente la Seine ou est alimentée par celle-ci. Enfin la couche d'alluvions, présente dans les vallées avec une épaisseur inférieure à , constitue une dixième formation aquifère très productive. Bien que la pluviométrie soit bien distribuée sur l'année, la Seine et ses affluents peuvent connaitre des périodes d'étiage sévère à la fin de l'été ou au contraire des crues importantes en hiver. Les crues sont de deux types : les crues rapides dans les parties amont du bassin à la suite de précipitations fortes et les crues lentes dans les vallées plus en aval qui font suite à des épisodes pluvieux prolongés. Pour maîtriser les crues et les étiages d'importants travaux de régulation ont été réalisés dans la partie supérieure du cours de la Seine et de ses affluents. Son débit moyen à Paris est d'environ /s et peut dépasser /s en période de crue. Quatre grands lacs-réservoirs ont été créés entre 1960 et 1990 sur la Seine (lac d'Orient), la Marne (lac du Der-Chantecoq), l'Aube (lac d'Amance et lac d'Auzon-Temple) et l'Yonne (lac de Pannecière agrandi qui alimentait déjà le canal du Nivernais dès le ). Ces lacs qui constituent une réserve de 800 millions de mètres cubes permettent à la fois d'écrêter les crues et d'assurer un débit minimum d'étiage. Ils sont gérés par un établissement public, l'Institution interdépartementale des barrages-réservoirs du bassin de la Seine. Crues et étiages. En 1719, la sécheresse est si importante qu’à Paris, la Seine atteint son plus bas niveau historique ( au-dessus du niveau de la mer) que correspond la cote zéro de l'échelle hydrométrique du pont de la Tournelle, autrefois utilisée pour mesurer la crue de la Seine. Une vague de dysenterie provoque des milliers de morts. À Paris, les crues sont mesurées depuis 1876 par une l'échelle hydrométrique installée au pont d'Austerlitz, néanmoins c'est la statue du zouave du pont de l'Alma qui reste l'indicateur le plus populaire (bien que cette mesure soit peu fiable à la suite des travaux du pont de l'Alma dans les années 1970 qui ont élevé la statue, rendant ainsi impossibles les comparaisons pré et post travaux). Au cours de la crue de, l'eau a atteint sur cette échelle la hauteur record de . Depuis 1870, la hauteur est prise à la station Paris Austerlitz. S'il n'y a pas eu de grandes crues depuis une soixantaine d'années, cinq grandes crues se sont produites au : en 1910, 1920, 1924, 1945 et 1955. Les plus anciennes crues de la Seine connues ont été relatées par Julien (crue de 358) et Grégoire de Tours (crue de ). Si les crues centennales sont redoutées, le réchauffement climatique conduit inversement à envisager plusieurs hypothèses de baisse du débit du fleuve sur la base des travaux du GIEC. Ainsi dans l'hypothèse d'une hausse des températures de d'ici 2100, le débit serait réduit de 5 % en hiver et de 10 % en été. En cas de hausse des températures de , le débit global chuterait de 30 % avec des valeurs entre 20 % et 40 % en période estivale. Ces scénarios impliquent une diminution de l'approvisionnement des nappes phréatiques et aurait aussi pour conséquence une plus forte pollution des eaux car . Du au , la Seine connaît une crue importante. Le niveau d'eau culmine à dans la nuit du 3 au . C'est la plus grosse crue survenue à Paris depuis plus de 30 ans. Elle ne dépasse cependant pas les de la crue de 1982. À la fin du mois de , la Seine connaît une nouvelle forte crue, dont le niveau culminant est atteint dans la nuit du 28 au 29 janvier, à . La débâcle qui suit le gel de la Seine peut s'accompagner de crues liées à la pluie ou à la fonte de neige. En 1868, la débâcle peinte par Claude Monet ne fit monter le niveau des eaux que de à l'échelle du Pont-Royal. Après plus de de gel, celle qui commença le fut un événement unique de l'histoire du climat parisien. Elle se généralisa le où, en , le niveau des eaux monta de et continua de progresser. La seconde arche du pont des Invalides, côté rive droite, s'effondra. Principaux affluents. Voici une liste des principaux affluents (longueur supérieure à , ou bassin versant supérieur à ou débit moyen (module) supérieur à connu au plus proche du confluent) directs de la Seine et situés avec leur confluent par la distance (km) avec la limite Ouest de l'estuaire de la Seine selon son écoulement à l'aval, par l'altitude (m) (du plan d'eau en débit moyen, estimé au mieux d'après carte topographique), par la rive, par le nom du département (amont si limite interdépartementale), par la commune de la pointe de confluence, par les coordonnées puis avec les 3 données comparables pour la Seine (juste à l'amont du confluent) : "Diagramme comparatif des bassins versants des principaux affluents, supérieurs à :" L'Yonne ou la Seine ? Si le cours d'eau sortant d'une confluence portait exclusivement le nom de celui qui y était entré avec le plus fort débit annuel (module), le fleuve traversant la région parisienne ne serait pas la Seine, mais l'Yonne. En effet, celle-ci a, à Montereau-Fault-Yonne, un débit et bassin versant supérieurs à ceux de la Seine : respectivement /s et près de pour l'Yonne, et /s et pour la Seine. La même inexactitude se reproduit d'ailleurs en amont : le bassin versant de l'Aube s'étend sur , et son débit s'élève à /s, contre et /s pour la Seine. D'un point de vue strictement hydrographique, la Seine est donc un sous-affluent de l'Yonne par l'Aube. Des raisons culturelles et historiques ont empêché la correction de cette erreur ; un quiproquo que l'on rencontre aussi entre la Saône et le Doubs. Cela peut s'expliquer (ce n'est qu'une hypothèse) par la considération de la Seine comme un axe commercial reliant l'axe Saône-Rhône, donc la Méditerranée, à la Manche, ceci à une époque où l'on avait pas les moyens de calculer les débits moyens ni les surfaces des bassins versants (il est même probable qu'on s'en moquait, l'important étant qu'il y ait assez d'eau pour porter bateau). L'Yonne, perdue dans son Morvan, ne pouvait faire partie intégrante de cet axe commercial. En revanche, le "conflit" Seine-Aube s'explique moins. Néanmoins, "sous le pont Mirabeau coule ... l'Yonne" ! Dans un autre ordre d'idée, la Seine, bien qu'étant un fleuve, est parfois nommée « rivière », dans des ouvrages historiques, dans la culture populaire contemporaine et même dans des textes officiels comme plusieurs articles du Code général des collectivités territoriales. Cette dénomination se retrouve sur la Loire qui a longtemps été gérée par la "Communauté des Marchands Fréquentant la RIVIÈRE de Loyre et Autres FLEUVES Descendant en Yscelle". "Fleuve" et "rivière" sont des notions très sujettes à controverse, surtout lorsqu'elles déterminent de deux cours d'eau le principal et l'affluent, controverse bien illustrée dans les cas Aube vs Seine et Yonne vs Seine. Influence des marées. La Seine maritime ainsi qu'une partie de la basse-Seine sont soumises au régime des marées, qui remontent jusqu'au barrage de Poses dans l'Eure ( de marnage). On pouvait encore observer jusque dans les années 1960 une imposante vague qui pouvait atteindre au moment des grandes marées et qu'on appelle mascaret, plus localement "barre". Le phénomène atteignait son maximum à Caudebec-en-Caux, à mi-distance environ entre Le Havre et Rouen. Il a pratiquement disparu à la suite des aménagements apportés au fleuve (dragage, endiguement et modification de l'estuaire). Aménagements. Navigation. Pour les mariniers et les services de navigation fluviale, la Seine se décompose en : Depuis Troyes jusqu'à son confluent avec l'Aube à Marcilly-sur-Seine, elle est longée par le canal de la Haute-Seine qui n'est plus en service. De Marcilly-sur-Seine à Montereau-Fault-Yonne, la navigation est établie tantôt sur des dérivations latérales (trois au total), tantôt dans le lit du fleuve même. De Montereau-Fault-Yonne à Tancarville, la navigation se fait toujours dans le lit de la Seine. De Tancarville au Havre, les bateaux fluviaux peuvent emprunter le canal de Tancarville. La Seine est navigable sur une grande partie de son parcours. La responsabilité de la navigation appartient à Voies navigables de France jusqu'au pont Boieldieu à Rouen, et en particulier au Service de navigation sur la Seine en amont d'Amfreville-sous-les-Monts. Le bassin de ce Service de Navigation de la Seine s'étend aussi à ses principaux affluents (Oise, Marne, Yonne) et parfois à des canaux qui y sont reliés (canal de la Haute-Seine jusqu'à Méry-sur-Seine, par exemple). En revanche, il ne comprend pas les canaux parisiens (canal de l'Ourcq, canal Saint-Denis et canal Saint-Martin) qui sont gérés par la ville de Paris. La basse Seine, au sens maritime du terme, c'est-à-dire à partir de la mer jusqu'au pont Guillaume-le-Conquérant à Rouen est accessible aux navires de haute mer (jusqu’à de long et ). Sur cette partie du fleuve, longue d'environ , les quatre seuls ponts existants (le pont de Normandie, le pont de Tancarville, le pont de Brotonne et le pont levant Gustave-Flaubert) offrent un tirant d'air de et le fleuve est constamment dragué pour permettre aux bateaux ayant un tirant d'eau de de circuler. Compte tenu du nombre limité de ponts, plusieurs bacs permettent également de traverser le fleuve. Les installations portuaires y relèvent de l'autorité du grand port maritime de Rouen. Celui-ci, cinquième port maritime français avec environ 25 millions de tonnes de marchandises embarquées et débarquées, est spécialisé dans le trafic de céréales, engrais et produits pétroliers. Ses installations s'échelonnent le long du fleuve sur de l'agglomération de Rouen jusqu'à Honfleur. Entre Rouen et Paris, la Seine a été canalisée au . Sept barrages éclusés situés à Poses-Amfreville-sous-les-Monts, Notre-Dame-de-la-Garenne (Eure), Méricourt, Andrésy, Bougival, Chatou (Yvelines) et Suresnes (Hauts-de-Seine) permettent la navigation de péniches automotrices ( de fret) dites « bateaux automoteurs de gabarit Freycinet », de , de chalands automoteurs de rivière (de 800 à de fret), de 48 à , de convois de barges poussées (de à de fret) et de caboteurs fluvio-maritimes ( de fret). ces barges transportent, entre autres choses, des conteneurs, des automobiles, des produits pétroliers, du ciment, etc. Les installations portuaires situées en Île-de-France relèvent du port autonome de Paris, premier port fluvial français. Les principales installations portuaires pour le trafic de marchandises se situent à Limay (Yvelines) et Gennevilliers (Hauts-de-Seine). En projet, une plate-forme multi-modale (voie d'eau, autoroute, voie ferrée) est en cours d'étude sur la commune d'Achères en aval de Conflans-Sainte-Honorine. À Paris existe aussi un trafic de voyageurs, principalement touristique (bateaux-mouches), mais aussi une tentative d'utiliser la Seine pour les déplacements quotidiens (Batobus). Des navettes circulent régulièrement entre la Tour Eiffel et le Jardin des plantes ; toutefois, ce service semble intéresser davantage les touristes que les Parisiens, créant ainsi une concurrence gênante pour les bateaux-mouches. Un autre service voyageur (Voguéo) a également été expérimenté entre la gare d'Austerlitz et Maisons-Alfort (sur la Marne) entre 2008 et 2011. Néanmoins, pour le canoëiste et le kayakiste, la "haute Seine" se situe bien plus haut, en amont de Bar-sur-Seine. Traversée du fleuve. Ponts et ouvrages d'art. En aval de Rouen, seuls trois grands ponts enjambent la Seine (ponts de Brotonne, de Tancarville et de Normandie). Activités économiques. La Seine est une voie navigable très importante, reliant Paris à la Manche. De ce fait, deux des plus importants ports fluviaux de France s'y trouvent : Paris (port de Gennevilliers) et Rouen, qui est également un important port maritime permettant le transbordement (c'est le premier port céréalier d'Europe). Elle est navigable en amont de Paris jusqu’à Nogent-sur-Seine, important port céréalier. Autres ports fluviaux notables : Limay-Porcheville (agglomération de Mantes-la-Jolie), Montereau-Fault-Yonne (sites gérés par le port autonome de Paris). De nombreuses industries sont situées le long de la vallée de la Seine : automobile (Poissy, Flins, Cléon, Sandouville), pétrochimie (Port-Jérôme, Gonfreville-l'Orcher, Notre-Dame-de-Gravenchon, Grand-Couronne), centrales thermiques (Porcheville, Saint-Ouen). Curieusement en revanche, de tous les cours d'eau importants de son chevelu, la Seine est, avec l'Aube, le seul qui finisse en impasse en amont, ne rejoignant aucune autre région. Alors que par l'Oise on rejoint la Belgique et les Ardennes, par la Marne la Lorraine, l'Alsace, l'Allemagne et la Bourgogne, par le Loing la vallée de la Loire (et, par le canal du Centre, l'axe Saône-Rhône), et par l'Yonne la même vallée de la Loire ainsi que l'axe Saône-Rhône, la Seine va s'effilochant en amont de Nogent : presque abandonnée de Nogent à Marcilly, canal de la haute Seine déclassé jusqu'à Barberey-Saint-Sulpice ainsi que l'Aube jusqu'à Arcis, et aliéné de Barberey à Bar-sur-Seine où l'on n'en voit plus que quelques vestiges (écluses et maisons éclusières, parfois la cuvette du canal comme à Virey-sous-Bar). L'eau de la Seine est utilisée pour le refroidissement de la centrale nucléaire de Nogent. Milieu naturel. Faune. On dénombrait en 2009 52 espèces de poissons d'eau douce dans l'ensemble du bassin de la Seine. Cette faune n'est que pour moitié d'origine naturelle. Les grandes glaciations qui ont touché plus particulièrement le Nord-Ouest de l'Europe durant le Quaternaire ont appauvri la diversité de la faune piscicole naturelle de la Seine (estimée à une trentaine d'espèces) par rapport à celle des fleuves situés plus à l'est comme le Rhin (44 espèces autochtones) ou le Danube (une centaine d'espèces). Dès le Moyen Âge l'homme introduit la carpe commune. Au la grémille, le carassin doré et le carassin commun apparaissent à leur tour soit du fait d'introductions volontaires soit par colonisation depuis d'autres bassins. Mais c'est à compter de la deuxième moitié du que les introductions se multiplient. Elles résultent soit de tentatives d'acclimatation d'espèces exotiques soit de la volonté d'améliorer la productivité d'installations piscicoles. C'est à cette époque qu'apparaissent les espèces d'origine nord-américaine comme la truite arc-en-ciel (non acclimatée mais régulièrement introduite depuis), le poisson-chat et la perche soleil. Dans la deuxième moitié du débute une deuxième phase d'introduction encore plus massive avec des motivations différentes. L'extension du réseau de canaux favorise également l'arrivée d'espèces étrangères. À la fin du on comptait en tout 23 espèces non autochtones. Mais les aménagements de la Seine et de ses affluents qui débutent à compter de 1850 pour favoriser la navigation créent des obstacles et suppriment les milieux naturels nécessaires aux espèces autochtones migratrices. L'esturgeon d'Europe, le saumon atlantique et la grande alose disparaissent au début du . La pollution croissante du fleuve qui culmine à la fin des années 1960 contribue à chasser les autres espèces de cette catégorie. Au début des années 1990, 7 des 10 espèces migratrices ont disparu et seule une espèce, l'anguille, est encore aujourd'hui largement répandue. L'aménagement de la Seine en voie navigable, avec de nombreux barrages, a créé autant d'obstacles s'opposant au passage des poissons migrateurs. Un programme en cours, sous l'égide de VNF, vise à équiper tous les barrages de la Seine aval, entre Poses-Amfreville et Suresnes, de passes à poissons, ce qui permettra aux migrateurs de remonter jusqu'au confluent de la Marne. Des saumons et des truites de mer ont été observés devant le barrage de Poses-Amfreville, à de l'embouchure, en 2007. En 2008, ont été comptés dans la passe à poissons de ce barrage. Le , pour la première fois depuis très longtemps, une truite de mer a été pêchée dans la Seine, au niveau du barrage de Suresnes, juste en aval de Paris. S'agissant d'espèces de poissons migrateurs très sensibles aux conditions du milieu, ces événements indiquent une amélioration de la qualité des eaux de la Seine en aval de Paris. Le , à hauteur du barrage de Suresnes en région parisienne, un saumon de a été pêché, pour la première fois à un point aussi éloigné en amont sur la Seine depuis . Des chercheurs de l'INRA (en collaboration avec l'ONEMA et le CEMAGREF) ont été sollicités pour confirmer la présence de l'espèce sur la Seine. Les résultats de l'étude, dévoilés en , montrent que les saumons pêchés dans la Seine ont des origines diverses. Aucun poisson issu d'élevage n'a officiellement été déversé dans la Seine depuis 1895, contrairement à ce qui a été fait dans d'autres bassins où des espèces avaient disparu. Certains marais naturels des bords de Seine ont été revalorisés et remis en état dans le but de favoriser la faune et la flore, comme à Hénouville, Mesnil-sous-Jumièges ou au Trait. Qualité microbiologique. La qualité microbiologique de l'eau de la Seine fait l'objet d'un suivi. Un bilan a été publié en 2016 dans la perspective de la baignade dans la Seine (il est interdit depuis un arrêt préfectoral de 1923 de se baigner dans le fleuve) et la Marne et d'épreuves olympiques aquatiques en 2024. Pour assainir la baignade en cas d'orage et éviter les bactéries, la ville de Paris, la région de Paris et l’État ont investit environ un milliard d'euro dans des travaux de récupération des eaux des bateaux, de retenue des eaux d'orage et dans les stations d'épurations. Le «comité Seine» et le Conseil départemental 94 ont également souhaité vérifier les branchements chez les particuliers. Menaces et protections. Le bassin de la Seine concentre 40 % de la production industrielle française et l'agriculture intensive occupe 60 % de la surface du bassin, avec pour résultat un fleuve dont le débit est parfois à moitié constitué d'eaux usées. Au début des années 1960, les scientifiques considèrent la Seine comme presque biologiquement morte, seules trois espèces de poissons sur les 32 normalement présentes, indigènes ou non, étant parfois aperçues. La loi sur l'eau de 1964 permet un redressement de l'écosystème des eaux de la Seine, complétée par la loi sur l'eau du 3 janvier 1992. Des indicateurs de pollution sont créés et une aide financière et technique est proposée aux municipalités, aux agriculteurs et aux industriels. De 1991 à 2001, 10 milliards d'euros, dont 5,6 milliards par l'État, sont investis dans des infrastructures, dont 500 stations d'épuration. En résultat, la qualité des eaux s'améliore de manière continue, surtout à Paris, qui abrite vingt espèces endémiques de poissons. Cependant les taux en azote sont toujours trop élevés, 66 % de la pollution provenant de l'agriculture, et la pollution par les nitrates et pesticides augmente, là aussi à cause de l'agriculture. Une autre pollution est liée aux eaux de pluie qui entraînent des polluants des zones urbaines : celles de Paris représentent à elles seules l'équivalent de tous les rejets des autres municipalités du bassin. La Seine a fait l'objet d'une pollution au plutonium 239 en 1961 et au plutonium 238 en 1975. L'origine en est connue puisque la pollution est issue des installations du CEA à Fontenay-aux-Roses. Selon l'ASN le risque sanitaire est toutefois quasi nul. La Seine est le fleuve européen le plus pollué aux polychlorobiphényle (PCB) depuis vingt ans. Toxiques, les PCB s'accumulent dans les lipides tout le long de la chaîne alimentaire. D'après des analyses effectuées par l'Office national de l'eau et des milieux aquatiques (ONEMA) depuis 2008, 70 % des espèces de poissons sont impropres à la consommation à cause d'une contamination aux PCB. L'usage des PCB est interdit depuis 1987 mais, très utilisés dans les années 1970, ils se sont accumulés dans l'environnement. L'association Robin des Bois dénonce une absence de réglementation au niveau de la pêche afin de protéger la population d'une consommation à Paris, dans le Val-de-Marne, les Hauts-de-Seine et les Yvelines. Cette pollution aux PCB est étendue jusqu'à la baie de Seine où la pêche à la sardine est interdite en 2010. En 2010, la Seine est touchée par une pollution de rondelles en plastique, pollution accidentelle, limitée et non dangereuse selon les autorités, provenant d'une station d'épuration. Les déchets de la Seine normande représentent un volume d’environ ou [Par quelle durée de temps ? En un an ?], soit la production annuelle de déchets ménagers des habitants d’une ville de . Aspects culturels. Dans la peinture. La Seine a inspiré de nombreux peintres, et aux , les peintres suivants : Tourisme et patrimoine. Le cours de la Seine est jalonné de nombreux sites touristiques. En amont de Paris : À Paris, les rives de la Seine sont inscrites au patrimoine mondial de l'Unesco depuis 1991. En aval de Paris : |
Stanley Kubrick Stanley Kubrick ( ) est un réalisateur, photographe, scénariste et producteur de cinéma américain, né le à Manhattan (New York) et mort le dans son manoir de Childwickbury, entre St Albans et Harpenden (Hertfordshire, au nord de Londres). Après des débuts dans la photographie, Kubrick, autodidacte, est également son propre directeur de la photographie, producteur, scénariste et monteur. Ses treize longs métrages en quarante-six ans de carrière l'imposent comme l'un des cinéastes majeurs du . Quatre de ses films sont classés dans le Top 100 de l'American Film Institute ("). Biographie. Jeunesse et parenté. Stanley Kubrick est issu d'une famille juive originaire d'Europe centrale habitant dans le quartier du Bronx. Il est le fils de Sadie Gertrude Perveler (1903-1985) et de Jacob Leonard Kubrick (1901-1985). Son père, né aux États-Unis d'une mère roumaine et d'un père austro-hongrois, était cardiologue, pianiste et photographe amateur. Il apprend à son fils Stanley, âgé de douze ans, à jouer aux échecs. Cette passion suit Stanley Kubrick toute sa vie. Sa mère, qui était chanteuse et danseuse, lui donne le goût des livres et de la lecture. Il a une sœur cadette, Barbara, née le 21 mai 1934. De 1940 à 1945, Kubrick ne trouve aucun intérêt à l'école : à part la physique rien ne l'intéresse. Il ne parvient pas à obtenir une moyenne suffisante pour s'inscrire à l'université, surtout que, la guerre terminée, nombre de soldats revenant du front tentent d'y entrer et que déjà les inscriptions sont limitées. En 1947, à l'âge de 18 ans, il se marie avec Toba Metz, une camarade de classe de la William Howard Taft High School à New York. Ils s'installent dans le quartier de Greenwich Village deux ans plus tard et divorcent en 1951. Débuts dans la photographie. Pour son treizième anniversaire, son père lui offre son premier appareil photo. Cette nouvelle activité le passionne et lui fait oublier sa passion de jeunesse, le jazz, et son rêve de devenir batteur de jazz professionnel. Il prend de nombreuses photos et les développe avec un ami dans la chambre noire familiale. Il devient le photographe officiel de son collège et a pour idole le reporter-photographe Weegee. En avril 1945, à l'âge de 16 ans, il réussit à vendre au magazine illustré "Look" une photographie d'un vendeur de journaux en larmes après la mort de Franklin D. Roosevelt, qu'il a prise alors qu'il se rendait à l'école. La rédactrice en chef l'engage comme photographe indépendant, « par pitié » dit-il plus tard. Stanley Kubrick y travaille durant quatre ans et y apprend les ficelles du métier, la composition d'une image, les éclairages, l'usage des extérieurs et l'art de saisir le mouvement. Plutôt perfectionniste, il lui arrive de prendre plusieurs centaines de clichés pour réaliser une seule photo. Grand amateur de boxe, son premier « photos-récit » intitulé ("Le Professionnel") raconte une journée de la vie du boxeur Walter Cartier. C'est ce photo-récit qui est à l'origine de son premier film : "Day of the Fight". Un destin de réalisateur. Pendant ses premières années de photographe de magazine, Kubrick fréquente assidûment les salles de cinéma, notamment les séances au MoMA. Ses goûts sont éclectiques, avec une préférence, comme il le dit en 1963 dans la revue "Cinéma", pour le cinéma d'auteurs européen : Ingmar Bergman, Michelangelo Antonioni, Federico Fellini. Les films de Max Ophüls comme "Le Plaisir" ou "Madame de..." influencent le jeune Stanley Kubrick. En 1950, l'autodidacte Stanley Kubrick, âgé de 22 ans, se décide à sauter le pas et se lance dans le cinéma. Pour lui, sa meilleure formation, ce sont les longues séances cinématographiques qu'il s'impose, des meilleurs films au pire des navets. se dit-il. Courts métrages et série télévisée. Dans ses premiers films, Kubrick fait tout lui-même : il est à la fois scénariste, cadreur, ingénieur du son, monteur et réalisateur. Entre 1950 et 1951, Kubrick réalise deux documentaires, consacrés l'un à un boxeur, l'autre à un missionnaire. Il reprend l'idée de son photos-récit "Prizefighter" et réalise avec Alexander Singer, un camarade de classe, le court métrage "Day of the Fight" — une journée de la vie du boxeur Walter Cartier —, filmé comme un reportage. Autofinancé avec un budget de , le documentaire est vendu à RKO Pictures avec seulement de bénéfice. Pour "Flying Padre", Stanley Kubrick reprend la même idée et suit durant deux jours Fred Stadtmueller, un missionnaire catholique. D'une durée de , ce film est en partie financé et distribué par RKO. Les deux documentaires sont des succès mineurs, mais Kubrick se fait remarquer par le brillant de sa photographie. Lui-même dit : En 1952, à la demande de Richard de Rochemont, futur producteur de son premier film "Fear and Desire", Kubrick est réalisateur d'une deuxième équipe sur une séquence d'un omnibus consacré à Abraham Lincoln. Par la suite, il réalise plusieurs épisodes, toujours en qualité d'assistant réalisateur. En 1953 il réalise son premier documentaire en couleurs, "The Seafarers". Dans ce film promotionnel sur la marine marchande, on retrouve les travellings à la Max Ophüls. Premiers longs métrages. Pour réaliser son premier long métrage "Fear and Desire", Kubrick emprunte à sa famille . Il persuade un ami poète de lui écrire un scénario original : l'histoire d'un groupe de soldats chargés d'éliminer une troupe ennemie dans une guerre fictive ; à la fin du film, les soldats voient leurs propres visages dans ceux de leurs ennemis. Le réalisateur tourne son film en noir et blanc près de Los Angeles. Une nouvelle fois, il fait tout. Il décide de ne pas enregistrer le son avec les images, et son erreur lui coûte de post-synchronisation. Malgré tout, il est fier d'avoir réussi à terminer son film. Plus tard, il qualifie son film de et décide de le retirer des circuits de distribution et d'en interdire toute projection. Encouragé par une critique honorable, Stanley Kubrick quitte définitivement le magazine "Look," bien que le film soit un échec commercial. Lors du tournage du film il rencontre sa future femme, Ruth Sobotka. En 1954, "Le Baiser du tueur" ("Killer's Kiss"), son second long-métrage, film très court tourné dans les rues de New York, raconte l'histoire d'un boxeur minable obligé de fuir la mafia. L’histoire manque d'originalité (c'est le seul scénario original écrit par Kubrick), mais ce film démontre son talent à jouer avec l'ombre et la lumière et confirme sa maîtrise technique dans la scène de combat dans un entrepôt de mannequins. Sa réalisation est récompensée par un Léopard d'or au Festival international du film de Locarno. Débuts de la collaboration avec James Harris. "Le Baiser du tueur" attire l'attention de James B. Harris, producteur indépendant qui a de bonnes relations avec les majors de Hollywood. Alexander Singer, qui a connu Harris quelques années auparavant, fait se rencontrer les deux hommes. Cette rencontre est décisive, et ensemble ils fondent la "Harris-Kubrick Pictures" alors qu'ils ne sont tous les deux âgés que de 26 ans. Deux ans plus tard, en 1956, naît de leur association le troisième film de Kubrick, "L'Ultime Razzia" ("The Killing"), le premier grand film avec un budget de financé en partie par Harris et les United Artists. Pour la première fois le réalisateur dispose d'acteurs professionnels et d'une équipe technique complète. Encore une fois, l’histoire n'a rien d'exceptionnel : un tireur embusqué doit abattre le cheval de tête dans une course hippique pour créer une diversion et ainsi faciliter le braquage de la caisse des paris. Un film noir de braquage comme il en existe beaucoup à cette époque, mais Stanley Kubrick fragmente l'histoire que seule la voix off, très influencée par "Citizen Kane" d'Orson Welles, permet de reconstituer. Plus d'une décennie plus tard, la critique Pauline Kael considérait que "L'Ultime Razzia" avait lancé la carrière de Kubrick. Elle ne s'était pas trompée. Leurs chemins se croisent souvent par la suite car elle déteste tous ses films : Au cours du tournage, Kubrick affirme son autorité : alors que le directeur de la photographie, Lucien Ballard, change l’objectif que Kubrick avait choisi pour une scène avec un travelling, ainsi que son emplacement, en lui expliquant que cela n’aura aucune incidence sur les changements de perspective, calmement le cinéaste lui intime l’ordre de remettre la caméra à son emplacement d’origine avec l’objectif initial, ou bien de quitter le plateau et de ne jamais y revenir. Ballard obéit et le tournage se termine tranquillement. Malgré un budget important, Kubrick n’apparaît encore dans ce film que comme l’un des nouveaux maîtres de la série B. Orson Welles, interrogé par André Bazin sur les autres cinéastes, déclare : « "L'Ultime Razzia" de Kubrick n'est pas trop mal ». Dans la revue "Cahiers du cinéma", Jean-Luc Godard lui reconnaît quelques qualités tempérées : « C'est le film d'un bon élève, sans plus. Ce qui correspond chez Ophüls à une certaine vision du monde n'est chez Kubrick qu'esbroufe gratuite. Mais il faut louer l'ingéniosité de l'adaptation qui, adoptant systématiquement la déchronologie des actions, sait nous intéresser à une intrigue qui ne sort pas des sentiers battus. » "L'Ultime Razzia" étant un succès, United Artists accepte de financer à hauteur d'un million de dollars le film suivant de Harris-Kubrick tiré d'un best-seller américain de 1935, "The Paths of Glory", inspiré d'événements réels s'étant produits en 1915, l'affaire des caporaux de Souain, fusillés « pour l'exemple », et pas du tout des mutineries de 1917 comme on le dit couramment. Les fusillés de Souain n'étaient aucunement des « mutins », ce qui rend leur condamnation encore plus insupportable. Harris ne disposant que d'un budget très modeste selon les critères hollywoodiens et d'un scénario de Kubrick, Calder Willingham et Jim Thompson, le projet ne suscite guère d'enthousiasme auprès des majors. Tout bascule quand Harris envoie une copie du scénario à Kirk Douglas, lequel répond : . En 1957, sept ans après son premier court-métrage, Kubrick dirige Kirk Douglas dans un film sur l’absurdité de la guerre, "Les Sentiers de la gloire". Le film se déroule durant la Première Guerre mondiale. Un général de l'armée française décide de lancer une de ses unités dans des attaques désespérées contre les lignes allemandes retranchées à Verdun. Après un échec désastreux et de lourdes pertes humaines, l'état-major décide que, « pour l’exemple », trois soldats innocents seront fusillés pour lâcheté. Le film est entièrement tourné en Allemagne, avec 800 policiers allemands pour jouer les troupes françaises. Les scènes en intérieur sont tournées au studio Geiselgasteig à Munich. On y voit apparaître des séquences qui caractérisent Kubrick et qu'il ne cesse de perfectionner par la suite : travelling avant en caméra subjective, travelling arrière pour la marche du colonel dans la tranchée, travelling latéral pour la scène d'assaut du "no man's land", utilisation de la musique, et mouvements de caméra sans heurt filmés avec une Dolly pour la marche ininterrompue du colonel Dax dans les tranchées. Cette scène est d'ailleurs similaire à celle du labyrinthe de "Shining", filmée en steadicam. La scène du chant de la jeune captive, jouée par sa future épouse, l'actrice allemande (nièce de Veit Harlan) Christiane Susanne Harlan, montre la capacité de Kubrick à filmer l'émotion sans tomber dans la sensiblerie. Il divorce de Ruth Sobotka en 1957 pour épouser en 1958 Christiane Harlan qu'il a rencontrée pendant le tournage. Le frère de celle-ci, Jan Harlan, devient le producteur délégué du réalisateur à partir de 1975. Dans ce film apparaissent deux thèmes de prédilection de Kubrick : la double personnalité et un monde au bord de l'effondrement. Dans le livre et dans le film, les personnages sont clairement identifiés, avec le colonel Dax (Kirk Douglas), homme sobre, intelligent et courageux, et le général Mireau (George Macready), vaniteux, ambitieux et incompétent. Le personnage le plus machiavélique du film est le général Broulard (Adolphe Menjou). Kubrick joue habilement avec la bonhomie du personnage rusé et raffiné mais s'avérant incroyablement amoral (il détruit les dernières illusions du colonel et ruine définitivement la carrière du général) et sans aucune pitié envers les hommes de troupe. Le film est projeté à Munich le . Il est perçu comme une critique directe de l'armée française, par la cruauté des scènes finales et la satire violente des états-majors français, même si le film souffre de nombreuses invraisemblances. Il reçoit plusieurs récompenses, dont le prix "Chevalier de la Barre". Sous la pression d'associations d'anciens combattants français et belges, le gouvernement français proteste auprès de la United Artists, mais ne demande pas la censure du film. Devant l'ampleur du mouvement contestataire, les producteurs du film décident de ne pas le distribuer. De nombreux pays en Europe, comme la Suisse, refusent également de le diffuser. C'est dix-huit ans plus tard, en 1975, que le film est finalement projeté en France. Un bref passage à Hollywood. De retour aux États-Unis, Stanley Kubrick écrit deux scénarios qui sont refusés par les majors hollywoodiens. La MGM lui propose de travailler sur le scénario d'un western avec comme vedette Marlon Brando. Après six mois de travail de préparation, le cinéaste et l’acteur se fâchent. Marlon Brando, star hollywoodienne, obtient facilement le départ de Kubrick et décide de réaliser lui-même "La Vengeance aux deux visages". Au même moment, sur un autre film, Kirk Douglas, acteur et producteur principal du péplum "Spartacus", insatisfait du travail d'Anthony Mann, sollicite Stanley Kubrick pour terminer le film. Après le succès commercial des "Sentiers de la gloire", celui-ci accepte et termine le film. Le tournage dure 167 jours, partagé entre la Californie et l’Espagne pour les scènes de combat tournées avec figurants issus de l'armée espagnole. Des conflits artistiques apparaissent rapidement entre Kirk Douglas et Russell Metty, le directeur de la photographie. Kubrick intervient également sur le scénario fondé sur l'histoire vraie du soulèvement d’esclaves romains qu'il trouve moralisateur et sans intérêt. Le film sort en 1960, il obtient un grand succès critique et commercial et gagne quatre Oscars. Quelques années plus tard, Stanley Kubrick renie le film dont il garde un souvenir amer. Dans l'œuvre de Kubrick, c'est son film le plus impersonnel, le film reprenant l'intrigue et le traitement du roman historique de Howard Fast. Derniers films en noir et blanc. En 1962, pour la réalisation de "Lolita", le réalisateur préfère éviter la censure et les ligues puritaines américaines et se tourne vers l'Angleterre pour le tournage. Il avait prévu de revenir ensuite aux Etats-Unis, mais pour son projet suivant, "Docteur Folamour", l'acteur principal qu'il a choisi, l'Anglais Peter Sellers, ne peut pas quitter le territoire car il est au milieu d'une procédure de divorce. Pendant le tournage de "Lolita", Kubrick achète une grande maison au nord de Londres où il s'installe avec sa famille. Il dit : . De plus, malgré sa licence de pilote amateur, Kubrick n'aime pas prendre l'avion. Stanley Kubrick réalise donc "Lolita", son premier film polémique, sur le sol anglais, d'après le roman de Vladimir Nabokov. Le livre avait été publié pour la première fois en France comme ouvrage pornographique. Pour la rédaction du scénario, le cinéaste travaille en étroite collaboration avec Vladimir Nabokov. Ils écrivent ensemble une nouvelle version du roman qui est jugée plus acceptable pour un film commercial et la morale imposée au cinéma en 1962. Le film raconte l'histoire d'un homme d'âge mûr, Humbert Humbert, joué par James Mason, pris d'une passion ardente pour une adolescente, Lolita, âgée de 12 ans dans le livre, 15 ans dans le film, interprétée par Sue Lyon qui obtient le Golden Globe de la meilleure actrice. Peter Sellers y fait une interprétation remarquée. Le film, tout comme le roman, provoque la colère des puritains qui le trouvent sulfureux, malgré sa mise en scène très chaste, bien éloignée des allusions sexuelles explicites de l'ouvrage de Nabokov. À la sortie du film, Stanley Kubrick reconnaît que s'il avait pu prévoir la sévérité des censeurs américains, qui l'obligent à couper des scènes au montage et à remanier certaines séquences jugées trop licencieuses, il aurait probablement renoncé à la réalisation du film. Le film est présenté à la Mostra de Venise en 1962, mais la critique est déçue. Le schéma d'accueil de ses films par la critique, dont la plus virulente est Pauline Kael, est toujours le même par la suite : une partie ne lui fait pas de cadeau, tandis que l'autre l'admire. Ce premier film polémique est un succès outre-Atlantique, sans nul doute nourri par la controverse. En 1963, Jean-Luc Godard décrit "Lolita" comme un . En 1998, Sue Lyon déclare à l'agence Reuters que "Lolita" est le film qui a « causé [sa] destruction en tant que personne ». Il s'agit du dernier film produit par le duo Kubrick-Harris. Après ce long-métrage, Stanley Kubrick produit et réalise seul ses films, en laissant la distribution à la Warner Bros Pictures. En 1963, Kubrick prépare son second film polémique et le premier opus d'une trilogie de films de science-fiction, "Docteur Folamour ou : Comment j'ai appris à cesser de m'inquiéter et à aimer la bombe", considéré comme un chef-d'œuvre d'humour noir. Kubrick se tient constamment au courant de l’actualité et s’abonne à des revues militaires et scientifiques. Il lit le roman de Peter George, "Red Alert", paru en Angleterre sous le titre de "Two Hours to Doom". Il réfléchit depuis longtemps à une histoire où une guerre nucléaire serait déclenchée soit par accident, soit à cause de la folie d’un personnage. Le roman de Peter George correspond à ses attentes. Il s’associe avec Peter George et Terry Southern, scénariste d"Easy Rider", pour préparer le script, et travaille la photographie du film avec Weegee. Le tournage débute le , aux studios de Shepperton à Londres, pour s’achever quatre mois plus tard. La distribution comprend Peter Sellers qui tient les rôles (dans l'ordre de leur apparition) du colonel britannique Lionel Mandrake, du président des Etats-Unis et du docteur Folamour, ancien chercheur nazi, handicapé, recruté par l'armée américaine (clin d'œil à la trajectoire de plusieurs scientifiques nazis, dont Wernher von Braun). Une très grande liberté d’improvisation est laissée à Peter Sellers, filmé par trois caméras, tandis que le reste de la distribution et l’équipe technique doivent observer une grande rigueur. Le film doit se conclure par une bataille de tartes à la crème dans la salle de guerre, avec le président et tous ses conseillers militaires. La scène est filmée, nécessitant des semaines de tournage, mais Kubrick décide de la retirer du montage final. Farce burlesque où la guerre nucléaire totale est déclarée à la suite de l'action d'un commandant devenu fou et d'un système de défense automatique, ainsi que satire des milieux politico-militaires, ce nouveau film sort en pleine guerre froide, où le risque de voir l’un des deux antagonistes faire usage de l’arme atomique est élevé. Un problème de taille apparaît : un film réalisé par Sidney Lumet, "Point limite", avec Henry Fonda dans le rôle principal, traitant du même sujet, est sur le point de sortir. Stanley Kubrick intente un procès pour plagiat, et obtient gain de cause. Le film de Lumet ne sort qu’en tandis que "Docteur Folamour" sort sur les écrans le et se trouve nommé pour quatre Oscars (meilleur film, meilleur réalisateur, meilleur acteur, meilleure adaptation cinématographique). Passage à la couleur. À partir de ce moment, installé définitivement en Angleterre, le cinéaste travaille de plus en plus lentement, poussant de plus en plus loin son perfectionnisme et sa volonté d'expérimentation technique. Il passe cinq ans à développer son film suivant "2001, l'Odyssée de l'espace". Le , Kubrick rencontre Arthur C. Clarke au restaurant Trader Vic's du Plaza Hotel de New York. Pour imaginer le monolithe noir, clé de voûte du film, les deux coscénaristes font la tournée des galeries d'art le mois suivant leur rencontre. Selon le sémiologue français Alexandre Bourmeyster, ils se seraient inspirés des œuvres du peintre Georges Yatridès, alors mis en valeur par un des plus grands marchands de tableaux du moment, S.E. Johnson, qui exposait les œuvres de l'artiste de manière permanente aux "International Galleries" de Chicago. Le tournage du film débute le , sous le titre provisoire de "Voyage au-delà des étoiles". Il se déroule dans un premier temps aux studios de Shepperton, puis se poursuit aux Studios d'Elstree, plus proches de la villa où Kubrick a emménagé. MGM et Cinerama financent le film, dont le budget s’élève à six millions de dollars. Pour la première fois, le cinéaste interdit le plateau de tournage à la presse, ce qu’il fait systématiquement par la suite. Artistiquement, "2001" a été un changement radical dans les films de science-fiction. Stanley Kubrick n’étant pas un partisan des films où les décors et les monstres sont en papier mâché ou en carton, il souhaite que les décors de son film soient techniquement réalisables dans le futur qu’il présente. C’est Tom Howard, lauréat de l’Oscar des meilleurs effets visuels en 1947 pour "L'esprit s'amuse" et en 1959 pour "Les Aventures de Tom Pouce", qui est chargé de concevoir la savane préhistorique. Wally Veevers conçoit les véhicules spatiaux et l'autocar lunaire. On construit également une centrifugeuse de . Pour les effets spéciaux, Kubrick s’entoure d’éminents collaborateurs, parmi lesquels Harry Lange, ancien conseiller de la NASA, et Marvin Minsky, directeur d’un laboratoire d’intelligence artificielle. George Lucas, créateur de "Star Wars", déclare après la mort de Kubrick que si ce film n'avait pas été fait il n’aurait probablement jamais réalisé sa saga. Kubrick reçoit l'Oscar des meilleurs effets visuels, le seul et unique Oscar de sa carrière, pour la qualité de son travail. Une équipe l'a aidé dans cette tâche, mais comme il est à la fois concepteur et créateur de quasiment tous les effets spéciaux du film, c'est à lui que l'on décerne la statuette. C'est également le début de la légende que le cinéaste va volontairement se forger : celle d'un homme qui, tel un ordinateur, enregistre une incroyable quantité d'informations, devenant un expert de la mise en scène dont il maîtrise parfaitement tous les rouages. Stanley Kubrick n'hésite pas à utiliser les dernières innovations techniques quand cela sert son œuvre : ordinateur et projection frontale pour "2001", éclairage à la lumière des bougies pour "Barry Lyndon", grâce à un objectif Zeiss développé pour la NASA, ou encore steadicam pour "Shining" ("The Shining"). "Orange mécanique" est un film à la violence et à l’érotisme prémonitoires, réalisé en 1971 d’après le roman "L'Orange mécanique" de Anthony Burgess et adapté par Stanley Kubrick, qui travaille seul. Le thème du double, cher à Kubrick, est encore une fois développé dans ce film, avec Alex qui représente l’inconscient de l’homme qui lutte entre le bien et le mal dans un monde qui s’effondre. Kubrick réalise le film très rapidement, caméra à l'épaule, et presque entièrement tourné dans la région de Londres. Au , dans une Angleterre où l'on ne sait plus comment enrayer l'escalade du crime, Alexandre de Large (Malcolm McDowell), le chef de la bande des "droogs" ou "droogies", exerce avec sadisme une terreur aveugle sur fond de symphonie de Beethoven (2e et 4e mouvements). En Angleterre le film suscite une polémique importante, aggravée par plusieurs faits divers où des délinquants, portant les mêmes costumes qu'Alex, déclarent s'inspirer directement du personnage principal du film. Dans un premier temps, Stanley Kubrick ne tient pas compte de ces faits divers, mais les médias, frustrés par le manque d’interlocuteur, se retournent vers l’auteur du livre qui se retrouve seul à défendre un film auquel il n’a pas participé. La controverse s’amplifie et, inquiété par les lettres de menaces de mort qu'il reçoit à son domicile, le réalisateur oblige la Warner à retirer le film des écrans du Royaume-Uni. Élu meilleur film de l’année 1972 par le New York Film Critics Circle, "Orange mécanique" est l’un des plus gros succès de la Warner Bros. Pictures et reste à l'affiche durant soixante-deux semaines. déclarera Kubrick. Après trois films de science-fiction, frustré de l’abandon par la Warner Bros de son projet sur Napoléon, prévu avec Jack Nicholson dans le rôle de l’Empereur (Kubrick a une véritable passion pour Napoléon, il ne comprend pas comment un homme aussi intelligent a pu sombrer), Stanley Kubrick réalise son premier film historique à partir de la biographie d'un jeune Irlandais (Barry Lyndon) d'après le roman picaresque de William Makepeace Thackeray - le destin d'un jeune et intrigant Irlandais sans le sou, Redmond Barry (Ryan O'Neal), de son ascension pleine d'audace à sa déchéance. La préparation du film dure un an. Le réalisateur veut tourner un film à l’esthétique proche des tableaux du . La réalisation du film demande plus de de tournage au Royaume-Uni et en Allemagne (château des Hohenzollern, Potsdam et palais de Ludwigsbourg). À la fin du tournage, Kubrick et Ryan O'Neal sont définitivement fâchés. Les contraintes techniques imposées par le réalisateur font passer le budget du film de à plus de de dollars. Les critiques sont sévères envers le film qui est jugé trop long, trop lent, élitiste et ennuyeux. Le film obtient pourtant quatre Oscars : meilleure direction artistique, meilleure photographie, meilleurs costumes, meilleur arrangement musical. Stanley Kubrick entreprend ensuite l'adaptation du roman "Shining, l'enfant lumière" de Stephen King. Ce film est dans la lignée de "L'Exorciste", "Halloween" et "Rosemary's Baby," le meilleur du genre selon Kubrick. Le film est moins risqué financièrement que ses productions précédentes et, après l'échec commercial de "Barry Lyndon", l'adaptation d'un best-seller de Stephen King est un gage de quasi-succès (les six derniers romans de l'auteur se sont vendus à plus de d'exemplaires). Le réalisateur et Diane Johnson modifient profondément l’histoire du livre, ce qui déplaît à Stephen King qui refuse d’apparaître au générique final du film. Il n'est pas le seul mécontent : aux États-Unis l'exploitation du film est un échec, le public enrageant de n'avoir pas assez tremblé et reprochant aux deux scénaristes d'avoir abâtardi le genre et trahi l'esprit du livre. Comme à leur habitude, certains critiques huent le film. Le film relate la descente aux enfers de Jack Torrance (Jack Nicholson), écrivain ayant accepté un poste de gardien à l'hôtel Overlook, isolé dans les montagnes rocheuses et fermé pour l'hiver. Il s'y installe avec sa femme Wendy (Shelley Duvall) et son fils Danny (Danny Lloyd) qui possède un don de médium, le "Shining". Plus que tout autre film, "Shining" consolide la réputation de du réalisateur. Kubrick rôde dans les immenses studios de l'Estree, la barbe et les cheveux longs, les yeux cernés, tout comme son héros Jack Torrance qui erre sans inspiration dans l'hôtel Overlook. Pour les déplacements de personnages les plus complexes à filmer, son opérateur Garrett Brown utilise un système de stabilisation de caméra qu'il a inventé quelques années auparavant : le steadicam. Le tournage de plus d'un an est particulièrement difficile pour Shelley Duvall. Alors que Kubrick laisse une certaine latitude dans l’interprétation à Jack Nicholson, Shelley Duval doit répéter de 40 à 50 fois la même scène. Aujourd'hui, Shelley Duval dit : L'image finale du film, semblable à la fin quelque peu mystérieuse et ambiguë de "2001, l'Odyssée de l'espace", engendre plusieurs interprétations de la part des fervents admirateurs du cinéaste, comme Rodney Ascher avec son film documentaire, "Room 237", lequel propose une interprétation sous forme d'indices cachés du film ; Stanley Kubrick lui-même n'a jamais donné une réponse définitive, préférant laisser le soin aux spectateurs de décider par eux-mêmes. Kubrick considère ce film comme son œuvre la plus personnelle. Kubrick veut tourner un vrai film de guerre, mais ni un film comme "Apocalypse Now" ou "Voyage au bout de l'enfer", ni une parodie comme "Docteur Folamour", ni un film antimilitariste tel que "Les Sentiers de la gloire". La symbolique du film "Full Metal Jacket" est proche de celle d’"Orange mécanique" où le héros, intellectuellement supérieur à ses camarades, doit lutter entre le bien et le mal dans un monde en guerre. Le personnage central du film, le soldat (Matthew Modine) va petit à petit perdre son âme durant ses classes aux États-Unis, marqué par l’agression de son le soldat (Vincent D'Onofrio) et, au Viêt Nam, par l’exécution sans pitié d'une prisonnière vietnamienne. Stanley Kubrick détourne l’esprit du livre "The Short Timers" de l’écrivain Gustav Hasford pour mieux imposer sa propre vision de la guerre et de l’âme humaine, au grand mécontentement de l'écrivain qui est tout de même cité au générique final comme coscénariste. La première partie du film suit l'entraînement intensif d'un groupe de jeunes recrues américaines dans un camp de marines à Parris Island, aux États-Unis en 1968 pendant la guerre du Viêt Nam, et l'affrontement entre l'adjudant instructeur (Lee Ermey) et une jeune recrue inadaptée (Vincent D'Onofrio). La confrontation finale entre les deux hommes clôt cette partie. La deuxième partie du film se déroule au Viêt Nam et montre le baptême du feu des marines à Da-Nang puis la sanglante bataille du Têt dans la province de Hué. Le film est entièrement tourné en banlieue de Londres, bien loin du réalisme du film d'Oliver Stone, "Platoon". Quelques plantes exotiques servent de décors d’arrière-plan, les scènes de combat sont tournées dans une usine désaffectée, et l’île de Parris Island est recréée dans une ancienne base militaire britannique. Kubrick utilise plusieurs fois l’élargissement de champ pour modifier l’interprétation du spectateur lorsqu’il voit la scène de près puis de loin. Le tournage du film est interrompu pendant quatre mois à la suite de l'accident de voiture de Lee Ermey, conseiller technique en sa qualité d'ancien instructeur des marines et acteur principal de la première partie du film. Plus de sept ans après la sortie de son dernier film, Stanley Kubrick se lance dans l'adaptation du roman "la Nouvelle rêvée" de l'écrivain autrichien Arthur Schnitzler, livre qu'il avait lu à la fin des années 1970. Le scénario est une fidèle adaptation du livre et raconte l'errance dans la nuit new-yorkaise du docteur Harford (Tom Cruise), obsédé par la révélation de sa femme (Nicole Kidman) d'avoir failli céder à la tentation d'un autre homme, et à la recherche de ses propres fantasmes. Un voyage entre le réel et l'imaginaire. On retrouve dans "Eyes Wide Shut" ce qui a toujours fasciné Kubrick : le thème du double qui envahit tout et qui engendre la perte d'identité, . Le tournage dure quinze mois de novembre 1996 à janvier 1998 et bloque la carrière de Tom Cruise pendant trois ans (deux ans de tournage et la sortie du film "Mission Impossible" de Brian de Palma retardée d'un an). Comme à son habitude, le soir venu, Kubrick visionne sur vidéo les scènes tournées dans la journée et modifie au jour le jour le scénario en fonction des performances des acteurs. Après six mois de tournage, l'acteur Harvey Keitel claque la porte et est remplacé au pied levé par Sydney Pollack. Ce film est le testament de Kubrick, qui meurt d'une crise cardiaque dans son sommeil le . Il est enterré à côté de son arbre préféré dans le manoir de Childwickbury, dans le Hertfordshire, au Royaume-Uni. "Eyes Wide Shut" sort en salle en , quatre mois après la mort du réalisateur. Il le considérait comme son « meilleur film », selon une confidence faite à son ami Julian Senior la veille de sa mort (). Projets non aboutis. Parmi les projets inachevés de Stanley Kubrick, on peut citer un film sur Napoléon Bonaparte, abandonné à la demande des producteurs : un projet monumental (fruit de trente années d'un travail de bénédictin) qui échoue en 1969 pour des raisons techniques, financières et d'organisation. Après "Full Metal Jacket", Kubrick travaille en même temps sur deux films dont aucun ne sera réalisé. "Aryan Papers" ("WarTime Lies", adaptation du roman "Une éducation polonaise" de Louis Begley), un film abandonné pour ne pas concurrencer "La Liste de Schindler" de son ami Steven Spielberg dont le sujet est similaire, ainsi que "A.I. Intelligence artificielle", d'après la nouvelle "Les Supertoys durent tout l'été" de Brian Aldiss, projet réalisé par Spielberg après la mort de Kubrick. "Aryan Papers" raconte l'histoire d'un enfant traversant la Pologne pendant la Seconde Guerre mondiale et échappant à la déportation vers Auschwitz ; c'est son projet de film non réalisé le plus abouti, le casting étant établi, avec Johanna ter Steege pour le rôle de Tania et Joseph Mazzello pour le petit garçon. Un autre projet qui n'a jamais été réalisé était "Le Lieutenant allemand", un film sur les parachutistes allemands à la fin de la Seconde Guerre mondiale. Il y eut de même un projet d'adaptation d'un roman de Stefan Zweig, "Brûlant secret", un projet intitulé "Natural Child" (une fable sur la libération sexuelle, trop subversive pour l'époque), un projet intitulé "One Eyed Jack" (un western qui sera finalement porté à l'écran par Marlon Brando), et un projet intitulé "Lunatic at Large", sur un scénario de Jimmy Thomson, était encore d'actualité en 2011. Kubrick pose aussi le projet de l'adaptation du roman "Le Pendule de Foucault" (l'auteur, Umberto Eco, s'oppose à ce projet) et celui du roman "Le Parfum" de Süskind. Enfin, le satiriste Terry Southern tente de convaincre Kubrick pour la réalisation du film pornographique "Blue Movie". Style. Esthétique. Le jeune Stanley Kubrick, autodidacte, apprend les ficelles du métier de cinéaste — la composition d'une image, les éclairages, l'usage des extérieurs et l'art de saisir le mouvement. Plutôt perfectionniste, il lui arrive de prendre plusieurs centaines de clichés pour réaliser une seule photo — lors de ses quatre ans passés comme photographe au magazine "Look". C'est à cette époque qu'il décide de commencer sa formation en fréquentant assidûment les salles de cinéma. Ses goûts sont éclectiques, avec une préférence, comme il le dit en 1963 dans la revue "Cinéma", pour le cinéma d'auteur européen comme celui d'Ingmar Bergman, Michelangelo Antonioni ou Federico Fellini. Cependant, c'est par les films de Max Ophüls comme "Le plaisir" ou "Madame de..." qu'il sera particulièrement influencé, notamment le mouvement complexe et sans heurt de la caméra et les nombreux travellings. Kubrick apprend réellement tous les métiers du cinéma en faisant tout lui-même dans ses premiers films — scénariste, ingénieur du son, monteur, réalisateur… — ce qui lui permettra par la suite d'intervenir et d'imposer ses points de vue à ses techniciens lors des tournages afin d'obtenir l'image exacte qu'il recherchait. Il démontre ainsi dès 1954, avec "Le Baiser du tueur", son talent à jouer avec l'ombre et la lumière et confirme sa maîtrise technique dans la scène de règlement de compte dans un entrepôt de mannequins. Il démontre aussi rapidement à ses équipes techniques ses connaissances et son intérêt pour la photographie et la prise de vue. Pour lui, un réalisateur est à la fois metteur en scène et technicien. Au fil de ses films, Kubrick ajoute de nouvelles techniques à sa réalisation qu'il ne cesse de perfectionner par la suite. C'est à cette époque qu'il se fait remarquer par le brillant de sa photographie. En 1956, dans "L'Ultime Razzia", Kubrick fragmente l'histoire que seule la voix off très influencée par "Citizen Kane" d'Orson Welles permet de reconstituer. À partir de "2001, l'Odyssée de l'espace", le cinéaste travaille de plus en plus lentement, poussant de plus en plus loin son perfectionnisme et sa volonté d'expérimentation technique. Pour son premier film en couleur depuis "Spartacus", il va passer cinq ans à développer ce film, qui, par son esthétique et sa mise en scène, marque un tournant dans le cinéma mondial, en particulier dans le domaine de la science-fiction. Souhaitant une vision de l'espace éloignée des bandes dessinées et proche des observations scientifiques, il prend pour directeur de la photographie Geoffrey Unsworth, spécialisé dans la science-fiction. Celui-ci utilise le format Super Panavision 70 et bénéficie du perfectionnement de nouvelles techniques (socles, grues, perches, bras articulés), permettant rotations et mouvements aériens de la caméra comme si elle-même était en impesanteur. Il ajuste également, sur les conseils et avec l'aide d'astronautes et de spécialistes dans le domaine, ses éclairages pour être conforme à la volonté très précise du cinéaste. Le tournage nécessite quatre mois de travail pour les acteurs, et dix-huit pour les effets spéciaux. Pour "Barry Lyndon", le réalisateur veut tourner un film à l’esthétique proche des tableaux du . Pour recréer les conditions de l'époque, les intérieurs sont éclairés à la bougie, les visages des acteurs maquillés de blanc, les cheveux ternis par la poudre. La réalisation du film demande plus de 250 jours. Pour retrouver les conditions de lumière dans les anciens châteaux anglais, le réalisateur s'astreint à un éclairage des scènes d'intérieur quasiment à la lueur des bougies. Il se procure un objectif d'appareil photo Zeiss d'une focale de et d'une ouverture maximale de f/0.7, développé spécialement pour la NASA pour photographier l'alunissage de la capsule Apollo, mais encore jamais utilisé au cinéma. Il le fait monter sur une caméra réaménagée spécialement. Pour Kubrick ce n’est pas un gadget ou une lubie, le réalisateur voulant préserver la patine et l’ambiance d’un château dans la nuit au . Il précise : . Cette contrainte technique sera néfaste au budget du film qui passe de à plus de de dollars. Le diaphragme de l'objectif, de très grande ouverture (f/0.7), limite considérablement la profondeur de champ de la scène. Le réalisateur utilise également le zoom et les longues focales, ce qui a pour effet d'« aplatir » l'image. Musique. La musique a une grande importance dans la majeure partie de l'œuvre de Kubrick. Ce n'est pas la musique qui sert le film, mais le film qui sert la musique. Kubrick privilégie dans la plupart de ses films la musique classique et souvent préexistante. Dans "2001, l'Odyssée de l'espace", pour la première fois, Stanley Kubrick incorpore de la musique classique à un de ses films : la composition de la musique prévue ayant du retard, il meuble la bande-son avec de la musique classique pour le pré-montage. Alors que la MGM veut imposer au réalisateur une musique originale, composée par Alex North, Kubrick réussit à garder ses choix originels : "Le Beau Danube bleu" de Johann Strauss II, "Ainsi parlait Zarathoustra" de Richard Strauss, et György Ligeti pour la séquence de la porte stellaire. C'est à la musique de Wendy Carlos qu'il fait appel, entre autres, pour "Docteur Folamour, Orange mécanique et Shining". À Penderecki, Bartók et Ligeti pour "Shining". Kubrick voulait que la musique corresponde à l'époque de l'histoire racontée. Ainsi, dans "Full Metal Jacket", film sur la guerre du Viêt Nam, il utilise des chansons des années 1960, époque du conflit. Mais pour la musique de "Barry Lyndon", Stanley Kubrick emploie des œuvres de Bach, Mozart, Vivaldi, Haendel et Schubert, alors que ces compositeurs ne sont pas tous du . Il doit faire des concessions ; . Ne trouvant d'ailleurs pas de musique d'époque suffisamment dramatique pour la scène du duel final, il demande à Leonard Rosenman de réorchestrer la "Sarabande de Haendel" à un tempo plus lent (Oscar de la meilleure musique de film 1976). La musique de son dernier film, "Eyes Wide Shut" est marquante par ses motifs linéaires de piano extraits de "Musica Ricercata" de György Ligeti. Elle accentue le malaise des situations vécues par le personnage de Tom Cruise. Voix "off". C'est dans "Fear and Desire" que Kubrick insère pour la première fois une voix off. Puis dans "Le Baiser Du Tueur", en 1955. Le personnage principal Davey reconstitue en effet la chronologie de la narration grâce à sa voix off. En 1956 sort le troisième film de Stanley Kubrick, "L'Ultime Razzia" ("The Killing"). Kubrick fragmente l'histoire que seule la voix "off", très influencée par le "Citizen Kane" d'Orson Welles, permet de reconstituer. Il utilisera encore plusieurs fois la voix off par la suite, notamment dans "Docteur Folamour" (introduction) et "Barry Lyndon". Dans "Orange mécanique" et "Full Metal Jacket", c'est la voix intérieure, monologue qui n'est pas prononcé par un personnage mais qui exprime ses pensées au moment de la scène, qu'il utilisera pour la narration. Mythe Kubrick. Lors de la présentation à la presse de l'exposition consacrée à l'homme et à son œuvre le dans la ville belge de Gand, sa veuve Christiane déclare : Son caractère. D'un caractère réservé, voire timide, pouvant raser les murs quand il croisait quelqu'un dans un couloir, Kubrick devenait un autre homme une fois installé derrière sa caméra : il contrôlait le monde. En cela il imposait le respect ; imperturbable, très créatif, il finissait toujours par obtenir ce qu'il voulait. Son perfectionnisme lui vaut une renommée d'homme dur, coléreux et mégalomane. On fait état de scènes recommencées près d'une centaine de fois, d'une dispute violente avec Shelley Duvall (héroïne de "Shining") dans le seul but de la mettre dans un état émotionnel intense, tout comme d'une équipe technique tenant une grande bâche des heures durant sous la pluie pour ne pas interrompre un tournage. Stanley Kubrick devient un personnage mythique, vu comme un génie paranoïaque ayant une vision très pessimiste de la nature humaine, ne sortant de sa maison ultra-protégée, une sorte de forteresse infranchissable, enceinte de de bois et protégée par d'imposants grillages, que pour tourner ses films. Isolé dans son château anglais, Kubrick n'est pas pour autant coupé du reste du monde. Ses archives sont monumentales, et quand il prépare un film Kubrick dort le jour et travaille la nuit (en raison du décalage horaire avec Los-Angeles). Kubrick a toujours été réticent à s'entretenir sur ses œuvres, par crainte que celles-ci en soient appauvries. Les documentaires tournés sur Kubrick le seront par sa fille Vivian, pendant le tournage du film "Shining" : "The Making of the Shining" (1980) et par son beau-frère Jan Harlan "" (2001). Critiques. En 50 ans de carrière, Kubrick filme un combat intérieur, sous des perspectives différentes. Trois films de guerre, deux policiers, un film d'horreur, trois films de science-fiction, deux fresques historiques et deux films à objectif psychologique. L'histoire est principalement racontée à travers les images et la bande son pour susciter des émotions. « Quand vous dites les choses directement, elles ont moins de poids que si vous laissez les gens les découvrir par eux-mêmes. » Vivian Kubrick dira : Depuis "L'Ultime Razzia," Kubrick préfère adapter des livres plutôt que d'écrire un scénario original. Kubrick dira : . Selon le chercheur Alexander María Leroy, le film "Lolita" a contribué à donner une image positive de la pédophilie en mettant en scène une histoire d'amour complexe, mais véritable, alors que le rapport est, légalement, un détournement de mineur. Étudiant l'hypersexualisation des jeunes filles par le biais de la sociologie de la culture, cet auteur considère que des œuvres comme l'adaptation de Kubrick, ou le film "La Petite" de Louis Malle, ont accompagné une évolution des représentations sociales : les jeunes filles sont devenues, aux yeux de certains, de potentielles « adolescentes fatales », ce qui a eu pour effet d'atténuer, voire de nier, la responsabilité d'adultes coupables au regard de la loi. Or, il dénonce un réseau de prostitution dans "Eyes Wide Shut". Critiques de la part de ses pairs. Orson Welles déclare, en 1963 : . Welles est né en 1915 et Kubrick en 1928, mais les deux artistes ont de nombreux points communs. Tous deux ont réalisé des films profondément originaux et presque le même nombre (13 films pour Kubrick, 15 pour Welles). Ils se sont essayés au film de genre et ont vécu en Europe, à la différence près que Kubrick s'est volontairement exilé en Angleterre pour travailler en paix, alors que Welles y est contraint par la force des choses ; il avait besoin de décrocher des rôles pour financer ses films. Tous deux n'ont pu mener à terme certains projets : "Don Quichotte" et "It's all true", que Welles a réalisés, n'ont jamais vu le jour de la main de leur auteur, tout comme Kubrick qui doit renoncer à réaliser un film sur Napoléon et un autre, au début des années 1990, sur l'Holocauste. "Citizen Kane" de Welles était l'un des films préférés de Kubrick. Steven Spielberg dira : . Dans l'œuvre de Kubrick, "L'Ultime Razzia" est le film préféré de Spielberg. Une partie de la critique française attaque le cinéma de Kubrick. Dans "Cahiers du cinéma", Jean-Luc Godard écrit, à propos de ses premières œuvres ("L'Ultime Razzia", "Spartacus", "Les Sentiers de la gloire") : , mais parle de "Lolita" comme d'un Martin Scorsese s'intéresse à l'œuvre de Kubrick depuis longtemps. Il signe en 2002 la préface du livre de Michel Ciment. Il y dit au sujet de Kubrick : Il poursuit en analysant le style de Kubrick : Reconnaissance. La distance que garde Kubrick par rapport à la communauté d'Hollywood joue certainement en sa défaveur. En effet, à l'instar d'autres grands réalisateurs, comme Charlie Chaplin, Orson Welles, Fritz Lang, Robert Altman, Sergio Leone ou Alfred Hitchcock, Kubrick, malgré plusieurs propositions, n'obtiendra jamais l'Oscar du meilleur réalisateur. Parmi les récompenses qu'il a remportées : Du 23 mars au 31 juillet 2011, une exposition lui est consacrée en France à Paris, à la Cinémathèque française. Une rétrospective nationale a eu lieu à cette occasion dans de nombreux cinémas. En 2020, la Cinémathèque suisse consacre une rétrospective intégrale à l'œuvre de Stanley Kubrick. Kubrick personnage de cinéma. Kubrick, personnage mythique du cinéma, devait fatalement devenir lui-même personnage de film. On peut voir un « Stanley Kubrick » dans les films suivants : Trois mois avant le décès du cinéaste, un certain Stanley Kubrick, demeurant à Harrow, décède d'une crise cardiaque dans son petit appartement. Il s'agit d'un imposteur, Alan Conway, qui, pendant des années, se fit passer pour le cinéaste et abusa et profita ainsi de dizaines de personnes plus ou moins connues. Il semblerait que l'idée ait fasciné Kubrick lui-même. Un film avec John Malkovich retrace d'ailleurs l'histoire de cet homme : "Appelez-moi Kubrick". À la suite d'un ennui de santé du chef-opérateur Claude Renoir sur le tournage du film "L'espion qui m'aimait", et à la demande de son ami le chef décorateur Ken Adam ("Barry Lyndon" et " Folamour"), Stanley Kubrick accepte, à la condition expresse que sa contribution reste secrète, de superviser l'éclairage de la scène d'intérieur du supertanker. Il existe cependant une photo de Kubrick sur le plateau de tournage. Rumeurs de collaboration avec la NASA. "2001, l'Odyssée de l'espace" est un triomphe dont l’influence est gigantesque sur l'imagination collective et sur lequel viendra se greffer la théorie visant à lui donner une influence sur la NASA ; cette dernière aurait emprunté les noms de "Jupiter", "Discovery" ou "Ulysse" pour ses projets. En réalité, Discovery fut baptisée en référence au de l'explorateur anglais James Cook. La fusée Jupiter, quant à elle, a été lancée en 1958, 10 ans avant la sortie du film. D'après une théorie du complot, des contacts entre la NASA et Kubrick auraient poussé celui-ci à réaliser pour leur compte des prises de vues factices. Cette théorie se fonde sur l'investissement supposé d'un ancien conseiller de la NASA et l'intérêt de cette dernière pour le film "2001", en phase de montage à l'époque. Celle-ci aurait poussé Kubrick à participer à la réalisation en studio de faux alunissages des programmes Apollo 11 et 12. En 1968, Kubrick aurait été secrètement contacté par l'agence spatiale pour réaliser les trois premiers alunissages. Kubrick aurait d'abord refusé puis fini par accepter face aux menaces de révélation de l’« embarrassante » implication de son frère Raul au sein du parti communiste américain. Il aurait ensuite proposé un scénario où la mission Apollo 13 aurait échoué mais où les astronautes étaient sauvés. Devant le refus de la NASA, Kubrick aurait cessé sa collaboration. Ces affirmations proviennent pour la plupart du documentaire fictionnel "Opération Lune" réalisé par William Karel en 2002 pour montrer les moyens de trucages et de manipulation de la vidéo et des interviews. Ce documenteur réalisé avec des acteurs et des interviews détournées a créé la confusion, certaines parties relatant des faits réels, d'autres des hypothèses et de la pure fiction, le tout monté pour servir une fiction. Dans le documentaire "Room 237", qui présente plusieurs théories plus ou moins plausibles sur le film "Shining," l'une d'elles prétend que Kubrick aurait truffé son film d'indices qui témoignent de cette collaboration et du secret qui l'entoure. Annexes. Bibliographie. Stanley Kubrick a toujours été réticent à s'entretenir sur ses œuvres, laissant au spectateur la liberté de formuler sa propre interprétation. Les deux principaux livres auxquels il a participé activement avec Michel Ciment et Alexander Walker sont consacrés au récit (image et son) et à la symbolique de ses films. |
Shikoku est l'une des quatre grandes îles du Japon avec Honshū, Hokkaidō et Kyūshū. Elles forment, avec les archipels Nansei et Nanpō, l'archipel japonais. Toponymie. Le toponyme « » (« Shikoku ») est composé de deux sinogrammes japonais. Le premier, « » (« "shi" »), signifie « quatre » et le second, « » (« "koku" »), « pays ». Avant l'ère Meiji (1868-1912), l'île de Shikoku était divisée en quatre provinces : Awa, Tosa, Sanuki et Iyo. Celles-ci sont devenues des préfectures. Géographie. La superficie de l'île de Shikoku est de . Sa population est estimée à d'habitants. Le point culminant de l'île est le mont Ishizuchi dans la préfecture d'Ehime. À l'inverse des trois autres grandes îles du Japon, Shikoku ne contient aucun volcan. Transport. Trois autoroutes connectent Shikoku à Honshū : Shikoku a quatre aéroports régionaux (l'aéroport de Tokushima, Takamatsu, Matsuyama et Kōchi). Ils desservent les villes de Tokyo, Osaka, Nagoya, Fukuoka ou encore Sapporo. Des vols internationaux existent également vers Séoul à partir de l'aéroport de Takamatsu et vers Séoul et Shanghai à partir de l'aéroport de Matsuyama. Shikoku est la seule région japonaise qui ne bénéficie pas du Shinkansen, le train à grande vitesse japonais. Traditions. Shikoku est célèbre pour son très ancien pèlerinage dédié à Kōbō-Daishi qui consiste à faire le tour de l'île à pied et à s'arrêter dans 88 temples. Malgré un réseau de sentiers long de , il est effectué chaque année par un nombre important de Japonais, en plus ou moins deux mois. Le festival Awa-Odori a lieu dans la ville de Tokushima tous les ans, du 13 au . Le festival Yosakoi a lieu dans la ville de Kōchi tous les ans du 9 au . Il s'agit d'un festival de musique et de danse au cœur de la ville. Autre signification. Le "shikoku" est une race de chien, encore appelée « chien de Kōchi », du nom de la préfecture de Kōchi d'où il est originaire. |
Signes du zodiaque |
Sciences de la Terre Les , ou , regroupent les sciences dont l'objet est l'étude de la Terre (surface terrestre et Terre interne, eau, air, biosphère) et de son environnement spatial. En tant que planète, la Terre sert de modèle à l'étude des planètes telluriques. Depuis que des sondes spatiales permettent d'explorer d'autres objets du système solaire, la planétologie est aussi classée parmi les sciences de la Terre. Celle-ci étudie notamment la Lune, les planètes et leurs satellites naturels, les astéroïdes, les météorites et les comètes. On parle plus généralement des « sciences de la Terre et de l'Univers ». Principaux domaines. Sciences géologiques. La géologie est la science qui, historiquement, s'occupait de la description et de l'histoire des couches externes de la Terre. Elle s'intéresse traditionnellement à la composition, à la structure et à l'évolution de la surface et des couches superficielles de la croûte terrestre qui, au cours des processus géologiques, sont tantôt enfouies sous la surface, tantôt exposées à la surface. Depuis le milieu des années 1960, avec l'avènement de la tectonique des plaques par une méthode géophysique (magnétisme des roches), approuvant l'ancienne théorie de la dérive des continents d'Alfred Wegener, les géologues ont trouvé un cadre plus général et plus approprié dans lequel placer et interpréter leurs observations. Le résultat en est que les géologues s'intéressent maintenant aussi à des zones plus profondes de la croûte et du manteau de la Terre, qui avant 1965 furent essentiellement l'apanage des géophysiciens. Il en résulte un brassage des idées profitables pour l'ensemble des sciences de la Terre. Néanmoins, si les géologues tiennent compte dans leurs modèles géologiques des acquis de la géophysique interne, cette dernière fait appel à des modèles physiques suffisamment simples pour être mis en équations et dégager des résultats quantitatifs, tandis que les modèles géologiques sont souvent assez complexes mais restent qualitatifs. Les sciences géologiques, organisées à l'échelle mondiale dans l'Union internationale des sciences géologiques, comprennent plusieurs disciplines qui se recoupent et sont souvent associées : Sciences géodésiques et géophysiques. La géodésie et la géophysique sont des sciences qui étudient la Terre par des méthodes mathématiques et physiques. Elles sont regroupées officiellement dans le cadre de l'Union géodésique et géophysique internationale, qui comprend les sept subdivisions suivantes, formant autant d'associations internationales : Science météorologique. Le but de la météorologie est de trouver les lois régissant la dynamique du fluide que l'on nomme l'air et de pouvoir prédire son comportement futur. L'air est un fluide compressible, formé de différents gaz et se trouvant dans une mince couche à la surface d'un référentiel en rotation (la Terre). La météorologie étant une branche de la physique, la théorie des fluides, le calcul des forces et la thermodynamique sont mises à profit pour expliquer le comportement de l'atmosphère. Sciences du Vivant. L'écologie étudie les interactions entre la Terre et le vivant en s'intéressant notamment aux interfaces entre géosphère, hydrosphère, biosphère, écosystèmes, économie et sociétés, car ces dernières ont pris une importance croissante avec la conjonction d'une explosion démographique et du développement industriel qui ont fortement augmenté l'empreinte écologique de l'Humanité et des individus qui la composent. Les sciences de la Terre s'intéressent ainsi à l'étude des impacts du développement et aux modes d'aménagement du territoire en tant qu'impactant plus ou moins fortement la naturalité des milieux, pour trouver des moyens de gérer, restaurer et protéger les ressources primaires (eau, air, sol, diversités génétique, paysagère et spécifique). Les sciences de la Terre s'intéressent pluridisciplinairement aux conséquences des manières dont l'Homme modifie les dynamiques écopaysagères, climatiques, géomorphologiques, écologiques (biodiversité, de productivité biologique, en incluant des approches de type écotoxicologie, écoépidémiologie, bioindication…). Les sciences de la Terre tentent aussi de mesurer le degré de surexploitation de ressources pas, peu, lentement, difficilement ou coûteusement renouvelables, dans l'espace (aux échelles globales et locales) et dans le temps (écologie rétrospective, paléoécologie…), pour contribuer à élaborer des solutions pour un développement plus soutenable, des mesures conservatoires et mesures compensatoires quand cela semble possible. |
Système électoral Le système électoral, mode de scrutin, système de vote ou régime électoral, désigne tout type de processus permettant l'expression du choix d'un corps électoral donné, souvent la désignation d'élus pour exercer un mandat en tant que représentants de ce corps (élection), ou moins souvent le choix direct (référendum) d'une option parmi plusieurs. Dans le cadre d'élections, les systèmes électoraux sont soit des scrutins utilisant la règle de la majorité, dits scrutins majoritaires, soit des systèmes cherchant à représenter plus ou moins fidèlement le vote des électeurs via le principe de la représentation proportionnelle, soit des systèmes mixtes alliant ces deux types de système. Différents modes de scrutin peuvent donner des résultats très différents, en particulier dans les cas où il n'y a pas de préférence clairement majoritaire en faveur d’une seule et même option. À ce jour, plusieurs systèmes sont en vigueur ou proposés. Un système électoral est une méthode de transformation des suffrages en élus qui n'est pas sans influence sur la façon de « faire de la politique » par les parties en présence, les systèmes d'alliances, l'organisation des campagnes électorales, ou le résultat. « Il constitue aussi un facteur important d'orientation positive du vote populaire, puisque sa logique et sa dynamique […] influencent de façon souvent déterminante le choix de l'électeur ». L'importance que revêt cet aspect du vote dans un système politique justifie que de nombreux théoriciens se soient penchés sur les modes de scrutin, leurs effets et leur fonctionnement. Leur étude, qualifiée de "théorie du vote" dans le jargon anglophone, est une discipline du droit constitutionnel qui entre en relation avec la science politique et les mathématiques. Des aspects indépendants du fonctionnement des modes de scrutin mais entrant fatalement en relation avec lui, tels la procédure électorale (décompte, scrutin), le corps électoral, l'éligibilité et le poids attribué à chaque vote sont traités par ailleurs. Modalités d’expression du corps électoral. L’exercice par les citoyens, formant le corps électoral, de leur droit de suffrage permet d’assurer la représentation du peuple ou de sa volonté. L’élection est un des moyens privilégiés pour la désignation des gouvernants dans les systèmes politiques, même lorsqu'ils se veulent démocratiques (alors que le vote est par essence un système aristocratique, où seule une minorité est élue, et que les démocraties utilisent autant que possible pour la représentation du peuple ; le tirage au sort ne se fait plus guère que pour le choix des jurés lors d'un procès). Le résultat d’une élection peut être d'un seul gagnant, ou de plusieurs gagnants comme pour l'élection d'une assemblée délibérante. Le système électoral peut également fixer de quelle manière le nombre de voix est réparti entre les électeurs, et la façon dont les électeurs sont divisés en sous-groupes (circonscriptions géographiques, tribus ou nation traditionnelles…) dont les voix sont comptées indépendamment. Le suffrage est donc conditionné par un certain nombre de règles, qui déterminent les électeurs et les mécanismes relatifs à l’expression de leur vote. En cas d'égalité entre deux candidats, les démocraties occidentales recourent à différentes pratiques pour les départager : pile ou face ou tirage à la courte paille dans de nombreux pays notamment anglo-saxons, victoire au bénéfice du plus âgé en France (logique gérontocratique), ou par tirage au sort manuel en Suisse. Dispositions relatives à l'exercice du droit de vote. Le droit de vote a longtemps été censitaire, dans les premières démocraties représentatives à proprement parler, avant de devenir universel, très souvent pour les seuls hommes. Les femmes ont été intégrées aux corps électoraux souvent tardivement, et il faudra attendre la fin de la Première Guerre mondiale pour voir le droit de vote des femmes devenir la règle dans une majorité de démocraties représentatives. La modernisation de ces démocraties a aussi permis un abaissement progressif de la majorité électorale, ainsi que l'intégration des résidents étrangers aux corps électoraux de certains pays, tout particulièrement pour des scrutins locaux. C'est d'ailleurs la règle dans le cadre de l'Union européenne, où tout résident ayant la nationalité d'un pays membre peut prendre part aux élections européennes et municipales s'il réside dans un autre pays de l'Union que le sien. La désignation de représentants du peuple revêt une telle importance qu'elle justifie également que seuls des citoyens responsables puissent y participer, ce qui peut impliquer le retrait du droit de vote aux personnes condamnées par la justice. Les systèmes électoraux ont toujours pu fonctionner indépendamment de ce type de considérations propres au seul problème du droit de vote. L’environnement dans lequel une élection a lieu n'est généralement pas considéré comme faisant partie du mode de scrutin. Ce sont des aspects traités par les procédures électorales et l'organisateur des élections. Par exemple, si un système électoral spécifie le mode de répartition des votes de manière abstraite, il ne précise pas si la réalité physique du scrutin (l’acte de voter) prend la forme d'une feuille de papier ou d’un écran d'ordinateur, si ou comment les votes sont tenus secrets, comment vérifier qu'ils soient comptabilisés correctement, quel jour ou dans quel lieu se déroule le vote, comment s'opère la vérification de l'identité du votant et du respect du nombre de n auquel il a droit Les circonscriptions. Une circonscription électorale est une division géographique des votants. Chaque circonscription se voit affecter un ou plusieurs représentants (ou "sièges" à pourvoir) et les électeurs ne pourront choisir qu'entre les candidats (ou les listes de candidats associés) qui se présentent dans leur circonscription. Ce genre de découpage géographique est utilisé pour les élections à une très grande majorité d'assemblées délibérantes. En pratique cela donne lieu à l'organisation d'autant de scrutins différents qu'il y a de circonscriptions, en général simultanément, pour élire plusieurs personnes dans les mêmes conditions et pour exercer la même fonction. C'est pour cela qu'on parle d'élections législatives (ou sénatoriale"s", générale"s", municipa"les", régiona"les"), mais d'élection présidentielle (sans 's'), où il est question de n'élire qu'une seule personne dans un même espace géographique. L'effet de seuil. Le cumul des voix pour un parti sur l'ensemble du territoire n'est pas possible car il y a des élections séparées. La subdivision d'un territoire en circonscriptions crée un phénomène de seuil, entrainant certains votes qui auraient entraîné à l'attribution de sièges sans circonscription, à ne plus en attribuer. Par exemple, lorsqu'il y a un seul siège à pourvoir par circonscription, le siège peut être remporté : Cet effet de seuil évolue selon le nombre de circonscriptions et le nombre de sièges par conscription : Découpage et surreprésentation. Le découpage en circonscriptions d'un territoire pose à la fois : Un découpage électoral équilibré permet d’organiser un scrutin juste et honnête, ce qui justifie l’intervention d’un contrôle juridictionnel attentif. En effet, si l’arbitraire devait procéder au découpage des circonscriptions, certains pourraient en profiter pour découper les circonscriptions de manière déloyale dans le seul but d’aller dans le sens des intérêts de leur famille politique. Ainsi, en 1812, Elbridge Gerry, gouverneur du Massachusetts, avait-il découpé les circonscriptions de son État afin d’assurer une victoire aussi large que possible à ses partisans pourtant moins nombreux que ses adversaires. Cette technique purement politicienne, baptisée depuis lors « gerrymandering », fait l’objet d’une vigoureuse et quasi unanime dénonciation. Mais même en dehors de toute tentative malhonnête de déformation des résultats de la part de dirigeants politiques peu scrupuleux, il peut arriver qu’un découpage électoral, juste lors de sa réalisation, finisse par devenir, au fil du temps, un foyer de surreprésentation ou de sous-représentation pour certains électeurs ; les mouvements de population sont généralement à l’origine de pareils phénomènes. Il peut dès lors être dans l’intérêt de la majorité politique alors au pouvoir de ne procéder à aucun redécoupage des circonscriptions, dans un souci de garder un avantage technique sur l’opposition, ou à l'inverse de procéder rapidement à celui-ci. Le découpage des circonscriptions est à cet effet examiné avec attention par l'autorité électorale compétente (en France, par le Conseil Constitutionnel notamment) dans le but de limiter d’éventuelles atteintes à la sincérité ou équité du scrutin. Une solution partielle pour tenir compte des différences de populations entre circonscriptions consiste à pondérer le vote des élus dans les assemblées : une personne élue dans une circonscription de 200 000 habitants aura une voix double par rapport à celle élue dans une circonscription de 100 000 habitants. Les différents modes de scrutin et systèmes électoraux. Comme le dit métaphoriquement Michel Hastings, les systèmes électoraux permettent . On distingue généralement trois grandes « familles » de systèmes électoraux (ou modes de scrutins). Les modes de scrutin en vigueur dans les différentes Nations sont extrêmement nombreux et variés à tous points de vue. Cela se doit à une pluralité de facteurs (historiques, culturels, géographiques) et aux priorités envisagées par les législateurs lors de l’écriture du texte de loi. Celui-ci doit, précisément, satisfaire à deux exigences très différentes : l’un ou l’autre niveau étant considéré prioritaire en raison du moment historique où chaque loi a eu naissance. Certains modes de scrutins affiliés à deux familles différentes peuvent même avoir des aboutissements similaires en fonction de la représentation, alors qu'ils fonctionnent différemment. Cela dépend d’une pluralité de facteurs assez difficiles à reconnaître, et notamment : distribution des électeurs entre les circonscriptions, nombre des circonscriptions, nombre des partis, nature des partis (unitaires ou de coalition), rapports entre les pouvoirs constitutionnels, coexistence de différentes formules électorales (au niveau national, régional, municipal), culture nationale en matière d’élections. Les formules majoritaires uninominales constituent une sorte de paradoxe dans la dite dualité, parce que leur résultat ultime (au niveau "macro-électoral") est de donner naissance à une puissante majorité, disposant d’un nombre de sièges plus élevé (en pourcentage) que les votes obtenus ; mais elles ne règlent que le niveau "micro-électoral", parce que l’électeur n’est appelé qu’à exprimer son choix pour l’un des candidats de sa circonscription. C'est pourquoi, au sein même des trois familles, on distingue plusieurs « catégories » de systèmes. Ne seront décrits que ceux ayant servi dans le cadre d'élections, et non ceux relevant seulement de la théorie (tout au plus seront-ils évoqués). Divers exemples d'application des différents systèmes électoraux et modes de scrutin seront opérés sur la base de résultats électoraux fictifs, répertoriés dans le tableau suivant : Les modes de scrutin majoritaire. Les modes de scrutin majoritaires regroupent les modes de scrutin caractérisés par une victoire de la ou des personnes ayant obtenu davantage de voix que leurs concurrents. Dans un scrutin de type majoritaire, l'objectif est généralement de dégager une majorité forte et uniforme, susceptible de gouverner sans entraves. Ici, le candidat ou le groupe de candidats élu(s) sera celui ayant obtenu le plus de suffrages, aidé en cela par de larges mouvements d'opinion et une vaste assise électorale. Les effets recherchés "via" l'usage d'un scrutin majoritaire ont des conséquences très importantes sur la manière dont votent les électeurs, la transcription des voix en sièges et, de fait, le fonctionnement du système politique dans une démocratie représentative. Les modes de scrutin majoritaires combinent donc une certaine efficacité, brutale et indiscutable, pour la formation de majorités aptes à gouverner, à de nombreux défauts, en particulier au niveau de la représentation du corps électoral, qui leur valent des critiques importantes. On distingue d'une part les scrutins majoritaires uninominaux (élection d'une seule personne), et d'autre part les scrutins majoritaires plurinominaux (élection d'un groupe de personnes). Scrutins uninominaux. La catégorie des scrutins uninominaux regroupe tout mode de scrutin où une seule personne est élue pour un territoire donné (un pays ou une circonscription). Ces systèmes impliquent en général que seul le candidat ayant rassemblé une majorité absolue ou relative de suffrages exprimés soit élu. Ils peuvent être utilisés autant pour des élections législatives que présidentielles. Le scrutin majoritaire à un tour. Le mode de scrutin majoritaire à un tour (aussi appelé Pluralité), est un mode de scrutin reconnu pour sa grande simplicité. Le candidat ayant rassemblé le plus de voix sur un territoire donné est élu en toutes circonstances. Une majorité relative de voix suffit pour gagner une élection, c'est-à-dire qu'il est possible que le candidat élu recueille moins de la moitié des voix exprimées. Les démocraties anglo-saxonnes, notamment le Royaume-Uni, le Canada et les États-Unis, l'utilisent abondamment, en particulier pour l'élection de leurs parlementaires. Lorsqu'il est utilisé lors des élections législatives, le scrutin majoritaire uninominal à un tour est caractérisé par une très forte tendance à mal traduire en nombre d'élus le poids réel d'une formation politique au sein de l'électorat. Il amplifie souvent de manière considérable la victoire de la formation politique arrivée en tête, lui attribuant une part des sièges bien supérieure à sa part des voix. En fonction des circonstances, il peut aussi conduire à une surreprésentation, certes moins forte, ou à une sous-représentation plus ou moins prononcée du parti ou de la coalition arrivé(e) en seconde position. Enfin les autres formations politiques présentant des candidats sont généralement lourdement sanctionnées : les petits partis sont presque constamment laissés pour compte, à moins que leurs appuis se concentrent dans des circonscriptions électorales particulières. Ce mode de scrutin déforme les résultats d'une élection en permettant une répartition des sièges entre les différents partis très différente de l'expression de la volonté du corps électoral. Il se peut même qu'un parti majoritaire en voix se retrouve minoritaire en sièges, comme cela s'est produit au Royaume-Uni lors des élections de 1951 : les travaillistes, avec 48,8 % des suffrages exprimés, ont obtenu 295 sièges, contre 302 aux conservateurs qui n'avaient pourtant rassemblé que 44,3 % des voix. Le vote alternatif. Le vote alternatif, mode de scrutin inspiré de celui évoqué précédemment, est un système électoral à préférences multiples ordonnées, qui satisfait lui aussi à l'exigence de la majorité absolue. Les électeurs votent pour des candidats dans des circonscriptions où un seul siège est à pourvoir, mais au lieu de voter pour un seul d'entre eux, ils doivent les classer par ordre de préférence sur leur bulletin. Lors du dépouillement, on classe d'abord les bulletins en fonction des premières préférences : si un candidat réunit une majorité absolue de ces premières préférences, il est élu. Sinon le candidat arrivé dernier est éliminé et ses bulletins sont répartis entre les autres candidats suivant les secondes préférences desdits bulletins. On continue le processus jusqu'à ce qu'un candidat recueille la majorité absolue des suffrages. Ce système se rapproche donc de celui du scrutin uninominal à plusieurs tours, sauf qu'il évite aux électeurs de se déplacer autant de fois, en incluant directement un processus d'élimination. Ce mode de scrutin sert à l'élection des députés australiens depuis 1919. Il permet à des partis alliés de se présenter séparément devant les électeurs, mais sans affaiblir leurs chances de coalition, comme c'est le cas en Australie avec les deux partis de droite (Parti libéral et Parti national). En outre les électeurs des petits candidats ne perdent pas leurs votes, puisqu'ils concourent eux aussi à la désignation des principaux candidats grâce à leurs préférences suivantes. Comme pour le scrutin uninominal à un tour, le découpage électoral peut engendrer des risques de contradiction entre la victoire en voix et celle en sièges. Le vote alternatif déforme le vote populaire de la même manière que le scrutin uninominal à un tour : aux élections fédérales australiennes de 2007, les Verts, avec 7,5 % des suffrages exprimés, n'ont obtenu aucun siège, contrairement au Parti national qui en a eu plusieurs avec un score moins important, profitant de son alliance avec le Parti libéral. Il existe d'autres méthodes par classement assez semblables, quoique plus complexes dans le décompte des voix, qui ont été peu ou pas utilisées, comme le vote par approbation (dit aussi vote par assentiment), la méthode Condorcet ou encore la méthode de Coombs. Le scrutin majoritaire à deux tours. Le scrutin majoritaire à deux tours est un mode de scrutin qui permet l'élection d'un candidat (dans une circonscription ou pour l'ensemble d'un État) après deux tours de scrutin. Les électeurs sont donc appelés à voter une première fois pour l'un ou l'autre des candidats. Un deuxième tour est ensuite organisé, ne mettant en lice que les candidats ayant le plus de voix. Lors de ce second tour, le candidat ayant récolté le plus de voix est élu. Selon les pays, deux ou plusieurs candidats peuvent être admissibles au second tour. Dans la très grande majorité des cas, la loi permet cependant à un candidat ayant rassemblé une majorité absolue de suffrages exprimés au premier tour d'être directement élu. Ce mode de scrutin est utilisé en France et dans bien d'autres pays pour l'élection présidentielle : un candidat ne peut être élu qu'avec une majorité absolue de suffrages exprimés, et si aucun ne remplit cette condition au premier tour, on organise un second tour de scrutin auquel ne sont admis que les deux premiers candidats. Au terme de ce processus, le président est donc forcément élu avec une majorité absolue de suffrages exprimés. C'est aussi ce mode de scrutin qui est utilisé en France pour les élections législatives, à ceci près que les candidats admissibles au second tour sont ceux ayant obtenu au moins 12,5 % des voix des inscrits sur les listes électorales. Il peut donc suffire d'une majorité relative de suffrages pour être élu au second tour. Comme les deux systèmes évoqués précédemment, le scrutin majoritaire à deux tours a des effets déformateurs sur la transcription des voix en sièges. Des alliances ou accords entre partis de sensibilité proche permettent cependant à de petits partis d'envoyer quelques députés siéger à la chambre basse, comme c'est le cas en France avec le Parti communiste français, qui jouit encore de ses alliances avec le Parti socialiste, et plus encore avec le Nouveau Centre, qui en 2007 ne devait la formation de son groupe parlementaire qu'à ses alliances avec l'UMP. Ce mode de scrutin sanctionne en revanche durement les partis ne bénéficiant d'aucune alliance : lors des élections législatives françaises de 1997, le Front national, avec environ 15 % des suffrages exprimés, n'avait obtenu qu'un seul siège. En 2007, le Mouvement démocrate, avec 7,6 % des suffrages exprimés, n'a eu que 3 sièges sur 577 à l'Assemblée nationale. Autres systèmes uninominaux. De très nombreux autres systèmes ont été proposés, qui présentent souvent de meilleures propriétés que les modes de scrutins majoritaires, et sont parfois utilisés dans le cadre des élections uninominales (où l'on doit élire un et un seul candidat). On peut citer par exemple la méthode de Borda. Dans ce cas l'électeur soumet un classement de tous les candidats. Avec n candidats, on attribue à chaque candidat n-1 points chaque fois qu'il apparaît en tête dans un bulletin, n-2 chaque fois qu'il apparaît en deuxième position jusqu'à 0 point chaque fois qu'il apparaît en dernière position. Est élu le candidat qui totalise le plus de points. Plus généralement, on peut demander aux électeurs de classer tout ou partie des candidats (c'est le cas des méthodes de Condorcet), de répartir un certain nombre de points entre les différents candidats (comme pour le vote cumulatif), ou encore de noter ou d'évaluer les candidats suivant diverses échelles de valeurs (les votes par valeurs incluent notamment les méthodes de meilleure médiane). Cependant, la présentation et la de ces différentes méthodes dépassent le cadre de cet article. Scrutins plurinominaux. Les modes de scrutins majoritaires plurinominaux sont des systèmes électoraux qui permettent l'élection de plusieurs candidats. Ils sont donc utilisés pour l'élection de plusieurs personnes en même temps. Le scrutin majoritaire plurinominal à un tour. Le scrutin majoritaire plurinominal à un tour est un mode de scrutin où sont élus plusieurs candidats sur un territoire donné. Le nombre de candidats élus dépend du nombre de sièges à pourvoir. Sont ainsi élus tous les candidats ayant recueilli le plus grand nombre de voix, jusqu'à concurrence du nombre de sièges en élections. Il n'est plus du tout utilisé pour la désignation des députés dans les démocraties représentatives contemporaines. Deux systèmes différents existent : Depuis 2006, un double scrutin majoritaire plurinominal à un tour est en vigueur en Italie (où il a été introduit par la loi 270/2005). Dans ce pays, les deux Chambres (nommées Camera dei Deputati et Senato della Repubblica) sont élues au suffrage universel et sont chargées de s’exprimer sur la question de confiance qui est préalable à l’entrée en fonction du Gouvernement et qui peut être posée par celui-ci plusieurs fois au cours de la législature. Cela impose l’adoption de deux systèmes d’élection produisant de résultats semblables. Il s’agit donc d’un double système de vote limité. On appelle ainsi un système majoritaire plurinominal qui prévoit l’assignation d’un nombre préfixé de sièges au profit de la liste ou coalition de majorité relative. Ce nom lui fut attribué à la fin du , dans une perspective inversée par rapport à nos jours, car il s’agissait – à cette époque-là – d’imposer une limite à la faction majoritaire, en garantissant l’assignation de quelques sièges à la faction minoritaire. En Italie, ce système fut introduit une première fois par Benito Mussolini en 1923 avec la « loi-Acerbo » ; ce qui déconseilla son utilisation successive, jusqu’en 1993 quand elle fut ré-adoptée pour l’élection des conseils municipaux et des Maires. Son emploi actuel dépend de l’absence d’un système de partage et balancements des pouvoirs, à la suite de laquelle le Gouvernement (central ou local) nécessite le soutien d’une majorité solide. Malgré cela, en avril 2006 le gouvernement de Romano Prodi n’a pu disposer que d’un seul siège d’avantage au Sénat, ce qui a entraîné une grande faiblesse de son gouvernement. Au bout de deux ans, les Italiens ont été contraints de se rendre une nouvelle fois aux urnes et ils ont confié un plus grand avantage de sièges à la coalition conduite par Silvio Berlusconi. Le scrutin majoritaire plurinominal alternatif. Le scrutin majoritaire plurinominal alternatif est la version plurinominale du vote alternatif. Chaque électeur doit classer les candidats par ordre préférentiel. On procède ensuite à autant de dépouillements qu'il y a de sièges à pourvoir afin de pourvoir chaque siège au cas par cas. Les voix excédentaires du premier candidat élu sont réparties entre les autres candidats en fonction des préférences exprimées par les électeurs sur les bulletins concernés. Un parti majoritaire en voix pouvait donc remporter tous les sièges à pourvoir. Ce mode de scrutin a été appliqué uniquement en Australie, de 1919 à 1946, pour les élections sénatoriales : 18 sénateurs étaient alors élus dans 6 circonscriptions comportant 3 sièges chacune. Les 10 élections sénatoriales ayant eu lieu avec ce système ont permis de prendre la mesure de sa dangerosité : en 1925, avec 45 % des suffrages, les travaillistes n'ont obtenu aucun siège, tandis qu'en 1943, ils les raflaient tous avec seulement 55 % des voix. Les sénateurs australiens sont depuis élus à la représentation proportionnelle. Une variante proportionnelle théorique très complexe de ce mode de scrutin, le vote d'approbation proportionnel, a été mise au point en 2001. Le scrutin majoritaire plurinominal à deux tours. Le scrutin majoritaire plurinominal à deux tours est inspiré de son équivalent uninominal. La majorité absolue des suffrages exprimés au premier tour permet de remporter directement tous les sièges au terme de ce dernier. Le second tour doit départager les différentes listes ayant atteint un certain nombre de voix si aucune d'entre elles n'a obtenu au moins 50 % des suffrages plus une voix. Dans le cas où le panachage est autorisé, les seuls sièges non pourvus au premier tour sont en jeu au second. Dans le cas de listes bloquées, celles-ci peuvent avoir le droit de fusionner entre les deux tours, phénomène qui permet l'existence d'une certaine forme de pluralisme politique au sein de différents blocs politiques. Si la fusion est interdite entre les deux tours, le jeu des alliances devient aussi déterminant qu'avec le scrutin uninominal. Utilisé en Belgique jusqu'en 1899 et au Luxembourg jusqu'en 1918 pour la désignation des députés, ce système a pour habitude de déformer le rapport entre voix et sièges en fonction de la répartition géographique des suffrages accordés aux différentes formations politiques. Lors des élections législatives belges de 1894, les Catholiques, avec 51 % des voix, ont obtenu près de 68 % des sièges, les socialistes en ont raflé 18,4 % pour 13,2 % des voix, profitant de la forte concentration de leurs suffrages au sein de plusieurs fiefs électoraux, tandis que les libéraux, souffrant à la fois de leur infériorité en voix et d'une mauvaise répartition géographique de leurs suffrages, n'ont pourvu que 13,2 % des sièges alors qu'ils avaient obtenu 28 % des voix. Avec ce système, plus le nombre de circonscriptions est limité, plus la déformation entre voix et sièges est importante. On en trouve une illustration avec les élections municipales françaises dans les communes de moins de : chaque conseil municipal est élu sur une seule circonscription, définie par le périmètre de la commune. Parcours historique. Léo Moulin relève que le principe majoritaire est adopté pour des élections civiles dès le début des communes. John Gilbert Heinberg indique que, si la première mention connue de la règle de majorité en Angleterre se trouve dans la "Magna Carta" de 1215, ce n'est qu'en 1430 que le principe majoritaire devient décisif dans les élections à la Chambre des communes du Royaume-Uni, et dans la seconde moitié du qu'il est établi comme devant être suivi par celle-ci. Ce mode de scrutin est adopté dans plusieurs anciennes colonies anglaises, telles les États-Unis, le Canada ou la Nouvelle-Zélande. À la fin du , les différents régimes parlementaires utilisaient principalement deux types de systèmes pour la désignation de leurs députés. Les pays anglo-saxons et latino-américains, ainsi que le Danemark, la Suède, l'Espagne, le Portugal et la Grèce recouraient au scrutin à un tour, généralement uninominal, tandis que les autres régimes parlementaires d'Europe continentale, comme la France, l'Italie, l'Allemagne, les Pays-Bas, la Norvège ou encore l'Autriche lui préféraient le scrutin à deux tours, bientôt rejoints par la Suisse qui abandonne en 1900 son scrutin majoritaire uninominal à trois tours. La Belgique jusqu'en 1899, ainsi que le Luxembourg pratiquaient quant à eux le scrutin majoritaire plurinominal à deux tours. L'origine des scrutins majoritaires est donc très ancienne. Le scrutin à un tour, de par sa grande simplicité, est sans doute celui qui a été utilisé le premier, pour désigner un chef ou un délégué quelconque. Sous l'influence de l'Église catholique romaine, l'exigence de la majorité absolue a fini par s'imposer dans certains pays, et le scrutin à deux tours a fait son apparition. Autrefois attachée à la règle de l'unanimité, l'élection pouvant faire office dans ces conditions de révélation du choix divin, l'Église interprétait le vote comme une fonction, et non comme un droit. Les minoritaires, parce qu'ils sont minoritaires, étant forcément dans l'erreur, ne pouvaient représenter des points de vue légitimes, et l'unanimité devait dès lors être un objectif incontournable. C'était tout particulièrement le cas lors des élections ecclésiastiques par acclamation, au cours desquelles les minoritaires comme les hésitants étaient incités à se joindre à la majorité. Mais dans des cadres plus politisés, faisant intervenir des personnes aux origines et aux intérêts plus divers, l'obtention d'une élection à l'unanimité semblait hautement improbable. L'Église a donc peu à peu opté pour la règle de la majorité absolue, voire pour celle de la majorité qualifiée (par exemple, lors du conclave, les cardinaux élisent le pape à la majorité des deux tiers), cette dernière exprimant le regret d'une unanimité de fait inaccessible. Au Moyen Âge, les pouvoirs civils ont fréquemment fait appel à l'Église pour l'organisation d'élections, en particulier dans le cadre des communes. Le nombre de tours et le seuil de suffrages à atteindre étant définis par le législateur, plusieurs systèmes comportant un nombre infini de tours ont été utilisés, notamment pour l'élection du Pape, ou pour celle du Président de la République française sous les Troisième et Quatrième Républiques. Aujourd'hui encore, les présidents des deux assemblées du Parlement français sont élus au scrutin majoritaire à trois tours, comme c'était le cas en 1789 pour la désignation des représentants du tiers état aux États généraux. Le simple fait de pouvoir désigner un représentant à la majorité absolue des voix en restreignant l'accès, au second tour, aux deux candidats arrivés en tête au premier, a toutefois fait tomber en désuétude ce type de système, qui n'est plus guère utilisé actuellement pour des élections au suffrage indirect. Critiqués pour leur injustice, les modes de scrutin majoritaire ne sont en outre appliqués, pour l'élection des assemblées délibérantes, que dans des pays les utilisant traditionnellement depuis l'instauration de la démocratie chez eux. Dans les ex-dictatures d'Amérique latine, d'Europe de l'est ou d'Afrique, c'est généralement la représentation proportionnelle ou un mode de scrutin mixte qui est instauré plutôt qu'un système complètement majoritaire. En Europe, seuls le Royaume-Uni et la France continuent d'élire leurs parlementaires au scrutin majoritaire uninominal. Influence des scrutins majoritaires sur le système politique. L'injuste transcription des voix en sièges. Mis à part les problèmes d'actualisation des découpages des circonscriptions et du gerrymandering, on peut tirer plusieurs conclusions de la transformation des voix en sièges par les différents modes de scrutin majoritaire. Cinq phénomènes peuvent être régulièrement observés : Le phénomène d'amplification de la victoire en sièges du parti dominant a tendance à être encore plus forte avec les scrutins plurinominaux qu'avec les scrutins uninominaux. Ils respectent en outre généralement mieux le principe d'égalité des électeurs devant le suffrage. Il est également plus simple de découper un pays en de multiples petites circonscriptions qu'en quelques tranches plus ou moins larges, en particulier lorsqu'on se retrouve confronté à des frontières administratives (départements, régions, États fédérés…). La recherche de systèmes de votes toujours plus justes de la part des démocraties modernes explique donc que le scrutin plurinominal ait pratiquement disparu au profit des scrutins uninominaux. Il reste toutefois le cas des élections municipales françaises, pour les communes de moins de . La bipolarisation. Dans toute démocratie représentative, il existe, indépendamment du mode de scrutin, une dynamique dualiste, qui tend à opposer les partisans du gouvernement en place et ceux qui s'y opposent. Mais cette dynamique tend généralement à être contrecarrée par l'existence de différents groupes idéologiques, sociaux ou sociétaux qui, dans une dynamique de dispersions, cherchent à faire en sorte d'être représentés de manière autonome. Le mode de scrutin, s'il ne peut créer la dynamique dualiste, peut néanmoins l'influencer, et la favoriser dans le cas des scrutins majoritaires. Si l'électorat s'avère être relativement homogène, un vrai système bipolarisé peut se mettre en place. Cette bipolarisation prend soit la forme d'un bipartisme, soit celle d'un regroupement de différentes forces politiques d'un côté ou d'un autre. Le Royaume-Uni, qui a toujours élu ses députés au scrutin majoritaire uninominal à un tour, a pratiquement toujours connu un bipartisme plus ou moins fort. Depuis 1945, le Parti travailliste incarne la gauche britannique, le Parti conservateur, la droite, et les libéraux, puis les Démocrates libéraux après eux, incarnant une troisième force se situant au centre de l'échiquier politique, se voient constamment marginalisés, comme le prouvent encore les résultats des dernières élections générales britanniques : Mais la bipolarisation ne se traduit pas forcément par l'apparition d'un bipartisme. En France, sous la République (avec élections des députés au scrutin majoritaire à deux tours), les forces politiques ont souvent été bipolarisées avec à gauche les socialistes et les communistes, et à droite les gaullistes et le centre-droit (généralement composé de deux ou trois petits groupes politiques différents). La formation de l'UDF, qui rassemblait la droite non gaulliste au sein d'un seul parti afin d'équilibrer le poids du RPR, a un temps amené la France à une situation de bipolarisation sur la base de quatre grands partis de force équivalente : d'un côté le Parti communiste et le Parti socialiste, et de l'autre l'UDF et le RPR. Cette situation a perduré jusqu'à l'effondrement du PCF dès 1981, au profit du PS, et à la formation de l'UMP, qui a englobé une grande partie de la droite française, en 2002. Depuis, on peut dire que la France a tendance à se diriger vers le bipartisme, le PS et l'UMP détenant à eux seuls environ 85 % des sièges de l'Assemblée nationale au cours des deux dernières législatures. Les sièges restants sont presque tous pourvus par des partis bénéficiant d'accords électoraux avec l'un ou l'autre des deux grands partis. C'est pourquoi il est courant de voir un petit parti mieux représenté qu'un autre si ce dernier n'a pas d'alliés suffisamment puissants. Le vote stratégique. Généralement, lors d'élections, les électeurs votent essentiellement en tenant compte d'enjeux gouvernementaux. Leur capacité à choisir personnellement un élu s'en trouve donc réduite, et plus encore s'ils ne peuvent en outre pas choisir le candidat du parti dont ils se sentent le plus proche. Les scrutins plurinominaux avec listes ouvertes permettent aux électeurs d'exprimer leur degré de préférence pour tel ou tel candidat, mais cela n'empêche en rien le fait majoritaire de l'emporter "in fine", sanctionnant les partis de moyenne ou faible importance. Le principe du « vote utile » semble donc être totalement dépendant de l'organisation d'élections au scrutin majoritaire : les électeurs sont incités à porter leurs voix sur un candidat affilié à la formation politique la moins éloignée de leurs opinions politiques personnelles. Le scrutin majoritaire, en particulier à un seul tour, incite donc l'électeur à se rabattre sur le candidat « le moins mauvais » de son point de vue, parmi ceux ayant le plus de chances d'être élus : il vote stratégiquement afin d'obtenir une représentation idéologique, même imparfaite, plutôt que pas de représentation du tout. On a toutefois constaté que le comportement des électeurs pouvait varier selon qu'il est confronté à une élection au scrutin majoritaire se déroulant à un ou à deux tours. Les analyses décrites ci-avant sur la bipolarisation ne concernent que le poids des différents partis quant au nombre d'élus, et non quant aux voix. Il semblerait, en effet, que les scrutins majoritaires à deux tours soient nettement plus propices au multipartisme que leurs équivalents à un tour. Les scrutins majoritaires ont un effet psychologique sur les électeurs, les incitant à voter de manière stratégique. Mais ce vote stratégique peut prendre des formes totalement différentes en fonction du nombre de tours censés départager les candidats. Ainsi, dans le cas d'un scrutin à un tour, les électeurs voteront « utile », soit pour celui des candidats parmi ceux les mieux placés pour l'emporter le plus proche (ou le moins éloigné) de leurs opinions personnelles. En revanche, dans le cas d'un scrutin à deux tours, l'électeur a plutôt tendance, au premier tour, à voter stratégiquement pour un « petit » candidat, plus proche de ses opinions, de façon à adresser un « message » au candidat le moins éloigné de ses convictions parmi ceux ayant le plus de chance de l'emporter. Les résultats du premier tour de l'élection présidentielle française de 2002 illustrent parfaitement ce phénomène : l'offre politique étant très importante, avec seize candidats, les électeurs ont éparpillé leurs suffrages et pas moins de sept candidats ont passé le seuil symbolique des 5 % des suffrages exprimés, aucun n'atteignant en outre le seuil des 20 %. Les élections législatives qui ont suivi ont, dans une mesure un peu moindre, confirmé cette tendance à l'éparpillement des voix, tout en mettant en évidence les effets mécaniques caractéristiques des scrutins majoritaires lors du passage des voix en sièges (l'UMP ayant obtenu 61,5 % des sièges pour 33,3 % des voix au premier tour). À l'échelle internationale, la comparaison entre les différents pays démocratiques organisant leur élection présidentielle au scrutin majoritaire à un seul tour, et ceux l'organisant à deux, depuis 1990, est éloquente : parmi les six pays recourant au scrutin majoritaire uninominal à un tour, 2,7 candidats en moyenne obtiennent au moins 5 % des suffrages, et l'ensemble des candidats en dehors des deux premiers rassemble en moyenne 12,1 % des voix. Parmi les 39 autres recourant au scrutin majoritaire uninominal à deux tours, 3,8 candidats en moyenne obtiennent au moins 5 % et les candidats arrivés après les deux premiers rassemblent en moyenne 28,4 % des suffrages. On en déduit que les scrutins majoritaires à deux tours incitent à l'émiettement politique lors du vote tout en favorisant la bipolarisation, voir le bipartisme, lors de la répartition des sièges. Ils se situent ainsi à mi-chemin entre la représentation proportionnelle, qui favorise l'émiettement politique y compris lors de la répartition des sièges, et les scrutins majoritaires à un tour, qui incitent au vote utile tout en favorisant le bipartisme. Deux systèmes permettent toutefois de contrer indirectement ces différents phénomènes. Avant 1996, date de la mise en place du scrutin uninominal majoritaire à deux tours par référendum, le Président de l'Uruguay était élu via un système très particulier. Chaque parti (il y en avait essentiellement deux) pouvait présenter autant de candidats qu'il le voulait. Le nombre de voix obtenues par chaque candidat était ensuite additionné pour savoir quel parti en avait obtenu le plus au total : le candidat élu était alors celui ayant rassemblé le plus de voix parmi les candidats du parti dominant. Les électeurs n'avaient donc pas besoin de « voter utile » et choisissaient eux-mêmes le candidat à élire au sein d'un parti, ce qui permettait d'éviter les contradictions entre ses militants et l'ensemble du corps électoral : un parti ne pouvait pas « imposer » son candidat. La représentation proportionnelle. Compte tenu de la simplicité de la règle de la majorité, ceux qui ne sont pas familiers des modes de scrutin sont souvent surpris que d'autres systèmes électoraux existent. L'objectif principal de la représentation proportionnelle (RP) est de permettre une représentation de toutes les tendances du corps électoral, et tout particulièrement des minorités, s'opposant en cela de manière fondamentale aux modes de scrutin majoritaire. Il s'agit en fait de répartir plusieurs mandats d'élus entre plusieurs formations politiques, proportionnellement à leur poids électoral. Cela suppose l'établissement de listes de candidats de la part de ces dernières, pour que les électeurs puissent les départager. Bien que permettant, techniquement parlant, l'organisation d'élections à l'échelle nationale, la représentation proportionnelle est généralement appliquée dans le cadre de plusieurs circonscriptions, comme c'est le cas avec les systèmes majoritaires. La représentation proportionnelle a su faire des carences des modes de scrutin majoritaire ses qualités, mais elle peut également induire des difficultés quant à la formation d'une majorité politique apte à gouverner convenablement. Il faut retenir que la représentation proportionnelle n'est pas soumise à une seule et même règle, comme cela peut être le cas avec les modes de scrutin majoritaire. Il existe différentes méthodes de calcul, qui, en fonction de la taille des circonscriptions électorales et du niveau du seuil légal d'accès à la répartition des sièges, permettent une répartition des sièges avantageant soit les grands partis, soit les petits partis, et parfois même les partis moyens. Des systèmes expérimentaux, dits pré-proportionnels, ont été mis au point avant que les vrais systèmes proportionnels contemporains ne fassent leur apparition. Ces derniers regroupent des méthodes de répartition complexes, utilisant dans une première phase un quotient électoral, puis dans une seconde phase une méthode de répartition des sièges restants, et des méthodes beaucoup plus simples, en une phase, recourant à des séries de diviseurs. La représentation proportionnelle, dans ses différentes variantes, est largement majoritaire en Europe pour l'élection de la chambre basse (40 pays sur les 43 couramment considérés comme européens en 2018, les trois pays ne l'utilisant pas étant la France, le Royaume-Uni et la Biélorussie). Systèmes semi-proportionnels. Il existe plusieurs systèmes qui appliquent, en principe, la règle majoritaire, mais permettent techniquement une représentation des minorités plus ou moins équitable en fonction des circonstances. Arend Lijphart les qualifie de « formes inhabituelles de proportionnelles à faible proportionnalité », mais ils sont plus couramment appelés systèmes semi-proportionnels ou pré-proportionnels, rapport à leur capacité à proportionnaliser à leur manière les résultats. L'électeur dispose, avec ces systèmes, d'un vote personnalisé : il vote individuellement pour plusieurs candidats et non pour des listes partisanes entières. Il est en fait amené à choisir plusieurs candidats, quelles que soient leurs appartenances politiques, parmi l'ensemble des candidats se présentant dans sa circonscription. On distingue couramment trois formes de systèmes pré-proportionnels. Le vote cumulatif. Le vote à coefficients proportionnel ou vote cumulatif est une modification du scrutin majoritaire plurinominal, où l'électeur peut accorder plusieurs voix à un même candidat. Chaque électeur a autant de voix qu'il y a de sièges à pourvoir dans sa circonscription et les candidats ayant eu le plus de voix sont élus au prorata du nombre total de sièges en jeu. Ce mode de scrutin, efficace pour représenter les minorités importantes, est assez imprévisible : il est en effet techniquement possible que la formation politique majoritaire en voix ne le soit pas en sièges si ses électeurs ont voté trop massivement pour un seul de ses candidats. Le vote cumulatif a été utilisé dans l'État américain de l'Illinois de 1870 à 1980, où il avait permis une assez forte proportionnalité entre les votes et les sièges pour les deux principaux partis politiques. Il a également été employé dans quelques circonscriptions législatives au Sri Lanka de 1946 à 1977, pour permettre à quelques populations minoritaires localisées en des endroits bien précis du territoire d'être représentées au parlement, le scrutin majoritaire uninominal à un tour les privant systématiquement de toute représentation. En effet, même dans le cas d'une société polarisée, c'est-à-dire constituée d'une majorité et d'une minorité chacune homogène, le vote cumulatif, au contraire de la règle majoritaire, empêche une prise de pouvoir complète par la majorité (tyrannie de la majorité). Plusieurs méthodes fonctionnant selon les mêmes principes, dites du vote pondéré, ont été mises au point, mais elles n'ont pour l'instant jamais été utilisées pour des élections politiques. Le vote limité. Le vote limité est une variante du vote cumulatif, proposée pour la première fois par le Marquis de Condorcet en 1793 à la Convention, pour l'élection du bureau des assemblées primaires. Ici l'électeur dispose de moins de voix qu'il n'y a de sièges à pourvoir dans sa circonscription, et il ne peut pas cumuler plusieurs voix sur un même candidat. Un temps utilisé à Malte, en Espagne et au Portugal, le vote limité y a depuis été supplanté par la représentation proportionnelle. Il reste toutefois encore utilisé en Espagne pour l'élection des sénateurs, dans le cadre de circonscriptions à quatre sièges, à raison de trois voix par électeur. Le vote unique non transférable. Le vote unique non transférable, proposé par Condorcet en 1793 à la Convention pour l'élection des jurés, est un système qui s'inspire du vote limité, mais ici l'électeur ne dispose que d'une seule voix quel que soit le nombre de sièges à pourvoir dans sa circonscription. Ce scrutin ajoute une forte proportionnalité des voix et des sièges obtenus par les partis à l'égalité de l'électeur devant le suffrage, ce qui en fait le plus juste des scrutins non proportionnels. Utilisé au Japon de 1902 à 1993 pour les élections législatives, il y a depuis été remplacé par un système mixte. On dit que le vote est non transférable puisque l'électeur ne dispose que d'une seule voix, qui ne peut servir qu'à l'élection d'un seul candidat, en opposition au vote unique transférable, avec lequel il en a plusieurs, qui peuvent servir à faire élire plusieurs candidats différents ("voir ci-dessous"). Ce système oblige les formations politiques à prendre garde au nombre de candidats qu'elles présentent dans une circonscription, ainsi qu'à la manière dont les électeurs vont répartir leur suffrage sur ces différents candidats, comme avec le vote cumulatif. Systèmes proportionnels. Le scrutin à vote unique transférable. Aussi appelé système de Hare, c'est le premier système proportionnel de l'histoire des modes de scrutin. Il s'agit d'une méthode par quotient, d'un type très particulier, proposé par Thomas Wright Hill en 1821 dans le cadre d'un vote encore public. Adapté au vote à bulletin secret au Danemark en 1855, il fut popularisé par Thomas Hare courant 1857. D'origine anglaise, il s'agit en quelque sorte d'une version proportionnelle du vote alternatif : il fonctionne à partir de candidatures individuelles dans des circonscriptions n'ayant pas un trop grand nombre de sièges à pourvoir. Chaque électeur doit classer par ordre de préférence les candidats de sa circonscription : les candidats élus sont ceux ayant atteint le quotient sur la base des premières préférences. Si l'un d'entre eux a dépassé le quotient, ses bulletins en surplus sont répartis entre les autres candidats selon les préférences suivantes : c'est le principe du vote transférable (notons qu'un électeur reste libre de n'attribuer qu'une seule préférence, dans ce cas sa préférence n'est pas transférable). Ce système permet de respecter les candidatures individuelles et incite les partis à afficher leurs alliances devant les électeurs en donnant des consignes de vote bien précises. Les partis alliés ou coalisés augmentent ainsi leurs chances de victoire tandis que les partis isolés sont sanctionnés lors de la répartition des sièges. Le scrutin proportionnel plurinominal. C'est le système électoral proportionnel le plus répandu dans lequel l'électeur vote pour une liste de candidats. Le système serait parfait si l'application de la proportionnalité permettait d'obtenir un nombre de sièges entier, mais c'est rarement le cas. Il faut donc appliquer un arrondi. Cet arrondi peut se faire selon plusieurs méthodes. Méthodes par quotient. Le principe régissant le fonctionnement de ces systèmes, qui présupposent un quotient électoral, est le suivant : Le nombre de sièges que chaque formation politique obtient lors de la première phase de répartition est donc égal au chiffre entier donné par l'opération "voix du parti sur quotient électoral dans la circonscription", soit (V/Q). Le ou les sièges restants sont par la suite affectés, par ordre décroissant, aux listes disposant des plus grandes différences entre le nombre total de leurs voix et le produit de la multiplication des sièges qu'elles ont gagnés, autrement dit : V - (S×Q). Il existe couramment quatre méthodes de fixation du quotient électoral. La plus courante est celle du quotient de Hare, qui correspond au résultat du nombre de suffrages exprimés divisé par le nombre total de sièges à pourvoir, soit Q=V/S. Le quotient de Droop correspond lui au nombre total de suffrages exprimés divisé par le nombre de ses sièges augmentés d'un point, le résultat étant toujours arrondi au premier chiffre entier supérieur. Soit Q=[V/(S+1)]+1. Ce second quotient, très bas, peut parfois rendre possible l'attribution au quotient complet de la totalité des sièges en jeu. L'arrondissement vers le premier chiffre entier supérieur permet d'éviter que ne soient répartis, lors de la première phase d'attribution, plus de sièges qu'il n'y en a à pourvoir. Restent enfin le quotien"t Impériali" et le "quotien Impériali r"enforcé, où les suffrages exprimés sont divisés par le nombre total de sièges à pourvoir, augmenté respectivement de deux ou de trois. Pour les différents exemples d'application, le quotient de Hare sera utilisé. Il sera donc de (/8). On distingue principalement deux méthodes de répartition des sièges restants : Avec la méthode des plus forts restes, on utilise le quotient simple, puis on attribue les sièges non pourvus suivant la règle des plus forts restes : les listes disposant des plus importants restes de voix obtiennent les sièges restants, à savoir ceux non attribués au quotient. Cette méthode est favorable aux petits partis. Elle donne parfois lieu à des paradoxes mathématiques, tel que le paradoxe de l'Alabama, dus à l'évolution capricieuse des restes de voix. Avec la méthode de Jefferson de la plus forte moyenne, on applique le quotient simple dans un premier temps, mais dans un second temps, chaque siège restant est affecté successivement à chaque liste en plus de ceux déjà acquis. Cette seconde répartition s'opère sur la base de la plus forte moyenne de voix par siège (chaque siège est attribué à la liste présentant la plus forte moyenne de voix pour le siège en question). Cette méthode favorise nettement les grands partis, phénomène qui a tendance à être amplifié par le nombre de sièges à pourvoir au sein de l'espace électoral dans lequel il est appliqué : moins il y a de sièges à pourvoir, plus les grands partis sont favorisés. Méthodes par diviseurs. La méthode d’Hondt de la plus forte moyenne, proposée par le mathématicien Victor D'Hondt, donne les mêmes résultats et produit les mêmes effets que la méthode de Jefferson, mais s'avère être beaucoup plus simple dans la présente version. On recourt ici à une série de diviseurs, qui est la suite des nombres entiers : 1, 2, 3, 4 On divise en fait le nombre de voix obtenues par chaque liste par chaque nombre entier, puis on répartit les sièges aux plus fortes moyennes : à chaque fois qu'une liste obtient une plus forte moyenne, elle reçoit un siège. La méthode de Sainte-Laguë de la plus forte moyenne, proposée en 1910 par le mathématicien français André Sainte-Laguë, fonctionne exactement de la même manière que la méthode d'Hondt, à ceci près qu'elle prend comme série de diviseurs 1, 3, 5, 7 Cette méthode est beaucoup moins défavorable aux petits partis et ne présente pas de paradoxes mathématiques. Elle est utilisée en Norvège, en Suède et au Danemark. Ces deux derniers ont en outre modifié le premier diviseur (1,4 au lieu de 1), afin de réduire l'influence des petits partis, donnant de fait un avantage aux partis moyens. Les systèmes proportionnels de compensation. Ces systèmes ont un but simple : permettre d'atteindre la représentativité la plus exacte possible en attribuant aux formations politiques sous-représentées par le vote de circonscription un certain nombre de sièges de compensation. On distingue principalement deux catégories : Les systèmes proportionnels à deux niveaux d’attribution des sièges. Il s'agit généralement de systèmes permettant l'attribution de sièges de compensation, sur de larges zones géographiques, après répartition des sièges à la proportionnelle dans le cadre de circonscriptions. Les sièges compensatoires sont répartis sur la base des restes de suffrages non utilisés pour la répartition des sièges dans les circonscriptions. Les sièges compensatoires sont soit ceux qui n'ont pu être répartis au quotient dans les circonscriptions, soit un nombre de sièges prédéterminé réservés à la compensation. L'Italie utilisait un système semblable de 1946 à 1993 pour l'élection de ses députés. 630 sièges étaient alors à pourvoir dans 31 circonscriptions de base au quotient Imperiali. Les sièges non pourvus via cette première méthode étaient ensuite attribués au niveau national, sur la base de la totalisation des restes, suivant la méthode des plus forts restes. Ce système garantissait une très forte proportionnalité, la loi électorale n'exigeant d'atteindre aucun seuil de suffrages pour accéder à la répartition des sièges. Les plus petits partis étaient généralement parfaitement représentés, tandis que les plus grands ne pouvaient bénéficier que d'une très faible amplification en sièges de leur victoire en voix. Un système similaire est utilisé depuis 1919 en Belgique, également pour l'élection des députés : les sièges à pourvoir sont répartis par arrondissement au quotient simple, et ceux non pourvus via cette méthode sont répartis au niveau des provinces sur la base des restes, en utilisant la méthode d'Hondt. Le Danemark et la Suède utilisent un système différent : une part du nombre total des sièges à pourvoir est réservée au vote de circonscription, tandis que la part des sièges restants est attribuée au niveau national, sur la base des restes de voix des différentes formations politiques pouvant accéder à la répartition des sièges. Au Danemark, outre les 4 députés représentant les Îles Féroé et le Groenland, 135 députés sont élus à la proportionnelle dans 17 districts, puis 40 députés sont répartis proportionnellement au niveau national, sur la base des voix obtenues par les différents partis qui ne leur ont pas permis d'obtenir suffisamment de sièges dans les districts par rapport à leur poids total en nombre de suffrages. En Suède, 310 députés sont élus dans 29 circonscriptions, puis 39 députés se partagent des sièges de compensation répartis au niveau national de la même manière qu'au Danemark. Les résultats des élections générales suédoises de 2006 et des élections législatives danoises de 2007 permettent de mesurer l'ampleur de la proportionnalité de ces systèmes. Notons enfin que ces deux pays, malgré leur fort multipartisme, ont un système politique caractérisé par la bipolarisation des différentes forces politiques, ce qui garantit une bonne stabilité gouvernementale. Les systèmes mixtes parallèles à finalité proportionnelle. Ce sont ni plus ni moins des systèmes combinant scrutin majoritaire et proportionnelle par compensation. Il s'agit en quelque sorte du contraire des scrutins mixtes à finalité majoritaire : une partie des députés, généralement la moitié, est élue au scrutin majoritaire, puis la mauvaise transcription des voix en sièges résultant de cette première répartition est corrigée par une répartition des sièges restants à la proportionnelle, en fonction du degré de sous-représentativité des différents partis. Il s'agit dans la pratique de systèmes mixtes majoritaire-proportionnel, mais dans les faits il n'en est rien, la répartition s'avérant être en réalité pleinement proportionnelle. L'Allemagne utilise un système de ce type depuis 1949 pour l'élection des membres du Bundestag. Lors des élections fédérales, la moitié des députés est élue au scrutin majoritaire uninominal à un tour, et l’autre moitié à la proportionnelle par compensation. Les électeurs ont en fait deux voix : une pour choisir le candidat à élire au scrutin majoritaire, et l’autre pour choisir une liste de parti. La répartition proportionnelle s’opère à l’échelle des Länder : c’est ainsi qu’on compense la sous représentation des tiers partis provoquée par le scrutin uninominal. C’est le second vote, celui pour les listes de partis, qui détermine la composition finale du Bundestag : la répartition est pleinement proportionnelle et cela bien qu’une moitié des députés soit élue au scrutin majoritaire uninominal à un tour. Il arrive toutefois qu'un parti ait un nombre d'élus au scrutin uninominal, dans un Land donné, supérieur à ce à quoi il devrait normalement avoir droit avec la représentation proportionnelle. Dans ce cas il garde ses sièges supplémentaires, et a finalement un nombre total d'élus supérieur à ce à quoi il aurait eu droit à la proportionnelle. Le système allemand se pare dans ces cas-là d'une infime dimension majoritaire. Il faut cependant garder à l'esprit qu'il s'agit là d'une anomalie, tolérée par la jurisprudence, et qui reste marginale quelle que soit l'élection. Ce phénomène est donc pratiquement sans conséquence sur la finalité proportionnelle du système. L'analyse des résultats détaillés des différentes élections fédérales permet de prendre pleinement acte des différences fondamentales opposant le système majoritaire au système proportionnel. Comme le montrent les résultats des élections de 2005, la part des sièges obtenue par les différents partis est très proche de leur part de seconds votes. Cet exemple permet en outre de mettre l'accent sur le comportement des électeurs en fonction du mode de scrutin qu'on leur propose : les centristes du FDP et les écologistes ont ainsi beaucoup plus de secondes voix que de votes de circonscription. Au contraire, les sociaux et chrétiens démocrates ont plus de voix au scrutin majoritaire qu'à la proportionnelle. Le vote utile influence donc bel et bien le choix de l'électeur. Le vote préférentiel. La représentation proportionnelle est parfaitement compatible avec le fait de permettre à l'électeur de choisir personnellement son élu. Les systèmes de listes permettent en effet aux électeurs d'exprimer leur préférence pour un ou plusieurs candidats, au sein de la liste pour laquelle ils votent, si pareille procédure est prévue par la loi électorale. Plusieurs méthodes d'attribution personnelle des sièges existent (à ceci près que la première n’en est en réalité pas une) : Les quatre dernières méthodes tendent à prouver que la proportionnelle peut à la fois concilier une juste transcription des voix en sièges et une réelle prise en compte du choix de l'électeur parmi les candidats qui se présentent à lui. Classification par degré de proportionnalité. Comme on vient de le voir, les différentes méthodes de répartition des sièges à la proportionnelle peuvent avoir des effets variables. Plus elles sont favorables aux grands partis et défavorables aux petits, moins elles sont proportionnelles. Le politologue I. Nikolakopoulos a classifié ces méthodes sur la base d'une combinaison entre deux critères : leur effet restrictif et leur effet déformateur. Le premier effet prend en compte la part d'électeurs ayant voté pour des partis privés de représentation, et le second concerne l'ampleur de la surreprésentation ou de la sous représentation des formations politiques obtenant des sièges. Ses analyses l'ont conduit à classifier les systèmes proportionnels en trois catégories distinctes : Thanassis Diamantopoulos s'est basé sur ces différents critères pour établir une classification plus exhaustive, prenant en compte des facteurs plus fonctionnels. Il distingue ainsi quatre catégories réparties dans deux grandes familles. Les proportionnelles fonctionnelles. Malgré leurs différences plus ou moins marquées, ces trois catégories partagent une caractéristique commune, celle d'empêcher implicitement la formation de majorités parlementaires unipartisanes, même si elles ne poursuivent pas ce but avec la même intensité. Elles conviennent donc en principe aux pays dans lesquels la formation d'alliances gouvernementales est acceptée par la classe politique dans son ensemble. Elles ne favorisent évidemment pas la structuration bipartisane du système politique et vont dans le sens d'un parlementarisme multipartisan. Rappelons encore que dans tous les cas, la représentation proportionnelle est parfaitement compatible avec la bipolarisation du paysage politique. Les proportionnelles à tendance majoritaire. Le but politique de ce type de système proportionnel est l'inverse de celui de ceux évoqués précédemment. Il s'agit en effet ici de faciliter la formation de majorités gouvernementales unipartisanes, tout en assurant, dans une certaine mesure, la représentation parlementaire autonome des formations politiques minoritaires. Ces « proportionnelles à faible proportionnalité » doivent donc indirectement favoriser la surreprésentation du parti ayant reçu le plus de voix. Pour Thanassis Diamantopoulos, cette surreprésentation ne doit pas excéder dix points, « ce qui pourrait être considéré comme le maximum politique acceptable dans un pays proportionnel ». Avec ces systèmes, une formation politique obtenant au total au moins 40 % des suffrages exprimés est pratiquement assurée d'investir une majorité absolue de sièges au parlement, sous réserve de disposer d'une avance non négligeable sur son principal concurrent. Combiné à un seuil à atteindre d'au moins 3 ou 4 %, les systèmes pouvant être utilisés pour atteindre cet objectif sont la méthode d'Hondt appliquée dans des circonscriptions pourvoyant en moyenne 7 sièges au maximum (comme en Espagne), ou un système à plusieurs niveaux d'attribution des sièges, avec tous les sièges des niveaux supérieurs réservés aux grands partis. Dans le second cas, l'instauration de seuils électoraux variables d'un niveau à un autre peut jouer un rôle déterminant. Les proportionnelles à tendance majoritaire produisent des effets très proches de ceux des systèmes mixtes, ce qui amène T. Diamantopoulos à classer ces deux familles de modes de scrutin au sein d'une grande catégorie, dite des « systèmes intermédiaires ». Parcours historique. Au milieu du , se fondant sur les travaux de mathématiciens ayant tenté de mettre au point diverses formules proportionnelles de traduction des voix en sièges, plusieurs philosophes politiques comme Thomas Hare et John Stuart Mill ont porté l’idée de la proportionnalité. À partir de là, différents mouvements favorables à ce nouveau mode de scrutin émergeront partout en Europe, séduisant à terme, au moins en partie, la classe politique. Les origines de la représentation proportionnelle sont anciennes. En 1846, le penseur Victor Considerant élaborait l'un des tout premiers modes de scrutin proportionnel pour l'élection des membres de l'assemblée constituante de la ville de Genève. Mais c'est en 1855 que la représentation proportionnelle servira pour la première fois à l'élection de parlementaires nationaux : cette année entre en effet en application, au Danemark, le scrutin à vote unique transférable élaboré par Carl Andrae, pour l'élection des deux tiers des députés. Ce système alors unique en son genre resta en vigueur jusqu'en 1866. Il faudra ensuite attendre 1895 pour voir la Belgique généraliser la représentation proportionnelle d'abord pour ses élections cantonales (1895), puis pour ses élections législatives (1899), en recourant à la méthode mise au point par le mathématicien Victor D'Hondt en 1885. Après d'autres expériences dans certains cantons suisses et en Serbie (avec un système de boules à défaut de bulletins de vote), la représentation proportionnelle fait son apparition dans plusieurs autres pays au début des années 1900. Les défenseurs de la représentation proportionnelle ont en général toujours eu deux types d’arguments. D’une part, l’injustice du système majoritaire, qui ne permet pas aux minorités d’être représentées au sein des assemblées délibérantes. D'autre part, la capacité de la représentation proportionnelle à permettre la formation de gouvernements de coalition, sur la base d'une majorité parlementaire pluripartisane, plus modérés et plus consensuels que des gouvernements monopartisans. Au début du siècle dernier, les partis conservateurs ou issus de milieux bourgeois, défendaient ardemment ce mode de scrutin, pensant que la représentation proportionnelle permettrait de freiner la montée du mouvement ouvrier qui pourrait obtenir, avec une majorité relative de suffrages, une majorité absolue de sièges dans le cadre d'élections au scrutin majoritaire. L’extension du droit de vote dans de nombreux pays permettra la diffusion de ces idées, le mouvement proportionnaliste atteindra son apogée à la fin du et au début du . Plusieurs pays abandonnèrent alors les systèmes majoritaires en faveur de formules proportionnelles. Au cours des années 1920, le nouveau mode de scrutin avait séduit bon nombre de démocraties européennes, l’Allemagne, l’Autriche, la Belgique, le Danemark, la Finlande, la France, l’Irlande, l’Italie, le Luxembourg, Malte, la Norvège, les Pays-Bas, la Suède et la Suisse ayant alors choisi de recourir à la représentation proportionnelle pour l’élection de leurs députés. Mais ce succès fut de courte durée. Au lendemain de la Seconde Guerre mondiale, la représentation proportionnelle fut mise en cause par certains pour avoir permis la montée du Parti national-socialiste en Allemagne. On reprochait alors au faible seuil d’éligibilité de la représentation proportionnelle de permettre à de nouvelles formations antidémocratiques d’investir la chambre basse du Parlement assez rapidement. Celles-ci avaient alors les moyens, comme les partis traditionnels, de faire connaître leurs idées en disposant d’un espace où elles pouvaient se structurer et se solidifier progressivement. En outre, l’instabilité gouvernementale qui avait affecté certains pays connaissant un pluripartisme important dans les années 1930 et 1940 avait discrédité la proportionnelle aux yeux de certains, qui l’assimilaient à un éclatement exacerbé du paysage politique. Au sortir du second conflit mondial, la représentation proportionnelle avait donc été délaissée par les démocraties occidentales. Il faudra attendre les années 1990 pour qu’elle regagne du crédit dans cette partie du monde, notamment dans un souci croissant d’être en mesure de représenter la société dans sa diversité. Mais les critiques à l’égard de ce mode de scrutin ont tout de même perduré. Il était alors intéressant de tenter de concilier les avantages de la représentation proportionnelle et ceux des autres modes de scrutin, notamment le scrutin uninominal. Des systèmes mixtes ont peu à peu vu le jour en Allemagne, en Italie, aux Pays-Bas ou encore au Japon. Influence de la représentation proportionnelle sur le système politique. Rapports entre la représentation proportionnelle, le multipartisme et l'instabilité ministérielle. Si elle peut techniquement conduire à une plus forte fragmentation politique des assemblées délibérantes que les scrutins majoritaires, par le fait qu'elle offre une juste représentation aux tiers-partis et ne surreprésente pas les plus grands, la représentation proportionnelle ne conduit pas automatiquement à un éclatement de la classe politique, et n'est pas fatalement un facteur d'instabilité ministérielle. Cette mauvaise réputation lui a été attribuée à la suite de la chute de la République allemande de Weimar, puis de celle de la Quatrième République française, utilisant toutes deux des systèmes très proportionnels pour l'élection de leurs députés. Ces deux arguments méritent d'être tempérés par plusieurs faits importants : d'une part, la stabilité ministérielle ayant précédé la République de Weimar était en grande partie due au caractère impérial et fort peu démocratique du régime, d'autre part, la composition des différentes législatures de la Troisième République française était, malgré l'élection des députés au scrutin majoritaire uninominal à deux tours, aussi confuse, si ce n'est plus, que celle des trois législatures de la Quatrième République. On peut même dire que le système de représentation proportionnelle sélective utilisé pour l'élection des deux assemblées constituantes et de la première Assemblée nationale de la Quatrième République, à défaut de permettre une vraie stabilité ministérielle, a permis de remettre de l'ordre dans le système politique français, les électeurs portant les trois quarts de leurs suffrages sur trois grands partis (le PCF, le MRP et la SFIO). En outre, la première législature de la Cinquième République, dont les membres étaient intégralement élus au scrutin majoritaire uninominal à deux tours, était tout aussi hétéroclite que celles du régime précédent. Le multipartisme ne dépend donc pas, ou tout du moins pas seulement, du mode de scrutin utilisé. D'autre part la représentation proportionnelle est tout à fait compatible avec un système bipartisan : c'est notamment le cas de l'Espagne, où deux grands partis, le Parti socialiste et le Parti populaire, ont détenu à eux deux environ 90 % des sièges de la chambre basse jusqu'en 2015, les autres étant occupés par de petits partis régionalistes à l'électorat fortement localisé. Le pluripartisme lui-même n'est pas forcément facteur d'instabilité ministérielle : les pays scandinaves (Suède, Norvège, Danemark) connaissent ainsi un très fort pluripartisme, mais qui est très nettement tempéré par une bipolarisation quasi inébranlable du paysage politique, sur la base du clivage droite/gauche, et ce malgré le caractère très fortement proportionnalisant de leurs modes de scrutin. Il en résulte une stabilité gouvernementale régulière et solide, qui permet à des chefs de gouvernement de rester plus de dix ans au pouvoir sans interruption. Toutefois, lorsque les conditions le permettent, il est apparu évident que la représentation proportionnelle intégrale puisse favoriser, à défaut de provoquer, une instabilité ministérielle constante et régulière. En Italie de 1945 à 1993, un système très proportionnel, dépourvu de seuil d'éligibilité, permettait à des partis recueillant de très petits scores d'envoyer au moins un député au parlement. Deux grands partis, Démocratie chrétienne (DC) et dans une moindre mesure le Parti communiste italien, recueillaient une grosse part des sièges à pourvoir, et tous les autres sièges allaient à quelques partis moyens et à une foule de petits partis, la plupart se situant au centre de l'échiquier politique. DC est resté jusqu'à sa disparition le parti à la tête de tous les gouvernements, en alliance avec de petits partis. Les efforts systématiques auxquels devaient se plier les gouvernements, assurés d'une courte durée de vie, pour maintenir l'intégrité de leur majorité au parlement, au prix d'innombrables concessions et négociations, entravaient leur action. La proportionnelle intégrale, conjuguée à un très fort émiettement de la classe politique et à la règle du vote à bulletin secret pour l'adoption des lois par les parlementaires, a contribué à la paralysie des institutions de la Première République italienne. Notons cependant que, comme en France sous les Troisième et Quatrième Républiques, les gouvernements tombaient souvent mais le personnel politique changeait peu : il n'était pas rare de voir une même personnalité exercer des fonctions de ministre dans plusieurs gouvernements différents successifs. L'Italie a recours depuis 1993 à des systèmes mixtes pour l'élection de ses parlementaires, ce qui a favorisé la bipolarisation mais n'a que très récemment permis une diminution conséquente du multiparisme (aggravé en 1993 par l'Opération Mains propres), encore responsable de la dernière crise ministérielle. Les partis « charnière ». Lorsque la répartition des suffrages entre les différentes forces politiques le permet, la représentation proportionnelle peut favoriser l'importance de partis « charnière », souvent centristes. C'était notamment le cas de la Démocratie chrétienne, le principal parti politique italien jusqu'en 1994, acteur incontournable lors de la formation de coalitions gouvernementales. L'Allemagne a connu une situation relativement semblable jusqu'en 1998 : le FDP, petit parti centriste, a longtemps été le seul parti, en plus du SPD et du bloc CDU/CSU, à accéder à la représentation parlementaire. L'Allemagne utilisant un système très proportionnel, il était impossible pour l'un des deux grands partis, à moins qu'il n'obtienne une majorité absolue de suffrages exprimés, de prendre la tête du gouvernement sans le soutien du FDP. Si le Royaume-Uni utilisait un système similaire, les Démocrates libéraux auraient très souvent été dans cette situation très favorable de force d'appoint, qui détermine pratiquement à elle seule l'orientation de la nouvelle majorité après une élection. L'irruption du Mouvement démocrate en France lors des élections législatives de 2007 aurait peut-être donné de tels résultats si la France élisait, elle aussi, ses députés à la représentation proportionnelle. Ce phénomène amène certains défenseurs des scrutins majoritaires à affirmer que la représentation proportionnelle peut donner un rôle excessif à ces partis centristes par rapport à leur influence électorale effective. Mais ce raisonnement ne se suffit de toute manière pas à lui-même, les partis charnière devant aussi tenir compte de l'opinion dans leur stratégie d'alliance. Par exemple, en 1982, le FDP a mis fin à 13 ans d'alliance avec le SPD au vu des résultats catastrophiques de ce dernier lors d'élections locales, et a ainsi formé une nouvelle coalition de centre-droit avec la CDU, dont les représentants étaient préférés par une majorité d'Allemands à un gouvernement abandonné par l'opinion. Le FDP ne bénéficiant en outre pas d'une position dominante, il n'accède jamais au poste de chef du gouvernement : la répartition des rôles reste donc juste et équitable. On reconnaît généralement à ces partis centristes un rôle modérateur qu'ils ne peuvent obtenir dans le cadre d'un système majoritaire, forcément dominé par le dualisme et la logique du conflit. Ils peuvent en effet éviter qu'un parti n'impose des politiques excessives à la population dans son ensemble, en se reposant sur une majorité absolue de sièges attribuée par une majorité relative d'électeurs. La représentation proportionnelle, par ce moyen, peut donc donner aux partis charnière un rôle de frein aux mesures extrémistes. Le rôle des seuils. La représentation proportionnelle est compatible, tout comme les modes de scrutin majoritaire, avec la mise en place de seuils d'éligibilité. Les systèmes proportionnels sont donc généralement accompagnés de seuils à atteindre pour accéder à la répartition des sièges. Le seuil peut être établi au niveau national (5 % des suffrages exprimés sur l'ensemble du territoire en Allemagne pour pouvoir recevoir des sièges à la proportionnelle dans les circonscriptions), ou au niveau des circonscriptions (en 1986, les députés français étaient élus dans les départements sur la base des seules listes ayant rassemblé au moins 5 % des suffrages exprimés). D'autres pays utilisent même concurremment ces deux types de seuils : en Suède, un parti peut accéder à la répartition des sièges en obtenant 4 % des suffrages exprimés au niveau national, ou bien 12 % dans une circonscription. Les seuils servent généralement à limiter l'émiettement politique. Ils peuvent toutefois mettre en péril la légitimité d'une assemblée ainsi élue s'ils sont trop élevés ou si ledit émiettement est trop prononcé. En Turquie, le seuil est de 10 % au niveau national, ce qui a eu pour effet, en 2002 puis en 2007, d'exclure la communauté kurde de toute représentation formelle, ses seuls candidats élus s'étant présentés sans étiquette. En 2002, seuls deux partis, l'AKP et le CHP, ont franchi ce seuil, alors qu'ils n'avaient recueilli à eux deux qu'un peu moins de 54 % des suffrages exprimés sur l'ensemble du pays. Ce phénomène n'est d'ailleurs pas nouveau : en Bulgarie, près d'un quart du corps électoral a été exclu de toute représentation lors des élections de 1992, et ce malgré la faiblesse du seuil (4 % au niveau national). En 1993, les députés polonais étaient élus à la proportionnelle avec un seuil de 5 % pour les partis et de 8 % pour les coalitions au niveau national. L'objectif était de lutter contre l'émiettement politique qui avait permis, lors du scrutin précédent, à pas moins de 19 partis de faire leur entrée au Parlement, le plus fort d'entre eux n'obtenant que 12,3 % des voix. L'impact de cette mesure fut catastrophique : l'émiettement politique a perduré, et 35 % des suffrages exprimés ont été exclus de toute représentation. Les ex-communistes du Parti social-démocrate et leurs alliés du Parti paysan ont ainsi investi 300 sièges sur 460 alors qu'ils n'avaient rassemblé que 36 % des suffrages exprimés. Ces effets pervers des seuils peuvent donc rendre la représentation proportionnelle encore plus injuste que les modes de scrutin majoritaire, c'est pourquoi ils doivent être utilisés avec prudence. On constate toutefois que jamais pareils phénomènes n'ont pu être observés dans les démocraties occidentales, qui recourent généralement à un seuil de 4 ou 5 %. Les systèmes mixtes. Les modes de scrutin mixtes combinent à la fois un aspect proportionnel et un aspect majoritaire dans la méthode de désignation des élus. Pour la plupart assez récents, ils restent rares et sont beaucoup moins utilisés que les systèmes entièrement proportionnels ou entièrement majoritaires. Ils sont généralement critiqués pour leur complexité. Cependant, le recours à des systèmes mixtes pour l’élection des députés a sensiblement progressé à l’occasion des vagues de démocratisation en Asie et en Europe de l’est. La Corée du Sud, Taïwan, la Géorgie, la Hongrie ou encore la Russie se dotèrent en effet de modes de scrutin mixte durant ces périodes. L’Italie et le Japon y recourent depuis les années 1990. Mais ce récent succès des systèmes mixtes ne remet pas en cause leur fragilité. La Bulgarie a ainsi renoncé à son scrutin mixte pour recourir dès 1991 à la représentation proportionnelle. La Corée a quant à elle sensiblement renforcé le caractère majoritaire du sien en 1988. La Russie a également abandonné son système mixte en 2007 pour un système entièrement proportionnel. Les scrutins mixtes restent tout de même bien implantés dans les grandes démocraties d’Europe occidentale, la France et l’Italie l’utilisant pour la désignation de divers types de représentants. Cette expansion récente témoigne de la volonté des législateurs de trouver des systèmes bénéficiant à la fois des qualités des modes de scrutin majoritaire et de celles de la représentation proportionnelle. Le fait de ne pas disposer de longues séries de résultats électoraux empêche une véritable analyse de l’impact de ces systèmes mixtes sur la vie politique et sur la manière dont les différentes formations politiques sont amenées à se comporter. On remarque toutefois que l’importance des effets majoritaires et proportionnels varie fortement en fonction de l’importance de la part des sièges concernés par l’un ou l’autre des deux aspects. L’effet majoritaire n’est ainsi dominant qu’avec les modes de scrutin à finalité majoritaire, qui garantissent au vainqueur de disposer d’une majorité absolue de sièges dans l’assemblée. Les systèmes mixtes ne constituent pas une catégorie homogène, et la souplesse des règles qui leur sont associées permet une très large variété de choix quant à la définition d’un mode de scrutin mixte par le législateur. Les systèmes géographiquement mixtes. Ces systèmes combinent un scrutin majoritaire uninominal ou plurinominal dans les circonscriptions qui ont le plus faible nombre de sièges à pourvoir, et la représentation proportionnelle dans les circonscriptions à plus fort nombre de sièges. Ils peuvent donc permettre d’équilibrer l’amplification en sièges d’une victoire en voix, grâce au scrutin majoritaire, par une représentation des forces minoritaires, grâce à la proportionnelle. Ce type de scrutin présente cependant des caractéristiques dangereuses quant à la légitimité de la composition de l’assemblée ainsi élue. Les circonscriptions les moins peuplées concernent généralement des zones rurales, tandis que les plus peuplées se trouvent être celles concentrant des populations urbaines. Un parti, ayant une forte implantation électorale dans les zones rurales, peut ainsi remporter un très grand nombre de sièges dans les circonscriptions recourant au scrutin majoritaire, tandis qu’un autre, mieux implanté dans les zones urbaines, ne bénéficiera pas d’une amplification en sièges de sa victoire en voix, puisqu’il n’obtiendra des sièges que dans les circonscriptions où la représentation proportionnelle est en vigueur. Un système semblable était en application en Islande, dans les années 1930, pour l'élection des députés. Il n’était alors pas rare de voir les agrariens, bien implantés dans les zones rurales, emporter une majorité absolue de sièges, tout en étant largement minoritaires en voix au niveau national. Au contraire des conservateurs qui, bien qu’ayant remporté une nette victoire en voix, se retrouvaient marginalisés à l’assemblée, leurs électeurs étant concentrés dans la capitale Reykjavik, qui élisait ses députés à la proportionnelle. Les députés islandais sont maintenant intégralement élus à la représentation proportionnelle depuis 1959. C’est aussi un système de ce type qui sert à élire les sénateurs français depuis la mise en place de la République. Les départements élisant moins de 4 sénateurs le font au scrutin majoritaire plurinominal de liste, tandis que les autres recourent à la représentation proportionnelle. Depuis les élections sénatoriales de 1959, les formations politiques de droite et du centre-droit ont toujours disposé d’une confortable majorité de sièges au Sénat, les représentants des conseils municipaux, traditionnellement plus orientés à droite, formant 95 % du collège électoral chargé d'élire les sénateurs. Là aussi les milieux ruraux, au vote généralement plus conservateur que celui des zones urbaines, facilitent grandement les victoires des partis de droite dans les départements où les sénateurs sont élus au scrutin majoritaire. Les systèmes géographiquement homogènes. Ces systèmes permettent d'élire une partie de l'assemblée via un mode de scrutin majoritaire, tandis que l'autre sera élue au scrutin proportionnel. L'électeur dispose généralement de deux votes, et les deux répartitions peuvent s'opérer totalement indépendamment l'une de l'autre, contrairement aux scrutins recourant à la proportionnelle par compensation. C'est pourquoi le système électoral allemand, qui est à finalité intégralement proportionnelle, n'entre pas dans cette catégorie. Ces systèmes permettent un très grand nombre de variantes. Il est en effet possible d'allier tout type de scrutin majoritaire à n'importe quelle méthode de répartition proportionnelle. Les exemples sont donc nombreux et fort différents les uns des autres. Systèmes mixtes parallèles équilibrés. Avec ces systèmes, une moitié des représentants d'une assemblée délibérante donnée est élue au scrutin majoritaire, et l'autre moitié à la représentation proportionnelle, de manière totalement indépendante l'une de l'autre. Ainsi, de 1993 à 2003, la Russie employait un système mixte alliant le scrutin uninominal à un tour à la représentation proportionnelle pour l'élection des membres de la Douma. 225 députés étaient élus dans autant de circonscriptions au scrutin uninominal, tandis que les 225 restants étaient élus à la représentation proportionnelle au niveau national. Bon nombre de pays d'Europe orientale ont opté pour des systèmes de ce type à la fin des années 1990, afin de concilier les revendications de l'opposition, désireuse d'être justement représentée, et la nécessité pour le pouvoir soviétique vacillant de se maintenir en place, en favorisant l'élection de notables. Notons que la part proportionnelle ne dois pas être compensatoire, sans quoi le système deviendrait pleinement proportionnel, comme dans le cadre du régime électoral allemand. Systèmes mixtes parallèles déséquilibrés. Il s'agit toujours de systèmes permettant l'élection des deux « parts », majoritaire et proportionnelle, mais ici l'une des deux parts est plus importante que l'autre. La représentation proportionnelle peut donc être, dans le cas où la part majoritaire est la plus importante, de compensation, c'est-à-dire qu'elle corrigera partiellement les défauts du scrutin majoritaire. De 1993 à 2005, les députés et sénateurs italiens étaient élus au scrutin majoritaire uninominal pour les 3/4 des sièges, le quart restant étant réparti à la représentation proportionnelle à titre de compensation. Dans l’ensemble, il s’agissait de deux systèmes très compliqués, prévoyant un nombre de sièges « proportionnels » trop élevé (le pourcentage de 25 % étant né d'un accident historique qui se produisit en 1963 et d'un référendum qui en fit profit, ayant eu lieu le 18 avril 1993) ; et qui en définitive ne garantissaient pas une majorité fiable au gouvernement. En outre, la loi pour l’élection de la Chambre des Députés ne réglait pas avec précision les rapports entre les candidats des circonscriptions uninominales et les listes proportionnelles (pour lesquelles l’électeur disposait d’un deuxième bulletin). Cela a entraîné la présence de listes trompeuses (surnommées par les Italiens "listes-chouette") ayant pour but de porter en soustraction sur elles-mêmes les votes qui devaient être enlevés aux listes de parti. Ce qui entraîna une très grande confusion lors des élections de 2001, à la suite desquelles 11 sièges de la Chambre ne furent pas assignés. Elle ne fut alors composée que par 619 parlementaires au lieu des 630 prévus par la Constitution. Les deux modes de répartition peuvent aussi être totalement indépendants l'un de l'autre, tout en permettant la domination effective des élus au scrutin majoritaire ou à la représentation proportionnelle. Par exemple, depuis 1994, 300 des 480 représentants japonais sont élus au scrutin majoritaire uninominal à un tour, les 180 restants étant élus à la représentation proportionnelle dans le cadre de 11 grandes régions électorales. L'électeur vote donc pour un candidat au scrutin majoritaire et pour une liste de candidats à la représentation proportionnelle. Le facteur majoritaire est évidemment largement dominant, et le parti arrivé premier est pratiquement assuré de disposer d'une majorité absolue de sièges à la Chambre des représentants. L'Équateur utilise au contraire un système mixte à dominante proportionnelle : les élections se déroulent exactement de la même manière qu'au Japon, mais les élus à la RP sont plus nombreux que ceux au scrutin majoritaire. Le facteur proportionnel est donc naturellement dominant, mais la composition finale de l'assemblée reste toutefois très éloignée de la proportionnalité parfaite. Plusieurs pays d'Asie, comme la Corée du Sud ou Taïwan, combinent le vote unique (transférable ou non) à la représentation proportionnelle. La Corée du Sud a utilisé un système de ce type pour l'élection de ses députés en 1981 et en 1985. Il y avait en tout 276 sièges à pourvoir : 184 au vote unique dans le cadre de 92 circonscriptions à deux sièges, où l'électeur ne disposait que d'une voix, et 92 au niveau national, dont 61 étaient réservés au parti arrivé en tête (les 31 restants étaient répartis à la RP entre les autres listes). Chaque candidat dans une circonscription devait être membre d'une liste nationale : c'est ainsi qu'on connaissait les résultats des différents partis au niveau national pour l'attribution des 61 sièges de prime majoritaire. Bien que fort complexe, ce système était très simple pour l'électeur qui avait juste à voter pour un candidat. La forte prédominance de la règle de majorité a permis, lors des législatives de 1981 et de 1985, au PJD, le premier parti du pays, d'obtenir une majorité absolue de sièges pour seulement 35,6 puis 35,3 % des suffrages exprimés. Plus la part des sièges pourvus à la RP est faible, plus le fait majoritaire est fort. L'actuel mode de scrutin taïwanais fonctionne exactement de la même manière, mais permet au contraire une forte proportionnalité globale : 125 députés sont élus au vote unique dans le cadre de circonscriptions à plusieurs sièges (ce qui renforce l'aspect proportionnalisant du vote unique), et 36 autres sièges sont attribués au niveau national à la RP entre les partis ayant atteint un seuil de 5 % des suffrages exprimés. Systèmes mixtes conditionnels. Ces systèmes font intervenir la dimension majoritaire ou proportionnelle d'un système en fonction des résultats de l'élection. C'est donc soit la nature des résultats d'une élection au scrutin majoritaire qui garantit l'intervention d'un correctif proportionnel, soit celle d'une élection à la représentation proportionnelle qui garantit l'intervention de la règle de la majorité. En France, lors des élections législatives de 1919 et de 1924, on avait allié un mode de scrutin majoritaire plurinominal à un tour à la représentation proportionnelle. L'électeur disposait d'autant de voix qu'il y avait de sièges à pourvoir dans son département. Il y avait ensuite trois façons d'obtenir des sièges : d'une part les candidats ayant obtenu la majorité absolue des suffrages exprimés étaient directement élus ; d'autre part les sièges non pourvus de cette manière étaient répartis au quotient de Hare entre toutes les listes (chaque candidat faisait partie d'une liste, il fallait donc ajouter les suffrages des candidats ayant une même étiquette pour trouver le score de la liste) ; enfin les sièges non pourvus via ces deux méthodes de répartition étaient tous attribués à la liste arrivée en tête. Ce système rendait le jeu des alliances entre formations politiques déterminant. Pour les législatives de 1951 et de 1956, la loi des apparentements permettait aux listes de partis de se déclarer « apparentées » avant le vote. Si l'addition des suffrages des différentes listes apparentées atteignait la majorité absolue des suffrages exprimés, elles recevaient tous les sièges à pourvoir dans le département (autrement la répartition s'opérait à la représentation proportionnelle entre toutes les listes). Remarquons qu'ici c'est l'aspect majoritaire qui est conditionné. Si ce dernier système a permis à la Troisième force, vaste coalition centriste, de l'emporter en 1951, il n'a été pratiquement d'aucun effet en 1956, tant l'émiettement politique était fort. Les systèmes mixtes à finalité majoritaire. Techniquement parlant, les scrutins de type proportionnel sont à "finalité" proportionnelle, tandis que les scrutins majoritaires sont à "effet" majoritaire. Il n'est donc pas certain qu'une assemblée, dont les membres sont élus au scrutin majoritaire, se retrouve forcément dominée par un parti ou par une coalition détenant une majorité absolue de sièges. C'est également le cas des systèmes mixtes à finalité majoritaire, qui combinent le scrutin majoritaire de liste à la représentation proportionnelle. Il s'agit en fait généralement d'attribuer une part du total des sièges à pourvoir, un quart, un tiers ou la moitié, à la formation politique arrivée en tête, à titre de prime majoritaire. Les sièges restants sont ensuite répartis à la proportionnelle entre toutes les listes, y compris celle ayant bénéficié de la prime majoritaire. L'Italie avant 2017 et la France pour les scrutins locaux sont les deux principales démocraties à user régulièrement de systèmes de ce type. Les exemples italiens. L'Italie a pour la première fois élu ses députés avec un système mixte en 1924, peu après l'arrivée de Mussolini au pouvoir. Le scrutin avait lieu dans 15 circonscriptions, et la liste arrivée en tête au niveau national, si elle obtenait au moins 25 % des suffrages exprimés, recevait une prime majoritaire s'élevant aux deux tiers des sièges à pourvoir dans la chambre basse. Le tiers des sièges restants était ensuite réparti à la proportionnelle entre toutes les listes à l'échelle des circonscriptions. Cette loi ne sera pas d'une grande utilité aux fascistes et à leurs alliés, les pressions qu’ils exerçaient sur les électeurs leur ayant assuré 65 % des voix sur l'ensemble du pays. La loi électorale de décembre 2005 se rapproche de ce système : les sièges sont répartis entre les coalitions ayant obtenu plus de 10 % des suffrages exprimés (et dans ces coalitions, parmi les listes ayant obtenu plus de 2 % des suffrages au total, plus celle ayant le plus de voix parmi les listes en dessous de 2 %), ainsi qu'entre les listes indépendantes ayant obtenu 4 % ou plus. La coalition ou la liste arrivée en tête obtient au minimum 55 % des sièges (340 parmi les 617), les 45 % restants étant répartis à la proportionnelle dans les circonscriptions. Aux élections générales italiennes de 2006, deux grandes coalitions, L'Union et la Maison des libertés, ont polarisé à elles seules 99,5 % des suffrages exprimés. L'Union, avec 49,81 % des voix, a obtenu 340 sièges, tandis que la Casa delle libertà en a eu 277 pour 49,74 % des voix : le principe de la finalité majoritaire a effectivement été atteint, et ce malgré la très courte avance de la première coalition sur la seconde, mais cela ne garantit pas la gouvernabilité. La Loi électorale italienne de 2017, dite Rosatellum bis, a cependant mis fin à ce système. Les exemples français. La France recourt à des systèmes mixtes pour les élections municipales dans les communes de plus de depuis 1983, et pour les élections régionales depuis 2004. Les électeurs votent pour des listes bloquées. Lors du premier tour, si une liste obtient la majorité absolue des suffrages exprimés, elle reçoit la moitié des sièges à pourvoir (un quart dans le cas des élections régionales), et la moitié restante est répartie entre toutes les listes à la représentation proportionnelle. Sinon, un second tour de scrutin est organisé, auquel ne sont admises que les listes ayant rassemblé au moins 10 % des suffrages exprimés au premier tour (celles qui ont eu au moins 5 % peuvent fusionner avec celles passant au second tour). La liste ayant eu le plus de voix à l'issue de ce second tour obtient la prime majoritaire (50 % pour les élections municipales dans les communes de plus de 3500 habitants, et 25 % pour les élections régionales) et les sièges restants sont répartis entre toutes les listes à la proportionnelle. La répartition à la proportionnelle ne s'opère en outre que sur la base des listes ayant obtenu au moins 5 % des suffrages exprimés (pour les répartitions au premier comme au second tour). Depuis que ce mode de scrutin est en vigueur, tous les conseils régionaux français (exception faite de l'assemblée territoriale de Corse qui utilise un système légèrement différent) disposent d'une majorité claire, de droite ou de gauche, ce qui n'était pas le cas avant, avec une répartition de tous les sièges à la RP. Les minorités sont généralement représentées, surtout à l'issue d'un second tour. La loi municipale a toutefois tendance à marginaliser l'opposition. L'Italie utilise un système légèrement différent pour ses élections municipales et provinciales, depuis 1993 : les électeurs votent à la fois pour un candidat à la mairie et pour une liste pour le conseil municipal. Finalement, les listes ayant soutenu le candidat vainqueur se partagent 60 % des sièges, les 40 % restants étant répartis à la proportionnelle entre les autres listes (et seulement elles). Aspects historiques. La démocratie représentative vénitienne. Le vote a été utilisé comme un élément essentiel de la démocratie depuis le , lorsque la démocratie a été instaurée dans la ville grecque d’Athènes. Les magistrats étaient alors tirés au sort parmi les habitants bénéficiant du statut de citoyen (soit une minorité élitiste de la population) : l'arbitraire était la règle et il n'était donc pas nécessaire de faire voter un quelconque corps électoral. Par contre, Athènes pratiquait aussi l'ostracisme, qui permettait d'exclure de la ville un citoyen donné par le biais d'un vote plural. Sous la République romaine, en revanche, les magistrats étaient élus au suffrage censitaire par un corps électoral très restreint, pour un mandat d'un an, au scrutin majoritaire. Les magistratures étaient hiérarchisées et il était impossible d'accéder à une magistrature donnée sans avoir déjà officié dans la ou les magistrature(s) inférieure(s). Ce système était de fait réservé à la riche élite romaine, qui pouvait se permettre une carrière politique longue, complexe et coûteuse. La plupart des élections du début de l'histoire de la démocratie ont été organisées selon ces deux principes, mais l’État de Venise au a fait exception : on sait maintenant qu’on y utilisait un système de vote d’approbation pour l'élection du Grand Conseil. Le système d'élection du Doge vénitien est un processus particulièrement tortueux, composé de cinq tours de tirage au sort et de cinq tours de vote d'approbation. Par tirage au sort, un corps de 30 électeurs est désigné, et est ensuite ramené à 9 électeurs par tirage au sort à nouveau. Le collège électoral de 9 membres élit ensuite 40 personnes par un vote d'approbation ; ces 40 élus formeront ensuite un deuxième collège électoral de 12 membres désignés par tirage au sort parmi eux. Le deuxième collège électoral est composé de 25 personnes élues au terme d’un vote d’approbation, puis de 9 membres désignés par tirage au sort. Le troisième collège électoral a lui élu 45 personnes, qui seront réduites à former un quatrième collège électoral de 11 personnes choisies par tirage au sort. Ils éliront à leur tour un dernier corps électoral de 41 membres, qui seront finalement chargés d’élire le Doge. En dépit de sa complexité, ce système a certaines propriétés intéressantes, en veillant à ce que le gagnant reflète les opinions de la majorité et celles des factions minoritaires. Ce processus a été utilisé avec peu de modifications depuis 1268 jusqu'à la fin de la République de Venise en 1797, et a été l'un des facteurs contribuant à la continuité de la République vénitienne. Fondements de la théorie du vote. La théorie du vote est devenue un objet d'étude universitaire à l'époque de la Révolution française. Jean-Charles de Borda a proposé en 1770 une méthode d'élection des membres de l'Académie des Sciences. Son système a été contesté par le marquis de Condorcet, qui propose plutôt la méthode de comparaison par paires qu'il avait conçue. Les systèmes électoraux découlant de cette dernière méthode sont appelés « méthodes Condorcet ». Le marquis a aussi développé des théories sur le paradoxe de Condorcet, qu'il appelait "l’intransigeance des préférences de la majorité". Alors que Condorcet et Borda sont généralement considérés comme les pères fondateurs de la théorie du vote, des recherches récentes ont montré que le philosophe Ramon Llull avait découvert à la fois la méthode Borda et une méthode qui satisfait aux critères de Condorcet au . Les manuscrits dans lesquels il a décrit ces méthodes avaient été oubliés par l’histoire, jusqu'à leur redécouverte en 2001. Plus tard, au , le sujet de la répartition a commencé à être étudié. L'impulsion pour la recherche sur les méthodes de répartition équitable est venue, en effet, de la Constitution des États-Unis, qui précise que les sièges à la Chambre des représentants doivent être répartis entre les États proportionnellement à leur population, mais sans préciser comment. Diverses méthodes ont été proposées par des hommes d’État, tels Alexander Hamilton, Thomas Jefferson, ou encore Daniel Webster. Certaines des méthodes de répartition découvertes aux États-Unis ont été redécouvertes en Europe au , en même temps qu’étaient mis au point les systèmes de représentation proportionnelle. Plusieurs méthodes identiques ont ainsi des noms différents : la méthode de Sainte-Laguë est également appelée méthode de Webster. La même situation a pu être observée pour le scrutin à vote unique transférable, qui a été conçu par Carl Andrae au Danemark en 1855, mais aussi en Angleterre par Thomas Hare en 1857. Leurs découvertes peuvent ou non avoir été indépendantes l’une de l’autre. Les premières élections recourant à ce système ont eu lieu au Danemark en 1856, puis en Tasmanie en 1896 après que son utilisation a été encouragée par Andrew Inglis Clark. La représentation proportionnelle a quant à elle commencé à se généraliser en Europe au début du , la Belgique étant la première à la mettre en œuvre en 1900. Depuis, les systèmes proportionnels ou mixtes sont utilisés dans une majorité de démocraties, les pays anglo-saxons faisant toutefois figure d’exceptions. La renaissance des scrutins majoritaires. Peut-être influencés par l'évolution rapide des multiples méthodes consacrant plusieurs gagnants, les théoriciens ont commencé à publier de nouvelles conclusions sur les méthodes à un seul vainqueur à la fin du . Cela a commencé vers 1870, quand William Robert Ware a proposé d'appliquer un nouveau type de système à un seul vainqueur à des élections, proche du vote alternatif. Peu de temps après, des mathématiciens ont commencé à revoir les idées de Condorcet et à inventer de nouvelles méthodes pour compléter ses analyses. Edward John Nanson a ainsi combiné le nouveau vote alternatif à la méthode Borda dans le but de concevoir une nouvelle méthode de Condorcet appelée « méthode de Nanson ». Charles Dodgson, mieux connu sous le nom de Lewis Carroll, a publié des brochures sur la théorie du vote, en se concentrant en particulier sur les méthodes Condorcet. Il a introduit l'utilisation de matrices de Condorcet pour analyser les élections, bien que cela ait aussi déjà été présenté sous une certaine forme par Ramon Llull. Des systèmes de vote à préférence multiple ordonnée ont plus tard été mis en application. En Australie, le vote alternatif a été adopté pour la première fois en 1893, et continue à être utilisé aujourd'hui. Aux États-Unis, au début du , plusieurs municipalités ont commencé à utiliser la méthode Bucklin, mais les résultats n'étaient pas satisfaisants pour les électeurs. Ce système n’est plus du tout utilisé depuis, et a même été déclaré inconstitutionnel dans le Minnesota. Influence de la théorie des jeux. Après que John von Neumann et d'autres chercheurs ont mis au point le domaine mathématique de la théorie des jeux dans les années 1940, de nouveaux outils mathématiques, visant à analyser les systèmes de vote et leurs stratégies, font leur apparition. Cela a conduit à la découverte d'importants nouveaux résultats qui ont bouleversé le domaine de la théorie du vote. L'utilisation de critères mathématiques permettant d'évaluer les systèmes électoraux a été introduite par Kenneth Arrow, qui a démontré, avec son théorème d'impossibilité, que certains critères intuitivement désirables entraient en contradiction, pointant du doigt les limites inhérentes aux différents systèmes de vote basées sur les "préférences" individuelles. Il est en effet impossible de dire que tel ou tel système de vote est LE système parfait, car certaines des caractéristiques, qui font qu'un système est bon, sont contradictoires. Si, par exemple, un candidat est extrêmement apprécié par la majorité des électeurs, mais aussi extrêmement haï par les autres, cela fait-il de lui un meilleur ou un pire candidat que celui qui serait modérément apprécié par tous ? Les systèmes électoraux ont chacun une vision différente de ce type de problème. Kenneth Arrow a reçu le prix de la Banque de Suède en sciences économiques en mémoire d'Alfred Nobel en 1972 pour avoir démontré, dans sa thèse de 1951, l'impossibilité de transformer des préférences individuelles qualitatives (des classements) en choix collectif sans violer au moins une des conditions suivantes : En fait, tous les différents systèmes qui ne demandent pas aux électeurs d'indiquer une intensité de leur préférence pour les différents candidats violent de différentes façons ces conditions. Beaucoup trouvent que la méthode Condorcet reste suffisamment bonne, car elle ne viole que de façon mineure un critère parmi ceux jugés les moins importants. Le théorème d'Arrow est le plus cité comme résultat de l'étude du vote, et a inspiré plusieurs résultats significatifs tels que le théorème de Gibbard-Satterthwaite, qui démontre que le vote stratégique est inévitable dans certaines circonstances communes. L'utilisation de la théorie des jeux pour analyser les modes de scrutin a également conduit à des découvertes sur les effets stratégiques émergents de certains systèmes. La loi de Duverger, qui montre que le scrutin majoritaire à un tour conduit souvent à un système bipartite, en est un bon exemple. Des recherches approfondies sur les aspects du vote dans la théorie des jeux, menées par Steven Brams et Peter Fishburn, les ont conduits à définir et à promouvoir l'utilisation du vote par approbation en 1977. Bien que le vote par approbation ait déjà été utilisé auparavant, il n'avait pas été cité ou considéré comme un objet d'étude universitaire. Développements contemporains. L'évolution politique constante des différents États pratiquant des élections poussent ceux-ci à modifier plus ou moins régulièrement leurs régimes électoraux. En fonction de la nature du régime, la préférence de celui-ci pour tel ou tel système peut varier. Dans une étude menée par André Blais et Louis Massicotte en 1997 sur 166 États, il a été mis en évidence que les modes de scrutins majoritaires à un tour et les différents systèmes de représentation proportionnelle sont les systèmes électoraux les plus couramment utilisés. Remarquons toutefois qu'en isolant les démocraties des autres formes de régimes, cette étude montre que la représentation proportionnelle est préférée par une majorité relative d'États (voir le tableau ci-dessous). Une autre étude menée par David M. Farell en 2001, se concentrant sur 59 démocraties, peuplées d'au moins deux millions d'habitants et dont le degré de liberté politique atteint au moins 4.0 selon les critères de la "Freedom House annual survey" de 1999, offre des résultats différents. La représentation proportionnelle est cette fois utilisée par 49,2 % des États concentrant 18,4 % de la population totale concernée, tandis que les systèmes majoritaires à un et deux tours sont utilisés par 23,7 % des États pour 55,7 % de la population. Les systèmes mixtes sont quant à eux appliqués dans 27,1 % des États recouvrant 25,8 % de la population. On en déduit que près de la moitié des démocraties représentatives étudiées plébiscitent la RP tandis que les autres sont équitablement partagées entre systèmes majoritaires et mixtes, mais que les États fortement peuplés préfèrent encore les scrutins majoritaires (l'Inde et les États-Unis, notamment). La théorie du vote est venue mettre l'accent sur les critères d'un système électoral presque autant que sur certains systèmes particuliers. Il est maintenant possible avec l'état des recherches de soutenir par un critère défini mathématiquement la plupart des descriptions d'un avantage ou d'une faiblesse dans un mode de scrutin. Des recherches récentes dans le domaine de la théorie du vote ont permis l'élaboration de nouveaux critères et de nouvelles méthodes de calcul visant à répondre à certains critères. Parmi les éminents théoriciens de la théorie du vote contemporains, Nicolaus Tideman a officialisé les concepts stratégiques, tels que l'effet spoiler. Tideman a aussi conçu la méthode de classement par paires, une méthode Condorcet qui n'est pas soumise aux critères clones. Donald Gene Saari a quant à lui fait renaître l'intérêt pour les méthodes Borda avec les livres qu'il a publiés depuis 2001. Saari utilise des modèles géométriques de la position des systèmes électoraux pour promouvoir ses nouvelles méthodes. La disponibilité accrue du traitement des données par ordinateur a encouragé la pratique de la méthode Condorcet avec rangement des paires par ordre décroissant, et des méthodes Schulze, qui permettent un classement des choix des plus populaires aux moins populaires. L'avènement d'Internet a amplifié l'intérêt pour les systèmes électoraux. Contrairement à beaucoup d'autres domaines mathématiques, la théorie du vote est généralement assez accessible aux non-spécialistes, et de nouveaux résultats sont fréquemment découverts par des amateurs. C'est pourquoi de nombreuses découvertes récentes dans la théorie du vote proviennent non pas de documents publiés, mais de discussions informelles entre passionnés, sur des forums en ligne et des listes de diffusion. L'étude des modes de scrutin a donné une nouvelle impulsion à l'idée de réforme électorale, plusieurs personnes proposant de remplacer les scrutins majoritaires par de nouvelles méthodes moins injustes. Diverses municipalités aux États-Unis ont commencé à adopter le vote alternatif dans les années 2000 et l'Etat du Maine l'a fait en 2018. La ville de Fargo (Dakota du nord) a adopté le vote par approbation en 2018, suivi par la ville de Saint Louis (Missouri) en 2020. La Nouvelle-Zélande a adopté la représentation proportionnelle pour les élections législatives en 1993 et le scrutin à vote unique transférable pour certaines élections locales en 2004. La province canadienne de Colombie-Britannique a tenu plusieurs référendum sur l'adoption du vote unique transférable ou un système mixte, le dernier en 2018, mais ces consultations ont confirmé le statu quo. La province de l'Ontario a quant à elle organisé un référendum le 10 octobre 2007, sur l'opportunité d'adopter un système mixte proportionnel/majoritaire (les électeurs rejetteront cette proposition très critiquée par une partie de la classe politique canadienne à 63 %). En outre, en septembre 2007, le Nouveau Parti démocrate uni de la Corée du Sud a commencé le premier à utiliser des systèmes de vote mobiles pour ses primaires présidentielles. Une gamme encore plus large de systèmes de vote est maintenant diffusée dans les organisations non gouvernementales. Aspects théoriques. Les différents systèmes électoraux possèdent certains avantages et certains inconvénients. Pour déterminer le système de vote qui correspond le mieux à l'objectif de l'organisateur, ont été précisés des critères de systèmes de vote. Ils permettent de faciliter le choix de l'organisateur mais il n'existe aucun système de vote vérifiant tous les critères inventoriés. Justice mathématique d’un système électoral. La recherche d'un système juste (et donc, a priori, proportionnel) repose sur sa capacité à transposer efficacement les voix en sièges. D'après Pierre Martin, la justice d'un système électoral doit être appréciée sur la base de trois critères : l'indice de représentativité, la monotonie et la disproportionnalité. L"indice de représentativité" est le rapport entre les électeurs effectivement représentés, c'est-à-dire ayant voté pour un candidat élu ou pour une liste ayant reçu des sièges, et l'ensemble des électeurs. Reprenons les résultats fictifs utilisés précédemment : Si le mode de scrutin employé est de type majoritaire à un tour, seul le candidat du Parti A sera élu (ou seule sa liste aura des sièges). La représentativité du résultat est donc de 41,5 %. Si au contraire on répartit entre les différentes listes avec la méthode d'Hondt de la plus forte moyenne, A obtiendra quatre sièges, B trois, C un et D aucun. La représentativité est ici de 92,4 %. Cet indice est très utile pour différencier un vrai système proportionnel d'un autre qui le serait par hasard, comme celui de la Chambre des représentants des États-Unis, où la répartition des sièges est très proche de celle des suffrages des électeurs. Pourtant ses membres sont tous élus au scrutin majoritaire uninominal à un tour. En réalité, la proportionnalité globale est forte mais l'indice de représentativité faible, ce qui permet de le différencier d'un véritable mode de scrutin proportionnel. La "monotonie" d'un mode de scrutin correspond à sa capacité à respecter dans la répartition des sièges l'ordre dans lequel sont arrivés les différents partis en nombre de voix. Si tel parti obtient plus de voix qu'un autre, il apparaît juste que le premier obtienne plus de sièges que le second. L'exemple des élections législatives britanniques de 1951, abordé dans la partie sur les scrutins majoritaires, permet d'affirmer, par exemple, que le mode de scrutin uninominal majoritaire à un tour n'a pas du tout été monotone. Notons enfin qu'il est bien plus grave d'inverser l'ordre en sièges par rapport à l'ordre en voix pour les grands partis que pour les partis plus petits. La "disproportionnalité" d'un système à une élection a été pour la première fois mesurée par des indices mis au point en 1882 par Victor D'Hondt puis en 1910 par André Sainte-Laguë. Le premier proposa de mesurer le maximum du rapport entre la proportion des sièges et la proportion des voix d'un même parti, tandis que le second proposa de calculer la somme, sur l'ensemble des partis, des carrés des différences entre la proportion de sièges reçus et celle des votes obtenus. Pour D'Hondt, il s'agissait d'abaisser le rapport maximum entre la proportion des sièges et celle des voix, et pour Sainte-Laguë, il fallait chercher à minimiser l'écart entre ces deux proportions. Admettons que dans notre exemple évoqué précédemment, les Partis A et B ne forment plus qu'un seul parti, même chose pour C et D. On obtiendrait alors les résultats suivants dans une circonscription donnée : 73,7 % pour le Parti AB et 26,3 % pour le Parti CD. Si deux sièges sont à pourvoir, la méthode d'Hondt les attribuera tous les deux au Parti AB, tandis que la méthode de Sainte-Laguë en donnera un à chacun des deux partis. Dans le premier cas, la représentativité est de 73,7 % et dans le second, elle est évidemment de 100 %. Par contre la méthode d'Hondt s'avère être plus monotone. Ces deux méthodes correspondent en fait à deux visions bien différentes de la disproportionnalité : la méthode d'Hondt cherche à éviter que beaucoup d'électeurs soient représentés par peu d'élus, tandis que celle de Sainte-Laguë tente de remédier au problème des électeurs non représentés. D'autres indices ont été proposés depuis, le plus abouti étant pour l'instant celui des moindres carrés de M. Gallaguer : formula_1 Où V et S représentent respectivement la part de voix et la part de sièges obtenues par chaque parti i. Les indices synthétiques de disproportionnalité, pour utiles qu'ils soient, ne distinguent pas entre les deux directions d'écart à la proportionnalité stricte, la répartition des sièges pouvant être soit excessivement inégalitaire par rapport à l'exigence de proportionnalité (cas classique des représentations législatives partiellement majoritaires), soit excessivement égalitaire par rapport à cette exigence (cas de la proportionnalité dite dégressive, en place par exemple dans la représentation des différents pays au Parlement européen). En réalité, l'application à la question de la représentation du principe aristotélicien identifiant justice et proportionnalité ne résiste pas à l'analyse et, pour évaluer la plus ou moins grande "justice" d'un système de représentation, il convient d'une part de préciser les principes de justice que l'on convoque et d'autre part la réalité du fonctionnement de l'assemblée. Correspondance entre les modes de scrutin. De manière générale, lorsqu'un seul siège est à pourvoir dans une même circonscription, plusieurs correspondances entre les modes de scrutin peuvent logiquement être observées. Par exemple, la représentation proportionnelle appliquée dans ce cas de figure se mue en scrutin majoritaire uninominal, avec des propriétés différentes en fonction du système de calculs utilisé. De la même façon, un mode de scrutin plurinominal devient de facto uninominal en pareilles circonstances. Les scrutins uninominaux correspondent donc à la fois à l'application la moins proportionnelle des systèmes proportionnels, et l'application la moins majoritariste des systèmes majoritaires. C'est la magnitude minimum, réduite à 1, qui provoque pareil phénomène. Le tableau suivant permet d'y voir plus clair : En passant de la première à la seconde colonne, on est dans une logique majoritaire, mais la proportionnalité augmente au fur et à mesure que la magnitude diminue. En passant de la seconde à la troisième colonne, on passe dans une logique proportionnelle, et pourtant la proportionnalité diminue en même temps que la magnitude diminue. On en déduira : Ces quatre remarques démontrent que si les modes de scrutin sont tous très variés et très différents les uns des autres, ils convergent au fond vers le même objectif, élire des représentants pour former une majorité et soutenir un gouvernement. Le débat entre scrutin majoritaire et représentation proportionnelle. Les défenseurs de la représentation proportionnelle défendent généralement la justice de ce système électoral, qui permet une représentation plus ou moins exacte en sièges du poids en voix d'un parti ou d'une coalition politique. Face à cet argument de bon sens, les partisans des scrutins majoritaires insistent souvent sur la nécessité d'accorder au régime politique une stabilité indispensable à sa continuité. Cela les amène dès lors à affirmer que le mode de scrutin influence directement l'électorat, notamment via le principe du « vote utile ». En avantageant les grands partis lors de la répartition des sièges et en permettant, en principe, au parti ayant rassemblé le plus de voix d'obtenir une majorité absolue de représentants, les scrutins majoritaires aboutissent à la formation d'un gouvernement unicolore logiquement plus stable qu'un gouvernement de coalition. Pour les défenseurs des scrutins majoritaires, le système politique idéal serait un système bipartisan, avec une alternance politique possible uniquement entre deux grands partis, l'un ou l'autre disposant d'une majorité absolue de représentants au parlement. Les pays anglo-saxons, et tout particulièrement les États-Unis, ont plus ou moins réalisé cet idéal. À l'inverse, pour les partisans de la représentation proportionnelle, un bon système politique est un système au sein duquel les sièges au parlement, mais aussi le pouvoir sont partagés, en encourageant la formation de gouvernements de coalition. L'Allemagne et les pays scandinaves sont sans aucun doute les meilleurs exemples de ce type de système, avec en plus une tendance à la bipolarisation des forces politiques permettant une véritable alternance gouvernementale. Dans d'autres pays, le principe de la coopération a été poussé à son paroxysme, comme la Suisse de 1919, date de l'instauration d'un système proportionnel, au 13 décembre 2007, date à laquelle l'Union démocratique du centre est passée dans l'opposition. Les principaux partis suisses se sont en effet très tôt mis d'accord pour se partager systématiquement les responsabilités gouvernementales. Cela a eu pour conséquence l'effondrement de la participation électorale à environ la moitié des électeurs inscrits, les élections n'ayant plus pour réel objectif que de tester la légitimité des différents partis au pouvoir. Même scénario au Liechtenstein, où les deux partis représentés au parlement se partagent le pouvoir depuis 1938, le plus fort obtenant le poste de chef du gouvernement et un plus grand nombre de ministères. On remarquera au passage que le nombre de partis représentés influence grandement les enjeux de cette stratégie de partage du pouvoir. On ne peut également s'empêcher de constater que, comme cela a été le cas en Autriche et en Suisse récemment, une radicalisation des partis de droite peut aboutir à une percée électorale de ces derniers et à un bouleversement brutal du mode de fonctionnement du système politique. Le retour à l'alternance bipolaire en Autriche a toutefois contribué à la régression de l'extrême droite à partir de 2002. La représentation proportionnelle n'est donc pas synonyme d'instabilité ministérielle ni même de morcellement du paysage politique. Comme cela a été vu précédemment, il en va de même pour les scrutins majoritaires, qui ne garantissent pas forcément une forte polarisation politique et une bonne stabilité ministérielle. C'était même tout à fait l'inverse en France sous la Troisième République. Dans un cas de figure comme dans l'autre, les modes de scrutin produisent en réalité des effets qui dépendent largement de la nature du système politique dans le pays au sein duquel ils sont utilisés. Au-delà des problèmes de justice de la représentation électorale et des préoccupations liées à la stabilité gouvernementale, on constate souvent que les défenseurs de la représentation proportionnelle d'une part, des scrutins majoritaires d'autre part, ont deux conceptions bien différentes de la vie politique. Les scrutins majoritaires correspondent en effet à des logiques d'affrontement tandis que les scrutins proportionnels sont plus tournés vers la coopération. Dans n'importe quel système politique démocratique, les phénomènes d'affrontement et de coopération sont présents, mais on constate que dans la grande majorité des cas, le mode de scrutin amplifie l'un ou l'autre de ces phénomènes. C'est donc aussi l'influence du mode de scrutin sur le système politique qui va déterminer les contours du débat tournant autour de cette question dans une démocratie représentative donnée. Influence du mode de scrutin sur le système politique. Les analystes de la politique, au fur et à mesure que la diversité des modes de scrutin s'amplifiait, ont fini par noter que ces derniers ont des effets sur le système politique qui transcendent largement la transformation des voix en sièges. Les stratégies des différentes formations politiques concurrentes et le comportement des électeurs jouent également des rôles pouvant être déterminants. Le politologue Maurice Duverger a synthétisé l'ensemble de ces analyses et en a conclu qu'elles répondent à trois « lois » fondamentales : Duverger a donc présenté les systèmes partisans comme une simple production des modes de scrutin. Ses conclusions ont été vivement critiquées par plusieurs autres analystes politiques. À titre d'exemple, Georges Lavau pense au contraire que la sociologie et l'histoire d'un pays influencent eux aussi considérablement son système politique, le mode de scrutin n'occupant qu'une place secondaire au sein des facteurs explicatifs. L'entretien du débat a ensuite amené Duverger à nuancer ses propos. De manière générale, les caractères des systèmes partisans répondent aux logiques évoquées par ces deux analyses. On a parfois tendance à surestimer l'influence des systèmes électoraux d'un pays sur son système partisan. S'il paraît évident que la justice plus ou moins grande de la représentation des différentes forces politiques qu'ils permettent a un réel impact sur la composition politique des assemblées et sur les systèmes d'alliances des partis politiques, les modes de scrutin n'influencent pas directement la structuration des systèmes partisans. Quant à la répartition des votes, cette influence est souvent trop faible pour être déterminante. Comme l'a justement affirmé Pierre Martin, « les modes de scrutins peuvent fabriquer des majorités parlementaires, pas des systèmes partisans », allant ainsi à l'encontre de l'opinion de nombreux défenseurs des systèmes majoritaires. D'après Arend Lijphart, il est plus exact de parler de correspondances entre les systèmes partisans et les systèmes électoraux, plutôt que d'affirmer que les seconds conditionnent les premiers. Par exemple, le scrutin majoritaire uninominal à un tour correspond souvent à des systèmes bipartisans, tandis que les systèmes majoritaires à préférences multiples ordonnées ou à deux tours font intervenir le jeu des alliances entre les partis, correspondant donc plutôt à des systèmes bipolarisés. Dans le premier cas, les alliances électorales prennent la forme de répartitions de candidats de différents partis, membres d'une même alliance, dans différentes circonscriptions. Dans le second cas, des accords de désistements entre candidats membres de partis alliés sont passés entre les deux tours, en plus du système de répartition de circonscriptions dès le premier tour. Les systèmes proportionnels, bien moins contraignants, amènent les différents partis politiques, même s'ils sont alliés, à se présenter séparément devant les électeurs (exception faite du système de Hare). Les exemples illustrés ci-contre permettent de valider cette analyse tout en y apportant une contradiction avec l'exemple espagnol. L'impact des systèmes électoraux sur la stabilité d'un système politique donné ne va pas non plus de soi. "Les scrutins majoritaires allant forcément de pair avec la stabilité gouvernementale et les scrutins proportionnels allant systématiquement dans le sens inverse" est un raisonnement faux qui a déjà été contredit par l'histoire d'innombrables fois. La stabilité ministérielle dépend bien plus de la structuration idéologique du système partisan et de certaines règles du parlementarisme, comme le montrent particulièrement bien les exemples français et italiens. À la fin de la Troisième République française, l'instabilité ministérielle était devenue la règle, alors que les députés étaient tous élus au scrutin majoritaire uninominal à deux tours (exception faite de courtes périodes au cours desquelles ont été utilisés des systèmes mixtes, comme en 1919). La situation était en tous points comparable à celle de la Quatrième République qui lui succédera, alors que les membres de l'Assemblée nationale étaient élus à la représentation proportionnelle puis via un système mixte à partir de 1951. Le mode de scrutin n'a donc en aucun cas été un facteur déterminant de l'inefficacité de ces régimes. La puissance du Parti communiste français, alors aligné sur la politique de l'URSS de Staline, sous la Quatrième République permet en outre de douter que le scrutin majoritaire eut été vraiment apte à garantir un bon fonctionnement du régime, en donnant, par exemple, une majorité de députés au PCF. La proportionnelle intégrale en vigueur sous la République allemande de Weimar a également longtemps empêché les nazis de devenir majoritaires au Reichstag, malgré leurs excellents résultats électoraux au début des années 1930. On peut dans ces conditions difficilement affirmer qu'un système soit forcément meilleur qu'un autre. En revanche, il est important de noter, comme le souligne Pierre Martin, que les systèmes majoritaires correspondent à des systèmes politiques valorisant la concurrence et l'affrontement, tandis que les systèmes proportionnels correspondent plutôt à des systèmes politiques valorisant la coopération, sans pour autant être incompatibles avec des systèmes politiques bipolarisés (Suède, Danemark). À titre d'exemple, le choix de la représentation proportionnelle par l'Afrique du Sud à partir de 1994 correspondait à un souhait de formation d'un gouvernement d'union nationale. Au sortir de l'apartheid, ce pays avait besoin d'un système favorisant la coopération plutôt que le conflit. Voir aussi. Articles connexes. Fondements : Procédures électorales : Autres systèmes de vote : Scrutins visant à l’approbation ou au rejet d’une option prédéterminée : Ce type de scrutin doit, pour fonctionner, être combiné à une procédure pour construire et sélectionner l'option à soumettre. Cela le fait parfois considérer comme moins démocratique, en raison des contraintes pesant sur le choix. Théoriciens des systèmes électoraux : |
Sartre |
Sigmund Freud Sigmund Freud, né le à Freiberg (Empire d'Autriche) et mort le à Londres, est un neurologue autrichien, fondateur de la psychanalyse. Médecin viennois, Freud rencontre plusieurs personnalités importantes pour le développement de la psychanalyse, dont il est le principal théoricien. Son amitié avec Wilhelm Fliess, sa collaboration avec Josef Breuer, l'influence de Jean-Martin Charcot et des théories sur l'hypnose de l'École de la Salpêtrière vont le conduire à repenser les processus psychiques. Ses deux grandes découvertes sont la sexualité infantile et l'inconscient. Elles le conduisent à élaborer plusieurs théorisations des instances psychiques, en premier lieu par rapport au concept d'inconscient, en relation avec le rêve et la névrose, puis il propose une technique de thérapie, la cure psychanalytique. À l'occasion de son voyage en Amérique en 1909, Freud expose les bases de la technique psychanalytique dans ses "Cinq leçons sur la psychanalyse". C'est dans le cadre de la cure, dès les "Études sur l'hystérie", et particulièrement dans sa première analyse du « cas Dora », que Freud découvre peu à peu l'importance du transfert. Freud regroupe une génération de psychothérapeutes qui, pas à pas, élaborent la psychanalyse, d'abord en Autriche, en Suisse, à Berlin, puis à Paris, à Londres et aux États-Unis. En dépit des scissions internes et des critiques, la psychanalyse s'installe comme une nouvelle discipline des sciences humaines dès 1920. En 1938, Freud est menacé par le régime nazi et quitte Vienne pour s'exiler à Londres, où il meurt d'un cancer de la mâchoire en 1939. Le terme de « psycho-analyse » apparaît pour la première fois en 1896 dans un article écrit en français, publié dans cette langue le 30 mars 1896, puis en allemand le 15 mai 1896. Mais « les deux articles furent expédiés le même jour », le 5 février 1896. La psychanalyse repose sur plusieurs hypothèses et concepts élaborés ou repris par Freud. , écrit-il dans "Introduction à la psychanalyse". La technique de la cure, dès 1898 sous la forme de la méthode cathartique, avec Josef Breuer, puis le développement de la cure analytique, est le principal apport de la psychanalyse. L'hypothèse de l'inconscient approfondit la théorisation du psychisme. D'autres concepts vont, au fur et à mesure, développer et complexifier la théorie psychanalytique, que Freud décrit comme une , et le savoir sur les processus psychiques et thérapeutiques. Tout en devenant une figure de premier plan au , Sigmund Freud a dû faire face de son vivant à de nombreuses critiques comme celle de Karl Kraus, qui récuse l'interprétation sexuelle d’œuvres littéraires, ou celle d'Egon Friedell, qualifiant la psychanalyse de « pseudo-religion juive » et de « secte ». Dans les années 1990 aux États-Unis, des polémiques dans la presse, dites les "Freud Wars", s'en prirent à la psychanalyse à travers la personnalité de Freud. Elles se trouvèrent réactualisées en France dans la première décennie des années 2000, avec "Le Livre noir de la psychanalyse" et l'essai de Michel Onfray, "Le Crépuscule d'une idole". Mais les critiques les plus vives adressées à Freud et à la théorie psychanalytique sont d'ordre épistémologique : elles portent sur la scientificité de la psychanalyse. Karl Popper est souvent cité pour sa dénonciation des énoncés psychologiques de la psychanalyse, qu'il considère comme pseudo-scientifiques. Ce faisant, la discipline créée par Freud, critiquée ou non, tient aujourd'hui une place importante dans la culture occidentale, ne serait-ce qu'à prendre en compte sa popularisation par le cinéma, tandis qu'en littérature, il arrive au « père de la psychanalyse » d'apparaître comme un personnage de fiction, tel "Le Visiteur" d' Éric-Emmanuel Schmitt. Biographie. Les biographes de Freud. L'histoire de la vie de Freud est celle de la psychanalyse. Elle a fait l'objet de nombreux articles et biographies dont la plus connue est celle d'Ernest Jones ("La Vie et l'Œuvre de Sigmund Freud", 1953 à 1958), proche contemporain de Freud. Le premier biographe fut Fritz Wittels, qui a publié en 1924 "Freud : l'homme, la doctrine, l'école". L'écrivain Stefan Zweig a aussi écrit une biographie ("La guérison par l'esprit", 1932). Le médecin de Freud Max Schur, devenu psychanalyste, a étudié son rapport à la mort dans la clinique et la théorie puis face à la maladie qui devait l'emporter en 1939 ("La mort dans la vie et l'œuvre de Freud", 1972). De nombreux contemporains ou disciples lui ont également consacré une biographie, souvent hagiographique, tels Lou Andreas-Salomé, Thomas Mann, Siegfried Bernfield, Ola Andersson, Kurt Robert Eissler et Carl Schorske. Didier Anzieu a publié en 1998, sous le titre "L'auto-analyse de Freud et la découverte de la psychanalyse", une étude très détaillée de l'auto-analyse de Freud et du processus créatif qui en a découlé. Marthe Robert est l'auteur d'une biographie littéraire ("La Révolution psychanalytique", 2002). Peter Gay a écrit "Freud une vie" (1991) ; Henri Ellenberger une "Histoire de la découverte de l'inconscient" (1970). Alain de Mijolla analyse dans "Freud et la France, 1885-1945" (2010) les relations complexes entre Freud et les intellectuels français jusqu'en 1945, tandis qu'Élisabeth Roudinesco publie en 2014 un essai biographique et historique intitulé "Sigmund Freud en son temps et dans le nôtre". Enfance et études (1856–1882). Enfance. Sigmund Freud ( ou ; en allemand : .) naît Sigismund Schlomo Freud le . L'histoire de sa famille, originaire de Galicie, est peu connue. Troisième fils de Jakob Freud, négociant, certainement marchand de laine, et d'Amalia Nathanson (1836-1931), il est le premier enfant de son dernier mariage. Sigmund est l'aîné de sa fratrie, composée de cinq sœurs (Anna, Rosa, Mitzi, Dolfi et Paula) et de deux frères, Julius, mort dans sa première année de vie, et Alexander. Selon Henri Ellenberger, . Sa famille suit ainsi la tendance à l'assimilation qui est celle de la plupart des juifs viennois. En effet il n'est pas élevé dans le strict respect de l'orthodoxie juive. Bien que circoncis à la naissance, il reçoit une éducation éloignée de la tradition et ouverte à la philosophie des Lumières. Il parle l'allemand, le yiddish et semble connaître l'espagnol à travers un dialecte mêlé d'hébreu alors couramment employé dans la communauté séfarade de Vienne, bien qu'il fût lui-même ashkénaze. Il passe ses trois premières années à Freiberg, ville que sa famille quitte pour Leipzig avant de s'établir définitivement, en février 1860, dans le quartier juif de Vienne. Freud y réside jusqu'à son exil forcé à Londres en 1938, après l'Anschluss . De 1860 à 1865, les Freud déménagent à plusieurs reprises avant de s'installer dans Pfeffergasse, dans le quartier de Leopoldstadt. Recevant ses premières leçons de sa mère puis de son père, il est d'abord envoyé dans une école privée puis réussit à neuf ans l'épreuve d'admission au lycée de Leopoldstadt. Brillant élève, il est le premier de sa classe pendant ses sept dernières années de scolarité secondaire au lycée communal, le « Sperlgymnasium ». Il a pour professeurs le naturaliste Alois Pokorny, l'historien Annaka, le professeur de religion juive Samuel Hammerschlag et le politicien Victor von Kraus. Il obtient la mention « excellent » à son examen de maturité en 1873. Après avoir brièvement incliné vers le droit sous l'influence d'un de ses amis, Heinrich Braun, il se montre ensuite plus intéressé par la carrière de zoologiste après avoir écouté la lecture par Carl Brühl d'un poème intitulé "Nature", alors attribué à Goethe, lors d'une conférence publique. Cependant il choisit la médecine et s'inscrit à l'université de Vienne à la rentrée d'hiver 1873. Il se passionne pour la biologie darwinienne, . Études. Il obtient son diplôme de médecin le 31 mars 1881 après huit années d'études, au lieu des cinq attendues, durant lesquelles il a effectué deux séjours en 1876 dans la station de zoologie marine expérimentale de Trieste, sous la responsabilité de Carl Claus, puis pour travailler de 1876 à 1882 auprès d'Ernst Wilhelm von Brücke, dont les théories rigoureusement physiologiques l'influencent. Il entre en octobre 1876 en qualité de physiologiste-assistant à l'institut de physiologie d'Ernst Brücke, où il fait la connaissance de Sigmund Exner et de Fleischl von Marxow, et surtout de Josef Breuer. Freud concentre ses travaux sur deux domaines : les neurones (dont certaines assertions sont reprises dans l'article « Esquisse d'une psychologie scientifique ») et la cocaïne. Selon Alain de Mijolla, Freud découvre à ce moment les théories positivistes d'Emil du Bois-Reymond, dont il devient un adepte, et qui expliquent la biologie par des forces physico-chimiques dont les effets sont liés à un déterminisme rigoureux. Il profite de sa période de service militaire, en 1879-1880, pour commencer la traduction de travaux du philosophe John Stuart Mill et approfondir sa connaissance des théories de Charles Darwin. Il assiste aux cours de Franz Brentano et lit "Les Penseurs de la Grèce" de Theodor Gomperz et surtout les volumes de l’"Histoire de la civilisation grecque" de Jacob Burckhardt. Il passe ensuite ses premiers examens en juin 1880 et en mars 1881 et obtient son diplôme le 31 mars 1881, devenant alors à titre temporaire préparateur dans le laboratoire de Brücke. Il travaille ensuite deux semestres dans le laboratoire de chimie du professeur Ludwig. Il poursuit ses recherches histologiques, et se montre impressionné par les démonstrations du magnétiseur danois Carl Hansen auxquelles il assiste en 1880. Le 31 juillet 1881 il est recruté comme assistant chirurgien auprès de Theodor Billroth à l’hôpital général de Vienne ; il n'occupe ce poste que durant deux mois. En juin 1882, il s'installe comme médecin praticien, sans grand enthousiasme toutefois. Deux explications existent sur ce point. Selon Freud lui-même, Brücke lui a conseillé de commencer à pratiquer en hôpital pour se faire une situation alors que pour Siegfried Bernfeld et Ernest Jones, ses biographes, c'est son projet de mariage qui l'oblige à renoncer au plaisir de la recherche en laboratoire. Sigmund Freud a en effet rencontré Martha Bernays, issue d'une famille commerçante juive, en juin 1882, et, très tôt les conventions familiales alors en vigueur obligent les deux fiancés à se marier, d'autant plus que leur situation financière est très précaire. Néanmoins, le jeune couple ne se marie qu'en 1886, Freud ayant conditionné son alliance avec Martha Bernays à l'obtention de son cabinet de consultation. En octobre 1882, il entre dans le service de chirurgie de l'hôpital de Vienne, alors l'un des centres les plus réputés du monde. Après deux mois, il travaille comme aspirant, sous la responsabilité du médecin Nothnagel et ce jusqu'en avril 1883. Brücke lui obtient le titre de Privat-docent en neuropathologie. Il est nommé le mai 1883 "" au service de psychiatrie de Theodor Meynert dans lequel il poursuit des études histologiques sur la moelle épinière, jusqu'en 1886. De l'hystérie à la méthode cathartique (1883–1893). Premières recherches. En septembre 1883, il entre dans la quatrième division du docteur Scholtz. Il y acquiert une expérience clinique auprès de malades nerveux. En décembre de la même année, à la suite de la lecture d'un article du docteur Aschenbrandt, il se livre à des expériences sur la cocaïne et en déduit qu'elle a une efficacité sur la fatigue et les symptômes de la neurasthénie. Dans son article de juillet 1884, , il conseille son usage pour de multiples troubles.<br> Freud, à la suite de la lecture d'un texte qui propose de traiter la morphinomanie par la cocaïne, traite son ami et collègue au Laboratoire de Physiologie Ernst Fleischl von Marxow : celui-ci était devenu morphinomane après avoir eu recours à la morphine pour calmer la douleur insupportable occasionnée par une blessure à la main qui s'était infectée et du névrome qui s'y était développé. Freud, qui avait découvert la cocaïne en 1884, tenta de guérir son ami de sa morphinomanie en lui conseillant de prendre de la cocaïne, mais Fleischl . Il mourut en 1891 très détérioré physiquement et mentalement. L'administration locale de la cocaïne était une méthode à laquelle recourait Fliess pour soigner les affections nasales. Didier Anzieu note le sentiment de culpabilité de Freud lié à la personne de Fleischl, dont et qui revient dans plusieurs rêves de "L'Interprétation du rêve" comme « L'injection faite à Irma », la « Monographie botanique », le rêve « Non vixit »... Bien qu'il l'ait nié publiquement à de nombreuses reprises, Freud fut consommateur de cocaïne entre 1884 et 1895, comme en atteste sa correspondance. Il travaille sur sa découverte avec Carl Koller, qui mène alors des recherches sur un moyen d'anesthésier l'œil en vue de pratiquer des opérations peu invasives. Celui-ci informe ensuite Leopold Königstein qui applique cette méthode à la chirurgie. Tous deux communiquent leur découverte lors de la Société des médecins de Vienne en 1884, sans mentionner la primauté des travaux de Freud. Le jeune médecin est ensuite affecté au service d'ophtalmologie de mars à mai 1884, puis dans celui de dermatologie. Il y rédige un article sur le nerf auditif qui reçoit un accueil favorable. En juin, il passe l'examen oral pour le poste de "Privat-docent", et y présente son dernier article. Il est nommé le et, voyant sa demande de bourse de voyage acceptée, il décide de poursuivre sa formation à Paris, dans le service de Jean-Martin Charcot à l'hôpital de la Salpêtrière. Après six semaines de vacances auprès de sa fiancée, Freud s'installe donc dans cette ville. Admirateur du neurologue français, qu'il rencontre la première fois le , il lui propose de traduire ses écrits en allemand. Dès lors, Charcot le remarque et l'invite à ses somptueuses soirées du faubourg Saint-Germain. Cependant, il semble que Freud n'ait pas passé autant de temps qu'il le dit auprès de Charcot, puisqu'il quitte Paris le 28 février 1886 ; il en retire néanmoins toujours de la fierté et fait de ce séjour à Paris un moment clé de son existence. Il reste en outre en contact épistolaire avec Charcot. En , Freud étudie la pédiatrie à Berlin, auprès du pédiatre Alfred Baginsky et revient finalement à Vienne en avril. Il ouvre un cabinet sur la Rathausstrasse où il s'installe comme médecin privé. Il travaille également trois après-midi par semaine comme neurologue à la clinique Steindlgasse à l' (« Premier institut public pour enfants malades ») dirigé par le professeur Max Kassowitz. Il donne des consultations au service de neurologie de 1886 à 1896 à l'Institut Max-Kassowitz, hôpital pédiatrique privé. Il rédige son rapport sur l'hypnotisme, tel qu'il est pratiqué par l'École de la Salpêtrière, devant les membres du Club de physiologie et devant ceux de la Société de psychiatrie, tout en organisant les préparatifs de son mariage. Un article d'Albrecht Erlenmeyer le critique vivement quant aux dangers de l'usage de la cocaïne. Freud finit de traduire un volume des leçons de Charcot, qui paraît en juillet 1886 et dont il rédige la préface. Après quelques mois de service militaire à Olmütz comme médecin de bataillon, Freud épouse Martha Bernays en septembre 1886 à Wandsbek ; ils passent leur voyage de noces sur la mer Baltique. Le , devant la Société des médecins de Vienne, Freud fait une allocution concernant l'hystérie masculine, discours publié sous le titre de . Ce thème est alors polémique, d'autant plus que la conception classique de Charcot oppose l'hystérie post-traumatique à une hystérie dite simulée. S'appuyant sur la distinction entre « grande hystérie » (caractérisée par des convulsions et une hémianesthésie) et la « petite hystérie », et sur un cas pratique examiné à la Salpêtrière, Freud explique que l'hystérie masculine est plus fréquente que ce que les spécialistes observent habituellement. Pour Freud, la névrose traumatique appartient au champ de l'hystérie masculine. La Société s'insurge contre cette opinion qui est, de plus, déjà connue des neurologues viennois. Selon Ellenberger, l'idéalisation de Freud pour Charcot lui vaut l'irritation de la Société, agacée par son attitude hautaine. Blessé, Freud présente alors à la Société un cas d'hystérie masculine afin d'étayer sa théorie. La Société l'entend de nouveau, mais l’éconduit. Contrairement à une certaine légende autour de cet événement, Freud ne se retire pas de la Société ; il en devient même membre le . La rencontre avec Wilhelm Fliess et la première topique. Cette année-là, il fait la rencontre de Wilhelm Fliess, un médecin de Berlin qui poursuit des recherches sur la physiologie et la bisexualité, avec lequel il entretient une correspondance scientifique amicale, mais toutefois ambiguë. Par ailleurs, la famille Freud accumule les dettes, le cabinet médical n'attirant pas une abondante clientèle. De plus, Meynert se brouille avec Freud en 1889, à propos de la théorie de Charcot. En 1889, Freud se dit très seul ; il ne peut communiquer réellement qu'avec ses amis Josef Breuer et Jean Leguirec. Ainsi il écrit : . Freud et Martha ont six enfants : Mathilde (1887-1978), Jean-Martin (1889-1967), Oliver (1891-1969), Ernst (1892-1970), Sophie (1893-1920) et Anna Freud (1895-1982).<br> À partir de ce moment, la pensée de Freud évolue : la fréquentation de l'école de Bernheim en 1889 va le détourner de Charcot. Freud se prononce contre une interprétation matérialiste de l'hypnose qu'il défend à l'encontre du dénigrement dont elle fait l'objet de la part de ses adversaires : il traduit l'ouvrage d'Hippolyte Bernheim, "De la suggestion et des applications thérapeutiques" et aborde la technique de l'hypnose. Il se rend à Nancy, à l'école de Bernheim, et rencontre Ambroise-Auguste Liébeault en 1889 pour confirmer son opinion sur l'hypnose. Il y apprend que les hystériques conservent une forme de lucidité envers leurs symptômes, savoir qui peut être mobilisé par l'intervention d'un tiers, une idée qu'il reprend ultérieurement dans sa conception de l'inconscient, mais il conclut que l'hypnose n'a que peu d'efficacité dans le traitement général des cas pathologiques. Il pressent que le passé du patient doit jouer un rôle dans la compréhension des symptômes. Il préfère la « cure par la parole » de son ami Breuer. Après cette visite, il participe, du 6 au , au Congrès international de psychologie physiologique de Paris, mais regagne Vienne avant la fin du Congrès. En 1891, Freud publie son travail sur les paralysies cérébrales unilatérales chez les enfants, en collaboration avec Oscar Rie, pédiatre viennois. Puis il travaille à son étude critique des théories sur l'aphasie, "Contribution à la conception des aphasies". Sa distance avec la pensée de Charcot y est maximale ; il y esquisse un permettant de rendre compte des troubles de la fonction langagière, et commence d'introduire à l'occasion de cette étude sa notion distinctive de « représentation de mot » et de « représentation de chose ». Ce modèle préfigure l'« appareil psychique » de la première topique. En 1892, il édite sa traduction de l'ouvrage de Bernheim sous le titre "Hypnotisme, suggestion, psychothérapie : études nouvelles" et il expose devant le Club médical viennois une conception proche de Charcot. En 1893, Freud publie plusieurs articles sur l'hystérie en collaboration avec Josef Breuer et en particulier l'essai "Le Mécanisme psychique des phénomènes hystériques (Communication préliminaire.)". Il y défend la conception névrotique de l'hystérie, tout en proposant . En 1894, avec son article « Névro-psychoses de défense », il se focalise sur la phobie. Il souffre de symptômes cardiaques et cesse de fumer. S'occupant de l'hystérie d'une patiente, nommée « Emma », Freud, influencé par la théorie de la bisexualité de Fliess, lui demande d'opérer la jeune femme du nez, car il pense que sa névrose y est liée. Mais Fliess oublie la gaze iodoformée dans le nez de la patiente. Freud fait ensuite un rêve marquant (le rêve dit de « L'injection faite à Irma ») qu'il relie à cet incident et entreprend d'en analyser le sens au moyen de la méthode de l'association libre ; . L'invention de la psychanalyse : de l'hypnose à la cure psychanalytique (1893–1905). La théorie de la séduction. Avant sa découverte de la sexualité infantile, Freud va professer dans les années 1895-1897 la théorie de la séduction, selon laquelle la cause des psychonévroses (l'hystérie et la névrose obsessionnelle) est une séduction sexuelle dont la patiente ou le patient aurait été victime avant la puberté<ref name="Brès/rp">Yvon Brès, « Freud au ras des pâquerettes. Une psychanalyse psycho-neurologique ? », "Psychanalyse à l'université" , , 1994, .</ref>. L'abandon par Freud de sa "neurotica" (Lettre à Wilhelm Fliess du 21 septembre 1897) — comme il appelle aussi sa première théorie — a donné lieu à une abondante littérature. Il est habituel de considérer que cet abandon représente l'un des moments fondateurs de la construction de la théorie psychanalytique et de l'abandon du modèle neurologique. Dans la note de 1924 aux "Nouvelles remarques sur les psychonévroses de défense" (1896), Freud passe toutefois , la logique de la théorie de la séduction conduisant, d'après Yvon Brès, à la théorie de la sexualité prégénitale (chez la petite fille et surtout chez le petit garçon . Freud et Breuer : "Études sur l'hystérie". En 1895, Josef Breuer et Freud publient leurs "Études sur l'hystérie" qui regroupent les cas traités depuis 1893, dont celui d'Anna O. Cette patiente de Breuer, de son vrai nom Bertha Pappenheim, est présentée comme un exemple type de cure cathartique. Avant de devenir la cure psychanalytique au sens strict, Freud a en effet dû abandonner la suggestion et l'hypnose, puis la méthode cathartique de Breuer, et prendre en compte le transfert, c'est-à-dire la reviviscence des émois pulsionnels de l'enfance du patient refoulés qui sont déplacés et adressés à l'analyste. C'est en effet le transfert qui met Freud sur la voie d'une nouvelle approche, la reviviscence du vécu infantile refoulé qui anime le transfert informant sur la nature du conflit psychique dans lequel le patient est pris. En 1896, considérant que sa théorie a droit de cité en psychologie, Freud la baptise du nom de « psycho-analyse », mais le facteur sexuel n'est pas alors encore prédominant dans celle-ci. Composé du grec ' (qui désigne la « remontée vers l'originaire », l'élémentaire), et de ' (la « dissolution »), le terme désigne dès le départ la recherche des souvenirs archaïques en lien avec les symptômes. Dès lors, Freud rompt avec Breuer, demeuré fidèle à la cure cathartique, et rédige un essai laissé inédit : "Esquisse d'une psychologie scientifique". C'est dans un autre article, écrit en français : « L'hérédité et l'étiologie des névroses », de 1896, qu'il explique sa nouvelle conception. Enfin, il rédige (« L’Étiologie de l’hystérie »). Dans les deux articles apparaît pour la première fois sous la plume de Freud le mot « psychanalyse ». Le , devant la Société de psychiatrie viennoise, présidée par Hermann Nothnagel et Krafft-Ebing, on lui délivre le titre d’« ' ». Lors du Congrès international de psychologie à Munich en , le nom de Freud est cité parmi les autorités les plus compétentes dans le domaine alors qu'en 1897 Albert Willem Van Renterghem, psychiatre néerlandais, le cite comme l'une des figures de l'École de Nancy. Après la mort de son père le , Freud s'intéresse exclusivement à l'analyse de ses rêves et se livre à un . Nourrissant de la culpabilité envers son père, il entreprend une auto-analyse. Il dit tenter d'analyser sa et ambitionner de mettre au jour la nature de l'appareil psychologique et de la névrose. Lors de cette auto-analyse, et après avoir abandonné sa théorie de l'hystérie, ses souvenirs d'enfance affluent. Celui de sa nourrice lui permet de développer la notion de « souvenir écran » par exemple alors qu'il voit dans les sentiments amoureux pour sa mère et dans sa jalousie pour son père une structure universelle qu'il rattache à l'histoire d'Œdipe et d'Hamlet. Ses analyses de patients lui apportent des arguments dans l'édification d'une nouvelle conception, qui lui permet de revoir et l'hystérie et les obsessions. La correspondance avec Fliess témoigne de cette évolution de sa pensée ; c'est notamment dans une lettre du que Freud évoque pour la première fois la d'Œdipe ». Le neurologue viennois explique ainsi : . "L'Interprétation du rêve" et autres textes fondateurs. Il annonce à Fliess, au début de l'année 1898, qu'il compte publier un ouvrage sur l'analyse des rêves, et, après une période de dépression, il publie "L'Interprétation du rêve" (). Il s'agit d'un ouvrage « autobiographique » dans la mesure où Freud se base en partie sur le matériel de ses propres rêves. Cette période d'auto-analyse mêlée de névrose est, selon Henri Ellenberger, caractéristique de la , phase de dépression et de travail intense qui a permis à Freud d'élaborer la psychanalyse en dépassant ses problèmes personnels. En novembre 1898, Freud se préoccupe des phases infantiles à dominante sexuelle dans son œuvre ("La sexualité dans l'étiologie des névroses"). Dans cet ouvrage, Freud utilise le terme de « psychonévrose » délimité de la « neurasthénie » Sa situation, tant sociale que financière, s'améliore ; de 1899 à 1900, il exerce les fonctions d'assesseur de la de Londres en psychiatrie et neurologie pour la revue . Par ailleurs, il travaille intensément à ses recherches et se dépeint comme un « conquistador ». Il jouit en effet d'une clientèle lucrative et est reconnu par la société viennoise. En , il se sent capable de visiter Rome, en compagnie de son frère Alexander. La « Ville éternelle » l'a et Freud, en raison de sa phobie des voyages, a toujours remis à plus tard sa visite de l'Italie. À Rome, il est « impressionné » par le "Moïse" de Michel-Ange. Quelques années après, en 1914, il publie anonymement, dans la revue "Imago", un essai intitulé (« Le Moïse de Michel-Ange »), dans lequel il oppose les deux figures, celle historique et celle mythique, du libérateur du peuple juif, Moïse. Lors d'un passage à Dubrovnik (alors Raguse), Freud suppose que le mécanisme psychique du lapsus est révélateur d'un complexe inconscient. La même année, deux psychiatres suisses, Carl Gustav Jung et Ludwig Binswanger de Zurich, se rallient à la psychanalyse naissante et, grâce à l'« école de Zurich », le mouvement s'amplifie en Europe et aux États-Unis. Auparavant, en 1901, Eugen Bleuler, avec qui Freud commence une correspondance, est extrêmement impressionné par "L'Interprétation des rêves". Il a en effet demandé à son second, Jung, de présenter l'ouvrage à l'équipe psychiatrique du Burghölzi. La Suisse devient ainsi une alliée de poids dans le développement du mouvement psychanalytique et ce dès 1900. De retour à Vienne, Freud rompt tout échange avec Fliess en 1902. Puis, il présente ses opinions scientifiques au cours de plusieurs conférences, devant le de Vienne, puis devant le B'nai B'rith, un cercle de juifs laïcs dont il était devenu membre en 1897 ; elles sont bien accueillies. En automne 1902, sur l’initiative de Wilhelm Stekel, Freud réunit autour de lui un groupe d'intéressés, qui prend le nom de (« Société psychologique du Mercredi ») et qui, chaque mercredi, discute de psychanalyse. Selon Ellenberger, à partir de cette date, la vie de Freud se confond avec l'histoire du mouvement psychanalytique. En France, ses travaux sont mentionnés lors du Congrès des médecins aliénistes et neurologistes de Grenoble la même année. En 1901, il publie "Psychopathologie de la vie quotidienne". En septembre, il se rapproche d'Eugen Bleuler, de Zurich, et leur correspondance scientifique s'accroît. Les traitements engagés par Freud sur la base de ces hypothèses l'avaient déjà conduit à découvrir que tous ses patients n’ont pas subi de réels traumatismes sexuels dans leurs enfances : ils évoquent des fantasmes et racontent un « roman familial » auquel ils croient. Simultanément, il découvre que certains patients semblent ne pas pouvoir guérir. Ils résistent notamment en répétant et en transposant des sentiments anciens vers l'analyste : mécanisme que Freud appelle le « transfert » qu'il voit encore, et essentiellement, comme un frein à la guérison. En 1909, Freud parle « de la psychanalyse » ("Über Psychoanalyse") pour la première fois publiquement aux États-Unis, où il a été invité par Stanley Hall à tenir une série de conférences à l'université Clark à Worcester, Massachusetts, en compagnie de Carl Gustav Jung, Ernest Jones et Sándor Ferenczi. Freud et Jung se voient honorés du titre de « LL. D. ». C'est à ce moment qu'il désigne explicitement Jung comme son . Freud déclare alors que le mérite de l'invention de la psychanalyse revient à Josef Breuer mais il précise par la suite qu'il considère que le « procédé cathartique » de Breuer constitue une phase préliminaire à l'invention de la psychanalyse et qu’il en est bien l’inventeur à partir du rejet de l’hypnose et de l’introduction de l’association libre. L'institution psychanalytique (1905–1920). Approfondissements et publications. En 1905, il publie "Trois essais sur la théorie sexuelle", qui rassemble ses hypothèses sur la place de la sexualité et son devenir dans le développement de la personnalité. La sexualité infantile constitue un élément important de la psychanalyse. Il publie également "Fragment d'une analyse d'hystérie", qui constitue un compte-rendu du cas d'Ida Bauer, qui illustre le concept de transfert psychanalytique. Selon Ellenberger, Ilse Bry ou Alfred H. Rifkin, les idées de Freud ont été bien reçues. Pour Ernest Jones et, ultérieurement, Jean-Luc Donnet, c'est le contraire qui est vrai. Donnet précise que le rejet violent de la psychanalyse par les médecins et surtout par les psychiatres est l'une des causes du fait que Freud s'est tellement réjoui du ralliement d'Eugen Bleuler à la psychanalyse et, de fait, c'est à Zurich que la psychanalyse obtient en premier un droit de cité en psychiatrie. La France s'est montrée d'emblée réfractaire à la psychanalyse. Ailleurs, le succès des ouvrages de Freud est important, mais inégal selon les pays ; on le lit par exemple en traductions dès les années 1900, en russe. Les premiers travaux des disciples de Freud apparaissent également : Otto Rank, âgé de , lui remet en effet le manuscrit de son essai psychanalytique "L'artiste" ). En 1906, il s'intéresse à "La Gradiva", une nouvelle de l'écrivain allemand Wilhelm Jensen, et rédige un essai, "Le délire et les rêves dans la « Gradiva » de Jensen" dans lequel il applique les principes psychanalytiques à la création littéraire, étudiant les liens entre la psychanalyse et l'archéologie. La même année, il se brouille définitivement avec Wilhelm Fliess, qui rédige par la suite un pamphlet, "Pour ma propre cause", dans lequel il accuse Freud de lui avoir volé ses idées. La reconnaissance. En , l'isolement de Freud cesse définitivement. Le groupe naissant de psychanalystes tente de créer une collection intitulée « Écrits de psychologie appliquée » aux éditions Deuticke. Freud, directeur de la publication, y publie "Le Délire et les rêves dans la Gradiva de Wilhelm Jensen". La même année, il écrit "Actes obsédants et exercices religieux", dans lequel il aborde le sujet de la religion : il y présume qu'il existe un rapport entre une névrose obsessionnelle et les exercices religieux. En 1908, le petit groupe autour de Freud devient la Société viennoise de psychanalyse et, en août, Karl Abraham fonde la Société psychanalytique de Berlin. L'année suivante, la première revue psychanalytique édite leurs travaux ; elle prend le nom , souvent abrégée en , avec Bleuler et Freud comme directeurs et Jung comme rédacteur en chef. Freud inaugure cette revue avec la publication du cas du petit Hans. En 1910, paraissent les ("Cinq leçons sur la psychanalyse") prononcées l'année précédente à la Clark University, où Freud expose . Freud s'interroge aussi par la suite sur la nature de la pratique psychanalytique dans un essai, ("À propos de la psychanalyse dite sauvage" ou « analyse profane »). L'année 1910 marque un sommet dans l'histoire de la psychanalyse et dans la vie de Freud ; lors du second Congrès international à Nuremberg organisé par Jung, les 30 et 31 mars, est créée l' (Association psychanalytique internationale, « API »), dont le premier président est Carl Gustav Jung, ainsi qu'une deuxième revue, le . L'IPA rassemble sous son égide les groupes locaux (""), ceux de Zurich (qui en est le siège), de Vienne et de Berlin ; son but est de défendre la cohésion du mouvement psychanalytique. Une patiente de Jung avec qui ce dernier était passé à l'acte, Sabina Spielrein, le met sur la voie de la théorisation du transfert amoureux envers l'analyste, ainsi que du contre-transfert (de l'analyste envers le patient) et que Freud intègre à sa théorie. Lors de ses vacances aux Pays-Bas, en 1910, Freud analyse le compositeur Gustav Mahler, lors d'un après-midi de promenade à travers la ville. Freud voyage ensuite à Paris, Rome et Naples, en compagnie de Ferenczi. La psychanalyse naissante se heurte à sa première opposition d'importance : en octobre, répondant à l'appel d'Oppenheim, lors du Congrès de neurologie de Berlin, les médecins allemands de Hambourg mettent à l'index la pratique psychanalytique au sein des sanatoriums locaux. Le , le premier Congrès international de psychanalyse à Salzbourg réunit . Freud y présente ses ("Remarques sur un cas de névrose obsessionnelle"). Dissensions. Freud publie ("Un souvenir d'enfance de Léonard de Vinci") en 1910, dans lequel apparaissent pour la première fois les concepts de « narcissisme » et de « sublimation ». Il y examine aussi les raisons psychiques de la créativité. La même année, la psychanalyse est la cible de nouvelles critiques émanant de certains milieux médicaux. Par ailleurs, les premiers schismes en son sein se font jour. L'opposition de Freud à la théorie de Jung, qui devient, en 1914, la « psychologie analytique », l'occupe en effet ces années-là. Toujours en 1910, Freud, dans un texte intitulé « Le trouble psychogène de la vision dans la conception psychanalytique », formule pour la première fois un dualisme pulsionnel : les « pulsions sexuelles » y sont opposées aux « pulsions d'autoconservation ». Ce dualisme préfigure, dans le contexte de tension que connaît l'Europe avant la première Guerre mondiale, la mise à jour des pulsions de vie et de mort (qui intervint en 1920). En 1911, Freud écrit un texte connu sous le titre « Le Président Schreber » mais par la suite intitulé ("Remarques psychanalytiques sur un cas de paranoïa (Dementia paranoïdes) décrit sous forme autobiographique"). Freud y retrace l'analyse du juriste et homme politique Daniel Paul Schreber. Il publie aussi un court texte métapsychologique : ("Formulations sur les deux principes du cours des événements psychiques") dans lequel il décrit le principe de plaisir et le principe de réalité. La direction des revues et des travaux théoriques de l'Association internationale de psychanalyse, celle des séminaires également, occupent Freud à cette période, d’autant que parmi ceux qui travaillent avec lui des rivalités se font jour ainsi que des dissensions théoriques qu'il combat lorsqu'elles remettent en question les rôles de la sexualité infantile et du complexe d'Œdipe comme le font celles de Jung, Adler et Rank. Ainsi, il refuse la mise en avant de l’agressivité par Alfred Adler, car il considère que cette introduction se fait au prix de la réduction de l’importance de la sexualité. Il refuse également l'hypothèse de l’inconscient collectif au détriment des pulsions du Moi et de l’inconscient individuel, et la non-exclusivité des pulsions sexuelles dans la libido que propose Carl Gustav Jung. En juin 1911, Alfred Adler quitte Freud le premier, pour fonder sa propre théorie. L'année suivante c'est au tour de Wilhelm Stekel, alors qu'en 1913, en septembre, Freud se brouille avec Carl Gustav Jung, pourtant annoncé comme son . En 1913, ("Totem et Tabou") permet à Freud de présenter la portée sociale de la psychanalyse. Secrètement, depuis 1912, sur l'idée d'Ernest Jones, Freud a réuni autour de lui un petit comité de fidèles partisans (Karl Abraham, Hanns Sachs, Otto Rank, Sandor Ferenczi, Ernest Jones, Anton von Freund et Max Eitingon) sous le nom de ("la « Cause »") et ce jusqu'en 1929. Chaque membre reçoit de Freud une intaille grecque de sa collection privée, qu'il porte sur un anneau d'or. Après la Première Guerre mondiale, en 1924, le mouvement psychanalytique freudien voit le départ d'Otto Rank et en 1929 celui de Sandor Ferenczi. La seconde topique psychique. Pendant la guerre, Freud exerce peu. En 1916, il rédige ses cours universitaires, rassemblés sous le titre de ("Cours d'introduction à la psychanalyse", édité en français sous le titre "Introduction à la psychanalyse"). Le sort de ses fils, sur le front, le préoccupe. La guerre paralyse par ailleurs l'extension du mouvement psychanalytique ; en effet le congrès de Dresde, prévu en 1914, n'a pas lieu. En 1915, il se lance dans la rédaction d’une nouvelle description de l’appareil psychique dont il ne conserve cependant que quelques chapitres. Ce qu’il prépare est en fait une nouvelle conception de la topique psychique. La même année, il est proposé au prix Nobel par le médecin viennois Robert Bárány. Freud publie ("Deuil et Mélancolie") en 1917. Helene Deutsch, Magnus Hirschfeld puis Sigmund Freud font état dans leurs écrits de femmes combattantes. En janvier 1920, il est nommé « professeur ordinaire » ("ordentlicher Professor" ou "Ordinarius"). À partir de 1920, et alors que le contexte politique et économique s’améliore, Freud publie tour à tour : ("Au-delà du principe du plaisir", 1920), qui introduit à travers un nouveau dualisme pulsionnel, les pulsions agressives, nécessaires pour expliquer certains conflits intra-psychiques et ("Psychologie des masses et analyse du Moi", 1921) qui ajoute à la problématique de Le Bon, les rapports entre psychisme individuel et comportements collectifs. Freud, durant ces années de guerre, travaille à une métapsychologie qui lui permette de décrire les processus inconscients sous un triple angle, à la fois dynamique (dans leurs relations entre eux), topique (dans leurs fonctions au sein de la psyché) et économique (dans leurs utilisations de la libido). En 1920, Freud élabore la seconde topique de l'appareil psychique composée du Moi, du Ça et du Surmoi. Elle se superpose à la première (inconscient, préconscient, conscient). Le développement de la personnalité et la dynamique des conflits sont alors interprétés en tant que défenses du Moi contre des pulsions et des affects, plutôt que comme conflits de pulsions ; les pulsions en cause sont celles de la mort. L’ambivalence et la rage étaient perçues dans la première topique comme consécutives de la frustration et subordonnées à la sexualité. Freud complète ainsi sa théorie par un nouveau dualisme pulsionnel, composé de deux types de pulsions antagonistes : la pulsion de vie (l'Éros) et la pulsion de mort (qu'il se retient toujours de nommer Thanatos). Plus fondamentales que les pulsions de vie, les pulsions de mort tendent à la réduction des tensions (retour à l’inorganique, répétition qui atténue la tension) et ne sont perceptibles que par leur projection au-dehors (paranoïa), leur intrication avec les pulsions libidinales (sadisme, masochisme) ou leur retournement contre le Moi (mélancolie). Freud défend par là une vision double de l'esprit. Extension de la psychanalyse et dernières années (1920–1939). Freud, chef de file de la psychanalyse. Pendant le conflit mondial, Freud peut mesurer les effets de la névrose traumatique chez son beau-fils et voir l'impact de cette pathologie dans une famille. Il a ainsi une connaissance directe de ces troubles et indirecte par des disciples qui côtoient la clinique de Julius Wagner-Jauregg comme Victor Tausk ou qui y ont travaillé pendant la guerre comme Helene Deutsch. En octobre 1920, le professeur de médecine légale, Alexander Löffler, invite Freud à témoigner par un exposé devant une commission médico-légale sur les névroses de guerre et les pratiques de soins. Il s'oppose à Julius Wagner-Jauregg qui, lui, prétend que les patients atteints de névrose de guerre sont des simulateurs. Puis, du 8 au 11 septembre, se tient à La Haye le de l'IPA, présidé par Ernest Jones. Freud y intervient en lisant ("Suppléments à la théorie des rêves"). D'autre part, la création d'un comité secret y est décidée, avec Jones comme coordinateur. La psychanalyse se développe notamment en Grande-Bretagne et en Allemagne. Max Eitingon et Ernst Simmel créent en effet à Berlin une polyclinique psychanalytique alors que Hugh Crichton-Miller fonde la Tavistock Clinic à Londres. La première traduction d’un texte de Freud en France, "Introduction à la psychanalyse", par Samuel Jankélévitch, est publiée en 1922. Le mouvement psychanalytique acquiert une clinique psychanalytique à Vienne, l’« Ambulatorium » (centre de soins ambulatoires), consacré au traitement des psychoses et dirigé par trois élèves de Freud, qui n'y participe que peu : Helene Deutsch, Paul Federn et Eduard Hitschmann. En 1923, Freud apprend qu'il est atteint d'un cancer de la mâchoire, qui le fait souffrir tout le restant de sa vie. La même année il choisit de se soumettre à une vasectomie afin, espérait-il, de mieux lutter contre son cancer. Il écrit Le Moi et le Ça à un moment où le mouvement psychanalytique atteint une réputation internationale, notamment en Angleterre et aux États-Unis. Il songe à constituer une édition complète de ses écrits, les . Le congrès de Salzbourg, en 1924, se déroule en l’absence de Freud. La même année, Otto Rank quitte le mouvement. En Angleterre, les membres de la Société britannique de psychanalyse, refondée en 1919 par Ernest Jones, créent l’. L'année suivante, en 1925, Freud écrit "Inhibition, symptôme et angoisse" ainsi qu'une esquisse autobiographique. Le de l’Association internationale se tient du 2 au 5 septembre à Bad-Homburg. Anna Freud y lit le texte de son père : ("Quelques conséquences psychiques de la différence des sexes au niveau anatomique"). Freud ne peut en effet plus voyager, en raison de sa maladie. Il rencontre en 1925 la princesse Marie Bonaparte, petite-nièce de Napoléon, qu'il prend en analyse et qui devient son amie. Plus tard, celle-ci traduit la majorité de ses textes en France. Freud demeure le chef de file de la psychanalyse, dont il oriente l'évolution. Ses dernières réflexions écrites sont consacrées à étudier et renforcer la psychanalyse sur le plan théorique et clinique. Dans son article « Psychanalyse et médecine » (1925), il invite les non-praticiens à utiliser la psychanalyse. À ce propos, il parle de psychanalyse « laïque » ou « profane », c'est-à-dire, pratiquée par des analystes qui ne sont pas médecins. Il revient aussi sur l'évolution de sa pensée dans son autobiographie. En 1927, sa fille Anna publie ("Introduction à la psychologie des enfants", texte lu et approuvé par son père). Dans les dernières années de sa vie, Freud essaye d’extrapoler les concepts psychanalytiques à la compréhension de l’anthropologie et de la culture. Sa vision pessimiste de l'espèce humaine s'exacerbe, notamment après la dissolution du comité secret formé par Ernest Jones, à la suite de querelles d'héritage, des jalousies et des rivalités internes. Il rédige donc un certain nombre de textes dans ce sens, en particulier sur la religion comme illusion ou névrose. En 1927, il publie ("L'Avenir d'une illusion"), qui porte sur la religion d'un point de vue psychanalytique et matérialiste. En 1930, il publie ("Malaise dans la civilisation") dans lequel Freud décrit un processus de civilisation qui est une reproduction à plus large échelle du processus d'évolution psychique individuel. Derniers travaux, exil et mort. Ne se considérant pas comme un écrivain, Freud est surpris d'obtenir le prix Goethe de la ville de Francfort, en août 1930. Puis, il retourne l'année suivante dans sa ville natale de Freiberg pour une cérémonie en son honneur. Dans une lettre du 3 janvier, l'écrivain Thomas Mann s'excuse auprès de Freud pour avoir mis du temps à comprendre l'intérêt de la psychanalyse. En 1932, Freud travaille à un ouvrage de synthèse présentant des conférences devant un public imaginaire, ("Nouvelles conférences d'introduction à la psychanalyse"). La même année, il publie, en collaboration avec le physicien Albert Einstein, leur pensée sur la guerre et la civilisation, issue de leur correspondance, dans un essai intitulé ("Pourquoi la guerre ?"). À Vienne, Thomas Mann, prononce le 8 mai 1936 un éloge et un soutien public à Freud (intitulé « "" » : « Freud et l’avenir ») où il explique : , justifiant par ce discours la remise du prix Goethe de Francfort à l'inventeur de la psychanalyse. Freud et Thomas Mann se sont liés d’amitié depuis la publication par l'écrivain de "Freud et la pensée moderne" (1929) et "Chevalier entre la mort et le diable" (1931). À propos du dernier ouvrage de Freud, ("Moïse et le monothéisme", 1936), Jacques Le Rider explique qu'il . En , les ouvrages de Freud sont brûlés en Allemagne lors des autodafés nazis. Il refuse de s'exiler jusqu'en mars 1938, lorsque les Allemands entrent à Vienne (Anschluss, le 12 mars). La Société psychanalytique de Vienne décide alors que chaque analyste juif doit quitter le pays, et que le siège de l'organisation doit être transféré là où réside Freud. Ce dernier décide finalement de s'exiler lorsque sa fille Anna est arrêtée le 22 mars, pour une journée, par la Gestapo. Grâce à l'intervention de l'ambassadeur américain William C. Bullitt et à une nouvelle rançon versée par Marie Bonaparte, Freud obtient un visa valable pour seize personnes et peut quitter Vienne par l’Orient-Express avec sa femme, sa fille Anna et la domestique Paula Fichtl, le 4 juin. Au moment de partir, il signe une déclaration attestant qu'il n'a pas été maltraité: Selon son fils Martin, il aurait ajouté, ironique : . Pour Michel Onfray, ceci relève du et de la légende hagiographique. Pour quitter l'Autriche, Freud bénéficie en outre du soutien d'Anton Sauerwald, le commissaire nazi chargé de prendre le contrôle de sa personne et de ses biens : ancien élève de Josef Herzig, un professeur et ami de Freud, Sauerwald facilite le départ de Freud et de ses proches pour Londres, où il va d'ailleurs ensuite lui rendre visite. Il est parfois reproché à Freud de ne pas avoir indiqué les noms de ses sœurs sur la liste des seize personnes autorisées à quitter l'Autriche, notamment son médecin, la famille de celui-ci, ses infirmières, de sa domestique. Celles-ci, Rosa, Marie, Adolfina et Paula, déjà âgées et ne se sentant pas menacées du fait de leur âge, ne voulaient pas partir, mais elles sont déportées et meurent en camp de concentration. La famille Freud gagne d'abord Paris, où Freud est accueilli par Marie Bonaparte et son époux, Georges de Grèce, puis Londres, où elle est reçue avec tous les honneurs, notamment par l'ambassadeur américain William Bullitt, que Freud connaît depuis quelques années déjà, lorsque les deux hommes avaient travaillé ensemble à une étude sur le président américain Woodrow Wilson intitulée ""(publiée en 1966). Freud et sa famille s'installent dans une maison au , dans le quartier londonien de Hampstead. Il est nommé membre de la Royal Society of Medicine. Freud reçoit la nomination chez lui, ne pouvant se déplacer, affaibli par son cancer et par trente-deux opérations et traitements successifs. Freud meurt à son domicile londonien, le , à du matin, d’un carcinome verruqueux d’Ackerman, à l'âge de . À sa demande, et avec l'accord d'Anna Freud, Max Schur, son médecin personnel, lui a injecté une forte dose, sans doute létale, de morphine. Il est incinéré au cimetière de et des hommages lui sont rendus par Ernest Jones, au nom de l'Association psychanalytique internationale, et par l'écrivain Stefan Zweig, le 26 septembre. Après la mort d'Anna Freud, en 1982, la maison des Freud de est transformée en musée. En 2002, une "" est apposée sur la façade du musée. Son œuvre : la psychanalyse. Le mouvement psychanalytique. La théorie psychanalytique : la « science de l'inconscient ». La psychanalyse regroupe trois acceptions selon Paul-Laurent Assoun, qui les reprend de l'article de Freud de 1922 "Psychanalyse et théorie de la libido". Le terme désigne en effet d'abord une certaine méthode d'investigation du psychisme inconscient, mais aussi une méthode de traitement (la cure psychanalytique), et, plus généralement une conception psychologique globale touchant à la vision même de l'homme. Selon Lydia Flem, psychanalyste et écrivain : . Le mouvement psychanalytique représente aussi le corpus de théories issues de l'expérience analytique, participant à la conceptualisation de l'appareil psychique et développées depuis Freud. Cette théorie psychanalytique (qui est dite d'orientation psychodynamique, au sein de la discipline psychologique) se fonde d'abord sur les recherches de Freud et sur les concepts majeurs qu'il a créés tels que ceux d'« inconscient », de « transfert », de « répétition » et de « pulsion ». Du point de vue de sa méthode d'approche, son objet étant l'inconscient, la psychanalyse est une discipline centrée sur l'observation et non sur l'expérimentation ; elle est donc une « science phénoménale » rattachée à la médecine et à la psychiatrie, mais possédant auprès de celles-ci une autonomie relative. Depuis ses premiers écrits fondateurs, Freud considère que la scientificité de la psychanalyse repose sur son objet : l'inconscient. Or, la plupart des critiques envers la psychanalyse lui contestent cette qualification de scientificité. Pourtant, elle est, selon Paul-Laurent Assoun, une collection de connaissances et de recherches ayant atteint un degré suffisant d'unité et de généralité, et donc capable de fonder La psychanalyse est donc considérée par les freudiens comme une science de la nature car elle repose sur des concepts fondamentaux, notamment celui de pulsion (""). Enfin, la psychanalyse récuse toute métaphysique. Développement et influence du mouvement psychanalytique. Avec sa conception de l'inconscient, Freud a permis une compréhension des névroses et, au-delà, de la psyché. Les travaux historiques d'Ernest Jones et, plus récemment, d'Henri Ellenberger montrent cependant que le concept d'« inconscient » est antérieur à Freud, mais précisent que ce dernier est un précurseur par sa manière de le théoriser, dans sa première topique d'abord, puis dans la seconde. Marcel Gauchet, dans "L'Inconscient cérébral" (1999) évoque l'idée de Freud, celle d'un . Le mouvement psychanalytique s'est développé d'abord en référence à Freud et à ses proches partisans, puis en opposition à ses détracteurs, tant internes (Carl Gustav Jung, Alfred Adler et Otto Rank parmi les principaux) qu'externes avec entre autres Pierre Janet et certains médecins et/ou psychiatres académiques. Les modalités de formation des psychanalystes se sont formalisées notamment avec son pilier central : l'analyse didactique est instaurée pour la première fois à l'Institut psychanalytique de Berlin. Depuis 1967, les psychanalystes de la « troisième génération » établissent un retour historique et épistémologique sur ce mouvement. Dans le "Vocabulaire de la psychanalyse", Jean Laplanche et Jean-Bertrand Pontalis isolent ainsi environ 90 concepts strictement freudiens à l'intérieur d'un vocabulaire psychanalytique contemporain composé de 430 termes alors qu'Alain de Mijolla en dresse un panorama chronologique précis. Le travail de pionnier de Freud a eu un impact sur d'autres disciplines : sur la psychologie en premier lieu, mais aussi sur la nosographie des troubles mentaux, sur la psychopathologie, sur la relation d'aide, la psychiatrie, l'éducation, la sociologie, la neurologie et la littérature. À un niveau plus général, Freud est également considéré par certains psychanalystes (comme Wilhelm Reich ou André Green, Françoise Dolto et Daniel Lagache plus tard) comme ayant été celui qui a délivré la parole sur la sexualité et notamment la sexualité féminine, sujets jusqu'alors méprisés par beaucoup de médecins. Les continuateurs de Freud. Après la mort de Freud (mais également de son vivant), plusieurs écoles psychanalytiques entretiennent entre elles des rapports souvent polémiques, dépendant des postulats retenus et des spécificités nationales. Deux types de courants peuvent être distingués : ceux dits « orthodoxes », proches du freudisme, et ceux s'en écartant sur des points fondateurs : les courants « hétérodoxes ». Plusieurs points théoriques vont constituer des zones de division. Ainsi, pendant la Seconde Guerre mondiale se développe la question de l'analyse groupale, avec des analystes comme Wilfred Bion, qui développe sa propre conception. Par ailleurs, c'est en Angleterre que se déroulent, à partir de 1942, les dissensions théorico-cliniques entre Melanie Klein, Anna Freud et le Groupe des "Indépendants", sur plusieurs sujets. L’ regroupe les psychanalystes freudiens orthodoxes. En France, par exemple, la Société psychanalytique de Paris relaye la psychanalyse, essentiellement freudienne, kleinienne et winnicottienne en fonction des orientations des membres qui la composent. Le courant lacanien s'en écarte toutefois, jusqu'à la rupture dans les années 1950, notamment à propos de l'axiome lacanien selon lequel et surtout sur les modalités de formation des psychanalystes qui, pour Lacan et ses adeptes, diffèrent radicalement de celles de l'I.P.A. et des associations affiliées. Si Lacan a été en opposition avec l'IPA, il ne faut pas le voir comme étant en opposition avec Freud : en témoignent son « retour à Freud » et ce propos de Jean-Michel Rabaté : Avec l'immigration de nombreux psychanalystes d'Europe avant, pendant et après la guerre, la psychanalyse prend beaucoup d'importance aux États-Unis, avec l’ ou la "". Il existe aussi l'ego-psychology et les courants totalement autonomes, issus des schismes successifs : ceux d'Alfred Adler, d'Otto Rank, Wilhelm Reich et de Carl Gustav Jung. Enfin, de nombreux psychanalystes contemporains, comme Sándor Ferenczi ou Donald Winnicott, développent et propagent leur vision des conceptions freudiennes, tels ceux dits de la « nébuleuse marginale » selon Paul Bercherie, ou ceux, à la pensée plus individuelle comme : Juliette Favez-Boutonier, Daniel Lagache, Françoise Dolto, André Green ou Didier Anzieu. Influence et interactions de la psychanalyse. Dans un article intitulé "L'Intérêt de la psychanalyse" ("Das Interesse an der Psychoanalyse", 1913) paru simultanément en allemand et en français à Bologne dans "Scientia", « revue internationale de synthèse scientifique », il apparaît qu'. En dehors de l'intérêt qu'elle présente pour la psychologie (exposé dans la première partie), la seconde partie de l'essai montre l'intérêt que présente la psychanalyse . Dans cette seconde partie, , selon Alain de Mijolla, il est ainsi question de l'intérêt que peut avoir la psychanalyse pour d'autres disciplines comme les , la philosophie, la biologie, l', l', l'esthétique, la sociologie et la pédagogie. La psychanalyse a eu une profonde influence sur la plupart des sciences humaines : sur l'ethnologie (avec Géza Róheim et l'ethnopsychanalyse), sur l'anthropologie et les sciences juridiques (avec le juriste Pierre Legendre), sur le marxisme (par le freudo-marxisme et avec Herbert Marcuse) et sur les sciences politiques. La philosophie du a su se nourrir des apports de la psychanalyse d'après Paul-Laurent Assoun et ce à travers des personnalités comme Jean-Paul Sartre, Gilles Deleuze, Jacques Derrida, Félix Guattari, René Girard, Jean-François Lyotard ou Michel de Certeau. Le sociologue Norbert Elias, tout en se distanciant du mouvement des psychanalystes, reconnaît l'avancée de Freud, qui propose, selon lui, . Le philosophe Paul Ricœur le situe aux côtés de Karl Marx et de Friedrich Nietzsche comme étant l'un des trois grands , de ceux qui ont induit le doute dans la conception philosophique classique du sujet. L'étude psychanalytique de la question de la psychosomatique a également une importance en médecine avec, par exemple, les apports de Franz Alexander et ceux de Michael Balint en Angleterre : les « Groupes Balint » sont menés par des psychanalystes, pour les médecins, et en rapport avec les pratiques de ces derniers, à partir d'études de cas. En France, Pierre Marty, Michel Fain et Michel de M'Uzan pour les affections somatiques, Françoise Dolto pour la pédiatrie et Didier Anzieu pour les groupes sont des exemples d'applications de la psychanalyse en dehors du champ de la cure type. En art, le surréalisme d'André Breton se réclame de la psychanalyse. L'influence est également importante dans le champ de l'interprétation artistique ou littéraire. La notion de sublimation, et, plus généralement, la théorie freudienne en art a été reprise par Deleuze et Guattari, René Girard, Jean-François Lyotard, ainsi qu'en esthétique, en histoire de l'art et dans les "". Principaux concepts freudiens. L'inconscient. Freud introduit dans les sciences humaines une conception nouvelle de l'inconscient. Depuis longtemps, il avait été remarqué que certains phénomènes échappent à la conscience. Les philosophes Leibniz et Arthur Schopenhauer considèrent qu'il existe un arrière-plan à la conscience. Le poète allemand Novalis est le premier à se servir du mot « inconscient », dans la continuité des thèses post-romantiques de Karl Robert Eduard von Hartmann avec son ouvrage ("Philosophie de l’inconscient") en 1869 mais surtout de Carl Gustav Carus (, 1851), ce dernier se représentant un « inconscient absolu » et un « inconscient relatif ». La théorie de Freud est directement liée à leurs travaux. Freud doit aussi à la psychologie expérimentale, et notamment à l'approche de l'hystérie. Les phénomènes d'ivresse ou de transe donnent en effet des exemples d'abolition de la conscience. Or, l'inconscient qu'introduit Freud n'est pas simplement ce qui ne relève pas de la conscience, comme chez von Hartmann. Par « inconscient », il entend à la fois un certain nombre de données, d'informations, d'injonctions tenues hors de la conscience, mais il y englobe aussi l'ensemble des processus qui empêchent certaines données de parvenir à la conscience, et permettent aux autres d'y accéder, comme le refoulement, le principe de réalité, le principe de plaisir, la pulsion de mort. Ainsi, Freud considère l’inconscient comme l'origine de la plupart des phénomènes conscients eux-mêmes, et ce d'une manière nettement différenciée de ses prédécesseurs, car celui-ci évolue de manière dynamique. L'inconscient est la grâce aux travaux de Freud. Dans "Quelques remarques sur le concept d'inconscient en psychanalyse" (1912), le Viennois se propose de décrire la spécificité du concept. Il y donne une présentation hiérarchique de la notion, qui désigne d'abord le caractère ou l'aptitude d'une représentation ou d'un élément psychique quelconque présent à la conscience de manière intermittente et qui semble n'en pas dépendre. Sur ce point, Freud se réfère à la théorie du psychiatre français Hippolyte Bernheim quant à l'expérience suggestive et à l'hypnose. Par ailleurs, la notion regroupe la constatation d'une dynamique propre à cette représentation inconsciente, et dont l'exemple le plus révélateur est le phénomène d'hystérie. L'inconscient freudien acquiert dès lors son qualificatif de « psychique ». Un troisième niveau vient ensuite compléter la notion telle qu'elle est acceptée en psychanalyse : le niveau systémique par lequel l'inconscient manifeste les propriétés d'un système (que Freud désigne par l'abrégé ', « Ics » en français). Les premiers psychanalystes ont pu parler à ce sujet de « subconscient », terme vite écarté par Freud, car étant imprécis pour expliquer un système existant ', et, donc indépendant de la conscience. Les trois instances de l’appareil psychique. Dans sa première topique, c'est-à-dire dans le second modèle théorique de représentation du fonctionnement psychique proposé en 1920, Freud distingue trois instances : l'inconscient, le préconscient et le conscient. Dans la seconde topique, l'appareil psychique comprend le Ça, le Moi et le Surmoi, trois instances supplémentaires fondatrices de la psychanalyse. Le Ça (') est présent dès la naissance ; il s’agit de manifestations somatiques. Si le Ça est inaccessible à la conscience, les symptômes de maladie psychique et les rêves permettent d’en avoir un aperçu. Le Ça obéit au principe de plaisir et recherche la satisfaction immédiate. Le Moi (') est en grande partie conscient, il est le reflet de ce que nous sommes en société ; il cherche à éviter les tensions trop fortes du monde extérieur ainsi que les souffrances, grâce, notamment, aux mécanismes de défense (refoulement, régression, rationalisation, sublimation, etc.) se trouvant dans la partie inconsciente de cette instance. Le Moi est l’entité qui rend la vie sociale possible. Il suit le principe de réalité. Bien que le Surmoi ("") existe depuis la naissance et que, jusqu'à cinq ans, l’enfant héritant de l’instance parentale, groupale et sociale emmagasine quantité de règles de savoir-vivre à respecter, le Surmoi se développe particulièrement lorsque le complexe d'Œdipe est résolu. Du fait des pressions sociales, en intériorisant les règles morales ou culturelles de ses parents et du groupe, l’enfant, puis l'adulte pratiquent le refoulement. En effet, le Surmoi punit le Moi pour ses écarts par le truchement du remords et de la culpabilité. La libido et la sexualité infantile. Les pulsions sexuelles sont conçues par Freud comme une énergie, qu'il nomme « libido » (« le désir » en latin). Ces pulsions sont susceptibles de maintes transformations et adaptations selon la personnalité et l'environnement. La libido est en effet essentiellement plastique et son refoulement est le plus souvent à l'origine des troubles psychiques alors que sa sublimation explique les productions culturelles, intellectuelles et artistiques de l’humanité. La doctrine freudienne de la libido a souvent été critiquée comme étant un « pansexualisme » matérialiste. Constituant le socle de la métapsychologie freudienne, le concept de libido, décrit dans "Trois essais sur la théorie sexuelle" (1905/1915/1920), est lié à celui de pulsion : , et ce, même si la prise en compte de la fonction de procréation est à considérer. En effet, sa nature est prégénitale et symbolique, et sa fixation conditionne la formation de la névrose. Freud est le premier à élaborer une conception de la sexualité infantile. L'idée en est surtout formalisée en 1905 dans l'ouvrage "Trois essais sur la théorie sexuelle", tout en provenant de travaux précédents, en particulier de la théorie de la séduction, abandonnée en 1897, à partir de laquelle Freud a commencé de mettre en place sa théorisation dite de la sexualité infantile à travers son aspect pulsionnel. Il y décrit l'existence d'une opposition radicale entre sexualité primaire et adulte, marquée par le primat du génital, et sexualité infantile, où les buts sexuels sont multiples et les zones érogènes nombreuses, à tel point que Freud est souvent considéré comme le découvreur de la sexualité de l'enfant. Progressivement, entre 1913 et 1923, cette thèse se trouve remaniée par l'introduction de la notion de « stades prégénitaux », précédant l'instauration du stade génital proprement dit, et qui sont : le stade oral, le stade anal et le stade phallique . Freud propose ainsi d'expliquer l'évolution de l'enfant à travers des caractères pulsionnels d'ordre sexuel qui vont évoluer au travers de plusieurs stades psycho-affectifs, pour aboutir ensuite à la sexualité génitale adulte. C'est aujourd'hui une base théorique importante en psychologie clinique ou en pédopsychiatrie. Les rêves. Selon Freud, l'. Les rêves sont en effet, dans le modèle psychanalytique, des représentations de désirs refoulés dans l’inconscient par la censure psychique (le Surmoi). Les désirs se manifestent ainsi dans le rêve de manière moins réprimée qu'à l'état de veille. Le contenu manifeste du rêve est le résultat d'un travail intrapsychique qui vise à masquer le contenu latent, par exemple un désir œdipien. En cure de psychanalyse, le travail repose sur l'interprétation à partir du récit (contenu manifeste) du rêve. Les associations du patient sur son rêve permettent de révéler son contenu latent ; ce « travail du rêve » ("") repose sur quatre procédés fondamentaux. Tout d'abord, le rêve condense, comme s'il obéissait à un principe d'économie psychique, c'est-à-dire qu'une seule représentation concentre plusieurs idées, plusieurs images, parfois même des désirs contradictoires. Deuxièmement, le rêve est décentré et le désir déformé est fixé sur un autre objet que celui qu'il vise, ou sur de multiples objets jusqu'à l'éparpillement, ce qui constitue . Par ailleurs, le rêve est une illustration (ou « figurabilité ») du désir dans le sens où il ne l'exprime ni en mots ni en actes, mais en images ; le symbole onirique selon la psychanalyse est donc une . Enfin, le rêve est aussi le produit d'une activité inconsciente, mais très proche de l'activité vigile en ce qu'elle s'efforce de lui donner une apparence de vraisemblance, d'organisation, de logique interne (c'est l'« élaboration secondaire »). Au niveau épistémologique, le geste de Freud consiste à réintroduire la production onirique dans la psychologie. Il rompt avec l'idée romantique d'un rêve contenant une clé ou un secret et seul le travail du rêve en explique la nature : la production à la fois complexe et immanente de la psyché qui s'apparente à un rébus. Cette théorie des rêves ("") est selon Freud ce par quoi la psychanalyse a pu s'élever : d'abord simple thérapeutique elle a pu devenir, selon lui, une métapsychologie générale. La science du rêve en psychanalyse fonde tout le reste de son édifice théorique : . Les pulsions et le refoulement. freudienne, la pulsion (') répond à une définition polysémique. Excitation psychique, concept-frontière entre psychique et somatique, elle se définit par une poussée ('), un but ('), un objet (') et une source (""). Elle conditionne la représentation ainsi que l'affect. Les pulsions prennent leur source dans une excitation corporelle et, en cela, elles sont proches de l'instinct. Au contraire d'un stimulus, la pulsion ne peut être évitée ou fuie et demande à être déchargée dans le conscient. Il existe selon Freud trois moyens de décharger une pulsion : par le rêve, par le fantasme et par la sublimation. Freud distingue d'abord deux groupes de pulsions : celles du Moi (ou d'auto-conservation) et les pulsions sexuelles. Par la suite, et dans ses écrits les plus tardifs, il distingue deux autres grands types de pulsions : la pulsion de vie (l'« Éros ») et la pulsion de mort (le « Thanatos »). L'Éros représente l’amour, le désir et la relation, tandis que le Thanatos représente la mort, les pulsions destructrices et agressives. Le Thanatos tend à détruire tout ce que l'Éros construit (la perpétuation de l’espèce par exemple). Le masochisme en est un exemple typique. Le refoulement (""), « pierre d'angle » de la psychanalyse, est aussi le concept le plus ancien de la théorie freudienne. Dès 1896, Freud repère en effet un mécanisme de défense primaire, qu'il assimile ensuite à la censure et qui structure "a priori" le Moi et, de manière générale, le psychisme. Le refoulement est à la fois refus d'une pulsion et action psychique de maintien de cet écart. Frontière entre le conscient et l'inconscient, la « clause de censure » atteste aussi que l'inconscient est bien « travail » et processus, et non-principe seul. Le complexe d’Œdipe. . Freud théorise le complexe d'Œdipe dans sa première topique. Celui-ci est défini comme le désir inconscient d'entretenir un rapport sexuel avec le parent du sexe opposé (c'est l'inceste) et celui d'éliminer le parent rival du même sexe (le parricide). Ainsi, le fait qu'un garçon tombe amoureux de sa mère et désire tuer son père répond à l'impératif du complexe d'Œdipe. C'est dans la lettre à Wilhelm Fliess du que Freud évoque le complexe pour la première fois, mais c'est dès 1912 et 1913 que « l'Œdipe » est entré totalement dans la pensée clinique de Freud. Ce dernier s'attache à en étudier l'universalité, dans l'ouvrage "Totem et Tabou". Freud y avance la thèse suivante : celle de la , résumée par Roger Perron : Pour lui, la structure de la personnalité se crée en rapport avec le complexe d’Œdipe et son rapport avec la fonction paternelle (imago du père). Le complexe d’Œdipe intervient au moment du stade phallique. Cette période se termine par l’association entre la recherche du plaisir et une personne extérieure, la mère. Le père devient le rival de l’enfant ; ce dernier craint d’être puni en conséquence de son désir pour la mère par la castration. L’enfant refoule donc ses désirs, ce qui alimente au cours de son développement son Surmoi, avec la naissance en lui des sentiments de culpabilité et de pudeur, entre autres, et par l'intermédiaire du complexe de castration. Le complexe serait donc transmis de génération en génération et avec lui le sentiment de culpabilité associé. Freud a toujours recherché en effet à relier ces concepts, et en particulier celui du complexe d'Œdipe, à une théorie générale de la phylogenèse (de l'histoire de l'humanité comme espèce). Les cinq stades du développement psycho-affectif. Selon Freud, tel qu'il le décrit dans son essai « L'organisation génitale infantile » (, 1923), l'élaboration du complexe d'Œdipe représente une étape constitutive du développement psychique des enfants. Le désir envers la mère trouve en effet son origine dès les premiers jours de la vie et conditionne tout son développement psychique (psychogenèse). La mère est, d'une part, la « nourricière » et, d'autre part, celle qui procure du plaisir sensuel, via le contact avec le sein et à travers les soins corporels. L'enfant, qu'il soit fille ou garçon, en fait donc le premier objet d'amour qui reste déterminant pour toute sa vie amoureuse. Cette relation objectale est ainsi investie de sexualité et se déploie en cinq « phases » libidinales qui trouvent aussi leur origine dans la constitution de la part de l'enfant de la scène primitive. La notion de « phase » ou de « stade » n'est pas à prendre au sens littéral. Elle signale la primauté d'une zone érogène particulière, mais n'implique pas que le processus se déroule de manière mécanique et linéaire. Le complexe d'Œdipe se déploie donc à travers ces phases en fonction de leurs propriétés propres qui s'enchevêtrent pour constituer un agrégat de pulsions qui, pour les freudiens, trouve son aboutissement vers l'âge de . Freud aboutit à ce modèle en étudiant le cas dit du « petit Hans », en 1909. La « phase orale » constitue l'organisation psychique du premier lien. La nourriture qui passe par la bouche est en effet la première origine de sensualité. Le plaisir produit par les zones érogènes s'étaye sur ce lien vital puis s'en éloigne, par exemple lors des préliminaires sexuels des adultes. On différencie la « phase orale de succion » de la « phase orale de morsure » qui inaugure une manifestation d'agressivité reposant sur l'ambivalence inhérente à la relation d'objet. Pour les kleiniens, le complexe d'Œdipe se manifeste déjà à cette phase orale et son déclin intervient lors de l'avènement de la position dépressive. Ensuite, la « phase anale », allant de 1 à environ, est liée au plaisir de contrôler ses voies d’excrétion. La « phase phallique » (ou « génitale infantile »), de 3 à environ, est liée à la masturbation. Elle connaît l'émergence puis le conflit œdipien dans sa phase la plus aiguë. La « phase de latence » s'étale ensuite de à la préadolescence, et correspond au déclin du complexe d'Œdipe par le refoulement des pulsions sexuelles qui sont mises au service de la connaissance (ou « épistémophilie ») qui dure jusqu'à l'adolescence et qui est permise par le processus de sublimation. Cette « latence » est toute relative et peut varier selon les individus, les circonstances et les moments du développement. La cure psychanalytique. L'éthique et le cadre thérapeutique. La cure psychanalytique, communément nommée « psychanalyse » ou encore « cure type », désigne la pratique psychothérapeutique élaborée par Sigmund Freud puis par ses successeurs et inspirée de la « "" » de Josef Breuer. La pratique psychanalytique a été peu à peu distinguée par Freud de cette dernière, ainsi que de celle de l'hypnose. La cure psychanalytique s'applique plus largement à toute une série de traitements plus ou moins dérivés de la psychanalyse au point que Jean Bergeret fait de son emploi chez certains psychanalystes un abus de langage. Vers la fin de sa vie, Freud lui-même revient sur l'efficacité de la cure, rappelant que la psychanalyse est avant tout savoir. De nature transférentielle, elle repose sur les associations libres et débute par l'étude du symptôme (dont la névrose est la manifestation générale) pour arriver à sa source, la pulsion refoulée. Ce contenu censuré doit parvenir à la conscience du malade, ce qui en constitue le traitement. La psychothérapie psychanalytique met en œuvre tous les concepts dégagés par Freud, et en particulier ceux de « libre association » et de neutralité (l'analyste doit laisser les idées spontanées du patient s'exprimer, il doit écouter sans rien dire — et encore moins faire — qui ne perturbe les associations de l'analysant) et d'« attention flottante » (l'attention de l'analyste ne doit pas se focaliser sur un élément ou un autre du discours de l'analysant, mais rester attentif aux éléments inconscients qui pourraient surgir). Par ailleurs, le cadre éthique de l'analyse repose sur la sincérité du patient ainsi que sur l'engagement du psychanalyste à la neutralité et à la bienveillance. L’unique but de l’analyse est donc, par le travail élaboratif du patient et le travail interprétatif du psychanalyste, de supprimer le refoulement qui crée la répétition ; mais l'analysé ne peut prendre conscience du refoulement que si, auparavant, a été supprimée la résistance qui le maintient. Les cinq cas fondateurs. Freud réalise sa première analyse avec Dora, de son vrai nom Ida Bauer, qui nourrit dans deux rêves des fantasmes sexuels handicapants. Mais, en raison du transfert qui s'opère sur sa personne, Freud échoue à guérir Dora. Il ne reconnaît que plus tard, dans un post-scriptum, qu'il n'a pas su se rendre compte qu'il était l'objet transfériel de sa patiente amoureuse. Le cas Dora est décrit de décembre 1900 à janvier 1901, mais Freud ne publie son "Fragment d'une analyse d'hystérie" que quatre ans plus tard. Freud accueille ensuite en analyse Ernst Lanzer, surnommé « l'homme aux rats ». Cette cure lui fournit un matériel clinique, notamment dans l'étude de la névrose obsessionnelle. Le patient entretient une culpabilité à la suite d'une punition paternelle pour s'être masturbé, le rendant névrosé. Un troisième cas fondateur de la pratique psychanalytique est celui d'Herbert Graf, surnommé « le petit Hans ». Ce dernier n'a cependant pas été analysé par Freud. L'enfant souffre d'une phobie du cheval, lié à une fixation psychoaffective au niveau du complexe d'Œdipe. Grâce à la compréhension de ce schéma psychique, Herbert est guéri de ses fantasmes. Un quatrième cas est célèbre en littérature psychanalytique : celui de Sergueï Pankejeff, dit « l'homme aux loups ». Enfin, avec Daniel Paul Schreber (« le président Schreber »), Freud examine les délires psychotiques et paranoïdes présents dans "Mémoires d’un névropathe" du magistrat. Polémiques et débats. La question de l'homosexualité. Freud renonce progressivement à faire de l'homosexualité une disposition biologique ou une résultante culturelle, mais l'assimile plutôt à un choix psychique inconscient. En 1905, dans "Trois essais sur la théorie sexuelle", il parle d'« inversion », mais, en 1910, dans "Un souvenir d'enfance de Léonard de Vinci", il renonce à ce terme pour choisir celui d'« homosexualité ». Dans une lettre datant de 1919 écrite à la mère d'une jeune patiente, Freud explique : Cependant, dans l'ensemble de l'œuvre freudienne, il existe plusieurs théories et questionnements sur la naissance de l'homosexualité chez le sujet : l'homosexualité adulte y est présentée tantôt comme immature par blocage de la libido au stade anal, tantôt comme repli narcissique ou encore comme identification à la mère. Freud a en effet affirmé à une certaine époque que l'homosexualité résulte d'un Puis il a fini par conclure que l'homosexualité est un choix d'objet inconscient. Selon Freud, l'homosexualité n'est pas l'objet de la cure analytique. Seule la culpabilité qui l'accompagne peut donner lieu à une névrose. Enfin, dans une note de 1915 aux "Trois essais sur la théorie sexuelle", il explique également que conclut Élisabeth Roudinesco, même si cette question a divisé les psychanalystes. Cependant il faudrait distinguer l'homosexualité psychique chez tout être humain, de l'homosexualité agie. Selon le critique Didier Eribon, les psychanalystes partageraient un qui se révèle par le choix conscient de l'utilisation du terme de «perversion» chez Lacan alors que pour Daniel Borrillo, Freud et certains psychanalystes (tel Jacques Lacan) feraient œuvre d'homophobie en classant l'homosexualité parmi les « inversions ». Cependant, il ne faut pas négliger que Freud est sorti de cette classification. Culture et nature. Pour Freud, la culture (') désigne l'ensemble des institutions qui éloignent l'individu de l'état animal. La nature correspond donc aux émotions, aux instincts, pulsions et besoins. L’être humain lutte en permanence contre sa nature instinctuelle et ses pulsions, qu'il tente de réfréner afin de vivre en société, sans quoi l’égoïsme universel amènerait le chaos. Pourtant, Freud opère une confusion constante dans ses écrits entre la civilisation d'une part et la culture d'autre part. Plus le niveau de la société est élevé, plus les sacrifices de ses individus sont importants. En imposant la frustration sexuelle surtout, la civilisation a une action directe sur la genèse des névroses individuelles. Le texte de 1929, "Malaise dans la civilisation", soutient la thèse que la culture est la cause principale de névrose et de dysfonctionnements psychiques. Par les règles claires qu’elle lui impose, la culture protège l'individu, même si elle exige des renoncements pulsionnels conséquents. Ces contraintes peuvent expliquer qu’il existe une rage et un rejet – souvent inconscients – vis-à-vis de la culture. En contrepartie, la culture offre des dédommagements aux contraintes et sacrifices qu'elle impose, à travers la consommation, le divertissement, le patriotisme ou la religion. Dans l'essai « Une difficulté de la psychanalyse » publié en 1917, et dans ses conférences d'introduction à la psychanalyse, écrites pendant la Première Guerre mondiale, Freud explique que l'humanité, au cours de son histoire, a déjà subi . La première, explique-t-il, date du moment où Nicolas Copernic établit que . La deuxième, selon lui, a lieu quand la biologie moderne – et Darwin au premier chef – . Il ajoute : . Selon Freud, c'est le qui permet à l'homme d'évoluer culturellement. Freud et la phylogenèse. S'appuyant sur les thèses de Charles Darwin, en 1912, dans "Totem et Tabou", Freud explique que l'origine de l'humanité se fonde sur le fantasme d'une « horde primitive » dans laquelle a lieu le meurtre primitif du père comme acte fondateur de la société. Les hommes vivaient en hordes grégaires, sous la domination d'un mâle tout-puissant, qui s'appropriait les femmes du groupe et en excluait les autres mâles. Ces derniers commettent alors le meurtre du « Père primitif », parricide qui explique ensuite le tabou de l'inceste comme élément constitutif des sociétés. Dans "Malaise dans la civilisation", Freud décompose l'évolution de l'humanité en trois phases : une phase animiste caractérisée par un narcissisme et un totémisme primaires d'abord, puis une phase religieuse marquée par la névrose collective et enfin une phase scientifique dans laquelle prédomine la sublimation. Cette conception d'héritage phylogénétique a été critiquée par les anthropologues, les historiens et invalidée par la biologie. Selon Plon et Roudinesco, il ne s'agit pour Freud que d'. Florian Houssier indique quant à lui que Freud et la religion. Se disant « incroyant », , Freud est critique vis-à-vis de la religion. Athée convaincu, il estime que l’être humain y perd plus qu’il n’y gagne par la fuite qu’elle propose. Dans son premier écrit sur la religion, "Actes obsédants et exercices religieux", publié en 1907, il explique que le cérémonial liturgique implique obligatoirement des « actes obsédants ». Il parle par conséquent de . Selon lui, la . Quant au lien que la pratique psychanalytique entretient avec la religion, et dans une lettre au pasteur Oskar Pfister du , Freud dit qu'. Avec "L'Avenir d'une illusion" (1927) Freud montre dans un premier temps que la civilisation doit faire appel à des valeurs morales pour garantir son intégrité et se protéger des penchants destructeurs individuels. Selon Quinodoz, Freud englobe dans ces valeurs morales Dans un second temps, Freud tient un dialogue avec un adversaire imaginaire (qui pourrait être le pasteur Pfister), en prenant comme modèle de religion le christianisme pratiqué en Occident. La publication de l'ouvrage provoqua, selon Quinodoz, . Selon Freud, l’humanité doit accepter que la religion n’est qu’une illusion pour quitter son état d’infantilisme, et il rapproche ce phénomène de l’enfant qui doit résoudre son complexe d’Œdipe : . Clotilde Leguil note que Freud rapproche dans "Le malaise dans la civilisation" (1930) l'effet de la religion sur le psychisme de celui des stupéfiants. Freud situe sa thèse dans la filiation de celle de Marx qui pouvait affirmer non seulement qu'elle est l', mais aussi que . Paul Ricœur surnomme d'ailleurs Marx, Nietzsche et Freud, , en ce qu'ils ont en commun d'avoir dénoncé l'illusion religieuse. En 1939 paraît "L'homme Moïse et la religion monothéiste", dans lequel Freud développe la thèse que Moïse n'est pas juif mais un égyptien vouant un culte au dieu Aton. Freud admet que les bases de cette hypothèse historique sont fragiles ; il voulait d'ailleurs à l'origine donner comme titre à son essai : "L'homme Moïse, un roman historique". La parution de l'ouvrage a fait polémique. Freud face à l'antisémitisme. L'antisémitisme ne pèse pas d'une manière égale durant la vie de Freud, et ce au gré des changements politiques de l'Autriche et l'Allemagne au début du . Le sentiment antisémite joue un rôle déterminant à la fin de sa vie, lorsqu'il doit fuir l'Autriche devant la menace nazie. Avant la première guerre mondiale, comme le souligne Yerushalmi, « Je tiens à souligner que sa prise de conscience du phénomène précéda son entrée à l'Université de Vienne, ou encore la fin du Burgerminister libéral et la montée de l'antisémitisme politique ». À partir de 1917, la censure d'articles antisémites dans les journaux devient moins stricte et il devient habituel de voir traiter les Juifs de « profiteurs de guerre ». C'est en 1918 que l'antisémitisme atteint son comble, les Juifs devenant explicitement les boucs émissaires de tous les malheurs qui s'abattent sur l'Autriche. En 1933, les œuvres de Freud sont brûlées par les nazis, qui y voient une « science juive » (selon la formule du parti nazi) contraire à l'« esprit allemand » : Avec l'annexion de l'Autriche par l'Allemagne, de nombreux psychanalystes ont dû cesser leur pratique ou émigrer quand ils n'ont pas été tués ou envoyés dans des camps de concentration parce qu'ils étaient juifs. La ségrégation s'est d'abord développée en Hongrie, notamment sous le régime de Miklós Horthy. Puis, elle s'est propagée en Allemagne dès les années 1920 et en Autriche. Dès lors, la plupart de ceux qui ont survécu ont émigré aux États-Unis (ainsi qu'au Royaume-Uni, en France, en Amérique du Sud, Max Eitingon quant à lui s'est exilé en Palestine). Henri Ellenberger a fait une étude approfondie de la situation des Juifs dans l'ensemble de la région et affirme que Freud aurait exagéré l'impact de l'antisémitisme dans sa non-nomination à un poste universitaire de professeur extraordinaire. Il argumente sa thèse de manière documentée. D'autres historiens considèrent qu'Ellenberger a minimisé le phénomène à Vienne, qui élit comme maire Karl Lueger, ouvertement antisémite, en 1897. Le père de Freud avait été victime d'un acte antisémite, qu'il a raconté à son fils. Dès ses débuts, la psychanalyse freudienne a été accusée d'être une « science juive ». Martin Staemmler écrit, dans un texte de 1933 : . Pour Lydia Flem, Freud et Theodor Herzl, chacun à leur manière, répondent à la crise identitaire juive, le premier en imaginant une topique psychique, le second en rêvant d'un pays géographique pour le peuple juif. Sur le judaïsme et le sionisme. Élisabeth Roudinesco, dans un article de 2004 dans lequel elle étudie une évoque la position de Freud qui refuse, dans cette lettre, de soutenir publiquement la cause sioniste en Palestine et l'accès des juifs au mur des Lamentations, comme le lui avait demandé en 1930 Chaim Koffler, membre viennois du Keren Ha Yesod. Elle rappelle dans cet article que la « judéité » de Freud, qu'il n'a, selon elle « jamais reniée », était une . Cette lettre, jugée peu favorable à la cause sioniste n'a pas été rendue publique, et est restée inédite, bien que, comme le rappelle Élisabeth Roudinesco, Freud ait eu . Il envoie d'ailleurs, le même jour, une lettre à Albert Einstein, dans laquelle il développe les mêmes idées d' dont et de . À propos de la cocaïne. La découverte de l'alcaloïde de la plante de coca est contemporaine des recherches de Freud, qui cherche à l'utiliser pour la guérison psychique. En 1884, les laboratoires Merck confient à Freud la charge de mener des expérimentations sur la substance. Avant de créer la psychanalyse, Freud a étudié ce produit et a pensé pouvoir lui prêter toutes sortes d'indications médicales — notamment dans le traitement de la neurasthénie. Freud travaille sur les propriétés anesthésiantes de la cocaïne avec deux collègues, Carl Köller et Leopold Königstein, dès 1884. Cependant, il n'a pas le temps de tester son pouvoir narcotique et doit s'absenter de Vienne. Ses collègues poursuivent les expérimentations, notamment dans le cadre de la chirurgie oculaire, et finissent par présenter leur découverte devant la Société médicale de médecine de Vienne sans mentionner le rôle précurseur de Freud. Il poursuit ses recherches entre 1884 et 1887, et rédige plusieurs textes à ce sujet dont . Freud a consommé épisodiquement de la cocaïne, à partir de 1884. À l'époque, cette substance, récente, n'est pas interdite, la consommation de divers produits à la cocaïne est chose courante (le Coca-Cola en contint jusqu'en 1903) et apparaissait à certains médecins américains comme une panacée. Il en a également prescrit en application nasale jusqu'en 1895, date à laquelle il entame son auto-analyse et aurait arrêté d'en prendre lui-même. Dans un article datant de 1886, le Albrecht Erlenmeyer met en garde la communauté médicale en termes précis, qualifiant la cocaïne de . Face aux critiques de plus en plus nombreuses, le Johann Schnitzler, dans un article de la revue "Internationale Klinische Rundschau", en 1887, défend Freud, accusé d'en avoir propagé le recours. Ce dernier écrit un dernier article sur la cocaïne en 1887 et affirme que c'est le sujet qui est prédisposé et pas la drogue qui entraîne la toxicomanie. Il se détourne ensuite totalement de son étude après avoir suggéré à son ami Ernest von Fleischl-Marxrow de l'utiliser pour guérir de sa morphinomanie. Freud espérait guérir son addiction par la cocaïne. Cependant, Fleischl von Marxow devient dépendant de la cocaïne, puis revient à la morphine et meurt prématurément à , laissant Freud avec un très fort sentiment de culpabilité. Si le psychologue David Cohen parle d'addiction de Freud à la cocaïne et d'une consommation pendant une quinzaine d'années, selon Élisabeth Roudinesco et la philosophe et psychanalyste Françoise Coblence, il en a pris pendant onze ans, n'était pas dépendant au produit et ne connaissait pas le phénomène d'accoutumance (ni les cas signalés dans la littérature médicale contemporaine). Les historiens Elizabeth M. Thornton ("The Freudian Fallacy") et développent également la thèse d'une addiction de Freud à la cocaïne, qu'il a consommée jusqu'en 1896. Occultisme et télépathie. Dans la trentième conférence des "Nouvelles Conférences d'introduction à la psychanalyse" (1933) « Rêve et occultisme », sujet d'après Alain de Mijolla eu égard à , Freud, qui a néanmoins pu observer le phénomène et en donne « quelques exemples d'observations, qui l'ont troublé, entre autres celle de Vorsicht/Forsyth », recommande en conséquence de . Il avait écrit auparavant en 1921 un texte, , lu aux membres du « Comité secret » et retrouvé dans ses manuscrits, qui fut publié en 1941 sous le titre "Psychoanalyse und Telepathie" dans les "Gesammelte Werke". L'article « Rêve et télépathie », écrit probablement en décembre 1921 et paru en 1922 dans la revue "Imago", avait pour sous-titre « Conférence à la Société psychanalytique de Vienne », bien que les "Minutes de Vienne" n'en aient pas gardé la trace ; cette conférence ne fut sûrement pas prononcée. « La signification occulte des rêves » (1925), troisième partie de "Quelques suppléments à l'ensemble de L'Interprétation du rêve", avait été publié à la fois dans les "Gesammelte Schriften", dans l"'Almanach 1926" (paru en septembre 1925) et dans "Imago". Si Freud s'est intéressé à l'occultisme comme nombre de ses contemporains, psychologues et autres savants, tels Pierre et Marie Curie, il a, d'après Roudinesco et Plon, et ce qu'il nommait , ce qui ne l'a pas empêché d'être fasciné par ce domaine et d'entretenir une ambivalence prononcée. Selon le psychiatre et psychanalyste Michel Picco, , intérêt à son époque et dont fait également part, de son côté, Pierre Janet par exemple. En revanche, Ernest Jones la rejetait, et Freud lui écrit en 1926 : . L'ambivalence de Freud à l'égard de l'occultisme, la télépathie surtout, se constate chronologiquement, comme le rapportent Roudinesco et Plon : il y est d'abord pressé par Jung, en 1909, le réprouve, puis par Ferenczi en 1910, qu'il encourage un temps, avant de condamner en 1913, au nom de la science, les expériences télépathiques ; puis de 1920 à 1933, dans le contexte de l'institutionnalisation de l'IPA, mouvement qui met en son cœur le rationalisme positiviste et l'idéal de scientificité, au risque du scientisme, il s'y intéresse à nouveau et horripile Jones qui propose de bannir des débats de l'IPA toute recherche sur l'occultisme, ce que Freud accepte tout en rédigeant deux textes en 1921 et en prononçant une conférence en 1931 sur le sujet. Freud donne des exemples de situations prétendument occultes ou télépathiques en en proposant un interprétation proprement psychanalytique. Cette ambivalence n'est pas à comprendre comme un rejet ou une adhésion à la télépathie pour elle-même mais comme le moyen d'une opposition passive de Freud à la politique de Jones qui soutient les Américains partisans d'une psychanalyse médicalisée, scientiste, contre l'analyse profane. Ainsi, selon Roudinesco et Plon, Freud feint de croire à la télépathie, et en donne une interprétation psychanalytique au regard de la notion de transfert. Il est ainsi possible, selon Picco, qu'il emploie le terme par défaut d'un plus approprié. Critiques. Dissidences et schismes de la psychanalyse. Les principales querelles aboutissent, au cours du développement du mouvement psychanalytique, à des scissions majeures, d'abord celle d'Alfred Adler (qui fonde ensuite la psychologie individuelle), puis celle de Carl Gustav Jung, initiateur de la psychologie analytique. Les points théoriques de désaccord sont nombreux, liés à la libido, au complexe d'Œdipe ou encore à l'importance de la sexualité dans le psychisme. Ces controverses se situent dès les années 1907 et 1911. Nommés les « apostats » par Freud, Adler, le premier, puis Jung ensuite, s'opposent à la conception de la libido comme essentiellement d'origine sexuelle et qu'ils voient plutôt comme une « pulsion de vie » au sens large. Freud craint par-dessus tout que les dissidents ne détournent la théorie et la pratique psychanalytique. Paul-Laurent Assoun souligne en effet que tous deux disent vouloir remettre la psychanalyse dans la bonne direction, et la sauver du culte de la personnalité formé autour de Freud. La concurrence entre les diverses écoles, principalement entre le cercle viennois et l'école de Zurich de Jung, porte le coup le plus rude au jeune mouvement psychanalytique, et ce dès 1913, avec la défection de Jung. Les autres divergences internes se rapportent par exemple à la précocité du Surmoi telle que la décrit Melanie Klein ou Donald Winnicott, avec qui, en s'émancipant de l'héritage freudien tout en intégrant ses apports, commence le post-freudisme. L'opposition avec Wilhelm Reich porte elle essentiellement sur des différences foncières concernant la pratique de la cure psychanalytique, notamment à propos de la règle d'abstinence. Sur Freud et les "Freud Wars". Longtemps, la plupart des ouvrages parlant de Freud se référaient presque exclusivement à la biographie d'Ernest Jones, critiquée pour ses aspects hagiographiques. Après les études critiques de Pierre Janet, de Karl Popper, de nouvelles recherches historiques ont été initiées par Henri Ellenberger. Des ouvrages ou dossiers d'autres auteurs plus critiques, voire nettement polémiques, se sont ensuivis, tels "Le Dossier Freud : enquête sur l'histoire de la psychanalyse" (2006) de Mikkel Borch-Jacobsen et Sonu Shamdasani, "Le Livre noir de la psychanalyse" (2005), "Le Crépuscule d'une idole" (2010) de Michel Onfray, ou encore "Mensonges freudiens" (2002) de Jacques Bénesteau. Une très grande collection des écrits originaux et des lettres freudiennes se trouve dans la "" de la Librairie du Congrès à Washington. Sur Freud en son temps. De son vivant, Freud a eu à faire face à des critiques. Des contemporains, comme Karl Kraus et Egon Friedell, portèrent diverses critiques ; Kraus récuse l'interprétation sexuelle psychanalytique en littérature alors que Friedell qualifie la psychanalyse de « pseudo-religion juive » et de « secte ». Paul Roazen publie quant à lui une étude sur les relations complexes entre Freud, Victor Tausk et Helene Deutsch. Tausk avait demandé une analyse à Freud, qui la lui avait refusée, avant de l'adresser à Deutsch. Cette dernière était alors elle-même en analyse chez Freud. Cette situation est abordée par Roazen, qui la met aussi en rapport avec les autres causes du suicide de Tausk. "Freud Wars" aux États-Unis. Selon l'anthropologue Samuel Lézé, les "Freud Wars", qu'il observe comme , sont une expression courante dans la Presse aux États-Unis entre 1993 et 1995 : il s'agit d'une dont curieusement l'objet , alors que pourtant, précise Lézé, la psychanalyse depuis au moins le milieu des années 1980 et que les facultés de psychologie ne l'enseignent plus. Un "remake" a lieu en France dix ans plus tard entre 2005 et 2010 à l'occasion du "Livre noir de la psychanalyse" et surtout du "Crépuscule d'une idole. L'affabulation freudienne" de Michel Onfray. D'après Samuel Lézé, l'enjeu de cette « guerre des psys » dans les médias français et les essais critiques est politique en fait : . Dans un compte-rendu de l'ouvrage de Lézé, Yannis Gansel affirme qu'. D'après Gansel, Lézé décrit dans son livre . Le mouvement des anti-freudiens opère en effet sous deux aspects : celui d'une critique rationnelle (un débat) et celui d'une dénonciation morale correspondant à une dégradation. Pour Yannis Gansel, l’originalité du livre consiste à . Les critiques théoriques. En France, la critique théorique est représentée par un ouvrage collectif et multidisciplinaire, "Le Livre noir de la psychanalyse" (2005), corpus d'articles publié sous la direction de Catherine Meyer, et qui reflète plusieurs décennies de critiques à l'encontre de Freud. La plupart des points critiques sont abordés, de la scientificité de la psychanalyse à la personnalité de Freud, en passant par les contradictions, la fabrication suspectée de cas psychopathologiques et de fausses guérisons. Se basant sur des études épidémiologiques, selon ces auteurs la faible efficacité thérapeutique de la méthode psychanalytique par rapport à d'autres techniques psychothérapeutiques, comme les thérapies cognitivo-comportementales est mise en évidence. Cet ouvrage a suscité des réactions dans divers milieux psychiatriques, thérapeutiques et psychanalytiques, relançant ainsi des conflits d'intérêts sous-jacents. En réponse à ces critiques, la psychanalyste Élisabeth Roudinesco a dirigé un ouvrage intitulé "Pourquoi tant de haine ? : anatomie du Livre noir de la psychanalyse" (2005). D’autres psychanalystes et psychiatres ont critiqué l'ouvrage. Frank Sulloway a développé quant à lui dans "Freud biologiste de l'esprit" (1979) la thèse selon laquelle Freud aurait produit un modèle « cryptobiologique » dans le but de masquer ses théories biologiques reconnues comme déjà obsolètes à son époque par certains de ses partisans, tel Ernst Kris, afin de présenter la psychanalyse comme une théorie révolutionnaire et originale. Jacques Lacan, quant à lui, estime que l’œuvre de Freud est à comprendre sous l'angle du langage et non sous celui de la biologie, affirmant notamment que « l'inconscient est structuré comme un langage ». L'essayiste et polémiste français Michel Onfray publie en avril 2010 "Le Crépuscule d'une idole : l'affabulation freudienne", dans lequel il reproche notamment à Freud d'avoir généralisé son cas personnel, d'avoir été un médecin médiocre, d'avoir développé la théorie psychanalytique sans suivre une démarche scientifique, en mentant sur ses observations et sur les guérisons obtenues, aux seules fins d’assurer sa réussite personnelle et financière, et d'avoir fondé la communauté psychanalytique sur des principes quasi-sectaires. Il souligne également que Freud a signé une dédicace à Benito Mussolini et qu'il a écrit "L'homme, Moïse et le monothéisme" en plein essor du nazisme et de l'antisémitisme. L'intéressé reprend les critiques du freudisme connues et développées avant lui, en utilisant une grille d'interprétation d'inspiration nietzschéenne. En novembre 2010, il publie "Apostille au crépuscule : pour une psychanalyse non freudienne", où il propose un modèle psychologique permettant de « dépasser » la psychanalyse freudienne. Le livre du neurologue Lionel Naccache, "Le nouvel inconscient", montre clairement comment les processus cérébraux correspondent à ce qui, chez Freud, est l’inconscient en tant que « représentation non représentée ». Par contre, remarque le philosophe Yvon Brès, Naccache . Pour Jacques Galinier, les travaux de Lionel Naccache sur les phénomènes d'amorçage sémantique inconscient ont démontré l'existence d'un inconscient cognitif qui ne saurait être assimilé à l'inconscient freudien. La théorie freudienne du rêve centrée sur la satisfaction hallucinatoire du désir dissimulé grâce aux mécanismes de déplacement, condensation et dramatisation a aussi été critiquée, tant dans la fonction attribuée aux rêves que dans son processus. Selon le psychologue, sociologue et essayiste G. William Domhoff et le psychologue cognitiviste David Foulkes, l'idée selon laquelle l'association libre permet d'accéder au contenu latent du rêve est infirmée par des travaux de psychologie expérimentale qui ont conclu au caractère arbitraire de cette méthode. D'après le neuroscientifique Winson en 1985, l’association libre de Freud est une méthode valide qui permet l'accès au contenu latent. Le neuropsychiatre Allan Hobson a critiqué l’ouvrage de Domhoff en lui reprochant de méconnaître les mécanismes neurobiologiques qu'il étudie et remarque que Foulkes partage des points de vue avec la théorie de Freud, notamment qu'il existe un contenu latent et un contenu manifeste qui en est la transformation, et que cette transformation relève d'un langage à déchiffrer. Selon le neurologue Bernard Lechevalier, il y a compatibilité entre la conception psychanalytique du rêve et les neurosciences. Le chercheur en neuroscience et prix Nobel Eric Kandel a émis quelques critiques vis-à-vis de la psychanalyse mais concède qu'elle « représente encore la conception de l'esprit la plus cohérente et la plus satisfaisante intellectuellement ». Les critiques religieuses et politiques. En 1952, le pape Pie XII prononce un discours devant les participants du Congrès international de psychothérapie et de psychologie clinique qui reconnait la psychanalyse, mais relativise le pouvoir descriptif de ses concepts. Ainsi, si la psychanalyse décrit ce qui advient dans l'âme, elle ne peut prétendre décrire et expliquer ce que l'âme est pour autant. Avant la Révolution de 1917, la Russie est le pays où Freud est le plus traduit. Après la prise de pouvoir par les bolcheviks, il y eut des rapprochements entre la pensée de Freud et celle de Karl Marx. Cependant, par la suite, explique Eli Zaretsky. En 1949, Guy Leclerc publie dans "L'Humanité" l'article « La psychanalyse, idéologie de basse police et d'espionnage », dans lequel il considère la psychanalyse comme une science bourgeoise destinée à asservir les foules. Dès lors, après en avoir accepté l'importance avec le freudo-marxisme, le Parti communiste français commence sa campagne contre la psychanalyse, et plus largement contre la psychanalyse en France. Les critiques épistémologiques. Une partie des critiques envers Freud et la psychanalyse porte sur la question de sa scientificité. Ludwig Wittgenstein a par exemple dit : Le philosophe Michel Haar ("Introduction à la psychanalyse. Analyse critique", 1973) et les cognitivistes Marc Jeannerod et Nicolas Georgieff dressent le panorama de ces critiques tenant de l'épistémologie. Les critiques de Freud, à son époque et aujourd'hui, mettent en effet en cause tantôt la scientificité de sa démarche, sa méthodologie (notamment le faible nombre de cas, ou l'interprétation littéraire), son aspect hautement spéculatif également, son incohérence théorique, l'absence de validation expérimentale ou d'études cliniques rigoureuses (contrôlées et reproductibles), des manipulations de données et de résultats cliniques et thérapeutiques. Dans "La Psychanalyse à l'épreuve" (1992), Adolf Grünbaum explique que Freud ne démontre rien sur le plan scientifique : Bien que critique envers la psychanalyse, Grünbaum s'oppose par ailleurs à un autre détracteur des travaux de Freud : Karl Popper. Ce dernier explique que : Le critère de sa falsifiabilité (sa « réfutabilité » en d'autres termes) occupe l'essentiel de leur débat. Contrairement à Popper qui regarde la psychanalyse comme non réfutable donc pseudo-scientifique, Grünbaum pense que certaines assertions psychanalytiques peuvent être testées, comme le lien supposé par Freud entre paranoïa et refoulement de l'homosexualité (si le second était bel et bien la cause nécessaire de la première, des sociétés moins homophobes devraient connaître une prévalence moins importante de paranoïa). À l'endroit de la notion de « falsification » chez Popper qui lui ferait rattacher la psychanalyse , le psychanalyste Jean Laplanche objecte que Freud . Selon lui, c'est , que Freud . Laplanche évoque aussi l'accueil par Freud de l'objection de Melanie Klein, qui « falsifie » la théorie freudienne de l'héritage chez un individu de la sévérité du Surmoi des parents, à laquelle elle oppose au contraire son observation clinique . Jean Laplanche s'inscrit ainsi en faux contre l'assertion selon laquelle l'interprétation psychanalytique . Selon Vannina Micheli-Rechtman, les critiques de Grünbaum et Popper ne prennent pas assez en compte l'épistémologie propre à la psychanalyse. Ainsi, la psychanalyse est avant tout « une pratique de communication et une pratique de soin », selon Daniel Widlöcher, qui rappelle cette phrase de Lacan « "la psychanalyse est une science des actions humaines au même titre qu’un certain nombre de sciences des actions". C'est-à-dire que c’est une pratique d’actions (on fait quelque chose avec quelqu’un d’autre) et de cela on déduit des généralités qu’on va élaborer comme des modèles. La psychanalyse construit des modèles » descriptifs au même titre que la science économique ou d'autres sciences sociales, comme l'ethnologie. Elle n'en adopte pas moins la même rationalité que la rationalité scientifique, comme le montre, par exemple, Jean-Michel Vappereau. Mais là où les sciences expérimentales évacuent la subjectivité pour atteindre l'objectivité, la psychanalyse s'attache à ce qui est propre à structurer la subjectivité, à travers un objet (l'inconscient) et un protocole (le « divan ») qui lui sont propres et parfaitement rationnels. Œuvres. Traductions. La toute première traduction d'un texte de Freud en français est celle de "L'Intérêt de la psychanalyse", publié en 1913 à Bologne dans la revue italienne "Scientia". Le texte y est . Par la suite, les premières traductions d'articles de Freud en français l'ont été notamment par Henri Hoesli pour la "Revue française de psychanalyse". Les traductions de livres, parfois recueils d'articles, sont éditées par de nombreux éditeurs : Payot, Gallimard, PUF, Alcan. Anne Berman a été par exemple la traductrice de plusieurs ouvrages de Freud, d'Anna Freud et de Ernest Jones. Les Presses universitaires de France ont publié de 1988 à 2019 les "Œuvres complètes de Freud / Psychanalyse" sous la direction scientifique de Jean Laplanche. Cette traduction a été objet de controverses, du fait de ce que Laplanche définit comme , mais que ses contradicteurs voient comme un exercice formaliste, comportant des néologismes qui en rendent la compréhension difficile. Le volume "Traduire Freud" (1989) tente d'expliquer et de justifier les principes auxquels se réfère cette grande entreprise d'une nouvelle traduction des "Œuvres complètes de Freud" en France. En allemand, dix-sept volumes sont parus entre 1942 et 1952, intitulés "". En anglais, vingt-quatre volumes paraissent entre 1953 et 1974 sous le titre de "Standard Edition". En 2010, la situation des traductions des œuvres change radicalement puisque les écrits de Freud sont entrés dans le domaine public. Listes chronologiques des textes freudiens (choix). Les écrits de Freud traduits en français, présentés ci-dessous avec la première année de publication en langue allemande entre parenthèses, peuvent être répertoriés d'après plusieurs sources bibliographiques situées dans des ouvrages sur Freud, dont par exemple la bibliographie établie par Élisabeth Roudinesco et celle établie par Jean-Michel Quinodoz. Avec les nouvelles traductions aux PUF des "Œuvres complètes de Freud / Psychanalyse — OCF.P" (1988-2019), les écrits psychanalytiques de Sigmund Freud sont aujourd'hui disponibles en français dans leur totalité : l' "Index général" () comporte une « Bibliographie de Freud » complète des écrits de Freud traduits dans les vingt volumes précédents des "OCF.P" où ils sont classés dans l'ordre chronologique de leur rédaction en allemand et de leurs premières parutions. Écrits de la période prépsychanalytique. La période prépsychanalytique comprend les écrits de Freud datant de sa formation médicale et de ses premiers travaux. Freud dans la culture. Cinéma et Web. Dans son éditorial à un numéro de la revue "Topique" sur le thème de « L'image de la psychanalyse au cinéma », Sophie de Mijolla-Mellor s'interroge sur la manière dont le cinéma a pu , non sans avoir rappelé les craintes de Freud pour qui une représentation plastique des abstractions théoriques par l’art cinématographique ne pouvait être qu'infidèle. Alors qu'au début du , le statut social de la psychanalyse aussi bien que sa validité épistémologique sont remis en question, une étude des représentations de la psychanalyse au cinéma, dit-elle, . , mais c'est plutôt le qui se montre inventif pour restituer à l’écran la réalité d’une séance analytique. Ainsi s'expriment Yohan Trichet et Élisabeth Marion, qui ont choisi de commenter "Freud, passions secrètes" de John Huston (', 1962), "Princesse Marie" (2003) de Benoît Jacquot et "A Dangerous Method" de David Cronenberg (2011), où ces deux derniers cinéastes mettent en scène la pratique de Freud avec deux célèbres patientes devenues psychanalystes, Marie Bonaparte et Sabina Spielrein. Dans ' de Cronenberg, d'après un scénario et une pièce de théâtre de Christopher Hampton, Freud est incarné par Viggo Mortensen. Selon Francis Drossart, la de la relation entre Carl Gustav Jung et son analysante Sabina Spielrein, fut probablement à l’origine du texte de Freud sur « l'amour de transfert » (1915). Documentaires. "Sigmund Freud - l'invention de la psychanalyse" (1997) consiste en deux documentaires de 55' réalisés par Élisabeth Kapnist et écrits avec Élisabeth Roudinesco, diffusion sur France 3 et Arte. Dans "Sigmund Freud un juif sans Dieu" (2019), réalisé par David Teboul, le cinéaste s’est penché sur le cas Freud : son film . |
Systèmes de Positionnement Global |
Sociologie La sociologie est une discipline des sciences sociales qui a pour objectif de rechercher des explications et des compréhensions typiquement sociales, et non pas mentales ou biophysiques, à des phénomènes observables. La sociologie étudie les relations sociales qui produisent par exemple, selon les approches : des pratiques, des faits sociaux, des interactions, des identités sociales, des institutions sociales, des organisations, des réseaux, des cultures, des classes sociales, des normes sociales ainsi que de toutes ces entités qui n'ont pas d'explications purement biophysiques ou mentales et qui sont produites par les individus et groupes sociaux. Une explication sociologique est vue comme le produit d'une démarche scientifique, afin de rendre compte, expliquer ou comprendre un phénomène social. Le savoir sociologique, par sa méthodologie, se distingue du sens commun. L'analyse sociologique peut se placer à différentes échelles et contextes : échelle macrosociale, méso ou micro mais aussi à différentes époques. La recherche sociologique informe les personnalités politiques et les autorités publiques, les éducateurs, les travailleurs sociaux, les législateurs, et de nombreux autres organismes et décideurs ainsi que tous ceux intéressés par la résolution de problèmes sociaux. De nombreux sociologues sont aujourd'hui employés par des institutions publiques, des collectivités territoriales ou des entreprises privées à fin d'expertise ou de consultance. Origine du terme. Le terme de sociologie est forgé dans les années 1780 par Emmanuel-Joseph Sieyès à partir du préfixe du mot latin "socius" signifiant et du suffixe du terme grec ancien λόγος logos, signifiant . Il s'agit donc étymologiquement d'une science des relations. Le terme est popularisé par Auguste Comte dans le sens d'une à partir de 1839. L'emploi du mot sociologie serait né d'une petite querelle : Auguste Comte, secrétaire de Saint-Simon de 1817 à 1823, veut reprendre l'idée de création d'une science de la société. Il la nomme d'abord ; mais ce terme est déjà utilisé par d'autre, notamment par le Belge Adolphe Quetelet. Ce dernier l'utilise pour désigner des travaux statistiques portant sur les phénomènes sociaux. Quetelet sera plus tard considéré comme un précurseur de la démographie, discipline restant proche de la sociologie. S'il est possible de dater avec une relative précision l'invention du mot "sociologie", la production du premier cours de sociologie ou encore la constitution du premier département universitaire de sociologie, il est également toujours possible de reconnaître chez des auteurs antérieurs des formes de réflexion ou d'imagination sociologique. Histoire. Précurseurs. Dès l'Antiquité, le raisonnement sociologique se retrouve chez certains auteurs, comme Confucius ou Cicéron. Les Sophistes inaugurent dans le domaine social l'essentiel de la méthode scientifique, c'est-à-dire l'observation, la comparaison et la critique. Encore aujourd'hui, des ouvrages comme le "Ménon" de Platon ou "Éthique à Nicomaque" d'Aristote constituent des sources dans lesquelles puise la sociologie. Les origines de l'enquête statistique remontent au , lorsque Guillaume le Conquérant ordonne en 1086 l'organisation d'un recensement sur son territoire, publié sous le nom de "Domesday Book". Au , Ma Duanlin, un historien chinois, souligne l'existence de "dynamiques sociales" sous-jacentes à l'évolution historique dans son encyclopédie, Wenxian Tongkao. Selon Lilia Ben Salem, en rupture avec ses prédécesseurs, Ibn Khaldoun marque au un tournant en sociologie. Sa façon d'analyser les changements sociaux et politiques qu'il a observés dans le Maghreb et l'Espagne de son époque a conduit à le considérer comme un précurseur de la sociologie et démographie moderne bien qu'il fût inconnu des principaux fondateurs de ces disciplines. Son ouvrage majeur, la "Muqaddima", où il expose sa vision de la façon dont naissent et meurent les empires, est peut-être le premier à avoir un raisonnement scientifique et sociologique sur la cohésion sociale et le conflit social, effectivement les Romains pensaient ces concepts en termes politique, même si la distinction est ténue. Il conçoit une théorie dynamique de l'histoire et développe les concepts de changements et conflits sociaux. Il élabore également une dichotomie entre vie nomade et vie sédentaire. La "Muqaddimah" peut être considérée comme un ouvrage de sociologie générale, où y sont développés des thèmes aussi variés que la vie urbaine, la politique, l'économie et la connaissance. Son travail se base sur un concept central, celui de "'asabiyyah", traduit en français par « cohésion sociale », « solidarité de groupe » ou « tribalisme ». Cette cohésion sociale survient spontanément dans des communautés et peut-être intensifiée par la religion. Il analyse la manière dont ce qui fait la cohésion politique, économique, psychologique, sociologique du groupe est aussi à l'origine de sa ruine, et sera alors remplacé par un autre groupe lié de manière plus étroite. C'est à partir du que se constitue le terreau fertile d'un mode d'interrogation de la société, qui donnera par la suite lieu à la sociologie. Les bouleversements scientifiques qui s'opèrent grâce aux découvertes de Kepler, Galilée et Copernic, entre autres, conduisent, aux côtés du mouvement humaniste qui place l'Homme au centre des débats, à renverser l'ordre établi et à enclencher une « révolution qui modifia les fondements et les cadres mêmes de notre pensée et dont la science moderne est à la fois la racine et le fruit ». La remise en cause de l'ordre divin va donc, au , ouvrir le champ à de nombreuses théories tâchant de comprendre les fondements des sociétés. C'est le cas de tous les théoriciens du contrat social, que ce soit John Locke, Jean-Jacques Rousseau ou Thomas Hobbes. Ils pensent alors l'origine de la société et de l'État comme un contrat originaire entre les hommes, par lequel ceux-ci acceptent une limitation de leur liberté en échange de lois garantissant la perpétuation du corps social. Les premières tentatives d'étudier la société — et sa diversité — comme un objet d'analyse à part entière, se retrouvent chez Montesquieu dans "De l'esprit des lois" et chez Giambattista Vico dans "La Science nouvelle". Ces auteurs posent les bases théoriques et problématiques de la science de la société humaine, et de la relation entre l'action individuelle, les structures sociales et le contexte historique. Peu à peu se développe une démarche qui vise à expliquer les phénomènes sociaux en se détachant d'une vision fataliste, qui décrète l'accomplissement inéluctable d'une destinée. Le siècle des Lumières voit l'émergence de théories qui cherchent à expliquer et comprendre les actions individuelles et leurs conséquences, comme dans le "Traité de la nature humaine" de David Hume ou les "Recherches sur la nature et les causes de la richesse des nations" d'Adam Smith. C'est en 1780 que le terme sociologie naît, sous la plume de l'essayiste français Emmanuel-Joseph Sieyès. Dérivé du latin "socius" (compagnon, associé), accompagné du suffixe -"ology" (l'étude de), provenant du grec λόγος, "lógos" (savoir, connaissance). En 1838, Auguste Comte donnera au terme le sens qu'on lui attribue aujourd'hui. Harriet Martineau traduisit certaines des œuvres d'Auguste Comte en anglais et publia le premier traité de méthodologie en sciences sociales. Institutionnalisation. École française de sociologie. En 1903, Henri Hauser affirmait que « les sciences sociales sont terriblement à la mode. C'est la tarte à la crème de toutes les réunions mondaines, de tous les discours, de tous les journaux, et nul n'a d'esprit s'il n'est sociologue. » En effet, en quelques années seulement, la sociologie a su se faire une place dans le champ intellectuel français, avec des figures comme Émile Durkheim, René Worms ou Gabriel Tarde. Pour Charles-Henry Cuin et François Gresle, l'institutionnalisation de la sociologie en France tient de plusieurs facteurs : d'un côté, la refonte de l'enseignement supérieur dans les années 1880 ouvre la voie aux sciences sociales ; de l'autre, les initiatives d'acteurs privés. Dans les années 1880 et jusqu'au début des années 1890, il n'existe encore aucun organe de diffusion strictement destinée aux théories sociologiques. C'est René Worms, normalien réputé, tenant de la théorie organiciste, qui constituera les premières institutions de la sociologie : il crée en 1893 la "Revue internationale de sociologie", en 1894, l'Institut international de sociologie et la collection d'ouvrages « Bibliothèque sociologique internationale » chez l'éditeur Giard & Brière, et en 1895, la Société de sociologie de Paris. Malgré cela, René Worms ne contribuera que très peu à l'ancrage de la sociologie : en s'assurant le concours d'universitaires confirmés — provenant donc d'horizons variés —, il ne tient pas compte des récentes avancées dans le domaine, et ses sociétés s'en retrouvent peu pertinentes, d'autant plus que se constituent au même moment dans les universités des équipes nationales de recherche aux perspectives théoriques plus abouties que les siennes. En France, c'est Émile Durkheim, notamment "via" la revue "L'Année sociologique", qui devient la figure de proue de la discipline. Émile Durkheim. Incontestablement, Émile Durkheim s'est imposé comme le chef de file de la sociologie en France, si bien que l'école de Durkheim domine jusqu'à la Première guerre mondiale la sociologie française. Il propose en effet une théorie englobante de la sociologie : un objet, les faits sociaux, et une méthode, qu'il expose dans "Les Règles de la méthode sociologique". Tenant d'une conception holiste de l'étude des phénomènes sociaux, il considère que le social existe indépendamment de la conscience que nous en avons. Le fait social est donc un fait extérieur à la volonté des individus, et irréductible à une étude individuelle. Après des études de philosophie à l'école normale supérieure, il obtient une bourse d'agrégé et suit les cours de Wilhelm Wundt à l'université de Leipzig. De retour en France, il enseigne à l'université de Bordeaux la pédagogie et la science sociale, et y introduit pour la première fois dans une université française la sociologie. Dès son premier ouvrage, "De la division du travail social" (1893), Durkheim propose une méthode d'approche systématique des faits sociaux. Après "Les Règles de la méthode sociologique" (1895), Durkheim donne dans "Le Suicide" (1897) une démonstration éclatante de l'intérêt et de la portée du rationalisme expérimental en sociologie. En 1896, il fonde avec Célestin Bouglé la revue "L'Année sociologique", autour de laquelle va se constituer l'école durkheimienne et qui devient l'organe principal de publication des productions en sciences sociales à cette époque. Les deux fondateurs, "via" cette revue, se posent alors pour objectifs d'asseoir la discipline sur des bases scientifiques et d'y réunir les tenants de la sociologie française. Autour de la revue de Durkheim et Bouglé se greffent progressivement d'autres universitaires : Marcel Mauss, François Simiand, Maurice Halbwachs, Georges et Hubert Bourgin ou encore Paul Fauconnet. Ensemble, ils participeront à la construction de la discipline en France. École allemande de sociologie. La sociologie allemande connaît une destinée différente et indépendante de l'école française. Inspirés par une tradition philosophique riche, une grande partie des sociologues allemands s'oppose aux sociologues français par leur approche "compréhensive" de la sociologie, rejetant le déterminisme à la française. Pour eux, l'explication, c'est-à-dire l'objectivation des phénomènes sociaux par la recherche de leurs causes, n'est pas aussi décisive que la compréhension de ces phénomènes, du point de vue de l'acteur. Cette distinction est fondamentale en sociologie puisqu'elle est à l'origine de l'opposition entre holisme méthodologique, théorisée par Émile Durkheim, et individualisme méthodologique, portée par Max Weber. À l'inverse de la sociologie française, la sociologie allemande est moins marquée par une personnalité dominante, même si Max Weber est aujourd'hui considéré comme son principal fondateur. D'autres figures comme Ferdinand Tönnies et Georg Simmel étaient également reconnues à leur époque. La sociologie se structure plus tardivement en Allemagne qu'en France, notamment parce qu'elle reste longtemps associé à la science politique : le terme "sociologie" n'apparaît qu'à partir des années 1880 et il faut attendre le début du siècle pour que s'institutionnalise la discipline. Malgré cela, la sociologie est loin d'être inexistante dans l'Allemagne de Bismarck. En 1877, la revue publie déjà des articles d'Herbert Spencer, d'Auguste Comte ou de John Stuart Mill. En 1887, Ferdinand Tönnies publie "Communauté et Société", considéré comme le premier ouvrage de sociologie en Allemagne. Il y décrit le passage des sociétés occidentales des communautés ("Gemeinschaft") aux sociétés ("Gesellschaft"). Mais ce n'est réellement qu'au début du que la sociologie prend forme en tant que discipline en Allemagne. En 1904, la revue "Archiv für Sozialwissenschaft und Sozialpolitik", créée par Edgar Jaffé, Werner Sombart et Max Weber, est la première revue de sciences sociales et politiques d'Allemagne. En 1909, Weber, Tönnies et Simmel créent la Société allemande de sociologie. Max Weber. À l'instar de Durkheim en France, Max Weber a réussi à construire un programme scientifique de constitution de la sociologie, en établissant des fondements épistémologiques et pratiques à la discipline. Dans "Économie et Société", il s'attache à définir les « concepts fondamentaux de la sociologie ». Il définit, tout comme Durkheim, un objet et une méthode propres à la sociologie : d'une part l'activité sociale, et de l'autre, la méthode compréhensive, indispensable pour saisir le sens que les individus donnent à leurs actions. Son œuvre donne naissance à l'individualisme méthodologique, qui vise à expliquer les phénomènes collectifs à partir des propriétés et des actions des individus et de leurs interactions mutuelles. Au fondement de cette méthode, la rationalité des actions constitue un concept central qu'il s'efforce de développer dans ses ouvrages. Cette approche est mise en pratique dans "L'Éthique protestante et l'esprit du capitalisme", ouvrage dans lequel il soutient que la Réforme protestante est à l’origine de l’éthique du travail du capitalisme. La contribution de Max Weber à la sociologie est considérable : on lui doit notamment les concepts de neutralité axiologique et d'idéal-type en épistémologie des sciences sociales. Parmi ses nombreux sujets d'étude, on peut citer la bureaucratie, l'État (notamment le monopole de la violence), la sécularisation et la rationalisation des sociétés occidentales, les classes sociales, les religions et la musique. Scientificité. Les sociologues n'utilisent pas tous les mêmes théories et méthodologies, et parfois ils ne précisent pas explicitement ce qu'ils retiennent et ce qu'ils rejettent des plans méthodologiques. Les sociologues ne s'entendent pas entre eux, en ce qui concerne la scientificité de la sociologie. Comme les courants en sociologie ne recherchent pas tous la scientificité et la réfutabilité, le terme de discipline est plus approprié que celui de science, selon Jacques Coenen-Huther. Cependant, plusieurs sociologues se réclament d'une démarche scientifique. Recherche de preuve. Comme la sociologie a pour objet des éléments historiques qui se déroulent dans le temps, la faculté de reproduire ces événements, donc la reproductibilité, n'est pas possible. Mais la reproductibilité n'est pas le seul critère de scientificité. La notion de preuve est indéterminée en sociologie, cette science ne peut faire état de démonstrations déductives. La notion de preuve a été mise en place lors de la fondation de la discipline par Émile Durkheim en corrélation avec le modèle des sciences exactes. Bien que depuis il soit établi que le monde social ne se comporte pas comme le monde physique, cette recherche n'a pratiquement pas évolué. La preuve en sociologie se fait classiquement à partir des conceptions de Durkheim ou de Weber. Durkheim considère les faits sociaux comme des choses. Pour établir des causalités, alors que la réalisation d'expériences est impossible, on compare les cas où ces faits sociaux sont présents ou absents au même moment, en utilisant les statistiques. Weber voit la sociologie comme la distinction d'activités sociales, activités qui se caractérisent par leur sens subjectif. Ces activités se classent par des Idéaux-types, qui ressemblent à des modèles de subjectivité pour le sociologue comme pour les personnes engagées. Ces idéaux-types permettent d'opérer des comparaisons, à l'aide desquelles il est possible de construire des preuves. Ces deux conceptions ne sont pas aussi séparées que on pourrait le croire, ni dans la conception de leur auteur, ni dans leur pratique, même si leur opposition structure la sociologie. Dans "Le métier de sociologue - Préalables épistémologiques", Pierre Bourdieu, Jean-Claude Chamboredon et Jean-Claude Passeron présentent une approche de la preuve qui ressemble à celle de Durkheim, en y apportant des éléments pour réduire la subjectivité. Ils proposent une démarche en trois étapes : réduire les préjugés par la réflexivité (sciences sociales) et faire une première exploration ; construire son raisonnement, acceptant ses présupposés et ses failles dans l'objectivité ; constater par l'examen des faits. Dans la seconde moitié du , se développe aux États-Unis l'idée que la preuve en sociologie est intérieure à un groupe social ; elle n'est pas à construire par une explication, ou à révéler par une description. Cette conception vient des milieux de l'interactionnisme (pour l'étude des interactions sociales) et de l'ethnométhodologie (comment les individus font pour comprendre leur ordre social). Mais alors il devient difficile de généraliser les phénomènes décrits, parce qu'ils deviennent contextualisés à l'extrême. Jean-Claude Passeron, traitant de ce problème de la généralisation, affirme que la sociologie ne peut se contenter de comprendre le monde social, mais qu'elle doit développer son propre modèle de raisonnement. La preuve y a un ancrage empirique, mais aussi spatial et temporel. Une preuve , dit-il. Elle se vérifie par des comparaisons permanentes, le contexte toujours mouvant limitant la faculté de généralisation, sans la rendre impossible. La sociologie est une science empirique allant et venant entre la description et le raisonnement. Théories. La sociologie est une discipline aux multiples paradigmes. Les paradigmes, courants, approches, écoles, ou mouvements sociologiques forment autant de pratiques différentes et d'opinions divergentes sur la nature de la sociologie ou de certains de ses aspects. L'explication des phénomènes sociaux peut se faire de nombreuses manières en apportant des explications équivalentes et complémentaires. S'il y a aujourd'hui plusieurs traditions sociologiques, aucune ne peut prétendre résumer l'activité sociologique à elle seule, puisque chaque cadre théorique ne permet de voir qu'une simple partie de la complexité de la réalité, et donc il est impossible de décrire l'activité sociologique de façon consensuelle. En effet, à l'inverse des sciences « dures » où les paradigmes se succèdent plus ou moins les uns après les autres à la suite d'une « révolution scientifique », les révolutions sociologiques multiplient le nombre de courants théoriques, sans discréditer l'ensemble des autres, bien qu'un cumul et une sélection s'opère par le tri que font les sociologues en reprenant ou non un courant. En ce sens, Alain Caillé écrit : « il est déconcertant, et quelque peu décourageant, de constater que, plus que tout autre type de savoir institué, la discipline sociologique apparaît chaque jour davantage éclatée, tiraillée entre de multiples écoles et courants de pensée irréductibles. […] La tentation est donc de plus en plus forte, pour un nombre croissant de sociologues, de renoncer à tout espoir de synthèse, ou, plus modestement, de repérage des traits généraux de la discipline ». De nombreux sociologues se sont adonnés à la tâche d'établir une typologie des paradigmes en sociologie. Pour Randal Collins, dont la distinction est présente dans de nombreux manuels de sociologie et sites de vulgarisation de la pensée sociologique américains, celle-ci se compose principalement de trois paradigmes : le fonctionnalisme, la théorie du conflit et l'interactionnisme symbolique. George Ritzer propose une autre classification en trois paradigmes : celui des faits sociaux, celui de la définition sociale et celui du comportement social. La proposition de Ritzer se rapproche de la dichotomie classique entre le holisme qui met la focale sur le groupe et l'individualisme qui la place sur l'individu. Entre les deux, l'interactionnisme accentue la relation entre l'individu et le groupe. Claude Dubar établit une autre typologie en quatre grands types de courants : les sociologies de la détermination sociale, les sociologies de l'action, les sociologies de la construction sociale et les sociologies de l'identité. Individu et société. Une première manière de présenter les courants sociologiques peut se faire à partir des paradigmes macrosociologique et microsociologique. Marquée par la confrontation entre les sociologies d'Émile Durkheim et de Max Weber aux fondements de la discipline, cette distinction repose principalement sur la relation entre individu et société et peut se comprendre comme l'opposition entre l'autonomie de l'agent libre et les contraintes des structures sociales dans l'explication des comportements sociaux. Au-delà de la distinction individu/société. Il faut toutefois bien comprendre que ces paradigmes ne représentent pas l'ensemble des courants sociologiques, dont certains se sont justement construits en creux de cette opposition. En outre, la floraison de multiples courants théoriques rend très compliquée leur classification. Principales théories sociologiques. La plupart des « grandes » théories sociologiques sont développées à partir de paradigmes sociologiques particuliers (et deviennent une large école de pensée en sociologie). Voici les principales théories sociologiques : Niveaux d'analyse. La question des niveaux d'analyse est l'objet de nombreux débats entre les sociologues. On distingue souvent trois niveaux selon le nombre de personnes impliquées dans les phénomènes étudiés : la microsociologie, la macrosociologie et la mésosociologie (niveau des organisations, des réseaux et de l'agentivité). Méthodologies. L'étude des phénomènes sociaux se fait par le biais d'un certain nombre d'outils qui permettent au sociologue d'appréhender des phénomènes dont l'échelle dépasse ses possibilités de perception individuelle, mais aussi de limiter les inductions qu'il fait au cours de son travail. Parmi ces outils peuvent être trouvé : le questionnaire, le sondage, l'observation "in situ" (participante ou non), l'entretien, le récit de vie, l'analyse de contenu, l'herméneutique, l'analyse statistique, l'analyse des réseaux sociaux, la recherche-action. Les chercheurs peuvent utiliser plus d'une méthode d'analyse. Méthodes quantitatives. Les études quantitatives permettent l'étude des ensembles, la comparaison des unités vis-à-vis de tendances générales. La précaution à prendre au préalable est de définir des unités comparables et les indicateurs, ainsi que de savoir précisément ce que le chercheur veut comparer. Les limites des études quantitatives sont atteintes lorsque le chercheur s'interroge sur un phénomène unique ou sur des trajectoires biographiques. Les statistiques et les sondages sont les outils principaux de l'étude quantitative. Méthodes qualitatives. Observation détaillée, description de situation, c'est-à-dire une analyse de discours, un outil de codage qui permettent de faire ressortir les typologies, des tendances générales, etc. Ainsi, parmi les méthodes utilisées dans l'enquête sociologique, on retrouvera notamment l'entretien et l'observation. Place des femmes en sociologie. Si les fondateurs reconnus de la sociologie sont souvent des figures masculines (Auguste Comte, Alexis de Tocqueville, Max Weber ou encore Émile Durkheim), certaines femmes ont aussi contribué au développement de la sociologie. documente ainsi l'apport de 51 figures féminines au développement de la sociologie. Elle met notamment en avant le rôle d'Harriet Martineau ou de Jane Addams. Charlotte Perkins Gilman publia de nombreuses études théoriques économiques et sociologiques sur la condition des femmes dans la société. Patricia Hill Collins est connue pour son travail sur l'intersectionnalité, un concept forgé par Awa Thiam, Sojourner Truth et bell hooks et popularisé par Kimberlé Williams Crenshaw. La sociologie de la ville de son côté doit beaucoup aux travaux des sociologues américaines Jane Jacobs et Saskia Sassen. Travaux et chercheurs marquants en sociologie. Dix livres marquants de la sociologie. Voici 10 des ouvrages ayant le plus marqué la sociologie selon un sondage de l'Association internationale de sociologie auprès de ses membres : |
San José San José est le nom en espagnol de . |
Sony , est une société multinationale japonaise basée dans l'arrondissement de Minato à Tokyo (Japon). Elle est active dans différents domaines tels que l'électronique, la téléphonie, l'informatique, le jeu vidéo, la musique, le cinéma et l'audiovisuel en général. Sony Corporate comprend plus de cent sociétés à travers le monde, dont Sony France SA, Sony Corporation of America, Sony Music Entertainment, Sony Pictures Entertainment, Sony Interactive Entertainment et est présent dans 183 pays (voir les ). Le groupe annonce le se renommer pour la date du 1ᵉʳ en « Sony Group » (ソニーグループ) au cours d'une restructuration complète, la division électronique gardera quant à elle le nom "Sony". Histoire. Origine. La société a été créée le sous le nom de par Masaru Ibuka, ingénieur, et Akio Morita, physicien, embauchant une vingtaine de personnes dans une société qui réparait des équipements électroniques et qui tentait de créer ses propres produits. Le nom Sony apparaît sur les produits dès 1955, mais la compagnie change de nom seulement en janvier 1958. Il provient du latin ' qui signifie "son", et de l'expression anglaise alors en vogue au Japon ', qui désigne une jeune personne à l'esprit libre et novateur. En 1954, la société commence à se développer vraiment : à cette date, elle obtient une licence pour la fabrication de transistors, composant électronique de base par excellence. Ainsi, les premiers transistors japonais sortent des usines de Sony cette année-là, 6 ans après leur invention aux États-Unis. L'année suivante, Sony commercialise le premier récepteur radio entièrement à base de transistors. Parmi les innovations importantes apportées par Sony, citons la cassette vidéo couleur en 1971, le magnétoscope Betamax en 1975, le Walkman en 1979, la disquette en 1984, un appareil photo électronique en 1981 Sony Mavica, le disque compact en association avec Philips en 1982, le premier caméscope grand public en 1983, la vidéo en 1988, le premier numériscope en 1985, ou encore le disque Blu-ray en 2006. En ce qui concerne les contenus, en 1987, Sony rachète CBS qui devient en 1991 , et en 1989 via . Sony est une société internationale. Akio Morita a estimé dès le départ que sa société devait considérer le monde entier comme marché et non se limiter au Japon. Il insista pour que le nom Sony apparaisse clairement sur tous les produits de la société. Sony Corporation dans les années 2000. En 2004, le chiffre d'affaires pour l'ensemble des sociétés et filiales de Sony Corporation à travers le monde s'élève à près de d'euros. La part de Sony dans le marché mondial de l'électronique grand public a été estimée en 2004 à plus de 14 % (devant Panasonic, Hitachi et Philips). En , Sony et Samsung créent une coentreprise de fabrication de dalle LCD en Corée baptisée S-LCD. Sony fabrique aussi des semi-conducteurs, mais uniquement pour ses propres filiales. En 2005, Sony pointe ainsi à la des vingt plus grands fabricants de semi-conducteurs. Le , l'Américain d'origine anglaise Howard Stringer est nommé président de Sony Corporation après la démission de Nobuyuki Idei. Le siège social se trouve à Tokyo au Japon. La société compte dans le monde au . En , Sony a annoncé un profit net record de près de 2,4 milliards d'euros à la suite d'une année 2007 marquée par les belles performances de ses produits phares (CyberShot, Bravia, PlayStation) mais aussi la vente des chaînes de productions à Nagasaki de processeurs Cell et RSX à Toshiba et la cession du "" de Berlin. Le , annonce une vague de licenciements touchant d'ici l'année 2010, ainsi que la réduction de 30 % des investissements en recherche et développement pour faire face à la crise économique et à la chute des ventes notamment dans le secteur des écrans LCD. Durant l'année 2009, Sony cherche à se relancer : l'entreprise continue notamment son plan de restructuration en créant le ', qui regroupe les activités image et son, et le ' qui rassemble les branches jeux vidéo, informatique et services en ligne de Sony. En décembre 2009, Sony prend une part de 7 % dans la filiale Sharp Display Product qui gère l'usine de fabrication de dalles LCD de dixième génération de Sharp à Sakai, part qui doit passer à 34 % en avril 2011. Ce nouvel investissement n'a cependant jamais eu lieu, et en mai 2012, Sony annonce se désengager totalement de cette filiale. L'an 2010 fut aussi une année charnière pour les différentes divisions du groupe ; la 3D « relief » fait une entrée massive dans le catalogue des produits grand public de la marque (Bravia, PS3, etc.), des accords sont passés avec Google pour intégrer Android à divers systèmes (smartphone Xperia, Google TV…), annonce du rachat à Toshiba de l'usine de semi-conducteur de Nagasaki, pour doubler ses capacités de production de capteurs photos, et Sony Computer Entertainment redevient rentable grâce à la baisse des coûts de fabrications des consoles PlayStation. Depuis 2010, la division électronique de Sony perd de l’argent. L'année 2011 est l'occasion pour Sony d'élargir sa plateforme , déjà bien implanté auprès du grand public, en lançant le service Qriocity, destiné aux divers produits de la marque, et notamment aux futures tablettes Android. Cette même année, le « PSN » est mis hors ligne par des attaques DDoS ainsi que l'attaque menée par Lulzsec durant près d'un mois. Sony découvre des failles exposant les données personnelles des utilisateurs. Les utilisateurs découvrent aussi les manigances de Sony réalisées à l'aide du PSN (comme la récupération automatique de données personnelles). Le service, après sécurisation, reprendra partiellement le . L'entreprise japonaise doit aussi faire face au tremblement de terre du , à l'incendie d'une de ses plateformes logistiques en périphérie de Londres, lors des émeutes d'août, ainsi qu'aux inondations en Thaïlande paralysant ses sites de productions d'appareils photo. Par ailleurs, le groupe annonce une restructuration de sa branche télévision, faisant suite à des ventes en baisse. Le , Sony annonce un accord avec Hitachi, Toshiba et INCJ portant sur la mutualisation des moyens de productions de dalles LCD de petites et moyennes tailles sous la forme d'une nouvelle entreprise appelée . Le groupe annonce, le , le rachat des parts du suédois Ericsson dans leur coentreprise Sony Ericsson. Le , Samsung Electronics annonce qu'elle rachète les parts de Sony dans leur coentreprise de fabrication de dalle LCD S-LCD pour de wons ( d'euros). Fin , Sony et Panasonic annoncent qu'ils développent désormais ensemble leurs techniques de façonnage des écrans OLED (diode électroluminescente organique). Fin , Sony annonce d'importantes pertes et une éventuelle restructuration. La direction décide de se concentrer sur les secteurs qui rapportent. Le , Sony annonce le rachat du service de jeu à la demande Gaikai pour un montant de de dollars (environ d'euros). En , Sony vend sa participation (de 13,14 %) dans DeNA pour 438 millions de dollars. En , Sony sort la PlayStation 4, sa nouvelle console de salon. Dès sa sortie, les ventes sont très importantes et en sachant qu'elle rapporterait 18 $ par unité aux États-Unis (coût de production d'environ 381 $ pour un prix de vente de 399 $), Sony espère redresser la barre sur le plan financier de sa division responsable des jeux vidéo (rentabilité de 18 dollars établie par une étude du cabinet IHS dévoilé le 20 novembre 2013). Le , le "Nihon Keizai Shinbun" annonce que Sony va céder ses activités japonaises d'ordinateurs (marque Vaio) au fonds pour 40 à de yens (300 à d'euros). Par ailleurs à la suite de cette cession le groupe prévoit de réduire ses effectifs de dont à l'étranger. va créer pour cela le juillet une nouvelle entreprise baptisée Vaio Corporation dont Sony sera actionnaire à hauteur de 5 %. En , Sony annonce son intention de scinder ses activités dans les capteurs électroniques dans le but de donner plus d'autonomie et de visibilité à ces activités. Le même mois, Toshiba vend ses activités dans les capteurs d'images à Sony pour 165 millions de dollars. En janvier 2016, Sony acquiert l'entreprise israélienne Altair Semiconductor pour 212 millions de dollars. En , Sony acquiert les 50 % qu'il ne détenait pas dans Sony/ATV Music Publishing pour 750 millions de dollars, société gérant les droits notamment des Beatles, de Taylor Swift ou d'Elvis Presley. En juillet 2016, Murata Manufacturing acquiert Sony Energy Devices, filiale de Sony produisant des batteries pour appareils mobiles. En mai 2018, Sony annonce l'acquisition d'une participation de 60 % dans EMI pour 2,3 milliards de dollars, faisant monter sa participation de 30 à 90 %. Domaines de production. Jeux vidéo. Sony se lance pour la première dans la conception d'une console de jeu, c'est alors qu'en décembre 1994 sort la Playstation, une console de jeux vidéo de la cinquième génération. La PlayStation originale fut la première machine de la gamme PlayStation, déclinée ensuite en PSone (une version plus petite et plus légère que l'originale). La Playstation 1 devient la console de jeu vidéo la plus achetée dans le monde de son temps, le , 12 millions de PlayStation se sont écoulées à travers le globe contre 7 millions de Saturn, sa principale concurrente de l'époque avec la Nintendo 64. La Playstation a permis de lancer des jeux vidéo cultes qui existent encore actuellement comme Silent Hill, Rayman, Grand Theft Auto, Resident Evil, Gran Turismo, Driver, Crash Bandicoot, Metal Gear Solid, Tomb Raider. Consoles de jeux vidéo de Sony Interactive Entertainment : Sony possède également des studios d'édition de jeux vidéo comme Unties ou Sony Marketing où des jeux sont publiés sur des consoles PlayStation, mais aussi sur d'autres plateformes comme Steam ou la Nintendo Switch. À l'approche de la sortie de la PS5, Sony propose une application qui permettra aux utilisateurs de contrôler leur console à distance. Robots. Le , Sony annonce en même temps que ses résultats financiers, l'abandon de tout développement concernant ses robots Aibo et Qrio pour se recentrer sur des segments plus rentables. Automobile. Le , Sony présente la Sony Vision-S un concept car de voiture 100 % électrique au Consumer Electronics Show (CES). Il est conçu en collaboration avec les fabricants de composants Magna International. En , Sony annonce le retour du concept Vision-S à Tokyo pour tester et améliorer ses capteurs et l'audio, ainsi que poursuivre son développement pour des essais routiers sur route. Le , Sony présente la Sony Vision-S 02 un concept car de SUV 100 % électrique au Consumer Electronics Show (CES). Actionnaires. Liste des principaux actionnaires au : Sites. Sony en Europe. Sony en France. Sony possédait deux usines en France. L'usine de Pontonx-sur-l'Adour dans les Landes, inaugurée le , comptait 330 employés en 2008. Spécialisée dans la fabrication de cassettes et bandes magnétiques, elle est fermée en 2009. L'usine de Ribeauvillé en Alsace a été construite en 1986 et a compté jusqu'à 1600 salariés dans les années 1990. Elle produisait lecteurs CD, autoradios, magnétoscopes, ordinateurs portables et téléphones mobiles. Après plusieurs plans sociaux l'usine compte désormais moins de 400 salariés et a été vendue au groupe Cordon Electronics en 2014. Elle est depuis spécialisée dans les activités de service après-vente des produits Sony, la production de sous-ensembles électroniques et l'ingénierie. Sony en Allemagne. L'usine Fellbach qui produisait des téléviseurs a fermé en 1999. Sony en Grande-Bretagne. L'usine Sony UK Technology Centre à Pencoed (Bridgend) fabrique des caméscopes professionnels ainsi que des ordinateurs Raspberry Pi. Il s'agit de la dernière usine appartenant à Sony en Europe. Sony en Espagne. L'usine Sony de Valdecavalls qui produisait des téléviseurs a été vendue en 2010 à l'équipementier automobile Ficosa. Sony en Hongrie. L'usine de Gödöllö qui produisait des lecteurs DVD et Blu-Ray a fermé en 2010. La production a été transférée en Malaisie. Sony en Slovaquie. L'usine Sony de Nitra qui fabrique des téléviseurs a été revendue en 2010 à Foxconn. Elle continue de fournir Sony en téléviseurs dans le cadre d'un contrat de sous-traitance. Sony en Asie. Sony au Japon. Sony possède plusieurs usines au Japon (liste non exhaustive) : Usines Sony Semiconductor Corporation : Usines Sony Global Manufacturing & Operations Corporation : Autres usines : Sony en Chine. Sony possède de nombreuses usines en Chine et fait également appel à des sous-traitants dans ce pays. Sony en Thaïlande. Sony possède une usine d'assemblage d'appareils photo reflex et bridge à Chonburi. Sony en Malaisie. Sony possède une usine à Bandar baru bangi près de Kuala Lumpur. Sony en Amérique du Nord. Sony aux États-Unis. L'usine de East Huntingdon (Pennsylvanie) produisait des téléviseurs LCD a fermé en 2009. Il s'agissait de la dernière usine de téléviseurs aux États-Unis. Communication. Activité de lobbying auprès de l'Assemblée nationale en France. Sony France est inscrit comme représentant d'intérêts auprès de l'Assemblée nationale. L'entreprise déclare à ce titre qu'en 2015, les coûts annuels liés aux activités directes de représentation d'intérêts auprès du Parlement sont inférieurs à 10 000 euros. Auprès des institutions de l'Union européenne. Sony Europe est inscrit depuis 2008 au registre de transparence des représentants d'intérêts auprès de la Commission européenne. Il déclare en 2015 pour cette activité 3 collaborateurs à temps plein et des dépenses d'un montant compris entre et . Voir aussi. Articles connexes. "Principaux concurrents en photographie :" Lumix Canon Fuji Nikon Olympus Pentax Sigma "Principaux concurrents dans la téléphonie mobile :" Nokia Samsung LG Motorola Apple HTC Toshiba Samsung Dell HP Acer Asus - Lenovo "Principaux concurrents dans les téléviseurs :" Philips Haier Toshiba Samsung LG Sharp Panasonic "Principaux concurrents dans les jeux vidéo :" Nintendo (console portable et console de salon) Microsoft |
Sed (informatique) |
Sénégal Le Sénégal, en forme longue la république du Sénégal, est un État d'Afrique de l'Ouest. Il est bordé par l'océan Atlantique à l'ouest, la Mauritanie au nord-nord-est, le Mali à l'est-sud-est, la Guinée au sud-est et la Guinée-Bissau au sud-sud-ouest. La Gambie forme une quasi-enclave dans le Sénégal, pénétrant à plus de à l'intérieur de ses terres. Les îles du Cap-Vert sont situées à de la côte sénégalaise. Le pays doit son nom au fleuve qui le borde à l'est et au nord et qui prend sa source dans le Fouta-Djalon en Guinée. Le climat est tropical et sec avec deux saisons : la saison sèche et la saison des pluies. Le Sénégal fait partie de la Communauté économique des États de l'Afrique de l'Ouest (CÉDÉAO). Intégré aux principales instances de la communauté internationale, le Sénégal fait également partie de l'Union africaine (UA), de la Communauté des États sahélo-sahariens (CES), de l'Organisation internationale de la francophonie et de l'Organisation de la coopération islamique. Depuis le , le président du pays est Macky Sall. Étymologie. L'explication de l'origine du nom Sénégal reste sujette à débats. Dès 1850, l'abbé David Boilat, quarteron et fils de signare (riche commerçante métisse), y voyait dans ses "Esquisses sénégalaises" une déformation de l'expression wolof "suñu gaal", c'est-à-dire « notre pirogue ». Très populaire, cette version est en général relayée par les médias et favorisée par les autorités dans la mesure où elle met en avant la solidarité nationale. Elle est pourtant contestée depuis les années 1960 et plusieurs autres étymologies ont été avancées, celle considérée actuellement comme la plus plausible rattachant le toponyme à une tribu berbère du Sahara, les Sanhadja (« Zenaga » en berbère). Géographie physique. Localisation, territoire et espaces maritimes. Le Sénégal est positionné par 14° de latitude Nord et 14° de longitude Ouest. Son territoire, plus précisément, est compris entre 12°8 et 16°41 de latitude nord et 11°21 et 17°32 de longitude ouest. S’étendant sur une surface de , le Sénégal dispose d'une importante façade maritime, à l'ouest, avec l'océan Atlantique ( de côtes). Le fleuve Sénégal constitue, au nord et au nord-est, une frontière avec la Mauritanie tandis qu'à l'est-sud-est il constitue une frontière avec le Mali. Au sud-est, la frontière avec la Guinée est traversée par les contreforts de la montagne du Fouta-Djalon, et celle avec la Guinée-Bissau, au sud-sud-ouest, est traversée par une forêt tropicale. Au sud, la Gambie forme une enclave et sépare la région de la Casamance du reste du pays. À l'ouest, la presqu'île du Cap-Vert constitue la partie la plus occidentale du pays et de toute l’Afrique continentale. Le Sénégal partage des frontières maritimes avec le Cap-Vert, la Mauritanie, la Gambie et la Guinée-Bissau. Et avec de côtes, la ZEE du Sénégal s'étend sur . Géologie, topographie et hydrographie. Aperçu géologique. Le bassin sédimentaire sénégalais constitue un segment du bassin sénégalo-mauritano-guinéen, vaste bassin côtier de marge continentale passive. Ce bassin sédimentaire est limité à l’est et au sud-est par la chaîne des Mauritanides et au sud, par le Bassin de Bové. Long de , dans son extension maximale (Mauritanie-Guinée-Bissau), ce bassin atteint une largeur maximale d’environ à la latitude de Dakar. Appuyé sur le Craton ouest-africain, le bassin côtier accumule une puissante série sédimentaire, d’origine principalement marine, qui débute au Trias-Lias et se termine au Miocène. Depuis la limite orientale du bassin, proche de Bakel, les dépôts s’épaississent vers l’ouest, d’abord progressivement, puis, passant une flexure localisée entre 15°30’W et 16°30’W (Spengler et al., 1966 ; Latil-Brun et Flicoteaux, 1986), leur épaisseur augmente rapidement, pour atteindre, à Dakar, des épaisseurs de plus de mètres à mètres (Castelain, 1965 ; Spengler et al., 1966). En Casamance, les profondeurs estimées dépasseraient huit mille mètres. Malgré le caractère apparemment subhorizontal des couches, les données de l'exploration pétrolière indiquent une forte structuration et une importante compartimentation des dépôts, dont le Horst de Diass donne un aperçu. Au Sénégal, la série du Mésozoïque-Cénozoïque affleurante se limite aux niveaux stratigraphiques les plus supérieurs, n’interceptant les roches d'âge Campanien que très marginalement alors que le Maastrichtien est mieux exposé dans le Horst de Diass, malgré la présence d’une puissante cuirasse latéritique. Les séries cénozoïques sont plus largement représentées à l’affleurement, exposées dans les falaises de la presqu'île du Cap-Vert et aussi dans la falaise à l’ouest et au sud de Thiès et marginalement dans le Sine, où elles sont surtout connues en puits. Les plus beaux affleurements se localisent à la marge passive atlantique. Au cœur du bassin, la série sédimentaire est masquée par la cuirasse latéritique fini-Tertiaire et, vers le nord-ouest, par les dépôts de sédiments éoliens quaternaires. Dans cette région centrale et orientale, les seuls affleurements tertiaires connus sont limités aux rives du lac de Guiers et à la haute vallée du fleuve Sénégal, dans la région de Matam, les grès du « Continental terminal » (renommé "Formation du Saloum" en 2009) venant largement sceller et masquer la série marine du Paléogène. En Casamance, il est connu, en forage, que la série marine monte jusque dans le Miocène. Du volcanisme du Miocène apparaît régionalement dispersé dans la presqu’île du Cap-Vert et la région de Thiès ; il est représenté par des laves et des tufs coiffés par la cuirasse ferrugineuse latéritique d'âge fini-Pliocène (Crévola, 1994). Le volcanisme quaternaire, polyphasé, est restreint à la pointe de la presqu’île du Cap-Vert. De récentes cartes géologiques du Sénégal (2009) ont été élaborées dans le cadre de la Coopération Sénégal – Union européenne, suivant les procédures du neuvième Fonds européen de Développement (FED) pour le compte de la Direction des Mines et de la Géologie (DMG) et existent aux échelles de 1/500 000 pour les trois quarts du territoire et de 1/200 000 le long du fleuve Sénégal. Hydrographie. Le fleuve Sénégal est long de . Il prend sa source en République de Guinée à d'altitude et sert de frontière entre le Mali et la Mauritanie avant de se jeter dans l'océan Atlantique à Saint-Louis. Également, le pays est en partie traversé par le fleuve Gambie. Le pays comprend aussi de nombreux lacs d'eau salée et d'eau douce dont les principaux sont le lac Rose et le lac de Guiers. Climat. Le climat est de type désertique dans le Nord, et de type tropical dans le Sud, avec : Les températures suivant les saisons : Sur le littoral, la mer (avec le courant canarien froid) apporte de la fraîcheur, les températures sont de l'ordre de à mais le centre et l'Est du Sénégal peuvent avoir des températures allant jusqu’à . Pendant l'hiver en Europe, le Sénégal devient une destination appréciée permettant de développer une activité touristique. Diversité climatique. De manière générale, l'Ouest du pays, représenté par le littoral, connaît des températures plus fraîches que l'Est grâce à l'océan. Le centre et l'Est du pays connaissent des températures continentales très chaudes pendant la journée, et fraîches la nuit. Du nord au sud, il existe cinq types de domaines climatiques appartenant au climat tropical : Environnement. Les problèmes environnementaux du Sénégal sont variés. Selon le CIA World Factbook, il existe des problèmes pressants en ce qui concerne : la diminution de la faune sauvage menacée par le braconnage, la déforestation, le surpâturage, l'érosion des sols, la désertification et la surpêche. En 2006, le Sénégal comptait encore 45,1 % ou environ . Déjà en 2007, on remarquait que le Sénégal perdait de forêt par an en raison de cultures sur brûlis due à la croissance rapide de sa population. Une des conséquences est qu'environ 13 % des terres, hébergeant environ 22 % de la population, sont désormais considérées comme dégradées. En 2016, on estimait que le couvert forestier de la Casamance aurait disparu d'ici à 2018 si l'exploitation forestière illégale se poursuivait. Les termites ("Macrotermitinae") sont redoutés au Sénégal où elles sapent la charpente des habitations, dévastent les champs de canne à sucre ou les cultures vivrières de mil et de sorgho. Dans l'objectif d'améliorer le traitement des déchets, le président Macky Sall a lancé en 2020 les « Cleaning Days », à savoir des journées mensuelles de nettoyage de la ville de Dakar. Réserves et parcs nationaux. Parcs et réserves naturels représentent 8 % du territoire national. Ils jouent un rôle majeur dans la préservation de l'environnement et contribuent de manière significative à l'essor touristique. Dans ces aires protégées on dénombre au total de mammifères et d'oiseaux. Le Sénégal compte six parcs nationaux : le Parc national du Niokolo-Koba dans l'Est du pays ; le Parc national des oiseaux du Djoudj ; le Parc national de la Langue de Barbarie dans la région de Saint-Louis ; le Parc national des îles de la Madeleine au large de Dakar ; le Parc national du delta du Saloum dans le Sud, ainsi que le Parc national de la Basse-Casamance, fermé depuis quelques années en raison des troubles dans la région. Le pays compte également une trentaine de réserves naturelles de plus petite taille, telles que le Parc forestier et zoologique de Hann à Dakar, la Réserve de Guembeul, la Réserve de Bandia, la Réserve naturelle de Popenguine ou l'Aire marine protégée de Bamboung. Axes de communication et transports. Réseau routier. Les réseaux sont plus denses à l'Ouest du pays le long du littoral mais la circulation des marchandises et des personnes est particulièrement difficile vers Dakar et la presqu'île du Cap-Vert. Les infrastructures sont plus rares dans le Sénégal oriental et le désenclavement de ces régions constitue également un défi car les moyens de transport restent souvent traditionnels à l'intérieur du pays. De gros efforts sont effectués au niveau des équipements. Ainsi, de nombreux projets sont en cours dont un tronçon autoroutier de M'Bour vers Kaolack qui est en chantier depuis novembre 2021 (ouverture prévisionnelle : 2024 / 2025). À terme, la constitution d'un réseau autoroutier de plusieurs centaines de kilomètres sera effective. Une section autoroutière partant du Nord du nouvel aéroport international de Dakar est ouverte à la circulation depuis le 18 décembre 2018 jusqu'à Touba dite "ilaa Touba." Par ailleurs, la construction d'une autoroute à péage entre Dakar et Diamniadio (), terminée le 10 août 2013, permet aussi de relier Dakar à Rufisque en moins de vingt minutes. À moyen terme, elle permettra de créer de nouvelles zones d'habitations grâce à ses nombreuses bretelles de sortie, ceci afin de désengorger Dakar. Dans la continuité, deux autres tronçons autoroutiers sont terminés de Diamniadio à l'aéroport international Blaise-Diagne (aéroport inauguré le ) et dudit aéroport à M'Bour vers le sud du pays. D'autres projets sont à l'étude ou en travaux dont l'aménagement de Saint-Louis afin d'en faire un port de cabotage et l'aménagement du port de Ziguinchor pour recevoir des conteneurs. Infrastructures. L'aéroport international Léopold-Sédar-Senghor était le principal point d'entrée aérien vers le Sénégal jusqu'à son remplacement le 8 décembre 2017 par l'aéroport Blaise Diagne. Le 25 mai 1971, l'avion supersonique Concorde fait un premier vol de démonstration Paris-Dakar en (dont en vol supersonique) et le 21 janvier 1976 ouvre pour la première fois sa ligne commerciale Paris-Dakar-Rio. Le président Senghor assiste à son arrivée à l’aéroport de Dakar ainsi que les premiers passagers supersoniques de l'histoire de l'aviation. Le avril 1982, c'est la fin de la liaison Paris-Rio. Créée en 2000, la compagnie aérienne Air Sénégal International, filiale du groupe Royal Air Maroc, proposait depuis le des destinations vers l'Europe et l'Afrique. Membre de l’IATA depuis le 28 mai 2002, elle fut sacrée meilleure compagnie aérienne africaine en 2003. À la suite de difficultés financières et de différends entre ses principaux actionnaires, Royal Air Maroc et l'État sénégalais, elle a cependant arrêté tous ses vols le . Une nouvelle compagnie baptisée Sénégal Airlines, dont l'État sénégalais est actionnaire minoritaire, a été créée en octobre 2009. Cette nouvelle compagnie dessert à partir de Dakar, et à compter du début 2010, une vingtaine de destinations africaines. Sénégal Airlines a annoncé en novembre 2009 à l'occasion du salon de Dubaï avoir commandé deux Airbus A330 et quatre Airbus A320. Mais en 2016, l'État retire la concession de commerce de la compagnie à cause du déficit budgétaire de l'entreprise. En 2016, Air Sénégal est créée en remplacement. Le réseau routier est bon dans l'ouest, mais se dégrade en allant de plus en plus à l'intérieur du pays. Le réseau de transport est bien développé dans les grandes villes avec des taxis, des bus et/ou des « cars rapides » en plus ou moins bon état. Dans les banlieues et les villes secondaires ce sont des taxis collectifs, des « cars rapides » et des calèches qui servent de transport. À l'intérieur du pays, les taxis-brousse sont utilisés pour se déplacer entre petites villes et villages. Le transport interurbain est assuré par des berlines à sept places, des bus interurbains et des cars blancs appelés "Ndiaga Ndiaye "qui peuvent être pris en allant dans les gares routières"."La gare de Dakar (gare de train) est la plus ancienne du Sénégal. Après une rénovation très importante, cette gare est utilisée pour la nouvelle ligne du TER inaugurée et mise en service le 27 décembre 2021. Ensuite, le service commercial voyageurs débuta dès le 28 décembre 2021 par une période de gratuité s'étalant jusqu'au 17 janvier 2022. Précisons que les 2 voies du TER sont aux normes internationales (électrification 25KV, écartement des rails , rames TER de dernière génération). Le TER reliera d'ici 2024 / 2025 le nouvel aéroport international de Dakar, le terminus actuel (2022) s'effectuant à Diamniadio. La liaison avec Bamako (au Mali) n'est plus active actuellement mais une voie métrique réservée au transport de marchandises de la gare de Dakar en lien avec le port est rénovée et peut être étendue vers l'Est à l'avenir si nécessaire. Le transport maritime est constitué de chaloupes pour rejoindre l'île de Gorée à partir de Dakar, de la liaison maritime Dakar-Ziguinchor assurée par le Consortium sénégalais d'activités maritimes, de bateaux pour des croisières sur le fleuve Sénégal (comme le Bou El Mogdad). Il est constitué aussi de gros bateaux de transport de marchandises qui bénéficient du Port autonome de Dakar, qui est l'un des trois ports en eau profonde d'Afrique de l'Ouest, et de son terminal pour les conteneurs. Divisions administratives. En 1960, le premier découpage administratif issu de l'indépendance avait créé une certaine disparité entre les sept régions d'origine – celle du Sénégal oriental étant alors onze fois plus étendue que celle du Cap-Vert. Ce déséquilibre a été corrigé par plusieurs réformes successives et notamment par un décret de 1996, dans le cadre de la politique de décentralisation qui a transféré aux collectivités locales certaines compétences d'abord détenues par le pouvoir central. L'organisation territoriale mise en place en 1996 a subi plusieurs retouches dans l'intervalle, avec la création de la région de Matam en 2001, celle du département de Koungheul en 2006 ou encore, en 2008, l'élection des départements de Kaffrine, Kédougou et Sédhiou en régions à part entière, celle de 10 localités en départements, ainsi que la création de nouvelles communautés rurales et de nombreuses communes. En 2009, le Sénégal comptait 14 régions, 45 départements, 46 communes d'arrondissement, 113 communes de ville et 370 communautés rurales. Dirigés par un chef, les villages restent les cellules de base de cette organisation. On en dénombrait lors du recensement de 1988. Histoire. L'actuel territoire du Sénégal a vu se développer plusieurs royaumes dont le Djolof, vassaux des empires successifs du Ghana, du Mali et Songhaï. Après 1591, il subit le morcellement politique ouest-africain consécutif à la bataille de Tondibi. Au , plusieurs comptoirs appartenant à différents empires coloniaux européens s'établissent le long de la côte, ils servent de support au commerce triangulaire. La France prend peu à peu l'ascendant sur les autres puissances puis érige Saint-Louis, Gorée, Dakar et Rufisque en communes françaises régies selon le statut des Quatre communes. Avec la révolution industrielle, la France désirait construire un chemin de fer afin de les relier et entra en conflit avec le Damel du Cayor, Lat Dior. Ce conflit permit à la France de faire officiellement du Cayor un protectorat en 1886, un an après la fin de la conférence de Berlin. La colonisation de l'ensemble de l'Afrique de l'Ouest est alors amorcée et Saint-Louis, puis Dakar deviendront les deux capitales successives de l'Afrique-Occidentale française créée en 1895. Dakar devient ensuite la capitale de la République sénégalaise au moment de l'indépendance en 1960. Contrairement aux autres anciennes colonies de l'Afrique-Occidentale française (AOF), le Sénégal indépendant moderne est donc le résultat du regroupement d'un territoire peuplé d'anciens citoyens français (les Quatre communes) et d'un territoire peuplé d'anciens indigènes (le reste du pays). Préhistoire. Le plus souvent la préhistoire et protohistoire du Sénégal évoquent avant tout les cercles mégalithiques de Sénégambie ou les amas coquilliers artificiels, tels ceux de l'île de Fadiouth. Des bifaces en amande du paléolithique inférieur ont été découverts dans la presqu'île du Cap-Vert, ainsi que d'autres objets en pierre plus élaborés (hachereaux, racloirs) dans la région de Rufisque et au bord des rivières du Sénégal oriental. Au Néolithique, l'outillage se diversifie et la céramique fait son apparition. Les fouilles menées dans les régions côtières ont mis au jour des restes de cuisine qui témoignent d'une importante population de pêcheurs et commerçants (marigot de Khant dans le delta, embouchure du Saloum). La métallurgie se développe à l'époque protohistorique ( millénaire ), où l'on retrouve des tombeaux en forme de tumulus. Dans le centre du pays, débordant sur l'actuelle Gambie, on trouve un ensemble de cercles de mégalithes sur un secteur de sur . On retrouve ce type d’alignement dans le nord-est de la république centrafricaine. Premiers royaumes. Les peuplements se sont progressivement consolidés pour aboutir à la création des premiers royaumes qui se forment au , les Toucouleurs fondent le Tekrour, le Royaume du Namandirou, puis le Djolof, avec de lointaines parentés avec l'empire du Ghana. Parmi les différents royaumes, le plus puissant au était l'empire du Djolof qui regroupait le Cayor, le Baol, les royaumes sérères du Sine et du Saloum, le Waalo, le Fouta-Toro et le Bambouk. Au sud du pays, l'État du Kaabu, puis le Fouladou. Le Djolof était un empire fondé par Ndiadiane Ndiaye, premier bourba (roi) djolof. Il avait été élu comme chef dans ce qui allait devenir le royaume du Oualo, au nord-ouest de l'actuel Sénégal, dans la région du fleuve. Il avait réuni toutes les populations d'ethnie wolof pour fonder cet empire au . L'empire s'effondra en 1549, avec la mort du dernier empereur du Djolof, Lélé Fouli Fak, tué par Amary Ngoné Sobel Fall, alors chef de la région du Cayor. L'islam est introduit au Sénégal pour la première fois entre le et le par le biais des commerçants arabo-berbères. Ils diffusent pacifiquement cette religion et convertissent les Toucouleurs, lesquels la propageront partout au Sénégal. Plus tard, au , les Almoravides, aidés des Toucouleurs, tentent d'islamiser les groupes de religion traditionnelle par le Djihad. C'est l'une des raisons qui entraînent la migration des Sérères vers le Sine Saloum, des Wolofs, des Peuls et des Mandingues, qui étaient tous concentrés au Tekrour. Une légende populaire, chantée par les griots et illustrée par le poète-président Senghor, rattache d'ailleurs la filiation du premier Bourba Djolof Ndiadiane Ndiaye à la dynastie des Almoravides (fondatrice de Marrakech et responsable de l'attaque repoussée par le célèbre « Cid »). L'islam se propage très tôt dans l'empire du Djolof. Mais c'est au qu'il gagne véritablement l'ensemble des populations, pacifiquement, grâce aux marabouts et leurs confréries tels qu'El Hadji Malick Sy pour la tijaniyya ou Ahmadou Bamba, fondateur de la confrérie mouride, qui émerveillent les populations par leur érudition et leurs miracles. C'est également un moyen pour les populations de s'unir et se protéger contre les ravages que connaissent les royaumes au (djihads répétés, colonisation forcée). Le est en effet marqué par la chute des royaumes, l'avancée des colons européens ainsi que par la résistance anticoloniale, illustrée par des personnages tels que Aline Sitoé Diatta, Sidya Ndaté Yalla Diop, Oumar Tall, Mamadou Lamine Dramé, Alboury Ndiaye, Alpha Molo, Maba Diakhou Bâ, Moussa Molo Balde, Djignabo Badji, Lat Dior... La religion catholique se diffuse avec les missionnaires européens à partir du , en particulier au Sine Saloum et en Casamance. Colonisation. Premiers comptoirs. Le navigateur Alvise Cadamosto explore ces terres pour le compte du Portugal entre 1442 et 1456. Les Portugais se lancent alors rapidement dans la traite des Noirs mais devront bientôt faire face à la concurrence des négriers britanniques, français et hollandais à travers le Commerce triangulaire. Les Hollandais fondent un comptoir sur l'île de Gorée, la France établit en 1659 celui de Saint-Louis qui deviendra la première capitale du Sénégal. En 1677, les Français occupent à leur tour l'île de Gorée (un des principaux centres du commerce des esclaves au Sénégal avec Saint-Louis et le fort de l'île James en Gambie). Les voient l'apogée des signares, de riches commerçantes métisses, centrées à Gorée et à Saint-Louis. Après l'interdiction de la traite des Noirs par l'Angleterre et la France au début du , la colonisation proprement dite se fait à la faveur de la mise en œuvre de cette interdiction par ces deux pays, en Gambie et au Sénégal respectivement. La seconde République de 1848 crée un mandat de député pour Saint Louis. L'ordre colonial s'impose avec Louis Faidherbe, gouverneur du Sénégal (territoire des Quatre communes) de 1854 à 1861 et de 1863 à 1865, qui jette les bases de la future Afrique-Occidentale française (AOF). Il étend l'influence française très au-delà du Sénégal et crée le port de Dakar. La troisième République consacre le statut des quatre communes à Saint-Louis, Gorée, Dakar et Rufisque. Après la conférence de Berlin. La conférence de Berlin s'achève le , les puissances européennes se partagent alors l'Afrique et annexent désormais les royaumes situés à l'intérieur des terres. La colonisation de l'ensemble de l'Afrique de l'Ouest s'achève quelques années plus tard. L'Afrique-Occidentale française (AOF) est créée en 1895. Deux statuts vont alors cohabiter au sein de la population, les habitants des quatre communes sont citoyens Français de plein droit tandis que les populations des territoires nouvellement colonisés seront soumis à l'indigénat. Sous l'influence du député noir Blaise Diagne, un statut particulier peut être choisi par les habitants des quatre communes à partir de 1916. Ces dernières envoient des conscrits pendant les deux conflits mondiaux. En 1919, certains troubles agitent Dakar. Le tirailleur Cheikou Cissé, né au Soudan français et blessé pendant la guerre, est condamné à la peine de déportation perpétuelle et envoyé au bagne de Nouvelle-Calédonie. Mort en 1933, il a fait l'objet d'une lutte de la part des milieux anticolonialistes français (dont le Secours rouge international et la SFIC communiste). Après Saint-Louis, Dakar devient en 1902 la capitale de l'Afrique-Occidentale française. Dans les années 1950, à la fin du régime colonial, les experts s'opposent au modèle agricole Wolof et mouride, jugé trop destructeur pour les sols agricoles, et posent en modèle-type d’intensification agricole vertueuse, l’agriculture des Sérères. En avril 1959, la République soudanaise (actuel Mali) et le Sénégal fusionnent pour former la Fédération du Mali. Le la fédération devient indépendante à la suite des transferts de pouvoirs convenus dans l'accord signé en France le . Cette date est considérée comme le jour officiel d'accession du Sénégal à l'indépendance. Indépendance. Le , le Sénégal se retire de la fédération du Mali et proclame son indépendance. Alors que le président du Conseil, Mamadou Dia, incarne le sommet de l’État dans un système parlementaire bicéphale du type de la Quatrième République en France (la politique économique et intérieure pour le gouvernement et la politique extérieure pour la présidence), ses relations avec Senghor s’enveniment peu à peu. En 1962, il est arrêté et accusé de « tentative de coup d’État » avec quatre autres ministres, Valdiodio N'diaye, Ibrahima Sar, Joseph Mbaye et Alioune Tall. Alors que le procureur général ne requiert aucune peine, ils sont condamnés à d'emprisonnement au centre spécial de détention de Kédougou. Le procureur général de l'époque, Ousmane Camara, revient sur le déroulement du procès dans une autobiographie publiée en 2010 : "." De nombreuses personnalités comme Jean-Paul Sartre, le pape Jean XXIII ou encore François Mitterrand demandent leur libération mais Senghor ne décide de les gracier et de les libérer qu'en ; ils sont amnistiés en , un mois avant le rétablissement du multipartisme au Sénégal. . À la suite de cet événement, Léopold Sédar Senghor met en place le un régime présidentiel fort. En 1966, l'UPS devient le seul parti autorisé. Il faut attendre une dizaine d'années avant le rétablissement du multipartisme au Sénégal en mai 1976. Un mouvement social se déclenche en mai 1968 en faveur de réformes politiques et économiques dans le pays. Le Sénégal et la Gambie s'unissent en 1982 pour former la Confédération de Sénégambie, mais celle-ci ne fut que théorique et n'a jamais été mise en application. Elle est finalement dissoute en 1989. Des affrontements ont lieu depuis 1982 de manière intermittente entre les séparatistes installés dans le Sud de la Casamance et les forces gouvernementales. Après plusieurs tentatives infructueuses, un nouvel accord a été signé à Ziguinchor le entre le ministre de l'Intérieur Ousmane Ngom et l'abbé Augustin Diamacoune Senghor, chef de la rébellion du Mouvement des forces démocratiques de Casamance (MFDC). Un autre foyer de conflit entre des Casamançais et la Guinée-Bissau s'est développé en avril 2007. En 1989, la Mauritanie et le Sénégal ont rejeté violemment et respectivement les communautés du pays voisin alors que la plupart étaient nés depuis longtemps dans leur nouveau pays d'adoption et s'étaient bien implantées dans le tissu social et économique. Selon le HCR, des réfugiés sont toujours établis le long du fleuve Sénégal. En 2007, le président de la Mauritanie a déclaré lors de sa campagne, être en faveur du retour de ses compatriotes vivant au Sénégal et au Mali contre leur gré. Macky Sall succède à Abdoulaye Wade en 2012, et est réélu pour un deuxième mandat présidentiel en 2019. Politique. Le Sénégal est l'un des pays les plus stables d'Afrique car il n'y a jamais eu de coup d'État, et le « modèle sénégalais » était souvent mis en avant dans le passé, même si Amnesty International dénonce encore quelques arrestations à caractère politique. Le Sénégal est une république démocratique (présence de plusieurs partis politiques). Le régime est semi-présidentiel car à l'indépendance, le Sénégal a adapté le modèle politique français de 1958 comme d'autres pays africains qui étaient membres de l'AOF. La constitution du Sénégal date de 1959, elle a été révisée dès 1960 par Léopold Sédar Senghor à la suite d'un référendum. Plusieurs révisions vont se succéder notamment celle de 1963 qui instaure le régime présidentiel (à cette époque : suppression du Premier ministre) puis celle de 2001 qui ramène le mandat présidentiel de sept ans à cinq ans (le Sénat sera supprimé puis rétabli en 2007). Le président de la République est le chef de l'État, élu au suffrage universel direct pour une durée de cinq ans renouvelable une fois. Il nomme le Premier ministre qui choisit à son tour les ministres de son cabinet et propose leur nomination au président de la République. Le premier président est Léopold Sédar Senghor, leader charismatique et poète de renom. En 1981 son Premier ministre Abdou Diouf prend sa succession, mais en 2000 le Parti démocratique sénégalais l'emporte avec Abdoulaye Wade, réélu en 2007. L'élection présidentielle de 2012 voit la victoire de Macky Sall face à Abdoulaye Wade. L'actuel Parlement du Sénégal est doté d'une seule chambre : l'Assemblée nationale. Instituée le 20 août 1960, l'Assemblée nationale accueille , élus au suffrage universel direct pour une durée de cinq ans. Le scrutin est majoritaire à un tour au niveau des départements à concurrence de et proportionnel sur une liste nationale à concurrence de . L’Assemblée est aujourd’hui présidée par Moustapha Niasse, installé le 31 juillet 2012 à la suite des législatives du , marquées par une très large victoire de la coalition présidentielle Bennoo Bokk Yakar. Les élections législatives sénégalaises de 2007 se sont soldées par une très large victoire de la coalition présidentielle, alors le PDS, mais près des deux tiers des électeurs ne s’étaient pas rendus aux urnes, notamment en raison d’un mot d’ordre de boycott de la part des partis d’opposition. Le Sénat, supprimé en 2001 à la suite d’un référendum constitutionnel, a été rétabli en mai 2007 puis supprimé à nouveau en 2012 après l'élection présidentielle. Les sénateurs étaient au nombre de 100, 35 étaient élus au suffrage indirect dans les départements et les 65 autres étaient désignés par le chef de l’État. Le Sénat a eu comme dernier président Pape Diop, ancien maire de la ville de Dakar. La loi sur la décentralisation, mise en application en , accorde des pouvoirs significatifs aux assemblées régionales. Supprimée en 1992, la Cour suprême du Sénégal avait été remplacée par trois organes spécialisés, la Cour de cassation, le Conseil d'État et le Conseil constitutionnel, assez semblables à leurs homologues français. En août 2008 une loi organique recrée une Cour suprême par la fusion entre la Cour de cassation et le Conseil d'État. Le Conseil Constitutionnel comprend cinq membres qui sont nommés par décret pour six ans non renouvelables, dont un président et un vice-président. Il est partiellement renouvelé tous les deux ans, à raison de deux membres au maximum. Son rôle est de contrôler les élections législatives et de vérifier la constitutionnalité des lois et les engagements internationaux. Le Sénégal a aboli la peine de mort le . L'homosexualité est illégale au Sénégal et les rapports homosexuels sont passibles de peines de prison. Selon une enquête de 2013 du Pew Research Center, 96 % des Sénégalais pensent que l'homosexualité ne devrait pas être acceptée par la société. Les membres de la communauté LGBTQ au Sénégal rapportent un fort sentiment d'insécurité. Politique environnementale. Depuis 2020, le gouvernement sénégalais interdit les importations de déchets plastiques sur son territoire Langues. Il existe une grande diversité linguistique à travers les langues au Sénégal. La Constitution de 2001 a reconnu au français le statut de langue officielle et à six langues celui de langues nationales, le wolof le sérère, le peul (aussi appelé fulfulde ou pular), le mandingue, le soninké et le diola. Cinq autres langues vernaculaires ont été promues peu après : le hassanya, le balante, le mancagne, le noon et le manjaque ; suivies de trois autres langues : le ménik, l’oniyan et le saafi-saafi. Au total, ce sont sur 27 répertoriées qui bénéficient du statut de langue nationale au Sénégal. Le Sénégal est membre de l'assemblée parlementaire de la francophonie depuis 1967 ainsi que de l'organisation internationale de la francophonie depuis 1970. Le français est la langue officielle et de l'administration, parlée par 29 % des Sénégalais en 2014. L'enseignement de l'école publique se fait en français. Le wolof, parlé par 93.5 % de la population, est la langue qui compte le plus de locuteurs, principalement dans les grands centres urbains. Elle est très utilisée dans le commerce et sert de langue de communication entre personnes parlant des langues différentes. L'arabe est aussi présent dans le pays, il est souvent utilisé par les dignitaires religieux. Démographie. La population du Sénégal – qui comptait environ d'habitants en 1900 et au moment de l'indépendance en 1960 – s'élevait à selon le recensement réalisé en 2013 . Des projections démographiques établissent la population du Sénégal à , parmi lesquels femmes et hommes.. Cette population croît donc très rapidement, avec un taux de fécondité supérieur à quatre enfants par femme. Les groupes ethniques. On observe une grande diversité ethnique : Wolofs (51,8 %), Peuls (18,5 %), Sérères (11,5 %), Malinkés (9,8 %), Diolas (4,7 %), Soninkés (2 %), Manjaques (0,6 %) et quelques autres ethnies moins nombreuses et plus localisées, sans compter les Libanais, les Mauritaniens, les Marocains, les Européens et les Chinois, assez présents en milieu urbain. Fin 2007, Français étaient inscrits dans les registres consulaires (y compris les binationaux). Également, situées principalement en milieu urbain, se trouvent de petites communautés vietnamiennes ainsi qu'un nombre croissant de commerçants immigrés chinois. Depuis longtemps, la population était plutôt concentrée sur la façade atlantique, mais l'exode rural a accru l'inégalité de cette répartition. Désormais, un Sénégalais sur quatre vit dans la presqu'île du Cap-Vert et la capitale est au bord de l'asphyxie. Outre celle de Dakar, les régions les plus urbanisées sont Ziguinchor, Thiès et Saint-Louis. Les moins urbanisées sont celles de Kolda, Matam et Fatick. C'est dans la région de Tambacounda que l'on trouve la plus faible densité ( au km). Selon les estimations pour 2017, les centres urbains régionaux de plus de sont Touba () – qui a connu une croissance spectaculaire –, Thiès (), Kaolack (), M'bour (), Saint-Louis (), Ziguinchor () et Diourbel () En 2007, le Sénégal abritait environ réfugiés et demandeurs d'asile, dont plus de étaient mauritaniens ayant fui la persécution ethnique, ainsi que certains du Liberia, de la Sierra Leone et d’autres pays. Émigration et immigration. Si le Sénégal accueille aussi des migrants, nombreux, saisonniers ou non, des pays limitrophes ou lointains, une forte communauté sénégalaise vit à l’extérieur du pays. En 2018, plus de vivaient à l'extérieur du pays. Cette diaspora représente une ressource essentielle pour le pays, à la fois économique et identitaire. Au début des années 2000, les transferts financiers représentaient entre 5 et 10 % du PIB, soit entre d'euros annuels. En 2017, ces Sénégalais de l’étranger injectaient annuellement dans le pays plus de d'euros ( de FCFA soit 12,5 % du PIB sénégalais), d’après des chiffres extraits du document de Politique nationale de migration du Sénégal (PMNS). Les NTIC favorisent le maintien des liens familiaux et des réseaux traditionnels. Ce sont principalement des hommes jeunes qui s’installent en Europe, surtout en France, ou en Amérique du Nord, notamment au Québec avec un projet de retour vers le pays au bout de quelques années. En 2017, 75 % des jeunes sénégalais (originaires principalement du Sud, du Sud-Est et du Nord du pays) souhaitaient quitter le pays. L’accroissement de l’immigration clandestine dans les pires conditions, notamment vers les îles Canaries, est une préoccupation majeure pour le Sénégal et les pays d’accueil. Les plus désespérés veulent ignorer les risques, sensibles à la réussite de quelques-uns, et notamment de personnalités de la diaspora — nées au Sénégal ou de parents sénégalais — particulièrement dans les milieux artistiques ou sportifs. D’abord pays d’émigration rurale soninké et Peuls de la vallée du fleuve Sénégal à destination de la France à partir de l'époque coloniale, puis des pays de la sous-région, le Sénégal a connu une émigration plus diverse, originaire à la fois du centre-ouest du pays et des grandes villes, lesquelles ont fait figure de lieux de passage et de transit vers l’international à partir des indépendances. L’instabilité politique et économique des pays voisins et la fermeture des frontières européennes ont eu pour effet de modifier le système de migration tournante (ou noria) en une installation plus durable. Le contrôle de plus en plus strict des frontières françaises, à l’origine destination privilégiée, a conduit les flux migratoires à se redéployer vers de nouvelles destinations : en priorité l’Italie, l’Espagne mais aussi les États-Unis, le Canada, et plus récemment la Chine. Le 15 avril 2010, Human Rights Watch a publié un rapport exhortant les autorités sénégalaises à réglementer toutes les écoles coraniques fréquentées par des dizaines de milliers d'enfants. Ces enfants talibés, estimés à garçons, subissent parfois des abus qui les incitent à l'exil. Il existe près d'un million d'immigrés guinéens au Sénégal. Principales villes. Cinq villes de grande taille (Dakar, Pikine, Guédiawaye, Rufisque et Thiès) ont le statut de ville et sont divisées en communes d'arrondissement. Dakar, la capitale, est la plus grande ville du Sénégal, avec une agglomération de plus de trois millions d'habitants. La deuxième ville la plus peuplée est Touba, une communauté rurale avec plus d'un demi-million de personnes. Économie et développement. Jusqu'en 1814, les comptoirs coloniaux ne devaient avoir qu'une fonction commerciale et avaient pour interdiction de développer une activité de production. « Pas même un clou » selon Colbert. À partir de 1814, au contraire les colonies ont une obligation d'autosuffisance, cette obligation est confirmée en 1866. Le Sénégal possède la quatrième économie de la sous-région ouest-africaine après le Nigeria, la Côte d'Ivoire et le Ghana. Compte tenu de sa situation géographique et de sa stabilité politique, le Sénégal fait partie des pays africains les plus industrialisés avec la présence de multinationales qui sont majoritairement d'origine française et dans une moindre mesure américaine. La main d'œuvre du pays se divise comme ceci : 55 % sont consacrés aux services, 14 % aux industries et 32 % est consacré à l'agriculture. L'économie sénégalaise est principalement tournée vers l'Europe et l'Inde. Ses principaux partenaires économiques sont la France, l'Inde, et l'Italie. Cependant, depuis plusieurs années, la Chine est un partenaire de plus en plus grandissant comme en témoignent les sommets Chine-Afrique. Comparé aux autres pays du continent africain, le Sénégal est aussi très riche en ressources naturelles (or, gaz et pétrole, phosphates, zircon) mais ses principales recettes aujourd'hui proviennent de la pêche, du tourisme et des services : Le Sénégal est membre de l'Union économique et monétaire ouest-africaine. En 1994, la monnaie est dévaluée et une politique de libéralisation est activement menée. Le Sénégal essaye de rentrer dans les conditions requises par le Fonds monétaire international (FMI) afin de bénéficier d'un allègement de la dette pour le développement du pays. Depuis 2006, le Sénégal est dans la liste des pays éligibles. Les difficultés économiques dues au poids de la dette ont entraîné un renforcement du syndicalisme : Le 24 octobre 2022 le Sénégal intègre comme pays observateur le Forum des pays exportateurs de gaz (GECF). En 2022, le Sénégal est classé en pour l'indice mondial de l'innovation. Office national de lutte contre la fraude et la corruption. L'Office national de lutte contre la fraude et la corruption (OFNAC), créé en décembre 2012 pour lutter contre d’éventuelles tentatives de corruption, est composé de onze personnes nommées par le président de la République. Plans stratégiques de développement économique. Après la mise en place du DSRP (Documents de Stratégie de Réduction de la Pauvreté) sur la période de 2003 à 2010 et un plan de Stratégie nationale de Développement économique et social (SNDES) pour la période 2013-2017, le PSE, Plan Sénégal Emergent, a été adopté par le gouvernement sous la présidence de Macky Sall. Il s’agit d’un plan dont l’objectif est de rendre le Sénégal plus compétitif et indépendant sur le plan économique. Il se fixe comme horizon 2035 et les deux premières phases ont été lancées (2014 à 2018 et 2019 à 2023). Sa mise en application est critiquée en 2021, notamment en raison du fait qu’il est subventionné en partie par des pays étrangerset que les résultats se feraient attendre dans certains secteurs, avec une augmentation du nombre de pauvres. Culture. La culture est au début et à la fin du développement. Il existe une grande diversité linguistique à travers les langues au Sénégal. La Constitution de 2001 a reconnu au français le statut de langue officielle et à six langues celui de langues nationales, le wolof — langue parlée par le plus grand nombre de personnes (90 % des Sénégalais) même appartenant à d'autres ethnies — le sérère, le peul, le mandingue, le soninké et le diola. Cinq autres langues vernaculaires ont été promues peu après : le hassanya, le balante, le mancagne, le noon et le manjaque ; suivies de trois autres langues : le ménik, l’oniyan et le saafi-saafi ; d'autres ajouts de langues codifiées sont en cours. Au total ce sont près d'une vingtaine de langues qui pourraient bénéficier du statut de langue nationale au Sénégal. La littérature sénégalaise a longtemps été connue dans le monde surtout à travers Léopold Sédar Senghor, à la fois poète et homme d'État, chantre de la négritude et figure emblématique de la francophonie. Parmi les autres auteurs désormais classiques figurent notamment les romanciers Cheikh Hamidou Kane, Birago Diop, Boubacar Boris Diop, mais aussi Ousmane Sembène qui portera à l'écran quelques-uns de ses propres romans. De leur côté les femmes sont particulièrement actives, voire incisives. En 1979 Aminata Sow Fall, dans "La Grève des bàttu", dépeint dans sa satire politique un petit peuple de mendiants se mobilisant contre le sort qui lui est fait. En 1980, Mariama Bâ décrit avec une grande sensibilité la société polygame dans "Une si longue lettre". En 1978, Awa Thiam écrit le best-seller "La parole aux négresses". En 1996, le poète Alioune Badara Coulibaly, proche du poète Léopold Sédar Senghor, publie "Bon anniversaire, Sédar", rendant hommage au chantre de la négritude pour ses . Ce poète est à son cinquième livre de poésie avec le dernier intitulé "Rayons de soleil sur Saint-Louis" (2009). En 1997, la romancière Fama Diagne Sène a obtenu le Grand Prix des Lettres du Sénégal avec son roman "Le chant des ténèbres". Plus récemment, Fatou Diome rencontre le succès avec "Le Ventre de l'Atlantique" (2004), un roman qui met en scène, souvent avec humour, les rêves d'évasion des jeunes Sénégalais. Tradition et modernisme marquent l'architecture du Sénégal. L'habitat traditionnel, sobre et fonctionnel mais plus éphémère, utilise les matériaux locaux (pierre, terre, bois, paille), comme pour les cases peules ou les cases à "impluvium" casamançaises. La période coloniale a laissé des traces comme à Gorée ou à Saint-Louis, et ces sites figurent aujourd'hui sur la liste du patrimoine mondial de l'UNESCO. Aujourd'hui, l'architecte Pierre Goudiaby Atepa a conçu plusieurs réalisations contemporaines, telle la Porte du Troisième millénaire à Dakar. À noter aussi de nouvelles constructions telles que le tunnel de la corniche ouest et le monument de la Renaissance Africaine, inauguré en 2010. L'autoroute à péage est en cours d'exécution. Les arts plastiques ont été soutenus pendant la période où le président poète L.S. Senghor était au pouvoir à travers le mécénat d'État. Par la suite, ses successeurs ont eu des difficultés à poursuivre cette politique à cause de la crise économique. Diverses initiatives privées se sont développées afin de soutenir les artistes. Ces arts sont à l'honneur à travers le sculpteur Ousmane Sow de renommée internationale et de Kalidou Kassé, artiste peintre. La série de timbres émise sous l’intitulé "Élégance sénégalaise" célèbre ces femmes belles et séduisantes qui impressionnaient déjà les observateurs d’autrefois et inspiraient les poètes : femmes peules au port altier, linguères de sang royal, signares fortunées de Sénégal ou de Gorée. Même avec de modestes budgets, le souci de l’apparence perd rarement ses droits au Sénégal : boubous, coiffures et bijoux sont choisis avec soin et fréquemment renouvelés. Qu'ils portent l'habit traditionnel ou le costume, les hommes aussi sont attentifs à leurs tenues. En contrepoint, les tenues décontractées de certains touristes déconcertent parfois. Dans le prolongement des activités anciennes de tissage et de teinture, l’industrie de la mode s’est tout naturellement épanouie dans le pays, avec quelques personnalités de premier plan telles que Collé Ardo Sow, Claire Kane et surtout Oumou Sy, à la fois costumière, styliste, décoratrice et femme d’affaires au rayonnement international. Le cinéma sénégalais est l'un des plus anciens d'Afrique. Ses représentants les plus connus sont les cinéastes Ousmane Sembène — également romancier — et Djibril Diop Mambety, auxquels il faut ajouter Tidiane Aw, ou Safi Faye, réalisatrice de films documentaires. Ces productions sont souvent mieux appréciées à l'étranger qu'au Sénégal où beaucoup de salles ont fermé, concurrencées par le marché plus florissant de la vidéo. On remarque également que nombre de films d'origines diverses ont été tournés dans ce pays au climat propice et aux paysages des plus photogéniques. Il y existe le Fonds de promotion de l’industrie cinématographique et audiovisuelle (FOPICA) dont le secrétariat permanent est assuré par Abdoul Aziz Cissé depuis sa création. Les grands noms de la musique sénégalaise contemporaine sont : Youssou N'Dour, auteur-compositeur, musicien et interprète de renommée internationale. Baaba Maal est un auteur-compositeur, interprète qui se produit internationalement ainsi que Ismaël Lô, auteur-compositeur et interprète. Omar Pène, auteur-compositeur et interprète et Coumba Gawlo Seck, auteur-compositeur. Djembé, sabar, kora, xalam, tambour d'aisselle et balafon font partie des instruments traditionnels toujours très populaires. Parmi les instruments de percussion, le sabar et le mbalax désignent à la fois l'instrument de musique, un style de musique et une danse. Ce sont des sons typiques de la culture sénégalaise. Thione Seck qui est un auteur-compositeur-interprète de mbalax a su adapter la tradition et la modernité : il est apprécié par des fans de tous âges au Sénégal. Pape Diouf et Ndongo Lô (décédé le 16 janvier 2005), Ismael Lô (appelé Bob Dylan sénégalais) sont également des artistes de l'univers du mbalax. Cheikh Lô, auteur-compositeur, musicien et interprète a su allier le mbalax et des influences reggaes. À noter, Viviane Chidid, meilleure artiste sénégalaise 2006 et reine du mbalax, une des rares artistes féminines à avoir su se faire une place. Les instruments à corde telle que la kora connue dans toute l'Afrique de l'ouest sont à présent connus en dehors du continent à travers des groupes de jazz ou de world music. Dans "Un grain de vie et d'espérance", la romancière Aminata Sow Fall met en scène la place essentielle occupée par la cuisine sénégalaise dans la culture et la vie quotidienne du pays. La « teranga », ce sens de l’hospitalité cher au cœur des Sénégalais, s'exprime souvent autour d'un plat unique réunissant la famille et les amis. Relativement peu connue à l’étranger en dehors des communautés issues de l'immigration et de quelques restaurants de grandes villes, la cuisine sénégalaise a attiré l'attention des médias avec la publication du livre de Youssou N'Dour, "La cuisine de ma mère", vibrant hommage aux valeurs familiales comme aux plats relevés et longuement mijotés. Cette cuisine présente quelques similitudes avec celles des pays d'Afrique de l'Ouest, mais elle accueille d'autres influences, venues d'Afrique du Nord, du Liban, de France ou du Portugal. Elle fait un large usage du poisson et des céréales (riz et mil) dans les plats nationaux, comme la thiéboudiène, le yassa de poulet, le thiéré, le maffé, la soupe kandia ou cette préparation plus sophistiquée qu’est le mulet farci à la saint-louisienne. Dans un pays majoritairement musulman, le thé, la tisane de kinkeliba et le bissap l’emportent sur les alcools, mais les bières locales – Flag ou Gazelle – et le vin de palme en Casamance ont aussi leurs adeptes. Société. Le Sénégal est communément appelé « le pays de la téranga ». Le terme « téranga » désigne des valeurs d’hospitalité, de solidarité et de partage. Nous pouvons affirmer que le peuple Sénégalais évolue globalement en société, il est très collectiviste. De plus il existe de nombreux groupes ethniques au Sénégal tels que les soninkés, les mandings, les lébous, les peulhs, les diolas, les toucouleurs etc. En parallèle aux ethnies, on y retrouve les castes. Les ethnies et les castes ne sont pas liées. Les ethnies représentent les regroupements culturels, le système des castes lui représente la hiérarchisation sociale. Cette hiérarchisation sociale prend ses bases sur le métier exercé par les ancêtres des années en arrière. Dans le système des castes, on retrouve les nobles (« geer ») qui englobent les agriculteurs et les éleveurs, les griots (« gewel ») dont le rôle est de chanter les louanges des nobles, les artisans (« jef lekk ») qui présentent différentes catégories dont les « teug » qui sont les forgerons, les « ude » qui désignent les cordonniers, les « laobé » qui sont les ébénistes et enfin les « maabo » qui sont les tisserands. Auparavant, c’est le nom de famille qui permettait d’identifier l’appartenance à une caste. De plus le système de caste était très visible. Ce n’est le cas que dans certaines partie du Sénégal de nos jours, à cause du brassage culturel. Cependant, il n’en demeure pas moins présent dans la société sénégalaise. Ce système crée des divergences sur plusieurs plans, comme pour les mariages : il est très difficile, voire impossible pour deux personnes de castes différentes de se marier. De plus, le Sénégal n’a jamais eu de président étant d’une autre caste que la caste des nobles. Éducation. Le système éducatif du Sénégal est l'un des plus avancés sur le continent. Le Sénégal peut se targuer d'avoir un enseignement de qualité avec des équivalences de diplômes des universités étrangères les plus prestigieuses tant en France qu'aux États-Unis. Ceci permet également des échanges avec des étudiants qui viennent étudier au Sénégal dans le cadre d'études spécifiques sur le pays ou des étudiants sénégalais qui partent à l'étranger afin de diversifier leurs connaissances dans le cadre de recherche. La population étant très jeune, la demande en formation est très forte sans compter la jeunesse des autres pays africains plus pauvres qui tente de terminer ses études à Dakar. Malgré un taux de réussite au baccalauréat similaire en 2000 (37,67 %) et en 2011 (38,4 %), le nombre de bacheliers est passé dans l'intervalle de à . Et naturellement, 80 % de ces bacheliers ont cherché à s'inscrire à la faculté, « objet de promotion sociale et de fierté, pour lequel les familles et les étudiants sont prêts à réaliser d'énormes sacrifices », explique le chercheur Olivier Provini, qui travaille sur les réformes universitaires africaines. Le problème majeur auquel font face ces nombreux bacheliers est la maîtrise du français : durant tout leur cheminement scolaire, ils doivent jongler entre le français et la langue nationale, le wolof. De nouvelles universités publiques ont été créées à Bambey, Thiès et Ziguinchor et les salaires des professeurs ont été revus à la hausse sous la présidence de Abdoulaye Wade, ce qui a permis de freiner la fuite des cerveaux universitaires et à encourager le retour de certains qui étaient en Europe, aux États-Unis et ailleurs en Afrique. L'université de Kaolack va bientôt ouvrir ses portes également sous la présidence du nouveau président de la république Macky Sall. Cette nouvelle université va permettre le désengorgement des autres universités du pays mais aussi l'orientation d'un grand nombre d'étudiants. Ceci va aussi permettre le développement des autres régions du pays. Le Sénégal est membre de l'organisation de la Francophonie (qui fut un temps dirigée par son ancien Président Abdou Diouf) et est devenu un pays observateur au sein de la communauté des pays de langue portugaise (CPLP). alors que le portugais n'est parlé que par une très faible part de la population. L'inauguration de la deuxième université de Dakar et de celle du Sine Saloum est prévue début 2017. Sports. Le football est un sport très apprécié des Sénégalais. L'équipe du Sénégal de football, dont les joueurs sont surnommés « les Lions de la Téranga », est affiliée à la Fédération sénégalaise de football et à la FIFA depuis 1962. Elle se qualifie en 2002 pour la phase finale de la coupe du monde de la FIFA, organisée en Corée et au Japon. L'équipe du Sénégal bat la France (championne du Monde et d'Europe en titre) en match d'ouverture de la coupe du monde et se qualifie pour la première fois de son histoire en quart de finale de la coupe du monde en battant la Suède à 1 et devient par la suite la deuxième équipe d’Afrique à atteindre les quarts de finale après le Cameroun en 1990. Elle participe aussi à la Coupe du monde 2018, mais ne passe par le premier tour. Au niveau continental, elle remporte la Coupe d'Afrique des nations en 2022 en battant l'Égypte en finale, après avoir atteint la finale en 2002 au Mali face au Cameroun et en 2019 en Égypte face à l'Algérie. Parmi les grands footballeurs sénégalais, on peut citer Sadio Mané, El-Hadji Diouf, Édouard Mendy, Henri Camara, Kalidou Koulibaly, Khalilou Fadiga, Idrissa Gueye, Habib Beye, Tony Sylva, Mamadou Niang, Omar Daf, Ferdinand Coly ou, dans le passé, Jules Bocandé, mais aussi le manager Pape Diouf, ex-président de l'OM. Le Sénégal est champion d’Afrique (2022) pour la première fois de son histoire au terme d’une finale qui a tenu toutes ses promesses. Les Lions de la Teranga ont gagné face aux Pharaons dans le tout nouveau Stade Abdoulaye-Wade, se qualifiant ainsi pour le Mondial au Qatar. La lutte sénégalaise est une pratique ancrée dans la tradition. La lutte sénégalaise n'a rien perdu de sa popularité, à travers des combats aussi brefs que spectaculaires. Ce sport est incarné par d'impressionnants champions tels que Yékini, qui, en 2005, l'a emporté sur Tyson, un redoutable adversaire qui avait su conserver le titre pendant près de cinq ans, mais sera battu à deux reprises par un autre poids lourd sénégalais, Sérigne Dia, dit Bombardier. D'importants enjeux économiques sont désormais liés à ce sport. Les cachets mis en jeu peuvent atteindre de nos jours près de FCFA, soit dollars. Tradition destinée à célébrer la fin des récoltes, la lutte est devenue le sport national, détrônant même le football. Il se pratique partout : clandestinement, sur les terrains vagues, dans des tournois amateurs et dans des championnats professionnels médiatisés. La version sénégalaise, « avec frappe », autorise les coups de poing pour surprendre l'adversaire. Les combattants sont les héritiers d'une culture : ils se préparent en s'aspergeant de potions concoctées selon les recommandations des marabouts. La boxe a connu ses lettres de gloire avec Battling Siki (1897-1925), champion du monde à et premier Africain à remporter un titre mondial de boxe. Leonard Tavarez (Français mais né à Dakar) fut aussi champion de France des poids légers en 1969. Plus près de nous, Souleymane M’Baye (Français d'origine sénégalaise) est devenu champion de France WBC des lourds-légers. (Italien mais né au Sénégal) a été détenteur de plusieurs titres internationaux en petite catégorie. Le basket-ball est moins prisé que le football, c’est cependant un sport très pratiqué, stimulé par les succès de son équipe nationale de basket-ball, les Lions du Sénégal et des joueurs tels que DeSagana Diop, Boniface N’Dong, El Kabir Pene, Maleye N'Doye, Xane d'Almeida ou Gorgui Dieng qui fut en 2015 pour sa première année avec les Lions à l'Afrobasket meilleur pointeur et meilleur rebondeur du tournoi. Noter que l'équipe fut éliminée en demi-finale par le Nigeria futur vainqueur de la compétition. Sans oublier les braves lionnes (Aya Traoré, Fatou Dieng, Mame-Marie Sy-Diop, Ndèye Sène, Aminata Dièye, Fatoumata Diango, Fatou Binetou Thiam, Bineta Diouf, Mame Diodio Diouf, Awa Guèye, Aminata Nar Diop et Oumoul Khairy Sarr) qui, après la médaille d'argent au Liban aux jeux de la francophonie en septembre 2009, ont remporté en octobre 2009 la coupe d'Afrique des nations (CAN) jouée à Madagascar. Elles ont aussi remporté la dernière coupe d'Afrique des nations en octobre 2015. Après avoir gagné la CAN de 2015 les lionnes du basket ont eu la promesse de l'État de faire un palais omnisports dont l'inauguration est prévue au début de 2017. En 2016 les travaux du palais omnisports sont lancés à Diamniadio. Les autres sports sont également bien représentés : l'équipe sénégalaise de pêche sportive (Moussa Mbengue, Abdoulaye Kébé, Cyril Calendini, Dominique Dussaut) est devenue championne du monde en 2002 et 2003. Séduits par des conditions météorologiques souvent clémentes et les ressources côtières, les visiteurs viennent nombreux pour pratiquer les sports nautiques tels que la plongée sous-marine ou le surf, et la réputation des Almadies ou de la vague de Ouakam n'est plus à faire. De son côté, l'aviation de loisir – notamment l'ULM – permet une approche inédite des paysages, dans une contrée dépourvue de vraies montagnes. Cap Skirring et le Sine Saloum constituent alors des destinations de choix. Le skate commence peu à peu à prendre de l'importance avec des associations et tournois et aussi avec la création d'un skate park à Dakar. Médias. Même si les médias au Sénégal bénéficient d’une situation relativement favorable par rapport à d’autres pays africains, leur dépendance à l’égard du pouvoir reste forte et des incidents surviennent occasionnellement, comme ce fut le cas lors de la répression d'une manifestation contre la vie chère en mars 2008. L'Agence de Presse Sénégalaise (APS), un organisme autonome créé en 1959, détient le monopole de la diffusion des informations distribuées au Sénégal par les agences de presse mondiales. En 2015, le Sénégal se situe à la place – sur – du classement mondial de la liberté de la presse établi chaque année par Reporters sans frontières. La presse écrite au Sénégal a débuté au cours du pendant la période coloniale : Au les principaux titres de la presse sont : Économique et maniable, la radio constitue aujourd’hui le seul véritable média de masse et le moyen de communication le plus égalitaire au Sénégal : La télévision fait ses débuts au Sénégal en 1963 avec l'aide de l'UNESCO mais les émissions régulières ne débutent véritablement qu'en 1965. Grâce aux satellites, les plus fortunés peuvent capter les chaînes privées internationales, mais l'usage de la télévision reste souvent populaire et collectif : Selon l'Observatoire sur les Systèmes d'Information, les Réseaux et les Inforoutes au Sénégal (OSIRIS), le nombre d’utilisateurs d’Internet était de en septembre 2007. Au 30 septembre 2007, il y avait abonnés, dont avec une connexion ADSL. On estime actuellement à plus de 800 le nombre de points d'accès à Internet dans le pays. En avril 2007, domaines « .sn » étaient déclarés et 540 sites étaient effectivement en ligne. Dans un pays où la convivialité et la palabre sont au cœur de la vie familiale et sociale, la téléphonie mobile s’est développée très rapidement. Les deux opérateurs qui se partagent le marché sont la Sonatel (dont les services sont commercialisés depuis 2006 sous la marque Orange) et Tigo. À eux deux, ils comptaient abonnés le . On n'en dénombrait que pour la téléphonie fixe à la même date, mais il faut prendre en compte les télécentres disséminés sur tout le territoire. Un troisième opérateur, Expresso, appartenant au soudanais Sudatel a été admis dans le marché et en 2010 un rapport de l'Union internationale des télécommunications et de l'Agence de régulation des télécommunications et des postes (Artp) a fait état de d'abonnés. "Maîtresse d'un homme marié", un feuilleton télévisé sénégalais en wolof, est diffusé depuis le 25 janvier 2019. Il devient un phénomène de société au Sénégal et dans la diaspora sénégalaise en dénonçant les blocages sociétaux liés à la sexualité, la polygamie ou le féminisme, ou en étant dénoncé pour cela par les conservateurs et religieux. Religions et croyances. La pratique de l’Islam dans le pays date du (voir l’histoire du Sénégal), époque à laquelle les Almoravides conquièrent le Nord du Sénégal. La population sénégalaise est aujourd'hui très majoritairement musulmane (environ 95 %) et pratique un islam sunnite essentiellement de tradition soufie à travers quatre confréries : la Tijaniyya, le mouridisme, la Qadiriyya et le layénisme. L'islam au Sénégal est connu pour sa tolérance et son ouverture à l'altérité. Le Sénégal est un pays membre de l'Organisation de la coopération islamique. L’apparition du christianisme est beaucoup plus récente. Aujourd'hui, les chrétiens (catholiques, évangéliques, protestants) représentent 4 % de la population du Sénégal. Finalement, l'animisme 1 %, avec ses rites et ses croyances, est toujours présent. Il est pratiqué principalement dans le Sud-Est du pays, et cohabite souvent avec les autres religions. Le Sénégal est un modèle en matière de cohabitation pacifique religieuse. Lors des différentes fêtes religieuses, les Sénégalais ont pour habitude d'offrir des repas à leurs voisins pratiquant d'autres religions. À Popenguine-Ndayane, les musulmans sont plus nombreux que les catholiques, mais au pèlerinage de la Basilique Notre-Dame-de-la-Délivrande de Popenguine (de tout le Sénégal), ils participent et aident à son organisation. Santé. L'accès aux soins de santé au Sénégal reste inégal car le patient doit financer ses propres soins et il y a moins de dispensaires à la campagne. En 2015, l'espérance de vie à la naissance est de 68,6 pour les femmes et de pour les hommes, soit de pour la population globale et le taux de prévalence du SIDA est l'un des plus faibles d'Afrique avec 0,9 % de la population séropositive. Selon un rapport de l'OMS le Sénégal est le pays le plus avancé dans l'organisation des soins de santé publique et privée de la sous-région, plus en avance même que certains pays du Maghreb. La faculté de médecine de l'Université Cheikh-Anta-Diop et ses annexes sont dotées d'équipements à la fine pointe de la technologie à l'image des pays européens, permettant ainsi des recherches telles que celles du professeur Souleymane Mboup sur le VIH. Cependant quelques endémies restent préoccupantes, comme le paludisme ou les bilharzioses, et de grandes disparités subsistent dans le pays, si l'on songe par exemple que 70 % des médecins et 80 % des pharmaciens et des dentistes sont installés dans la capitale. La médecine traditionnelle avec des tradipraticiens reste souvent la solution la moins onéreuse pour les plus démunis. En mars 2020, une pandémie de covid-19 a commencé au Sénégal. Les cas de covid ont augmenté entre les mois de juin et juillet 2021. Sciences. L'Académie nationale des sciences et techniques du Sénégal (ANSTS) a pour missions de conseiller l'État, de promouvoir, de développer et récompenser la culture scientifique. Personnalités. De nombreuses personnalités de renommée internationale ou ayant eu une influence historique ou culturelle sont d'origine sénégalaise ou tout simplement nées au Sénégal. Parmi les plus connues : Ordres et décorations. Ordres nationaux : Ordres ministériels spécifiques : Codes. Le Sénégal a pour codes : |
Sick Of It All |
Science-fiction La science-fiction est un genre narratif, principalement littéraire (littérature et bande dessinée), cinématographique et vidéo-ludique. Comme son nom l'indique, elle consiste à raconter des fictions reposant sur des progrès scientifiques et techniques obtenus dans un futur plus ou moins lointain (il s'agit alors également d'anticipation), parfois dans un passé fictif ou dans un univers parallèle au nôtre. Elle met ainsi en œuvre des progrès physiquement impossibles, du moins en l'état actuel de nos connaissances, donnant les thèmes classiques du voyage dans le temps, du voyage interplanétaire ou interstellaire, de la colonisation de l'espace, de la rencontre avec des extra-terrestres, de la confrontation entre l'espèce humaine et ses créations, notamment les robots et les clones, ou de la catastrophe apocalyptique planétaire. L'intrigue des récits de science-fiction peut se dérouler sur Terre (utopies, dystopies qui sont souvent des "contre-utopies"), dans l'espace interstellaire (vaisseau spatial, exoplanètes, ) ou les deux. La , notamment le "biopunk", le "cyberpunk" et le "postcyberpunk" (qui met en scène des robots), extrapole des connaissances actuelles scientifiques, technologiques et ethnologiques. Ce genre peut parfois être associé à d'autres, comprenant une dimension inexplicable ou imaginaire comme la religion, le fantastique (surnaturel et réalisme fantastique : mythologie, extra-terrestre, monde perdu, mondes parallèles), la fantasy (science fantasy ou space fantasy, faisant souvent intervenir la magie), ainsi que la guerre ou l'humour. Étymologie et origine. Le terme français a pour origine le terme anglais "science fiction" qui est apparu pour la première fois en 1851 sous la plume de William Wilson dans un essai intitulé "A Little Earnest Book Upon A Great Old Subject". Mais il ne s'agissait alors que d'un usage isolé. En , on trouve dans les colonnes du courrier de "Amazing Stories" la phrase suivante : « "Remember that Jules Verne was a sort of Shakespeare in science fiction" ». Mais c'est en 1929, à la suite de l'éditorial d'Hugo Gernsback dans le premier numéro du pulp magazine intitulé "Science Wonder Stories", que le terme commence à s'imposer aux États-Unis, aussi bien dans les milieux professionnels que chez les lecteurs, remplaçant "de facto" d'autres vocables alors en usage dans la presse spécialisée comme « "scientific romance" » ou « "scientifiction" ». Dans son essai intitulé "On The Writing of Speculative Fiction", publié en 1947 dans "Of Worlds Beyond", l'auteur américain Robert A. Heinlein plaida en faveur du concept de « "speculative fiction" », ou fiction spéculative réaliste pour se démarquer des récits de fantasy qui paraissaient encore à l'époque sous l'étiquette générale de "science fiction". Si le néologisme de Robert A. Heinlein connut un grand succès jusque dans les années 1960, le terme de "science fiction" s'est toujours maintenu comme référence. Exemple : "Le Meilleur des mondes" d'Aldous Huxley est un roman de type science-fiction. Dans le monde francophone, le terme de "science-fiction" s'impose à partir des années 1950 avec pour synonyme et concurrent direct le mot "anticipation". Précédemment, il s'agissait plutôt de ou de voyages . Si le mot anglais original s'écrit le plus souvent "science fiction", le mot français s'orthographie avec un trait d'union : "science-fiction". L'abréviation française "S.F.", ou "SF", est devenue courante à partir des années 1970. Définitions et fonctionnement. Une représentation répandue que l'on trouve dans les dictionnaires dépeint la science-fiction comme un genre narratif qui met en scène des univers où se déroulent des faits impossibles ou non avérés en l’état actuel de la civilisation, des techniques ou de la science, et qui correspondent généralement à des découvertes scientifiques et techniques à venir. Cette description générale recouvre de nombreux sous-genres, comme la "hard science-fiction", qui propose des conjectures plus ou moins rigoureuses à partir des connaissances scientifiques actuelles, les "uchronies", qui narrent ce qui se serait passé si un élément du passé avait été différent, le "cyberpunk", branché sur les réseaux, le "space opera", la "speculative fiction", le "planet opera", le policier/science-fiction et bien d’autres. Cette diversité de la science-fiction rend sa définition difficile. Mais, bien qu'il n'existe pas de consensus à propos d'une (presque tous les écrivains ont donné leur propre définition), on admet généralement que certains mécanismes narratifs caractéristiques doivent être présents dans une œuvre pour que l'on puisse la classer dans ce genre. Ainsi, "The Cambridge Companion to Science Fiction" propose-t-il une synthèse de ces caractéristiques par la formulation de plusieurs réquisits dont l'absence semblerait interdire de parler de science-fiction. Ils sont : La science-fiction peut être un matériau pour la prospective, puisqu'elle construit et diffuse des représentations de l'avenir. Elle aide les prospectivistes à imaginer les conséquences et implications des développements techniques. La science-fiction est plus à l’aise dans l’exploration imaginaire et moins sujette à des préventions. La mise en récit ou la mise en images facilite les expressions et alerte sur des tendances jugées inquiétantes. Sous-genres. Hard science-fiction. Une définition de la "hard science fiction", ou "hard SF", fut proposée par l'écrivain américain Allen Steele en 1992 : « La "hard SF" est une forme de littérature de l'imaginaire qui se construit autour de la science établie ou de son extrapolation prudente ». L'expression fut utilisée pour la première fois en 1957 par P. Schuyler Miller dans un compte-rendu de "Islands of Space" de John W. Campbell, publié dans la revue "Astounding Science Fiction". Ce genre est représenté par exemple par les œuvres d'Arthur C. Clarke, Stephen Baxter et Greg Egan. Voyage dans le temps. Le voyage dans le temps peut être un genre à part entière ou l'un des thèmes d'une œuvre. Ce genre affronte les problèmes liés aux paradoxes temporels, comme le paradoxe du grand-père, mais peut amener à des réflexions sur certains événements historiques lorsque, par exemple, un personnage crée l'histoire qu'il voulait en fait observer, comme dans "Voici l'homme" de Michael Moorcock. Le classique du genre est "La Machine à explorer le temps" de . Uchronie. L’uchronie prend comme point de départ une situation historique existante et en modifie l’issue pour ensuite imaginer les différentes conséquences possibles. Un exemple est "Le Maître du Haut Château" de Philip K. Dick. Le Steampunk est, par exemple, une forme d'uchronie rétro-futuriste, principalement caractérisée par les œuvres de Jules Verne ou de H. G. Wells, ainsi que par le roman "L'Ève future" d'Auguste de Villiers de L'Isle-Adam. Cyberpunk. L’appellation cyberpunk est apparue dans les années 1980. Elle désigne un sous-genre de l'anticipation, elle-même sous-genre de la science-fiction, décrivant un monde futuriste de manière dystopique (négative). Le cyberpunk met souvent en scène un futur proche, avec une société technologiquement avancée (notamment pour les technologies de l'information et la cybernétique). Parmi les principaux écrivains cyberpunk, on peut citer William Gibson, et plus particulièrement son roman "Neuromancien" (1984), ou Neal Stephenson. Les récits de "" articulent leur intrigue autour de voyages interplanétaires ou interstellaires. Dans ces récits, les théories d'astrophysique croisent les protocoles des récits d'aventures maritimes et en reprennent généralement le lexique (vaisseau, flotte…). Une part non négligeable de ces récits relève également de la science-fiction militaire. Ces récits, où la possibilité des déplacements à très longue distance est centrale, permettront le développement du thème d'empire interstellaire ou galactique. Le "" apparaît en France notamment avec "La Roue fulgurante" de Jean de la Hire en 1908 puis dans les années 1920 avec les romans de l'auteur américain Edward Elmer Smith, notamment "La Curée des astres" (1928) co-écrit avec , qui parait en 1928 dans le magazine spécialisé américain "Amazing Stories". Ensuite cette thématique apparait à une plus grande échelle dans "Triplanétaire" (1934) qui ouvrait le "Cycle du Fulgur". Après la Seconde Guerre mondiale, le devient un genre prisé de la télévision, avec des séries comme "Star Trek" (États-Unis, 1964) de Gene Roddenberry et "Cosmos 1999" (Angleterre, 1975) de Gerry Anderson. Le film "Stargate, la porte des étoiles" est à l'origine, en 1997, de la série "Stargate SG-1" et de trois séries dérivées, qui connaissent un grand succès populaire tout au long des années 2000. Côté littérature, le genre se porte bien dans les années 2000 et 2010 avec des grands auteurs et des œuvres majeures au premier rang desquels Dan Simmons (cycles Hypérion et Endymion, Ilium et Olympos), Peter F. Hamilton (cycles L'Aube de nuit, L'Étoile de Pandore, La Trilogie du vide), Alastair Reynolds (cycle des Inhibiteurs), David Weber (cycle Honor Harrington) et John Scalzi (cycle du Vieil Homme et la Guerre). Space fantasy. Les récits qui mêlent à des univers de "space opera" certains éléments typiques de la "fantasy" : magie, quête initiatique, atmosphère de conte. Ce genre peut réunir aussi bien les univers futuristes façon Warhammer 40,000, où eldar et orques se battent à bord d'immenses machines de guerre, que d'autres plus étranges comme Spelljammer, où elfes, nains et humains explorent l'espace à bord de navires magiques, dépourvus de la moindre trace de technologie. Un cycle présentant les caractéristiques de la "space fantasy" peut également évoluer en ', comme les cycles de Ténébreuse et "La Ballade de Pern" par exemple. Pour le cinéma, le genre connaît un succès retentissant en 1977 avec le film ' (renommé "" à partir de 1981) (États-Unis, 1977) de George Lucas, premier volet de la trilogie originale "Star Wars", puis quatrième volet de la saga cinématographique du même nom. Les récits de "planet opera "ont pour décor une planète étrangère aux caractéristiques déroutantes et mystérieuses, où les principaux personnages ont pour mission d'explorer et de découvrir sous tous ses aspects (faune, flore, ressources). La trilogie d"Helliconia" en est l'exemple canonique. Science-fiction post-apocalyptique. La science-fiction post apocalyptique met en scène le monde après une catastrophe ayant détruit la planète et/ou radicalement changé la société. Science-fiction féministe. La science-fiction féministe explore la thématique du genre en science-fiction, explorant le thème du genre, de la sexualité, des cyborgs, des mondes unigenrés et de la place des femmes. Parmi les précurseures, on compte Christine de Pizan avec son allégorie La Cité des dames . En France le roman de l'écrivaine féministe Marie-Anne Robert "Voyage de Milord Céton dans les Sept Planètes" publié en 1765 est considéré comme un des premiers romans de science-fiction. En 1666 parait "The Blazing World" de Margaret Cavendish, qui décrit un royaume utopique gouverné par une impératrice. Une autre des premières écrivaines de science-fiction est Mary Shelley, son roman "Frankenstein" (1818) traite de la création asexuée d'une nouvelle vie et est considéré parfois comme une réinvention de l'histoire d'Adam et Ève et est un des premiers romans du genre de la science-fiction, mais aussi féministe dans son essence. Bertha von Suttner publie en "Das Maschinenalter entsteht" (en français : "L'âge des machines") en 1889 qui est considérée comme la première utopie littéraire publiée par une autrice de langue allemande. "Rêve de Sultane" (1905), de la féministe musulmane de science-fiction bengalie Rokeya Sakhawat Hussain est le premier du genre au Bengale. Il est écrit en langue anglaise et aborde le rôle limité des femmes dans l'Inde coloniale. Dans le roman utopique "Beatrice the Sixteenth" (1909), l'écrivaine transgenre Irene Clyde crée un monde où le genre n'est plus reconnu et l'histoire elle-même est racontée sans l'utilisation de noms sexués. Trois textes notables de la science-fiction féministe de la période des années 1960 sont "La Main gauche de la nuit" (1969) d'Ursula K. Le Guin, "Une femme au bord du temps" (1976) de Marge Piercy et "L'Autre Moitié de l'homme" (1970) de Joanna Russ. Chacun met en évidence ce que les autrices croient être les aspects socialement construits des rôles de genre en créant des mondes avec des sociétés sans genre. Dans les années 1970, des romans de féminisme intersectionnel et de science-fiction queer font leur apparition. "Liens de sang" d'Octavia E. Butler (1979) raconte l'histoire d'une femme africaine-américaine vivant aux États-Unis en 1979 qui voyage de manière incontrôlable dans le temps vers le sud d'avant-guerre. Le roman pose des questions compliquées sur la nature de la sexualité, du genre et de la race lorsque le présent fait face au passé. Samuel Delany est un auteur bisexuel et afro-américain emblématique qui aborde de manière frontale pour la première fois la sexualité queer dans ses romans et nouvelles. "…et pour toujours Gomorrhe" ("") remporte le prix Nebula de la meilleure nouvelle courte 1967 et "L'Intersection Einstein" remporte le prix Nebula du meilleur roman 1967. Delany publie aussi un essai intitulé "Racism and Science Fiction". La nomination de femmes et de personnalités queer et issues de minorités raciales entraine en 2013 des réactions fortes de Larreia Correia, qui crée peu de temps après le mouvement des Sad Puppies, une campagne anti-diversité dans le milieu SF. Histoire. La science-fiction est un genre complexe qui se prête mal à l'exégèse historique. De nombreux aspects, comme les raisons sociales, économiques, culturelles de son développement dans tel pays, n'ont pas fait, ou très peu, l'objet d'études approfondies. Les études de la science-fiction en tant que littérature à part entière sont également peu nombreuses. De même que par un débat sans fin on tente de définir la science-fiction, ses historiens ne sont pas toujours d'accord sur les origines du genre, et c'est un poncif de l'histoire de la science-fiction que de rechercher ses origines dans les écrits les plus anciens . "Histoires vraies" écrit au par Lucien de Samosate, est parfois considéré comme le premier ouvrage relevant du genre. Ses voyages extraordinaires auront une très longue postérité. Mais cette archéologie se heurte à une objection : Pour sa part, Régis Messac n'hésite pas à prétendre dès 1926 que l'on pourrait « composer un numéro entier de "The American Mercury" rien qu’avec des titres d’œuvres de fiction traitant de thèmes scientifiques ». Et d’en citer quelques-unes choisies au hasard parmi les plus significatives : Parmi les romans du début du , il cite "Le Péril bleu", de Maurice Renard et "les Xipéhuz", de J. H. Rosny. D'autres, c'est le cas de Brian Aldiss dans son essai "Trillion Year Spree" ou de Joanna Russ dans "To Write Like a Woman" considèrent que le premier roman de science-fiction n'est autre que le roman "Frankenstein" de Mary Shelley. C'est du moins le premier ouvrage dans lequel est créée une histoire fantastique qui ne relève pas de la pure fantaisie ou du surnaturel : Parmi les précurseurs sont souvent cités : La science-fiction moderne compte notamment une mère fondatrice et deux pères fondateurs : Ils appartiennent cependant à une époque qui voit fleurir de nombreux romans d'anticipation scientifique. Cette floraison est favorisée par de nombreux progrès scientifiques réels, par l'alphabétisation de la fin du et par le développement d'une littérature populaire diffusée par des revues. Parmi les auteurs d’environ trois mille « romans scientifiques » écrits en français entre 1860 et 1950, on signalera : Maurice Renard, Gustave Le Rouge, Léon Groc, Régis Messac ("Quinzinzinzili"), Jacques Spitz ("L'Œil du purgatoire"), Théo Varlet, Jean Ray, René Barjavel et Olivier de Traynel. La science-fiction n'est donc pas née aux États-Unis au , mais en France au . Des écrivains comme Flammarion, Verne, Rosny aîné, ou Renard avec le merveilleux scientifique vont poser les bases de la science-fiction moderne, bien avant Heinlein, Asimov, Dick et d'autres écrivains américains. Âge d'or. Si la science-fiction a vu le jour en Europe et s’est bien développée en France, au Royaume-Uni et en Allemagne, ce sont les États-Unis, entre 1920 et 1955, qui donneront au genre son « âge d'or ». Ce déplacement de l'Europe aux États-Unis peut s'expliquer par plusieurs facteurs : d'une part, la presse populaire en Europe est plus exposée à la censure liée aux publications pour la jeunesse ; d'autre part, la littérature, en France particulièrement, est fortement hiérarchisée entre une littérature distinguée et une littérature de masse. Un autre facteur est l'industrialisation de la presse, qui permet des publications bon marché et à gros tirage. C’est à ce moment que se multiplient les revues spécialisées de science-fiction qui suivent la tradition des "pulps" (revues populaires de faible qualité et très peu chères). Citons parmi les premières du genre "Weird Tales", née en 1923 ; "Amazing Stories", née en 1926 ; "Wonder Stories", née en 1929 ; "Astounding Stories", née en 1930. Aux États-Unis, plus de existeront simultanément. L’édition sous forme de livres des textes de science-fiction est plus tardive, et se manifestera plus particulièrement après la Seconde Guerre mondiale, avec le livre de poche, et dans des pays dont l'industrie favorise ce type de format au détriment de la revue, comme la France. Elle précède de peu la disparition de nombreuses revues. Certains auteurs et critiques, comme Serge Lehman, voient cependant là une sorte d'« amnésie » frappant la production française. Dans l'anthologie "Chasseurs de chimères" (2006), Lehman rassemble des textes tels que la nouvelle de J.-H. Rosny aîné, "Les Xipéhuz" (1897) ; l'épopée spatiale de Jean de La Hire, "La Roue fulgurante", parue dans "Le Matin" en 1907 ; "La Découverte de Paris", d'Octave Béliard, parue dans "Lectures pour tous" (1911) ; le roman de Maurice Renard, "Le Péril bleu" (1912), racontant la rencontre avec une autre espèce ; "Les Signaux du Soleil" (1943) de Jacques Spitz, etc. Le magazine "Sciences et Voyages" publie ainsi plusieurs nouvelles au cours de la première moitié du , tandis que le Prix Jules-Verne récompense divers auteurs de 1927 à 1933 puis de 1958 à 1963. Après la Seconde Guerre mondiale, la France découvrira la SF américaine, notamment sous l'influence de Boris Vian et Raymond Queneau. En 1953, Michel Butor commente la . Le support de parution périodique (revue, "pulp") a fortement marqué le genre. Le format et la périodicité ont fait que beaucoup de nouvelles et de courts romans ("novellas") ont été écrits. Les œuvres longues n’étaient que le fait des auteurs les plus célèbres et paraissaient par épisodes, ce qui n’était pas sans conséquences sur le texte puisque les auteurs devaient s’y adapter. De ces premiers magazines spécialisés ont émergé la plupart des principaux écrivains classiques de science-fiction : Howard Phillips Lovecraft, Isaac Asimov, Frank Herbert, Ray Bradbury, Arthur C. Clarke, Frederik Pohl, Robert A. Heinlein, Alfred Bester, A. E. van Vogt, Clifford Donald Simak, Theodore Sturgeon Si cette période voit apparaître les auteurs de référence, les productions habituelles n'en sont pas moins médiocres : Elle est aussi marquée par son temps, en particulier dans les années 1930-1940 où à travers les poncifs du genre transparaissent des thèmes nationaux et populistes : La science-fiction n'échappe pas non plus à l'influence du nazisme (voir ). Cette période fut aussi marquée par l'émergence du cinéma, né en 1895. Celui-ci se tournera très tôt vers la science-fiction et le fantastique, avec "Le Voyage dans la Lune" de Georges Méliès (1902) et les films de l’expressionnisme allemand, comme le "Nosferatu" ("Nosferatu, eine Symphonie des Grauens") de F.W. Murnau (1922) et "Metropolis" de Fritz Lang (1927). Parmi les films majeurs de cette période, on peut citer "Frankenstein" (James Whale, 1931), "King Kong" (Merian C. Cooper et Ernest B. Schoedsack, 1933), qui étonna par ses effets spéciaux, "Le Jour où la Terre s'arrêta" ("The Day the Earth Stood Still", Robert Wise, 1951 — qui réalisera plus tard le premier "Star Trek, le film") et "Planète interdite" ("Forbidden Planet", Fred M. Wilcox, 1956). Mais il ne faut pas oublier une production plus populaire mais aussi emblématique, caractérisée (avant l’ère de la télévision) par les "serials", films découpés en épisodes, dont les héros s’appelaient "Flash Gordon" (1936, ) ou "Buck Rogers" (1939, ). La bande dessinée ne fut pas en reste, avec l’explosion des "comics" comme "Buck Rogers" et "Flash Gordon", et ceux qui sont consacrés aux super-héros ("Superman", "Batman", "Wonder Woman" (de la "DC Comics"), ou bien encore "Spider-Man", "les Quatre Fantastiques", "X-Men" (de la "Marvel")). En France, de 1953 à 1962, les publications "Artima" développèrent ce genre dans des publications de kiosque, avec des histoires originales ("Meteor", "Atome Kid"), et des traductions de matériel britannique ("La Famille Rollinson dans l'espace") ou américain ("Aventures Fiction", "Sidéral"). Parmi les écrivaines de l'époque on trouve Judith Merril, autrice de "Le Permissionnaire", Alice Eleanor Jones, autrice de "Life, Incorporated" (1955), "The Happy Clown" (1955), "Recrutement Officer" (1955) ; et Shirley Jackson, autrice de "Maison hantée" (1959) et "Nous avons toujours vécu au château" (1962). Mutations des années 1960-1970. Depuis les années 1960-1970 émerge une science-fiction différente, moins narrative, influencée par la contre-culture et les sciences humaines. Elle porte un regard critique sur notre société et propose souvent une réflexion sur les problèmes contemporains (écologie, sociologie, rôle des médias, sexualité, drogues, rapport au pouvoir, aux nouvelles technologies, à l’histoire). Elle est ancrée dans son temps et ses problématiques, tout en restant œuvre d’évasion. Elle sert aussi d'exutoire comme le fut "La Guerre éternelle" de Joe Haldeman, roman dans lequel l'auteur exorcise sa guerre du Viêt Nam. Cela n'empêche pas les éditeurs de continuer à publier une science-fiction purement distractive. En 1967, Anne McCaffrey commence sa série de science-fiction "La Ballade de Pern". Deux des nouvelles incluses dans le premier roman, "Le Vol du dragon" font de McCaffrey la première femme à remporter un prix Hugo ou Nebula. La main gauche de la nuit d'Ursula K. Le Guin se déroule sur un monde unigenré, une planéte dont les habitants n'ont pas de sexe bilogique fixe. C'est l'un des exemples les plus influents d'anticipation, de science-fiction féministe et de . Des écrivaines telles que Louky Bersianik ("L'Euguélionne", 1976) ou Françoise d'Eaubonne ("Les bergères de l’apocalypse", 1978) s'approprient le genre pour exprimer des revendications féministes dont on pourra trouver le prolongement dans des dystopies telles que "La servante écarlate" de Margaret Atwood. Marge Piercy publie "Une femme au bord du temps" en 1976 et Joanna Russ "L'Autre Moitié de l'homme" en 1970. La science-fiction a également exploré d'autres voies à travers l'expérimentation stylistique. Au Royaume-Uni, la "new wave" est née autour de Michael Moorcock et sa revue "New Worlds". Brian Aldiss et J. G. Ballard, dont le roman "Crash" est un bon exemple des recherches formelles poursuivies par cette école. Judith Merril a popularisé le genre aux États-Unis, sans toutefois employer le terme "New Wave". En 1966, l'américain Robert Heinlein décrit dans "Révolte sur la Lune", une société libertaire innovante"." En France, Michel Jeury s'est inspiré du "Nouveau Roman" dans "Les Singes du temps" et "Le Temps incertain". Certains auteurs utilisent des tropes de science-fiction reconnaissables, mais ne les commercialisent pas comme de la science-fiction : (2007) de Jeanette Winterson, et "Le Dernier Homme" (roman) (2003) de Margaret Atwood. Doris Lessing, qui a reçu plus tard le prix Nobel de littérature, a écrit une série de cinq romans de SF entre 1979 et 1983, "Canopus dans Argo" qui dépeignent les efforts des espèces et civilisations plus avancées pour influencer celles qui le sont moins, y compris les humains sur Terre. Année 1980 - 1990. En 1986, Lois McMaster Bujold débute sa "Saga Vorkosigan" par un premier roman "Cordelia Vorkosigan" (roman) avec un personnage féminin fort, Cordelia. Actuellement. Depuis lors, la science-fiction est un genre riche et diversifié. Elle mêle des œuvres de grande qualité (et a gagné ses lettres de noblesse littéraires avec des auteurs comme Ray Bradbury) à de la « littérature de gare ». Parmi les auteurs contemporains, on peut citer entre autres Orson Scott Card, Dan Simmons, Iain Banks, Alastair Reynolds ou encore Peter F. Hamilton. Le Français Alain Damasio, propose quant à lui une science fiction libertaire et militante en réaction face aux sociétés de contrôles et à l'émergence des réseaux sociaux. Les sous-genres, évoqués au début du texte, se sont aussi multipliés et de nouveaux continuent d’apparaître. La science-fiction est aujourd'hui utilisée notamment dans l'armée française, une dizaine d'auteurs spécialisés dans ce genre narratif ont été sollicités afin d'imaginer des potentielles menaces entre 2030 et 2060. Nouvelle géographie. La science-fiction a aussi étendu son essor géographiquement, bien au-delà des États-Unis. On a vu, par exemple, une « nouvelle vague » de science-fiction française dans les années 1970 (avec, entre autres, Pierre Pelot (alias Pierre Suragne), Jean-Pierre Andrevon, Gérard Klein (également responsable de la collection Ailleurs et Demain des éditions Robert Laffont, qui a beaucoup fait pour donner à cette littérature ses lettres de noblesse), Michel Jeury, Philippe Goy, Dominique Douay, Pierre Bordage et Ayerdhal ou encore Philippe Ébly (pour les enfants et adolescents des années 1970 et 1980). Et aussi René Barjavel qui excelle dans ce domaine. On compte aussi de nombreux auteurs de talent dans les pays de l’Est (rarement traduits en français) avec à leur tête le Polonais Stanislas Lem (Stanisław Lem) et les frères russes Arcadi et Boris Strougatski. Si en France les revues spécialisées n’ont jamais joué un rôle de premier plan, comme aux États-Unis, elles n’en existent pas moins. Parmi les principales, on peut citer "Galaxies", "Bifrost", "Fiction", "Khimaira", "Lunatique", "Science-Fiction magazine", "Solaris", "Univers". Cinéma et séries d'animation. Dans le monde francophone, particulièrement en France et au Québec, l'usage de l'anglicisme sci fi est très courant pour décrire ce genre cinématographique. Grâce au cinéma le lectorat a grandement augmenté et les romans de science fiction représentent aujourd'hui une industrie hautement lucrative. La science-fiction est d'ailleurs un des genres majeurs du cinéma, soit sous la forme d’adaptations d’œuvres littéraires, soit sous la forme de créations originales. "Le Voyage dans la Lune" (1902) de Georges Méliès est ce que l'on peut considérer comme le premier film de science-fiction. Parmi les films importants qui imposèrent un certain nombre de standards, on peut retenir "2001, l’Odyssée de l’espace" (1968) de Stanley Kubrick, "La Planète des singes" (1968) de Franklin Schaffner, "Star Wars" (1977) de George Lucas (qui intègre plusieurs éléments relevant davantage de la fantasy), "Alien - Le huitième passager" (1979) et "Blade Runner" (1982) de Ridley Scott, "Mad Max" (1979) de George Miller. Évidemment, il faut aussi citer la série britannique "Doctor Who" apparue en 1963 et existant toujours aujourd'hui, qui est la plus longue série télévisée de science-fiction et a inspiré de nombreux auteurs de science-fiction. Les années 1980 peuvent être considérés comme la décennie de la science-fiction ; les plus grands exemples de sa popularité mondiale sont certainement "E.T., l'extra-terrestre" de Steven Spielberg et la trilogie de "Retour vers le futur" de Robert Zemeckis. La série télévisée "Star Trek" (datant de 1966) fut remise à la mode grâce à une série de films dérivés. Le cinéma de science-fiction s'est considérablement diversifié à partir des années 1990 avec "Jurassic Park" de Steven Spielberg, ainsi qu"Independence Day" et "Stargate, la porte des étoiles" (1994) de Roland Emmerich. Ce film engendra les séries à succès "Stargate SG-1", "Stargate Atlantis" et "Stargate Universe" (respectivement, à partir de 1997, 2004 et 2009). La combinaison avec la comédie fut de nouveau possible grâce à "Men in Black" de Barry Sonnenfeld, et le drame catastrophe avec "Armageddon" de Michael Bay. Plus récemment, "Matrix" de Lana et Lilly Wachowski ouvrit une nouvelle ère pour la science-fiction, avec pour thème le danger d'un monde informatisé. Cela n'empêcha pas les retours aux sources avec le remake "La Guerre des mondes" (d’après ) et "Minority Report" (d'après une nouvelle de Philip K. Dick) ; deux films réalisés par Steven Spielberg, l'un des maîtres incontestés du genre. L’idée perçue du film de science-fiction est souvent associée à une débauche d’effets spéciaux, mais il existe des films dits de « science-fiction minimaliste », qui mettent en scène la fiction sans aucun effet spécial, uniquement en jouant avec le cadrage, la mise en scène, le jeu d’acteurs et la musique ; citons, par exemple, "La Jetée" de Chris Marker (1962), "Solaris" et "Stalker" d’Andreï Tarkovski (1979), "Le Trésor des îles Guerrières" de François-Jacques Ossang (1990), ou encore "Cypher" (film, 2002) de Vincenzo Natali, "" de Carlos Atanes (2004) et "Bienvenue à Gattaca" d’Andrew Niccol ("Gattaca", 1997). Concernant le cinéma d’animation, les Japonais occupent une place prépondérante tant au cinéma qu’à la télévision (on parle d’"anime" ou de "manga eiga" pour désigner ces réalisations), avec notamment des réalisateurs comme Leiji Matsumoto (univers d’"Albator" et ses dérivés), Katsuhiro Ōtomo ("Akira") et Mamoru Oshii ("Ghost in the Shell"). Mais des réalisations françaises ("Le Secret des Sélénites" ou "Les Fabuleuses Aventures du légendaire baron de Münchhausen" de Jean Image, "Gandahar" de René Laloux), ou bien américaines ("Métal hurlant"), font partie intégrante du développement de la science-fiction dans le cinéma d’animation. La déferlante des séries d’animation japonaises (parfois coproduites avec des Français ou des Américains), qui constituèrent l’essentiel des programmes « jeunesse » de la télévision française durant la décennie 1978-1988, contribua largement à populariser le genre en France, bénéficiant d’une diffusion médiatique de masse sur des chaînes hertziennes (TF1, Antenne 2, FR3, puis La Cinq) aux heures de grande audience. De ce fait, des séries telles que "Goldorak", "Capitaine Flam", "Albator", "Il était une fois… l'Espace", "La Bataille des planètes", "Les Mystérieuses Cités d'Or" et "Ulysse 31" ont marqué une génération d’enfants des années 1980. Bande dessinée. En bande dessinée, la science-fiction est l’occasion de développer des univers esthétiques fabuleux. Aux États-Unis, après l’explosion des comics comme "Buck Rogers" et surtout "Flash Gordon" d’Alex Raymond (1934). Les précurseurs français sont Raymond Poïvet et Roger Lécureux avec "les Pionniers de l'Espérance" (1945), Marijac et Auguste Liquois ou Pierre Duteurtre avec "Guerre à la Terre" publié par Coq hardi (1946/47) et Kline avec "Kaza le martien" paru dans l’hebdomadaire OK (Belgique), de 1946 à 1948. Cette bande dessinée s'inspirait de "Flash Gordon". En 1947 au Québec, le journal "Le Progrès du Saguenay" publie la première bande dessinée de science-fiction du pays : "Les Deux Petits Nains", du jeune Paulin Lessard. Il est difficile de ne pas parler d’Edgar P. Jacobs, dont "Le Rayon U" fut publié en 1943. À la fin des années 1940, il crée la série des aventures de "Blake et Mortimer", un classique du genre. Hergé publie "Objectif Lune" en 1950 et "On a marché sur la Lune" en 1952. Il y eut ensuite "Barbarella" (1962) de Jean-Claude Forest, "Les Naufragés du temps" (1964) de Paul Gillon et Jean-Claude Forest, "Lone Sloane" (1966) de Philippe Druillet, "Luc Orient" (1967) d'Eddy Paape et Michel Greg et enfin et surtout "Valérian, agent spatio-temporel" devenu plus tard "Valérian et Laureline" de Jean-Claude Mézières, Pierre Christin et Évelyne Tranlé (de 1967 à aujourd'hui) qui popularisa le genre science-fiction en bande dessinée. Christin et Mézières souhaitaient que les aventures de Valérian et Laureline soient aussi des histoires de politique-fiction (écologie, relation de classes ou de travail, féminisme, syndicalisme) plutôt situées à gauche mais non directement ou ouvertement politique comme il peut y en avoir dans "Charlie Hebdo". "Mézières" fut largement pillé par les décorateurs et les costumiers de George Lucas, qui possédait, entre autres, nombre des albums de "Valérian" dans sa bibliothèque, pour "Star Wars" (1977). Roger Leloup est un scénariste et dessinateur belge dont une partie de la série "Yoko Tsuno" se déroule dans un univers empreint de science-fiction. Certains albums des "Aventures de Tintin et Milou" peuvent être classés dans la catégorie science-fiction, par exemple "On a marché sur la Lune", qui raconte, avec quinze ans d’avance, le premier voyage sur la Lune, ou "Vol 714 pour Sydney", qui fait intervenir des extraterrestres. Parmi les grands créateurs du genre, on compte beaucoup de dessinateurs et de scénaristes français ou travaillant en France, notamment ceux qui gravitent autour du journal "Métal hurlant" ; citons, par exemple, Enki Bilal, Caza, Philippe Druillet, Alejandro Jodorowsky, Olivier Ledroit, Moebius et Olivier Vatine. De même avec le magazine bimensuel "Ère comprimée" avec Dick Matena, Rafa Negrete ou encore Cacho Mandrafina. On trouve également François Bourgeon avec "Le Cycle de Cyann", une série qui invente une civilisation avec des mœurs, une faune et une flore parfaitement structurées. Aux États-Unis, on peut citer Alex Raymond, Richard Corben, Frank Miller, et les Britanniques Simon Bisley, Pat Mills (scénariste) et Alan Moore (scénariste). En 1950, Frank Hampson créa pour le magazine britannique "Eagle", "Dan Dare, Pilot of the Future". Les "mangas" (bandes dessinées japonaises) exploitent elles aussi énormément les thèmes de la science-fiction et du fantastique. Citons par exemple Gō Nagai, Akira Toriyama, Katsuhiro Ōtomo et Masamune Shirow. Œuvres audio. Alain Damasio a scénarisé "Fragments Hackés d’un Futur qui résiste", une fiction audio qui propose un univers dystopique, et dresse un monde où bien commun et libertés individuelles ont laissé place à une surveillance étatique et policière extrême. L'œuvre est lauréat 2015 du Grand Prix de la fiction radiophonique de la Société des gens de lettres. Fandom, lectorat et prix littéraires. La littérature de science-fiction a généré une importante activité : du fait de sa publication relativement marginale, elle a très tôt suscité la création de formes d'institutionnalisation qui lui étaient refusées par la littérature « distinguée » et la critique littéraire source de légitimité. Des communautés d'initiés se sont créées : l'expression fandom de la science-fiction ou fandom SF fait ainsi référence à la communauté de gens dont l'un des intérêts principaux réside dans la science-fiction, ces personnes étant en contact les uns avec les autres en raison de cette passion commune. La notion de fandom est donc associée à celle de sous-culture, dont la spécificité « science-fictionnesque » a été interrogée par des acteurs de ce domaine, tels Gérard Klein ou Philippe Curval. Des prix littéraires ont aussi été créés, d'abord par les amateurs de science-fiction, puis par des éditeurs qui ont contribué à la professionnalisation du genre. Les plus importants sont les prix Hugo et Nebula pour les États-Unis et pour la France le Grand prix de l'Imaginaire et le prix Rosny aîné. D'après certaines enquêtes, le lectorat de la science-fiction serait majoritairement composé de garçons, collégiens ou lycéens. Des études sociologiques plus rigoureuses suggèrent en revanche que le genre n'est pas le critère dominant, la SF étant, à l'école, la littérature privilégiée des bons élèves et issus de milieux aisés de même que ses lecteurs adultes disposent d'une éducation supérieure à la moyenne, technique ou non. Événements ayant pour thème la science-fiction. Les rassemblements autour de la littérature de science-fiction sont traditionnellement appelés «convention». |
Société nationale des chemins de fer français La Société nationale des chemins de fer français (SNCF) est l'entreprise ferroviaire publique française, officiellement créée par convention entre l'État et les compagnies de chemin de fer préexistantes, en application du décret-loi du . Depuis sa création en 1938 et pendant 45 ans, la SNCF a été une société anonyme. Passée ensuite en 1983 sous le statut d’établissement public à caractère industriel et commercial (Épic), la SNCF retrouve sa forme originelle de société en 2020, l’État étant, par la loi, l’actionnaire unique du groupe. Elle est notamment présente dans les domaines du transport de voyageurs, du transport de marchandises et réalise la gestion, l'exploitation et la maintenance du réseau ferré national appartenant à l'État. Elle est devenue un établissement public à caractère industriel et commercial (EPIC) en 1983, alors qu'elle était auparavant une société anonyme d'économie mixte. La SNCF était aussi un opérateur de télécommunications via Télécom Développement, puis Cegetel. Sa participation dans cette dernière entreprise a été revendue en 2005 lors de la fusion de Cegetel avec Neuf Telecom SA. Précédemment, entre et , la SNCF, toujours EPIC, encadre deux autres EPIC dénommés SNCF Réseau et SNCF Mobilités. En 2017, le réseau ferré national propriété de SNCF Réseau compte de lignes dont 58 % () sont électrifiées et de lignes à grande vitesse. La SNCF contrôle plus de 650 filiales présentes dans des activités liées au transport de personnes ou de marchandises, à la logistique ou à des activités d'études et d'ingénierie des transports, mais parfois fort éloignées du chemin de fer. Ces filiales de droit privé d'entreprises sont tenues par la société de portefeuille SNCF Participations et ses sous-holdings, dont quelques-uns groupent ces filiales et participations selon la branche d'activité industrielle. Les trois sociétés anonymes à capitaux publics et l'ensemble de leurs filiales forment le groupe SNCF ; cette coexistence de sociétés nationales et d'entreprises entièrement de droit privé est présente dans chaque branche d'activités industrielles. Depuis le , la SNCF retrouve sa forme originelle de société. Elle est constituée sous la forme d'une société anonyme à capitaux publics. Le capital de la SNCF est exclusivement détenu par l'État français. L’État est en effet, par la loi, l’actionnaire unique du groupe. Elle devient la société mère chargée du pilotage stratégique du groupe SNCF et de missions transversales. Elle détient la totalité du capital de deux autres sociétés anonymes à capitaux publics, SNCF Réseau affectataire et gestionnaire du réseau ferré national et SNCF Voyageurs chargée de l'exploitation des trains. La SNCF est aussi chargée des services divers comme la Sûreté ferroviaire ou encore SNCF Immobilier. La SNCF est donc une entreprise ferroviaire intégrée. Elle exerce à la fois le métier d'exploitant (voyageurs et marchandises) et celui de gestionnaire d'infrastructure ferroviaire. En parallèle de cette diversification des services antérieurement directement liés au transport ferroviaire : courrier, colis, bagages accompagnés (Poste, Sernam) ont été transférés du rail vers la route. Chaque jour, la SNCF fait circuler en moyenne commerciaux, achemine de voyageurs et transporte de marchandises. Par son volume d'activité et la taille de son réseau, c'est la troisième entreprise ferroviaire européenne, après la Deutsche Bahn et les Chemins de fer russes. Confronté à une baisse de l'activité fret, qui doit être restructurée, ainsi qu'à l'ouverture des lignes à la concurrence, la SNCF a fait part de sa volonté de « mettre l'accent » sur six relais de croissance (autoroutes ferroviaires, autoroutes de la mer, transport combiné, logistique urbaine innovante, investissements dans les ports et plates-formes multimodales), en complément d'un investissement dans la rénovation des lignes de la banlieue parisienne. De plus, confrontée à l'arrivée de la concurrence sur son marché historique, la SNCF s'est donné pour objectif de réaliser la moitié de son chiffre d'affaires à l'étranger d'ici à 2025, afin de mieux défendre ses positions en France. Histoire. Création de la SNCF et Seconde Guerre mondiale. La Société nationale des chemins de fer français a été créée par convention du 1937 entre l’État et les différentes compagnies privées de l'époque : Nord, Est, PO, Midi, PLM, auxquelles s'ajoutent les Syndicats du Chemin de fer de Grande Ceinture et de Petite Ceinture et les deux administrations nationales, les chemins de fer d'Alsace et de Lorraine et les chemins de fer de l’État. Le janvier 1938, l’exploitation des lignes de ces anciennes compagnies, syndicats et administrations est transférée à la nouvelle SNCF, les anciennes compagnies de chemin de fer restant propriétaires de leur domaine privé. Cette convention a été validée par décret-loi du alors que les réseaux comptabilisaient des pertes cumulées de de francs. La SNCF exploite alors un réseau comportant de voies dont 8 % sont électrifiées et emploie . Elle s'organise autour de cinq régions : Est, Nord, Ouest, Sud-Est et Sud-Ouest. Ces régions correspondent, approximativement, aux anciens réseaux privés et publics. Pour rétablir l'équilibre financier de la SNCF un plan de fermeture de de lignes est adopté par le gouvernement Chautemps. La SNCF reprend également l'exploitation des lignes de la Société royale grand-ducale des chemins de fer Guillaume-Luxembourg (GL). La SNCF a été créée, à l'origine, sous le régime d'une société anonyme d'économie mixte, pour une durée de 45 ans, l'État possédait 51 % du capital, les 49 % restant appartenant aux actionnaires des sociétés financières ayant succédé aux anciennes compagnies. Les agents de la SNCF ne sont pas des fonctionnaires mais la plupart des membres du personnel (dits « cadre permanent ») bénéficient d'un statut particulier depuis 1920 (« statut cheminot ») et d'un régime spécial de retraite. Les personnels contractuels sont affiliés au régime général de la sécurité sociale créée au lendemain de la Seconde Guerre mondiale. À la suite de la signature de l'armistice franco-allemand du 1940, en application de l'article 13 de la convention d'armistice, les chemins de fer de la zone occupée (soit les deux tiers du réseau SNCF) et le « personnel spécialisé nécessaire » sont mis à la disposition de l'occupant, qui fixe les priorités (ce sera de même pour les routes et voies navigables). L'Alsace-Moselle étant annexée, son réseau ferroviaire ainsi que le réseau Guillaume-Luxembourg sont exploités par la "Deutsche Reichsbahn". Dès l'été 1940, l'occupant allemand effectue des prélèvements de matériel, le premier ordre portant sur 1000 locomotives et wagons. À partir de 1941, les locomotives à vapeur de la SNCF sont équipées du traitement intégral Armand (TIA). Après la rafle du Vel d'Hiv, les 16 et 1942, les juifs arrêtés sont déportés par les autorités françaises dans des trains de la SNCF vers les camps de Drancy, Pithiviers et Beaune-la-Rolande. Le , un conducteur de locomotive, Léon Bronchart, a refusé de conduire un train de prisonniers ; c'est le seul cas connu. Des trains de déportés sont partis vers la frontière allemande jusqu'en 1944. Au total, environ et politiques, tziganes, résistants, homosexuels ont été envoyés de France vers les camps de la mort. En 2014, le gouvernement français a accepté de payer une pénalité de de dollars au gouvernement américain pour avoir transporté des Américains vers les camps de la mort durant la Seconde Guerre mondiale. Par mesure de répression exercée par les occupants allemands ou par le gouvernement de Vichy, de la SNCF sont morts en prison, déportés, exécutés avant ou après un procès. Les cheminots tués sous les drapeaux en 1940 et en 1944-1945, par balles ou mines dans le cours de leur activité ou lors de bombardements, sont environ . Durant la Seconde Guerre mondiale, le réseau ferré est gravement endommagé. La SNCF perd près de 20 % de l'ensemble de ses moyens. À l'occasion de la présentation en d'un projet de train à grande vitesse entre Tampa et Orlando aux États-Unis, la SNCF exprime pour la première fois ses regrets pour son rôle dans la déportation de juifs français durant la Seconde Guerre mondiale. Après guerre : renouveau et vitesse. Après de longues années de reconstruction et de modernisation du réseau, la SNCF retrouve une activité commerciale équivalente à celle d'avant-guerre et peut s'enorgueillir d'exploits techniques. Les 28 et 1955 les locomotives CC 7107 et BB 9004 de la SNCF atteignent , double record du monde de vitesse. Dans les années 1950, est définitivement mis au point, par les ingénieurs de la SNCF, l'usage de l'électrification par courant alternatif « à fréquence industrielle », qui se généralise par la suite en France et dans le monde. La SNCF supprime la le 1956 (mesure européenne). Afin de reconquérir une clientèle d'hommes d'affaires, la SNCF participe, dès sa création en 1957, au réseau des trains Trans-Europ-Express (TEE). Parallèlement, elle renouvelle son matériel pour ses « trains drapeaux » en commandant des nouvelles voitures inox. En 1967, le Capitole est le premier train à atteindre en service commercial, sur une partie de son trajet (Orléans-Vierzon) entre Paris et Toulouse. À la fin des années 1960, pour moderniser ses « trains drapeaux », la SNCF met en service de nouvelles voitures dites « Grand confort » sur certaines relations entre Paris et la province. Une convention signée le modifie substantiellement la convention du . Cette nouvelle convention donne à la SNCF une autonomie de gestion. Elle met à la charge de l'État la compensation financière des obligations de service public qu'il lui impose. En contrepartie, la société doit rétablir son équilibre financier. Cette convention est approuvée par un décret le . Un décret du suivant approuve le nouveau cahier des charges auquel est soumis la SNCF. Face à la concurrence de l'automobile ainsi qu'à l'émergence de transports guidés innovants, tel l'aérotrain, et de nouveaux avions à décollage court, la SNCF se lance dans la grande vitesse ferroviaire, avec le prototype TGV 001 livré en 1972. Au début des années 1970, pour accroître la vitesse sur les lignes non électrifiées et moyennement armées, la SNCF met en service de nouvelles rames automotrices ETG (éléments à turbine à gaz) propulsées par une turbine à gaz, appelées turbotrains, auxquelles succéderont les rames RTG (rames à turbines à gaz). Outre l’aspect innovant de leur propulsion, un temps envisagé pour le futur TGV, et de leur légèreté, les ETG Paris-Caen-Cherbourg marquent une rupture commerciale avec le passé ; quasi-cadencement (plusieurs trains à heure fixe au cours de la journée), accès de la vitesse aux voyageurs de classe sans supplément (en rupture avec la philosophie des « trains d’affaires avec suppléments », tels les Trans-Europ-Express). Autant de nouveautés qui seront reprises au lancement du TGV. Le 1974, la 141 R 73 du dépôt de Sarreguemines est la dernière locomotive à vapeur de la SNCF qui effectue un service commercial. Un an plus tard, le 1975, apparaissent les premières voitures Corail. Leur couleur extérieure (bicolore avec porte d’accès de couleur vive), leur aménagement intérieur (sièges disposés de chaque côté d’un couloir central s’inspirant d’une cabine d’avion, climatisation dans les deux classes, siège en binôme en classe séparé par un accoudoir relevable, tablette de lecture relevable) et leur douceur de roulement tranchaient radicalement des autres matériels classiques en service, parfois datant d’avant-guerre, donnant ainsi un effet de jeunesse et de modernité au transport ferroviaire que souhaite incarner la SNCF face à la concurrence automobile. Au cours de son histoire, la SNCF a fait appel à des designers de renom, tels que Paul Arzens, Jacques Cooper et Roger Tallon, pour l'aspect intérieur et extérieur de ses matériels roulants, mais aussi pour la signalétique et son identité visuelle. Changement de statut et TGV. Le lancement commercial du TGV a lieu le 1981 entre Paris et Lyon. L’innovation est non seulement technique, mais aussi commerciale avec la réservation obligatoire. Depuis cette date, le réseau français de lignes à grande vitesse (LGV) n'a cessé de croître avec plus de en service depuis . Le réseau est un des plus denses et des plus importants en Europe. Au , l'ensemble des actifs de la société d'économie mixte constituée entre l'État et les grands réseaux de chemin de fer revient à l'État selon les termes de la convention signée en 1937. L'État, anticipant cette échéance, décide de constituer un établissement public à caractère industriel et commercial qui est doté du patrimoine et du personnel de la société d'économie mixte. Le 1982, est promulguée la Loi d'orientation sur les transports intérieurs (LOTI) qui crée l'établissement public à caractère industriel et commercial dénommé "Société nationale des chemins de fer français". Les agents de l'ancienne société d'économie mixte sont transférés à la nouvelle entité en conservant leur statut spécifique. En lieu et place de la convention de 1937 et de ses avenants, un cahier des charges approuvé par décret et des « contrats de plan » pluriannuels règlent l'ensemble des relations entre l'État et l'entreprise. La marque TER, Transport express régional, est créée en 1987. Directive européenne sur la gestion du réseau ferroviaire et création de RFF. Au début des années 1990, la directive européenne 91/440 vise à permettre une ouverture à la concurrence. Elle impose la séparation de la gestion de l'infrastructure et de l'exploitation des services de transport, c'est-à-dire la distinction du gestionnaire de l'infrastructure et des entreprises ferroviaires ; l'instauration de droits d'accès et de transit pour les « regroupements internationaux » de transport de fret. Elle ne sera transposée par décret dans le droit français qu'en 1995. En outre, l'article premier de cette directive a été abrogé en 2001 par la . Cette même année 1995, une importante crise due essentiellement au projet de réforme des retraites des cheminots lancée par le gouvernement Alain Juppé se traduit par une longue grève. Le projet est finalement abandonné. Aucun contrat de plan n'a été signé, mais l'État continue d'apporter une aide correspondant aux prestations dites de service public qui incluent : les tarifs spéciaux pour les voyageurs des « Grandes Lignes » (réduction pour les familles nombreuses, pour les militaires, etc.) ; elles représentent en 2006 environ d'euros dans les comptes de la SNCF (sur un chiffre d'affaires de d'euros). L'exploitation des transports express régionaux (TER) est réalisée sur la base de conventions avec les régions, devenues autorités organisatrices de transports (AOT) de ceux-ci. L'année 1996 voit l'arrivée de nouvelles réformes à caractère législatif. Elles sont portées par Anne-Marie Idrac, alors secrétaire d'État aux Transports. Elles comprennent la création d'un nouvel établissement public à caractère industriel et commercial chargé de gérer le réseau et l'infrastructure. C'est ainsi que Réseau ferré de France (RFF) est créé le par scission de la SNCF. RFF devient alors propriétaire de l'infrastructure et décideur en matière d'aménagement, de développement et de valorisation du réseau, mais son exploitation et son entretien sont délégués à la SNCF. Le rapport de la Cour des comptes de 2007 relève que la séparation entre gestion de l'infrastructure et de l'exploitation telle qu'elle a été effectuée en 1997 allait « au-delà des exigences » de l'article 1 de la , qui n'exigeait qu'une séparation comptable. Concomitamment à la création de RFF, l'expérimentation de la régionalisation des services de transports régionaux de voyageurs donne aux régions qui y participent la responsabilité de définir le service public régional et leur transfère les financements de l'État. Cette expérimentation imaginée par Anne-Marie Idrac sera généralisée à toutes les régions en 2002 par le ministre Jean-Claude Gayssot. En 2007, le renouvellement de nombreuses conventions TER entre les régions et la SNCF marque le succès de cette politique de décentralisation, qui a permis une relance des investissements, notamment dans le matériel roulant, et conduit à des taux de croissance du trafic proches de 10 % par an. Dans le cadre de cette réforme, un contrat va formaliser ces nouvelles relations : c'est le « pacte de modernisation ». L'État s'engage alors à désendetter la SNCF et à garantir les acquis des cheminots. Il garantit aussi l'exploitation exclusive de la SNCF sur le réseau ferré. La SNCF s'engage en contrepartie à rédiger un projet industriel, à se recentrer sur le client et à rééquilibrer ses comptes. Concrètement, cela veut dire : En 1997, la propriété du réseau est donc transférée à Réseau ferré de France, qui reçoit également la charge de la dette liée à l'infrastructure. La SNCF conserve la mission d'exploiter les services de transport et la partie « commerciale » des gares, et doit acquitter à RFF une redevance pour l'utilisation des voies et de la partie « ferroviaire » des gares. Par ailleurs, bien que la gestion de la circulation et l'entretien du réseau soient de la compétence de RFF qui est le gestionnaire de l'infrastructure, c'est en pratique la SNCF, gestionnaire délégué de l'infrastructure, qui exécute ces tâches pour le compte de RFF, dans le cadre d'une convention entre les deux EPIC. Cette réforme avait pour but de rendre plus transparentes les relations financières entre l'État actionnaire et les entreprises ferroviaires, en vue de les assainir progressivement, et, à ce titre, de désendetter la SNCF et de rationaliser économiquement les investissements désormais portés par RFF sous condition de rentabilité mais aussi de permettre, dans des conditions non discriminatoires, l'arrivée de nouveaux exploitants ferroviaires (y compris sociétés privées), qui devaient concurrencer la SNCF sur les mêmes voies. Sur le premier aspect, la réforme a permis à la SNCF, désendettée, de redresser sa situation économique, notamment grâce à l'exploitation commercialement efficace des TGV ; après de nombreux conflits entre RFF et la SNCF (à propos du patrimoine, de l'exécution des prestations d'entretien…), une convention pluriannuelle passée entre les deux entreprises en 2007 clarifie ces relations pour la gestion déléguée de l'infrastructure confiée à la SNCF. La question du niveau des péages reste en revanche un sujet de débat non stabilisé. Sur le second aspect , celle-ci n'a été décidée par le gouvernement français qu'en pour le fret ; cette libéralisation conduit la SNCF à lancer un plan de restructuration de son activité fret, déficitaire depuis 1998. La prochaine étape de concurrence prévue par les textes européens est fixée au pour les trains de voyageurs internationaux. Les années 2000 sont marquées par la chute de l'activité fret. Les volumes transportés passent de de tonnes kilomètres en 2002 à de tonnes kilomètres en 2013. Par la suite, en 2016, ce sont les mouvements sociaux qui ont fortement affecté le ferroviaire, ce qui a engendré une baisse exceptionnelle du transport ferroviaire de marchandises. En 2017, le fret ferroviaire est reparti à la hausse pour atteindre de tonnes-kilomètres, soit une augmentation de 2,7 % par rapport à l'année précédente. Cela est dû notamment par la forte croissance du transport international (+6,2 %), et l'activité nationale (+0,6 %). Cependant, la dette de la SNCF n'a pas disparu : elle a simplement été transférée à RFF. De plus, cette organisation complexe débouchait sur un système absurde : la SNCF payait à RFF le droit d'utiliser le réseau et les infrastructures et RFF payait à la SNCF l'entretien et la gestion de ces derniers. Enfin, les relations entre la SNCF et RFF ont souvent été houleuses provoquant des problèmes de communication comme la commande de « trains trop larges » par rapport aux quais. Finalement en 2012, pour les 75 ans de la SNCF, Frédéric Cuvillier, ministre des Transports, annonce une réforme ferroviaire comportant notamment la création d'un « gestionnaire d'infrastructure unifié » (GIU). Le 2013, la SNCF lance Ouigo, sa marque de TGV à bas coûts. Cette offre répond à une segmentation du marché, avec une faible tarification se rapprochant de celles de l'autocar, du covoiturage, ainsi que du niveau de service de l'avion (en particulier des compagnies low-cost). En contrepartie du bas prix, les voyageurs doivent s'atteler à certaines conditions telles que les délais de présence obligatoire avant le départ et des services optionnels payants (tels que les prises électriques). En 2018, Ouigo a transporté plus de 11,6 millions de personnes. En , la SNCF lance un site de covoiturage, « IDVROOM ». Après avoir racheté « Easycovoiturage.com » et « 123envoiture.com » en 2013, la SNCF décide de créer un site dédié principalement aux trajets entre le domicile et le lieu de travail. Réunification de la SNCF et de RFF. La nouvelle réforme du système ferroviaire est adoptée par le Sénat et l'Assemblée nationale en 2014 et prévoit la réunification de la SNCF et de RFF au sein d'une même entité au janvier 2015. À cette occasion une nouvelle organisation est mise en place. La SNCF s'articule autour de trois EPIC : un EPIC de tête SNCF qui gère le gestionnaire de l'infrastructure SNCF Réseau et SNCF Mobilités chargé de l'exploitation des trains. Entre et , les de la SNCF en contact avec le public reçoivent de nouvelles tenues (bleu marine avec un liseré rouge) fabriquées par la société bretonne Armor-Lux. Celles-ci remplacent les anciennes tenues grises et violettes dessinées par Christian Lacroix en 2007 qui n'étaient guère appréciées. Déjà en 1996, la SNCF avait fait appel à un couturier, Ted Lapidus, pour créer les tenues (bleu électrique) de ses agents. Entre 2005 et 2010, la SNCF a supprimé et entre 2010 et 2015. Entre 2015 et 2020, ce sont à qui pourraient être supprimés. RFF cesse d'exister le . La nouvelle organisation de la SNCF est effective le . La SNCF, par l'intermédiaire de SNCF Réseau et SNCF Mobilités, devient propriétaire du réseau ferré national et de l'ensemble des gares et infrastructures ferroviaires. 2015-2019. Le , la SNCF annonce la suppression de au cours de l'année 2015 : seront supprimés au sein de SNCF et SNCF Mobilités, mais SNCF Réseau prévoit la création de 500 postes. Le , la direction de la SNCF prévoit la mise en place du Wi-Fi à bord des TGV à partir de mi-2016. Mi-2017, l'ensemble des lignes TGV devrait bénéficier d'une couverture réseau 2G, 3G, 4G et Wi-Fi. Le même mois, la SNCF annonce un plan possible de de poste d'ici à l'année 2020. En , une note interne de la SNCF préconise une réduction du nombre de trains Intercités (ex-Corail) avec la suppression totale des trains de nuits (ex-Lunéa), mais également de certaines lignes et de plusieurs arrêts intermédiaires. En , la SNCF lance "Digital Ventures", un fonds d'investissement de 30 millions d'euros dont la gestion est à Hi Inov. Les secteurs visés par les investissements sont l'Internet des objets, les mégadonnées, l'édition de logiciel, l'expérience client, la communication digitale et l'économie du partage. La société devient actionnaire majoritaire dans "OuiCar" en 2015 : il s'agit d'une société française créée en 2012 et spécialisée dans l'autopartage de voitures entre particuliers. La SNCF supprime en 2016. Les effectifs des trois EPIC étaient de en 2016, alors qu'il y avait de la SNCF en 2017, soit de plus. Il y a "près de deux retraités pour chaque cotisant à la SNCF" alors que dans le secteur privé en France, il y a 1,3 cotisant pour un retraité. Les effectifs de la SNCF ont, en effet, été divisés par trois en et par deux depuis 1980 : Le , le secrétaire d’État aux transports, Alain Vidalies, annonce le désengagement de l’État de six des huit lignes Intercités de nuit. Seules les lignes Paris – Briançon et Paris – Rodez – Latour-de-Carol seront encore financées par l’État. Par ailleurs, l’État a décidé de lancer un appel d'offres pour renouveler le matériel affecté aux trains Intercités. Conséquence de cet appel d'offres, l'usine Alstom DDF de Reichshoffen pourrait fermer après 2018. En , la SNCF effectue une dépréciation d'actif de d'euros. En 2016, la SNCF mise sur les "mégadonnées ("big data"), avec l'installation de capteurs intelligents pour la maintenance des rames du Transilien. En partenariat avec le cabinet de conseil Quantmetry, ce projet permettrait de prévenir et réduire les pannes de trains susceptibles de se produire dans les suivantes." En mai 2016, la SNCF contribue à la dernière levée de fonds d'Hyperloop Technologies, la start-up californienne qui développe des trains supersoniques circulant, dans des tubes à basse pression, à une vitesse pouvant atteindre , avec pour objectif d'atteindre ensuite . En , la SNCF contracte un accord d’une durée de trois ans avec la société américaine IBM afin d’utiliser l'informatique en nuage de celle-ci, Bluemix, et l’intelligence artificielle. La SNCF pourra donc connecter des capteurs ainsi que des objets en réseau et exploiter les données. Cela va permettre au groupe ferroviaire de superviser ses activités grâce aux données industrielles et voyageurs transmises en temps réel, pour ainsi gagner en efficacité dans sa prise de décision. En , la SNCF revoit sa politique commerciale sur le TGV et annonce vouloir proposer deux offres : le bas prix Ouigo et l'offre haut de gamme TGV inOui. À partir de 2019. Dès son arrivée à la tête de la SNCF, Jean-Pierre Farandou prône l'ouverture vers les syndicats, assurant vouloir « renouer le fil ». Il entend « ramener de l'apaisement et de la sérénité et évoque la transition ferroviaire ». Au cours de la présentation de sa feuille de route, Jean-Pierre Farandou condamne les excès des derniers mouvements sociaux liés à un droit de retrait des cheminots après un accident et délivre une première indication en ce qui concerne ses priorités : réduire les files d'attente et imposer, au plus tard à l'été 2020, une durée maximale de dans les files d'attente. "Cela veut dire que j’accepte que l’on mette plus de personnel au guichet. Il n’y a pas de magie". Le , la SNCF change de statut et devient une société anonyme à capitaux publics. Jean-Pierre Farandou définit ses objectifs pour cette nouvelle organisation, dont le renforcement du ferroviaire au niveau national. En 2021, la SNCF souhaite se désengager de certaines activités non stratégiques et amorce ce virage en cédant sa filiale de location de wagons, Ermewa. La filiale a été vendue autour de d'euros à un consortium réunissant la caisse de dépôt et placement du Québec ainsi que DWS, une société allemande de gestion d'actifs. En 2021, la défenseure des droits rappelle à l’ordre la SNCF dans une décision sur l’atteinte au droit à la mobilité des usagers en raison de la fermeture des guichets. En 2022, la SNCF est reconnue comme seule coupable de la catastrophe de Brétigny. L'entreprise est condamnée à verser une amende de pour homicides et blessures involontaires. En février 2023, la SNCF présente des comptes pour l'exercice 2022 qu’elle considère comme "solides" et assure avoir "démontré sa résilience face aux crises", en portant son chiffre d’affaires à d’euros l'année précédente et une perte de d'euros en 2020. C’est le meilleur résultat enregistré par la SNCF depuis le précédent record de 2017. Infrastructure. Matériel roulant. La SNCF dispose d'une grande variété de matériels roulants : locomotives électriques, locomotives Diesel, locotracteurs, TGV, autorails, automotrices, trams-trains, voitures voyageurs Une importante collection de ceux-ci est conservée et exposée à la Cité du train de Mulhouse. Réseau. Plusieurs rapports ou audits concernant l'état du réseau ont été publiés depuis 2005, montrant, en s'appuyant sur les comparaisons internationales, que la France investit sensiblement moins sur son réseau que la moyenne européenne. Le rapport réalisé en 2005 par l’École polytechnique fédérale de Lausanne (EPFL) indique que les ressources allouées au cours de ces trois dernières décennies à la maintenance du réseau ferré classique ne suffisent pas pour pérenniser la totalité du patrimoine (lignes nouvelles non comprises). Dans l’audit de l’état du Réseau réalisé en 2018 par un groupement d’experts internationaux, il est spécifié que les efforts consentis depuis la fin des années 2000 permettent le rattrapage progressif du retard de renouvellement des voies et des appareils de voie des groupes UIC (Union Internationale des Chemins de fer) 2 à 6 et que sous réserve du maintien de l’effort financier, la substance de ce patrimoine devrait se stabiliser dès 2025 – 2030. Il est précisé dans le rapport que résoudre l’obsolescence des caténaires les plus anciennes, maîtriser le vieillissement des ouvrages d’art et moderniser la signalisation nécessiteront des niveaux d’investissements élevés au cours du prochain quart de siècle. Dans une publication datant de 2021, la Cour des comptes mentionne plusieurs faiblesses structurelles du réseau, que la crise sanitaire a fortement aggravée. Elle ajoute que le réseau ferré national peine à sortir de son état de dégradation et que le financement de sa gestion et de sa rénovation n’est toujours pas assuré. La Cour souligne que . Consommation énergétique. En 2022, l'électricité assure 87 % des besoins en énergie des trains de la SNCF, les 13 % restants étant du gazole non routier (GNR). La SNCF prévoit de ne plus du tout recourir au GNR en 2035. SNCF Voyageurs est le premier consommateur industriel d'électricité en France avec sept térawattheures par an soit entre 1 et 2 % de la production totale électrique en France<ref name ="Le Parisien 2022/04">.</ref>. Jusqu'en 2003, avec la Société hydroélectrique du Midi (SHEM), la SNCF produisait une partie de son électricité. La consommation d'énergie représente 7 % de la consommation de SNCF Voyageurs. Groupe SNCF. Le groupe SNCF détient des participations majoritaires ou minoritaires dans des sociétés de droit privé et la tutelle de l'État est exercée par la direction générale des Infrastructures, des Transports et de la Mer du ministère de la Transition écologique et solidaire. Le siège social de la SNCF se trouve à La Plaine Saint-Denis, 2 place aux Étoiles, à côté de la gare du Stade de France - Saint-Denis desservie par la ligne D du RER. Le reste du groupe SNCF intervient dans les domaines suivants : logistique et transport routier de marchandises, transport routier de voyageurs (Keolis), liaison maritime (ex-SeaFrance), ingénierie (EFFIA, INEXIA), commerce en ligne (anciennement Voyages-sncf.com, devenu Oui.sncf le ), billettique (Ritmx). Le groupe possède aussi des participations dans des sociétés ferroviaire et gestionnaires d'infrastructure portuaire partagées avec d'autres partenaires comme Eurostar, Thalys, Elipsos, Lyria et Nuovo Trasporto Viaggiatori. Le groupe SNCF est l'un des tout premiers groupes de transport en Europe. Le premier site web de la SNCF en fréquentation, est « oui.sncf » (anciennement « Voyages-sncf.com »), géré par la filiale Voyages SNCF. Depuis sa création, un milliard de billets ont été vendus dont de billets en 2018 pour de visiteurs uniques par mois sur le site de vente. Il est aussi le plus gros client pour la publicité sur l'internet en France. En relation avec l'Agence de l'environnement et de la maîtrise de l'énergie (ADEME), il a lancé l'« éco-comparateur », qui permet de comparer l'impact en CO des choix de mode de transport. En 2019, le groupe SNCF a enregistré un chiffre d'affaires de d'euros et un résultat net négatif de d'euros (hors grève, le résultat net aurait été positif de d'euros). Organisation. Organisation actuelle. Depuis le , la SNCF n'est plus constituée d'établissements publics, mais retrouve la forme originelle de société qu'elle avait connue à partir de 1938, elle est désormais constituée d'une société mère qui assure la direction générale du groupe et de cinq filiales : Précédentes organisations. Entre le et le , la SNCF était organisée autour de trois établissements publics à caractère industriel et commercial, SNCF, SNCF Réseau et SNCF Mobilités et cinq « métiers » : Avant la réforme de 2014, le groupe SNCF était organisé de la façon suivante : La réforme de 2014 a entraîné une réorganisation du groupe : Salariés. Entre 2004 et 2014, les effectifs de cheminots sont passés de à , soit supprimés chaque année. En 2018, il reste . L’espérance de vie des cheminots est inférieure à la moyenne nationale, notamment pour les personnels de l’exécution et de la traction, dont l’espérance de vie est respectivement de quatre ans et de deux ans de moins que la moyenne nationale. Depuis le début de l'année 2019, la SNCF compte en moyenne un suicide de salarié chaque semaine. Présidents de la SNCF. Depuis sa fondation en 1938, la SNCF est présidée par : Relations sociales et conflits. Depuis 1947 jusqu'en 2022, pas une seule année ne s'est écoulée, selon "Le Figaro", sans que des mouvements sociaux ne viennent perturber le réseau ferré national. Le , un accord qualifié d'historique, sur « l'amélioration du dialogue social et la prévention des conflits à la SNCF » a été signé par sept organisations syndicales (dont la CGT) représentant au total 80 % des voix aux élections professionnelles de 2004. Cet accord a pour but de remplacer la confrontation habituelle dans l'entreprise à la recherche de compromis, en mettant en place un système analogue à celui de « l'alarme sociale » qui a fait ses preuves à la RATP dont Anne-Marie Idrac était alors la présidente. L'un des objectifs de cet accord, partagé par la direction et par les syndicats, est d'éviter l'instauration d'un système de service minimum dans les services publics, demandé par certains partis politiques. La loi sur le service garanti du consolide ce dispositif en rendant obligatoire la "déclaration individuelle d'intention" pour du personnel ayant des fonctions liées à la sécurité des circulations et permettant : La réforme du régime spécial de retraites donne lieu en octobre et à des grèves massivement suivies, y compris par l'encadrement le jeudi . Pour la présidente, Anne-Marie Idrac, il s'agit d'un travail de deuil, en raison de la rupture du contrat social implicite entre la SNCF et ses agents. La grève, qui a débuté le mardi à 20 heures, est jugée injustifiée par une partie des Français. D'après un sondage réalisé par l’Ifop pour Metro, 62 % des Français estiment que la grève du contre la réforme des régimes spéciaux n’est pas justifiée ; dans le même sondage, 82 % des Français sont « favorables » à « l'alignement des régimes spéciaux de retraite, RATP, SNCF, EDF, sur le régime général des salariés de la fonction publique ». Au total, ces grèves auront coûté environ 300 millions d'euros à la SNCF selon Anne-Marie Idrac, avec un effet particulièrement dommageable pour le fret. La grève à la SNCF coûte selon Christine Lagarde entre 300 et 400 millions d'euros à l'économie française chaque jour. Fin 2007, la réforme du régime spécial de retraites est globalement acquise ; le cadre général en a été fixé par le gouvernement et l'adaptation aux spécificités cheminotes négociée dans l'entreprise par Anne-Marie Idrac. L'alignement des durées de cotisations (41,5 ans pour une retraite "complète") a nécessité un report de l'âge de mise à la retraite d'office en deux temps, pour aboutir au décret du , qui relève l'âge maximum de maintien en service : 65 ans pour les agents nés avant le progressivement relevé à 67 ans pour les agents nés à compter du . Autre sujet, depuis 2001, le cas des chibanis de la SNCF fait l'objet de plusieurs procédures judiciaires. L'objet du conflit porte sur la reconnaissance de droits dont auraient été lésés les travailleurs immigrés d'origine marocaine et algérienne depuis leur arrivée au sein de la SNCF dans les années 1970. Les chibanis sont victorieux devant les prud'hommes en 2015 avec des amendes cumulées de de dommages et intérêts. La SNCF fait appel, mais est de nouveau condamnée par la cour d’appel de Paris le et se réserve le droit d'ester en cassation. En , pour la première fois également, la justice condamne la SNCF à d'indemnités à un voyageur à la suite d'un retard imputable à la SNCF et qui lui a fait perdre une journée de travail. En , la SNCF rejoint la Fédération des garanties et assurances affinitaires. En , le projet de réforme ferroviaire du gouvernement Valls suscite une nouvelle grève des cheminots. Le projet de loi veut notamment abroger la loi de 1940 portant statut des cheminots en le remplaçant par un "décret-socle". En 2018, le projet de réforme ferroviaire du gouvernement Édouard Philippe provoque une nouvelle grève des cheminots. Le projet de loi prévoit notamment d'ouvrir la SNCF à la concurrence et d'embaucher les nouveaux recrutés sans les faire bénéficier du « statut des cheminots ». Le mouvement de grèves débute le et dure près de trois mois. Ce mouvement social prend une tournure inédite à l'initiative de la CGT, syndicat majoritaire à la SNCF. Les salariés sont appelés à cesser le travail 2 jours sur 5. À la suite de l'important mouvement du printemps 2018, Bérenger Cernon, syndicaliste CGT à la gare de Lyon, évoque "plusieurs cas, soit d'intimidation, soit de sanctions disproportionnées" à l'égard de militants syndicaux. Selon Éric Beynel, du syndicat Sud, la pression accrue contre les syndicalistes serait à l'origine de nombreux suicides de militants à la SNCF. En 2019, la réforme des retraites provoque un nouveau mouvement de grève qui perturbe les transports durant le mois d'octobre. Le syndicat CGT des cheminots appelle, comme SUD-Rail, l’UNSA-Ferroviaire ainsi que plusieurs syndicats de la RATP, à participer au nouveau mouvement de grève reconductible à partir du . En , le ministre délégué aux Transports Jean-Baptiste Djebbari déclare, après un appel à la grève lancé par la CGT, qu'il s'agit d’"une grève par habitude", fustigeant certaines actions syndicales . Entre 1947 et 2022, 30 millions de jours de travail aurait été perdus à la SNCF du fait des grèves. Communication. Identité visuelle et sonore. Logotypes. Le logo visuel actuel de la SNCF a été créé en 2005 par l'agence Carré Noir, filiale du groupe de communication Publicis. Il a été légèrement remanié en 2011 : arrondissement des angles, disparition des ombres à l'intérieur des lettres ainsi que derrière, et séparation plus nette entre elles. Identité sonore. Le logo sonore de la SNCF , en version chantée, a été créé en 2005 par Michaël Boumendil. David Gilmour, guitariste emblématique du groupe Pink Floyd, s'en inspire pour un morceau de son dernier album "Rattle That Lock". Simone Hérault est la voix de la SNCF depuis 1981. Image publique. L'image d'une entreprise comme la SNCF est un enjeu important. Les principaux facteurs qui jouent sur sa perception auprès du public sont les mouvements sociaux des syndicats et les hausses de tarifs. Cependant, selon un sondage TNS SOFRES paru en 2010, 66 % des Français ont une bonne image de la SNCF. Fin 2019, cette proportion est mesurée à 50 % par le baromètre Posternak-Ifop sur l'image des entreprises. En 2020, Eight Advisory et l'IFOP dévoilent leur classement des "entreprises françaises les plus admirées" : la SNCF se trouve en . Toujours selon ce classement, la SNCF obtient la note de 11,24/20 pour son impact sur l'économie française, 10,32/20 pour son implication en matière environnementale ainsi que la note de 10,82/20 pour sa capacité à améliorer le quotidien des Français, notamment nécessaire en temps de crise. Pour l'édition 2021 de ce classement réalisé par l'IFOP, la SNCF progresse de quatre places et se positionne en . La sécurité dans les trains est aussi souvent mise en avant. Pour ce faire, environ forment la Sûreté ferroviaire, la surveillance générale de la SNCF, dont 50 % des effectifs sont affectés dans la région Île-de-France. En 2017, moins de 30 % des usagers interrogés dans l'enquête de satisfaction réalisée par l’UFC-Que choisir se déclarent satisfaits des trains Intercités, des TER et du réseau Transilien en matière de ponctualité et de gestion des retards. Activité de lobbying et de réflexion. Auprès de l'Assemblée nationale. La SNCF est inscrite comme représentant d'intérêts auprès de l'Assemblée nationale. Elle déclare à ce titre qu'en 2012, les coûts annuels liés aux activités directes de représentation d'intérêts auprès du Parlement sont compris entre et . Auprès des institutions de l'Union européenne. La SNCF est inscrite depuis 2009 au registre de transparence des représentants d'intérêts auprès de la Commission européenne. Elle déclare en 2015 pour cette activité 2,5 collaborateurs à temps plein et des dépenses d'un montant compris entre et . La SNCF indique avoir perçu sur le même exercice de subventions des institutions de l'Union européenne. Forum Vies Mobiles. Créé en 2011 par la SNCF, le Forum Vies Mobiles est un « institut autonome de recherche et d’échanges sur les mobilités ». L'entreprise publique le finance à 100 % à hauteur de 2 millions d'euros par an. Patrimoine. Archives et documentation. Les archives de la SNCF, archives publiques ouvertes à tous les citoyens, sont gérées par la SNCF en vertu d'une délégation du service interministériel des archives de France. Elles sont réparties sur deux sites : le Centre national des archives du personnel situé à Béziers, et le Centre national des archives historiques qui se trouve au Mans qui conserve plus de 50 km linéaires d'archives. Un centre d'archives intermédiaire est installé en Ile-de-France. Monuments historiques. Le Groupe SNCF est propriétaire ou affectataire de plus de 90 bâtiments et ouvrages d'art (en majorité des gares et des ponts ou viaducs) protégés au titre des monuments historiques. Par ailleurs, l'entretien et la rénovation de ses gares historiques sont confiés à des architectes du patrimoine. De nombreux architectes, artistes et décorateurs de renom ont contribué à l'architecture des gares, comme à la gare de Limoges-Bénédictins ou la gare de Metz-Ville, élues régulièrement comme les gares préférées des Français. Le musée d'Orsay est installé dans l'ancien palais d'Orsay, gare du Paris-Orléans (PO) fermée aux voyageurs en 1939. L'exploitation ferroviaire continue en sous-sol (gare Musée d'Orsay de la Ligne C du RER). En 2020, pour la première fois, un poste d'aiguillage a été entièrement protégé au titre des monuments historiques, pour sa technique et pour son architecture. Il s'agit de l'ancien poste d'aiguillage central de la gare de Rennes. Matériel roulant. La SNCF conserve environ 240 véhicules historiques, dont 160 sont confiés à la Cité du train, à Mulhouse, musée bénéficiant de l'appellation Musée de France. La SNCF dans la culture. Cinéma. Depuis le premier film des frères Lumière, la SNCF est l'entreprise qui accueille le plus de tournages en France, entre 180 et par an, ce qui représente environ deux tiers des productions françaises. Ci-après sont listés une très courte sélection des films emblématiques où la SNCF est au cœur du sujet : Le pôle Cinéma et Tournages de la SNCF est également partenaire de Film France. Bande dessinée. La SNCF est partenaire du festival de BD d'Angoulême au cours duquel, elle remet le "Fauve Polar SNCF". Son engagement pour la lecture et « pour faire entrer la culture populaire », se traduit également par des opérations de promotion de la lecture dans les gares. Concerts. La SNCF est associée au festival du Hellfest pour lequel elle a affrété des trains spéciaux, privatisés, comme le "Crazy train" en 2019 par exemple. |
Saint-Marin Saint-Marin (en ‚ prononcé : ), officiellement la république de Saint-Marin et connu aussi comme Sérénissime république de Saint-Marin, est un micro-État européen enclavé à l'intérieur de l'Italie. Il est le troisième plus petit État d'Europe après le Vatican et Monaco, et le cinquième au monde après ces deux mêmes États, Nauru et Tuvalu. C’est aussi la plus ancienne république au monde existante de manière continue jusqu'à aujourd'hui, avec un système constitutionnel qui remonte au . Il est enclavé à l’intérieur de l'Italie, entre l'Émilie-Romagne et les Marches. En , le pays comptait dont . Il y a résidant à l'étranger. La République fait partie intégrante de la région historique du Montefeltro. Histoire. Selon la légende locale, vers un modeste tailleur de pierres nommé Marinus aurait quitté son île natale d’Arborea en Dalmatie pour s’installer dans la ville de Rimini en tant que maçon. Avant même que la grande vague de persécutions contre les chrétiens lancée par l’empereur Dioclétien en n’eût commencé, le pieux Marinus prit la fuite et se réfugia sur le mont Titano situé à proximité. Un nombre grandissant de persécutés vinrent le rejoindre et établirent ainsi sur le Titano une communauté chrétienne. La date officielle de naissance de cette communauté est aujourd’hui conventionnellement fixée au . En 313, à la suite de l’édit de tolérance de Constantin et de la fin des persécutions, saint Marin fut ordonné diacre par l’évêque de Rimini. Une patricienne romaine convertie au christianisme du nom de lui fit par ailleurs don du mont Titano, dont elle détenait jusque-là la propriété. L’établissement définitif de la communauté de Saint-Marin est symbolisé par la mort de son fondateur à l’automne de l’an 366, et surtout par ses derniers mots : (« Je vous laisse libres des autres hommes »). Vers l’an , l’accroissement continuel de la population avait fini par rendre nécessaire une expansion territoriale. L’achat de châteaux voisins et de leurs dépendances fut effectué à deux reprises. Peu de temps auparavant, Saint-Marin était devenue une cité-république à part entière dotée de son propre code juridique. Le plus ancien des codes ayant pu être conservé date de . Au cours des trois siècles suivants, les lois saint-marinaises furent constamment précisées et mises à jour dans de nouvelles versions : le sixième et dernier code, publié le , est constitué de pas moins de six tomes et de . Dès cette époque, la république comptait pour sa protection sur une armée parfaitement formée et organisée dans laquelle tout homme âgé de était susceptible de servir en cas de conflit. À partir de , la coutume fut prise d’élire deux capitaines-régents à la tête de la cité pour un mandat de six mois, une pratique encore en usage aujourd’hui. La deuxième moitié du fut une période difficile pour la cité. La république de Rimini, d’obédience guelfe et alors sous la domination de la famille Malatesta, tenta de prendre le contrôle de Saint-Marin : seule une alliance contractée avec le gibelin comte d’Urbin Guy, puis son fils Frédéric, permit de contrecarrer ce projet au bout de plusieurs années de combats qui ne s’achevèrent qu’en . Cette victoire ne mit cependant pas un terme aux tentatives d’annexion visant la ville. Dès , un ecclésiastique nommé Teodorico tenta de soumettre les Saint-Marinais au pape et à l’impôt : une longue dispute juridique s’ensuivit et fut résolue par un célèbre homme de droit et érudit originaire de Rimini, Palamède, qui trancha en faveur de Saint-Marin. À peine cinq ans plus tard en , ce fut la famille Feretrani qui tenta de revendiquer ce territoire mais sans succès : un nouveau jugement de Palamède, communiqué par ailleurs au pape Boniface VIII, établit cette fois clairement la souveraineté pleine et entière des Saint-Marinais. Le conflit séculaire opposant la petite république à la famille Malatesta se termina en 1463 par la victoire de Saint-Marin, à l’issue de laquelle le pape Pie II attribua à la République les trois seigneuries de Fiorentino, Montegiardino et Serravalle. L’année suivante, la seigneurie voisine de Faetano fut volontaire pour intégrer à son tour la communauté saint-marinaise : cet épisode constitue à la fois la dernière guerre et la dernière expansion territoriale de Saint-Marin. César Borgia, le célèbre duc de Valentinois et fils du pape Alexandre VI, a certes envahi Saint-Marin en pour y imposer sa domination autoritaire. Néanmoins cette occupation fut de courte durée : l’armée de Borgia fut anéantie lors d’une révolte du duché d’Urbin à laquelle participèrent d’ailleurs quelques Saint-Marinais. La République abrita une petite communauté juive, forte d’une cinquantaine de personnes, jusqu’à la fin des années . La communauté était organisée autour du banquier, qui favorisait la venue d’autres Juifs, commerçants, orfèvres ou encore merciers. Si la petite communauté était concentrée dans une rue, la « " » surnommée aujourd’hui encore le « ghetto », les Juifs de Saint-Marin, au contraire de leurs coreligionnaires des Marches, ne furent jamais reclus dans un ghetto. Bonaparte, au cours de la campagne d’Italie, aurait donné l’ordre à ses troupes de s’arrêter aux frontières de Saint-Marin et de ne pas les franchir — le futur empereur était un grand admirateur de ce petit État qui n’avait jamais fait acte de soumission à quiconque. Il avait été conquis par les idéaux de liberté et d'humanité célébrés dans les institutions de Saint-Marin et a témoigné de sa valeur culturelle dans une lettre à Gaspard Monge, scientifique et commissaire du gouvernement français pour les sciences et les arts qui était à l'époque en poste en Italie. Le pays a la particularité d’avoir été le premier pays d'Europe de l’Ouest à avoir un gouvernement communiste : entre 1945 et 1957, le Parti communiste saint-marinais gouverna en coalition avec le Parti socialiste saint-marinais. Saint-Marin est ainsi le premier pays au monde dans lequel un parti communiste est arrivé au pouvoir à la suite d’élections libres. Une nouvelle coalition dominée par les communistes, , gouverna entre 1978 et 1986, date à laquelle les communistes constituèrent un gouvernement avec leurs adversaires traditionnels du Parti démocrate-chrétien, qui étaient cette fois majoritaires. , le Parti communiste, imitant le Parti communiste italien, abandonna l'idéologie marxiste-léniniste et se rebaptisa « Parti progressiste démocrate ». Saint-Marin est devenu en 1988 un membre du Conseil de l'Europe, et a adhéré en 1992 à l’Organisation des Nations unies. La pandémie de Covid-19 touche particulièrement Saint-Marin dès mars 2020 qui se trouve, au , être l'un des pays avec le plus de victimes par rapport à sa population. Le 31 août 2022, le gouvernement de Saint-Marin a voté en faveur de la légalisation de l'avortement . Politique. Saint-Marin est un État indépendant, et la plus ancienne république du monde ayant continuellement existé depuis sa création. Sa Constitution, qui date de , est la plus ancienne constitution encore en vigueur de nos jours. Le pouvoir législatif revient au Grand Conseil général (') dont les soixante membres sont élus par les citoyens tous les cinq ans. Le Conseil approuve le budget de l’État et nomme les deux capitaines-régents. Ces derniers sont concurremment chefs de l’État et dirigent le Congrès d’État (') : ils restent six mois en fonction, et sont nommés solennellement deux fois par an le et le . Cependant, ils peuvent être élus pour un deuxième mandat bien que cela n’arrive que très rarement. Certains ont à nouveau occupé ce poste après un certain laps de temps. Les deux capitaines-régents parlent d’une seule voix. Le Congrès d’État, dirigé par les capitaines-régents, détient le pouvoir exécutif. Il est composé de dix secrétaires d’État ("). Le « Conseil des Douze » ("Consiglio dei XII") est élu par le Grand Conseil général pour toute la durée de la législature. Il constitue le sommet de la juridiction administrative et la plus haute instance juridique de la République. Le capitaine-régent, le Grand Conseil général, le Conseil des Douze et le Congrès d’État siègent en un même lieu : le palais public de Saint-Marin. L"Arengo" était autrefois une institution médiévale regroupant tous les chefs de famille, mais ses prérogatives ont depuis été transférées au '. On désigne désormais sous le nom dArengo" l'ensemble des Saint-Marinais disposant du droit de vote. Les citoyens sont convoqués deux fois par an au Conseil, le dimanche suivant l’entrée en fonction des capitaines-régents, et peuvent ainsi soumettre des questions d’intérêt public à leurs représentants. La République de Saint-Marin entretient actuellement des relations diplomatiques et consulaires avec plus de , à l’intérieur comme à l’extérieur du continent européen. Les représentations diplomatiques du pays à l’étranger ont le plus souvent rang de consulats ou de consulats généraux, par exemple le consulat général de Francfort-sur-le-Main. Saint-Marin est membre de nombreuses organisations internationales dont l’Organisation des Nations unies, l’UNESCO, le Conseil de l'Europe, le Fonds monétaire international, l’Organisation mondiale de la santé ou la Cour pénale internationale. La République entretient également des relations officielles avec l’Union européenne et participe aux travaux de l’OSCE. Le , un référendum eut lieu avec comme résultat 50,28 % (soit ) en faveur de l’ouverture d’une procédure d’adhésion de Saint-Marin à l’UE ; cependant le quorum n’a pas été atteint pour valider ce vote. L’achat de votes était une pratique courante à Saint-Marin, en particulier dans les années 1980 et 1990. En 2011, des personnalités politiques ont fait l’objet d’accusations de corruption, dont plusieurs étaient impliquées dans des affaires de blanchiment d’argent en lien avec le crime organisé. Subdivisions. Le territoire de Saint-Marin est divisé en neuf "castelli" (châtellenies équivalant des communes françaises), reprenant les anciennes délimitations des seigneuries. Chaque "castello" dispose d’un élu par les habitants, la ', dont la présidence est assurée par un « capitaine » (') élu tous les cinq ans. Géographie. La République de Saint-Marin (43° 56’ 06’’ N, 12° 26’ 56’’E) se situe à la pointe orientale du massif montagneux des Apennins. Le pays est frontalier de deux régions italiennes : l’Émilie-Romagne au nord-est et les Marches au sud-ouest. Le territoire saint-marinais, de la forme d’un quadrilatère aux côtés irréguliers, est pour l’essentiel très accidenté. Sa superficie est de , c’est-à-dire inférieure à de nombreuses villes européennes moyennes. Les douze kilomètres séparant les extrémités nord et sud du pays sont dominés par l’imposant massif calcaire du mont Titano (rocher du Titan) qui culmine à . La ville de Saint-Marin se situe d’ailleurs au pied de son versant sud-ouest. Deux cours d’eau principaux prennent leur source à Saint-Marin : l’ et le . Les deux autres rivières, le San Marino et le Marano, ne font que traverser le pays. Saint-Marin est soumis à un climat de type subtropical humide (Cfa dans la Classification de Köppen) qui a néanmoins tendance à s’adoucir par rapport à la côte en raison de l’altitude. En été, les températures varient de et en hiver de . Les saisons estivales particulièrement chaudes peuvent néanmoins conduire le thermomètre jusqu’à , et il arrive en hiver de passer sous la barre des , auquel cas le mont Titano peut se couvrir de neige. Les précipitations tendent à se répartir de manière harmonieuse tout au long de l’année pour atteindre un niveau moyen de . Les pentes abruptes du mont Titano, tout comme les autres paysages escarpés de Saint-Marin, sont recouverts d’une végétation assez dense, typique de l’écosystème méditerranéen. On y trouve aussi bien des forêts à essences feuillues, remplies d’érables et de chênes, que des étendues de conifères, en particulier de nombreux pins. Dans les zones broussailleuses et buissonnières du maquis dominent le laurier, la myrte, la lavande, des fraisiers et les oliviers. La faune de la région se compose surtout d’espèces ayant su s’adapter ou même profiter de la présence humaine, et que l’on peut par conséquent observer à proximité des habitations : c’est notamment le cas du renard, du lièvre, du hérisson et de la martre. D’autres animaux, comme le chevreuil ou la belette, ont élu domicile dans les étendues forestières qui offrent une bonne protection. Les espèces d’oiseaux sont tout aussi variées : des faucons nichent par exemple sur les rochers les plus abrupts ou au sommet des arbres. Parmi les oiseaux chanteurs, on compte entre autres le rossignol, le loriot, le chardonneret, le serin et la linotte mélodieuse. Économie. Le territoire de Saint-Marin est principalement tourné vers l’agriculture et la sylviculture, ce qui constitue l’essentiel de ses ressources naturelles ; ces deux domaines sont cependant en déclin en raison de l’accroissement de la population. On cultive notamment les céréales, la vigne, les olives et les fruits. L’élevage se concentre pour l’essentiel sur les bœufs et les cochons. Jusqu’aux années 1960, les Saint-Marinais vivaient principalement de l’agriculture, de l’élevage et de l’exploitation de quelques carrières de pierre. Depuis, les activités du petit pays se sont diversifiées avec l’essor de l’artisanat, du commerce et même de l’industrie, tous ces domaines ayant été favorisés par l’explosion du tourisme. Parmi les produits locaux, on compte des objets en céramique, des meubles, des confiseries, des liqueurs, de la peinture et du vernis, ou encore des produits textiles en soie. Saint-Marin exporte surtout du vin et de la laine, des produits artisanaux et des timbres. La vente de timbres saint-marinais aux passionnés de philatélie à travers le monde assure en effet 10 % du PIB national. L’autre grande source de profits, le tourisme, représente directement ou indirectement plus de 60 % des revenus de l’État : aucun impôt ou presque n’est exigé des habitants. Les importations, quant à elles, consistent principalement en produits manufacturés et en biens de grande consommation. Mais Saint-Marin doit également se procurer de l’or en quantité importante pour ses nombreux orfèvres et bijoutiers. Le revenu annuel net moyen s’élevait à en 2005. 52 % de la population active travaille dans le secteur des services, 41 % dans le secteur secondaire et 7 % dans l’agriculture. L’inflation reste modérée à 2,6 %. Jusqu’à l’entrée en vigueur de l’Union économique et monétaire, la monnaie du pays était la lire italienne. En 1972, et après une interruption de , Saint-Marin avait recommencé à frapper ses propres pièces de monnaie (les "lires saint-marinaises"), qui pouvaient s’utiliser indifféremment de la lire italienne et avaient la même valeur. Quelques pièces en or furent également frappées un peu plus tard, mais n’avaient cours légal que sur le territoire de la République. Depuis le , à la suite d’un accord avec l’Union européenne, Saint-Marin utilise officiellement l’euro comme monnaie, et a l’autorisation de frapper ses propres pièces avec une face nationale, tout comme les autres États-membres de la zone euro. Tout comme d'autres micro-États, Saint-Marin était un paradis fiscal. L’achat de votes était une pratique commune et acceptée, surtout dans les années 1980 et 1990. Société. Langue. La langue officielle de Saint-Marin est l’italien. Du fait de la forte affluence touristique dans la région, presque tous les habitants peuvent cependant s’exprimer couramment dans une autre langue, le plus souvent en anglais, en allemand ou en français. Le romagnol, un dialecte du nord-italien, est en outre assez répandu à Saint-Marin, en particulier chez les personnes les plus âgées. Religion. 92,3 % de la population est de confession catholique et seuls 3 % des habitants se déclarent sans religion. Cette prédominance de l’Église catholique se retrouve dans le paysage architectural de la République, qui compte plusieurs églises ainsi qu’une basilique monumentale. Le territoire de la République dépend du diocèse de San Marino-Montefeltro, dont la juridiction s’étend sur une partie des provinces italiennes voisines. Particulièrement active du au , la communauté juive a également, comme l'a relevé Michaël Gasperoni, grandement participé à l’accomplissement du destin du pays. Démographie. La population saint-marinaise s’élevait en à . Elle se compose à 83,1 % de Saint-Marinais et à 12 % d’Italiens. Près de de Saint-Marin vivent par ailleurs à l’étranger. Le pays, en raison de sa taille réduite, a une forte densité de population, de l’ordre de . Le taux de natalité atteint , tandis que le taux de mortalité n’est que de , ce qui fait que la population connaît toujours un accroissement naturel positif. La capitale Saint-Marin ne compte que : la population se concentre en effet davantage dans les deux "castelli" de Serravalle, avec , et de Borgo Maggiore, avec . Suivent après la capitale, Domagnano (), Fiorentino (), Acquaviva () et Faetano (). Les autres "castelli" sont plutôt des villages ruraux : c’est le cas de Chiesanuova () et de Montegiardino (). L'avortement était interdit jusqu'au référendum du. D'après l'institut World resources, Saint Marin est en situation de pénurie hydrique grave. Culture. La célébration de la fête nationale, le 3 septembre (en référence au ) est ponctuée de festivités populaires et folkloriques. De même, la nomination des capitaines-régents tous les six mois est l’occasion d’une grande cérémonie. À ce titre, la garde du Grand Conseil général (") joue un rôle déterminant : fondée à la suite de la victoire remportée contre le cardinal Alberoni en 1740, ce corps de garde composé de citoyens volontaires utilise toujours ses uniformes historiques, et reste habilité à assurer la protection des capitaines-régents et du Conseil. Les gardes, de concert avec les principales personnalités temporelles et spirituelles de Saint-Marin, organisent ainsi les festivités liées à l’entrée en fonction des deux nouvelles têtes de l’exécutif. La ville de Saint-Marin compte de nombreux musées. Le palais ' abrite ainsi le musée national (') et ses milliers de pièces retraçant l’histoire de Saint-Marin : découvertes archéologiques, documents historiques, pièces de monnaie et toiles de peinture. L’édifice appelé « Deuxième Tour », quant à lui, contient un musée des Armes antiques (") proposant au visiteur plus de couvrant principalement la période allant du . Éducation. L’Académie internationale des sciences de Saint-Marin (Akademio Internacia de la Sciencoj San-Marino, nom officiel en espéranto, ou Accademia Internazionale delle Scienze San Marino, en italien, abrégé en AIS), est une association scientifique internationale à caractère universitaire basée à Saint-Marin. Elle a été créée par décision du du congrès d’État. Saint-Marin possède également une petite université, l’"Università degli Studi di San Marino". Elle comprend notamment le Centre International d’Études sémiotiques et cognitives, fondé par l’auteur italien Umberto Eco en 1995, lequel enseigna à cette université jusqu’en 1998. Gastronomie. L’Italie a beaucoup influencé la gastronomie de Saint-Marin avec les pâtes, les plats de viandes grillées… Les desserts sont aussi très présents dans la gastronomie de Saint-Marin comme la caciatello (gâteau à la crème fraîche), les beignets aux raisins d’or, ou encore le bustrengo (gâteau à la polenta et aux pommes). Musique. Saint-Marin est plus connu musicalement au niveau international pour sa participation à l’Eurovision. Le pays fit une première apparition en 2008 avant de revenir de manière régulière à partir de 2011. Valentina Monetta a représenté son pays trois années de suite de 2012 à 2014, et en 2017 en duo avec le chanteur Jimmie Wilson. Le pays s'est qualifié trois fois en finale : en 2014, 2019 et en 2021. Médias. Le pays dispose d’une chaîne de télévision publique, San Marino RTV, créée en 1993 et diffusant ses programmes à la fois localement et par satellite. Le service public produit également deux stations de radio : RSM San Marino et San Marino Classic. La télévision et la radio italienne sont reçues dans le pays. Sport. Sports mécaniques. Sport automobile. Le Grand Prix automobile de Saint-Marin n’avait pas lieu sur le territoire du petit pays mais cent kilomètres plus au nord-ouest à Imola, sur le circuit Enzo e Dino Ferrari. Cette circonstance tient à une suite d’événements remontant au début des années 1980. En 1980, le Grand Prix automobile d'Italie, traditionnellement organisé à Monza, avait été transféré à Imola. À la suite de nombreuses protestations, cette décision fut annulée dès l’année suivante. Afin toutefois de ne pas avoir à renoncer au circuit d’Imola, situé au cœur de l’univers Ferrari, le Grand Prix automobile de Saint-Marin vit le jour en 1981 et continua à être organisé jusqu’en 2006. Il fut marqué notamment par les décès de Roland Ratzenberger aux essais et d’Ayrton Senna en course lors de l’édition . Sport motocycliste. La République de Saint-Marin a également servi de prête-nom à plusieurs manches du championnat du monde de vitesse moto. Le Grand Prix moto de Saint-Marin s’est disputé, à l’instar du Grand Prix de , sur le tracé d’Imola (en 1981 et 1983) mais également sur le circuit du Mugello (en 1982, 1984, 1991 et 1993) ainsi que sur celui de Misano (de 1985 à 1987 et depuis 2007). Football. Malgré sa population très réduite, le pays dispose de son propre championnat de football dont les modalités sont gérées par la fédération nationale ("", ou FSGC). Cette dernière, fondée en 1931, regroupe quinze équipes qui s’affrontent tout d’abord au sein de deux groupes de sept ou huit équipes. Les trois meilleures équipes de chaque groupe jouent ensuite pour la coupe. Le Saint-Marin Calcio participe cependant au championnat d’Italie Eccelenza (cinquième division italienne). Saint-Marin compte une équipe nationale de football depuis 1986. L’équipe nationale a connu en tout et n’a pour l’instant gagné qu’une seule fois : sous la supervision de l’entraîneur Giampaolo Mazza, les Saint-Marinais battent le Liechtenstein le lors d’un match amical. Divers. Saint-Marin a pour codes : |
Solstice d'été |
Sport au Mexique Au Mexique, le sport est très diversifié et au fil des années, plusieurs personnalités ont excellé, tant au niveau national qu’international, dans les sports professionnels et amateurs. En outre, le pays a accueilli différents événements de classe mondiale, notamment deux coupes du monde de football (1970 et 1986) et les Jeux olympiques d'été de 1968. Il hébergera également une partie des matchs de la coupe du monde de football de 2026, en partenariat avec les États-Unis et la Canada. Événements multi-sports. Jeux olympiques d'été. Le Mexique est représenté par le Comité olympique mexicain. Sa capitale, Mexico, est le site des Jeux olympiques, en 1968. Il est ainsi le premier pays d'Amérique latine et le premier pays hispanophone à organiser un événement olympique. La première participation d'athlètes mexicains a lieu aux Jeux olympiques de Paris 1900 avec les membres de l'équipe de la polo, appelée Amérique du Nord. Cependant, ce n’est qu’à partir des Jeux olympiques de Paris de 1924 que le Mexique envoie une délégation olympique officielle représentée par un comité olympique. Depuis lors, le Mexique participe à 22 éditions consécutives et remporte, jusqu'à maintenant, 67 médailles dont 13 en or, 24 en argent et 30 en bronze. Sur toute son histoire, il présente , y compris les Jeux olympiques de Rio de Janeiro 2016. Jeux olympiques d'hiver. La première apparition du Mexique aux Jeux olympiques d'hiver a lieu à St. Moritz 1928. Il participe à huit éditions, présente 42 athlètes et n'obtient aucune médaille. Jeux olympiques de la jeunesse. La délégation mexicaine participe aux Jeux olympiques de la jeunesse depuis sa première édition à Singapour en 2010, y envoyant un total de 213 athlètes, dans les deux éditions et obtient 38 médailles: 6 d'or, 12 d'argent et 20 de bronze. Jeux paralympiques d'été. Le Mexique participe à toutes les éditions des Jeux paralympiques d'été depuis 1972 et fait ses débuts aux Jeux paralympiques d'hiver à Turin 2006. Il remporte un total de 288 médailles paralympiques, dont 97 d'or, 90 d'argent et 101 de bronze. À ses débuts aux Jeux paralympiques de Heidelberg, il ne remporte pas de médaille. Jeux paralympiques d'hiver. Les délégations mexicaines aux Jeux paralympiques d'hiver sont petites, Armando Ruiz en 2006 et 2010, Arly Velásquez en 2010, 2014 et 2018, et elles n'ont remporté aucune médaille. Jeux panaméricains. Le Mexique participe aux Jeux panaméricains sans interruption depuis la première édition, tenue en Argentine en 1951. C'est le premier pays à accueillir trois fois (1955, 1975 et 2011). À ce jour, la délégation mexicaine a obtenu un total de médailles: 221 médailles d'or, 288 médailles d'argent et 502 médailles de bronze. Jeux d'Amérique centrale et des Caraïbes. Le Mexique participe aux Jeux d’Amérique centrale et des Caraïbes depuis la première édition, qui se tient à Mexico en 1926. Le pays est représenté par le Comité olympique mexicain et accueille les première, septième et seizième éditions de la manifestation sportive à Mexico 1926, Mexico 1954 et 1990 respectivement. Il a obtenu médailles, d'or, 1215 d’argent et de bronze. Athlétisme. Ce sport est régi par la (FMAA) (fédération mexicaine des associations d'athlétisme), basée à Mexico. Fondé en 1925 (affilié à l'IAAF depuis 1933), il est intégré par 35 associations, soit , le (la capitale, Mexico) et 3 par des institutions publiques, l'IMSS (), l'UNAM et l'IPN. Les athlètes mexicains ayant participé aux championnats du monde d’athlétisme ont obtenu 13 médailles (3 médailles d’or, 2 médailles d’argent et 8 médailles de bronze). Aux Jeux Olympiques, 11 des 67 médailles du Mexique proviennent de ce sport, soit la récolte de 3 médailles d'or, 5 d'argent et 3 de bronze. La plupart d’entre elles, dans les deux compétitions, viennent de la marche, soit dans sa modalité de ou . Dans le cas des Jeux Olympiques, seule la médaille d’argent du à Athènes en 2004, remportée par Ana Gabriela Guevara, est remportée dans une catégorie différente. Aux championnats du monde, une médaille d’argent au marathon est obtenue par Dionicio Cerón à Göteborg en 1995, une médaille de bronze au pour Alejandro Cárdenas à Séville en 1999, trois gagnées par Ana Gabriela Guevara au féminin: bronze à Edmonton en 2001, or à Paris en 2003 et bronze à Helsinki en 2005; ainsi que le bronze au saut en longueur par Luis Rivera à Moscou en 2013. En marche, Ernesto Canto est premier sportif mexicain à obtenir la double couronne (champion du monde à Helsinki en 1983 et champion olympique à Los Angeles en 1984), sur . Daniel Bautista ( à Montréal en 1976) et Raúl González Rodríguez ( à Los Angeles en 1984) se parent également d'or olympique et Daniel García est champion du monde à Athènes en 1997. Jusqu'à 7 fois, le record du monde des (Daniel Bautista - 4 fois - , Carlos Mercenario et Bernardo Segura) est entre les mains d'un marcheur mexicain et il faut y ajouter 2 records du monde des (tous deux de Raúl González). La dernière médaille olympique obtenue dans cette discipline est remportée par María Guadalupe González à Rio 2016. Au "World Marathon Majors" (marathons de New York, Boston, Chicago, Berlin et Londres), 10 éditions sont remportées par les marathoniens mexicains: Dionicio Cerón remporte l'édition de Londres en 1994, 1995 et 1996, Adriana Fernández gagne à New York en 1999, Germán Silva est en première place à New York en 1994 et 1995, tout comme en 1991 et en 1993, tandis que Alejandro Cruz en 1988 et en 1990, s'imposent dans celui de Chicago. Le marathon international de Mexico est l'événement sportif international le plus important du pays. Il est célébré chaque année depuis 1983 dans les rues de la ville. La course a généralement lieu début septembre. L’itinéraire du circuiti commence sur le (la place de la Constitution)), puis le , s’étend dans la région de Polanco, Chapultepec et de nombreux lieux importants et historiques de la ville tels que l’Ange de l’indépendance et le palais des Beaux Arts, entre autres. Plus tard la route va au sud de la ville jusqu'à Mixcoac, où elle revient par l'avenue , revenant jusqu'à , l'arrivée étant finalement au Zócalo. À partir de l'édition 2013, le parcours du marathon olympique de Mexico 1968 est répété avec le stade universitaire olympique comme ligne d'arrivée. Automobilisme. L'un des sports pratiqués de manière professionnelle au Mexique est le sport automobile. Sa scène principale est l'Autodromo Hermanos Rodríguez, lieu du Grand Prix du Mexique, course faisant partie du championnat du monde de Formule 1, organisé pour la première fois en tant qu'événement non valable pour le titre en 1962, et inclus dans la championnat entre 1963 et 1970, puis entre 1986 et 1992 et de nouveau à partir de 2015. Outre la Formule 1, d'autres événements ont lieu au Mexique comme la Champ Car World Series (Mexico 1980-1981, 2002-2007 et Monterrey 2001-2006), la depuis 2004 et la série NASCAR Nationwide (2005-08). En termes de courses sur route, la Baja 1000, le Rallye du Mexique et, auparavant, la course panaméricaine se distinguent comme des compétitions internationales. Les grandes figures de ce sport au Mexique sont les frères Rodriguez. Pedro Rodríguez de la Vega participe à la Formule 1 de 1963 à 1971 pour Ferrari, Lotus, Cooper Car Company et BRM. Au total, il a participé à 55 grands prix, obtenant deux premières places, pour être jusqu'à présent le seul Mexicain à avoir vu le drapeau à damier. En 1967, il remporte le Grand Prix d'Afrique du Sud et en 1970 avec BRM, il gagne le Grand Prix de Belgique. En plus, il s'impose quatre fois aux 24 Heures de Daytona. Ricardo Rodríguez de la Vega est entré en Formule 1 avec Ferrari, il court 4 grands prix et termine avec quatre points, les premiers d'un pilote mexicain dans la catégorie reine. Il gagne également la Targa Florio 1950 avec Ferrari. En 1960, il termine deuxième des 24 heures du Mans, faisant équipe avec le Belge André Pilette, ce qui attire l'attention de la Scuderia Ferrari. Le plus grand pilote mexicain est actuellement Sergio "Checo" Pérez, qui réalise quinze podiums et deux victoires depuis 2012. Plusieurs pilotes mexicains ont excellé dans le sport automobile américain. Adrián Fernández termine deuxième dans la catégorie des monoplaces CART en 2000, remportant également 8 victoires. Il gagne ensuite en 2009 la catégorie LMP2 de l'American Le Mans Series, un championnat de prototypes de sport. De même, Memo Rojas excelle dans la catégorie des prototypes Daytona de la Rolex Sports Car Series depuis 2007, remportant quatre championnats et étant deux fois vice-champion. Luis Diaz y est également deux fois vice-champion et champion de la série American Le Mans 2009 avec Fernandez. Le championnat mexicain de rallye est le principal événement de la spécialité du pays. Certains des champions concourent au niveau international, tels que Benito Guerra Jr., vainqueur du Championnat du monde de rallye WRC-3, et Ricardo Triviño, multiple vainqueur du Championnat NACAM des rallyes. Basket-ball. Le troisième sport d'équipe pratiqué professionnellement au Mexique est le basket-ball. Actuellement, la ligue la plus importante du pays dans ce sport est la Ligue nationale de basketball professionnel (LNBP) et la féminine, la Ligue mexicaine de basketball professionnel féminin (LMBPF). La plus grande réussite internationale de ce sport au Mexique est la médaille de bronze des Jeux olympiques de 1936 à Berlin. Quatre basketteurs mexicains ont participé à la NBA: Baseball. Le baseball est un autre sport de tradition. Il est le troisième sport le plus populaire au Mexique selon les derniers sondages. Le baseball est le sport le plus populaire dans les régions du nord et du sud-est. Le Mexique compte plusieurs ligues professionnelles, parmi lesquelles se distinguent la Ligue mexicaine de baseball (LMB) et la Ligue mexicaine du Pacifique (LMP). La popularité de la LMB est due au fait que ses équipes sont réparties dans presque tout le pays, c’est celle qui a la plus longue tradition, depuis sa fondation en 1925; la plupart des joueurs de baseball mexicains qui se rendent dans les ligues majeures en viennent. La LMB est affilié aux ligues mineures des États-Unis sous la classification AAA et possède sa propre académie de développement des talents située à au Nuevo León. Elle est actuellement composée de réparties en 2 zones (Zona Norte et Zona Sur). La LMP se joue en hiver, sa saison est donc plus courte et accueille certains joueurs (Mexicains et étrangers) qui jouent l’été dans les ligues majeures. L'équipe championne représente le Mexique dans le plus grand événement de baseball de la région, la Série des Caraïbes, dans lequel les champions des ligues de Cuba, Porto Rico, la République dominicaine et le Venezuela. Cette compétition a attribué 9 championnats régionaux au baseball mexicain. Boxe. Le Mexique est le berceau de grands boxeurs et la pépinière de nombreux champions qui ont laissé une marque dans leur histoire sportive, à la fois professionnelle et amateur. C'est la deuxième puissance mondiale en boxe et, au cours de son histoire, selon ESPN, en 2014, compte 150 titres de champions du monde. Rien qu'en 2017, 8 boxeurs aztèques remportent le titre suprême. Quelques mexicains qui ont marqué l'histoire: Aujourd'hui, il y a de nouvelles promesses du monde telles que Saul "El Canelo" Alvarez, champion du monde dans trois catégories à et Julio César Chávez Jr., champion du monde des poids moyens jusqu'en 2012. Charrería. Le sport national mexicain est la . Ce sport est dérivé du travail des cow-boys dans les haciendas. Son origine date de l'ère coloniale, et à Maximilien de Habsburg, deuxième empereur du Mexique, est attribué la création du costume de charro dans sa forme définitive. La pratique de la charrería est limitée à une très petite partie de la population, en raison du coût élevé de l'entretien du cheval et des outils nécessaires (vêtements, accessoires). La reconnaissance en tant que sport national est accordée par décret présidentiel en 1933 par le général Abelardo L. Rodríguez, président de la République. Ses variantes comme le rodéo et le ranchero sont communes dans les fêtes des villes. En tant qu'école rurale équestre, la prend sa source dans la , au Mexique. Comme sport, elle apparaît après la réforme agraire du début du , lorsque les anciens propriétaires terriens migrent vers les villes, principalement Mexico et Guadalajara. Ils sont organisés en associations "«charro»" qui se répandent progressivement dans tout le pays, donnant naissance à la . Depuis le , la est inscrite sur la Liste représentative du patrimoine culturel immatériel de l'humanité de l'UNESCO lors de la session de cette organisation à Addis-Abeba, en Éthiopie. Cyclisme. Le Tour du Mexique est la plus importante compétition cycliste du pays. Elle est créée en 1948 par la Fédération mexicaine de cyclisme (avec diverses suspensions) en coordination avec la Commission nationale de la culture physique et du sport (CONADE). Le trajet total est de et se fait dans six états de la République mexicaine. Le Mexique obtient 12 médailles aux championnats du monde de cyclisme sur piste, 1 d'or, 7 d'argent et 4 de bronze, une médaille de bronze aux Jeux olympiques de la jeunesse de 2010 grâce à Ingrid Drexel. Peu de cyclistes mexicains font une carrière internationale. On peut par exemple citer Raúl Alcalá, deux fois huitième du Tour de France et vainqueur de deux étapes, meilleur jeune et neuvième du Tour en 1987 et vainqueur de la Classique de Saint Sébastien en 1992. Julio Alberto Pérez Cuapio s'illustre sur le Tour d'Italie, remportant le classement de la montagne et deux étapes en 2002, la et la ainsi qu'une autre étape du Giro, l'année précédente. Football. Régi par la Fédération du Mexique de football (), fondée en 1922 et affiliée à la FIFA en 1929. Professionnellement, le sport qui a plus de diffusion est le football. La ligue mexicaine est composée de quatre divisions. À la fin d'un cycle (consistant en un tournoi d'ouverture - - et de clôture - ), l'équipe avec le pourcentage le plus faible de chaque division passe au niveau inférieur, et le champion accède à l'échelon supérieur.Le tournoi Liga MX (la première division) est celui qui attire l'attention des médias. Il est composé de dix-huit équipes, dont les huit meilleures à la fin de la phase régulière, jouent la (un tournoi à élimination directe, joué en aller-retour) pour déterminer le titre de champion. Dans le même temps, la Coupe du Mexique se joue avec les clubs de la Liga de Ascenso (la deuxième division), le voit s'affronter les vainqueurs des deux tours du championnat et la Supercoupe du Mexique, les vainqueurs de la coupe lors des deux tournois. L'América (13 ligues, 5 coupes et 5 ) et les Chivas de Guadalajara (12 ligues, 4 coupes et 7 ) figurent parmi les clubs les plus titrés du pays. Simultanément, des clubs mexicains participent à des compétitions internationales telles que la Ligue des champions de la Concacaf, la Copa Libertadores de la CONMEBOL et la Copa Sudamericana. Dans les tournois internationaux, les clubs mexicains ont obtenu les résultats suivants: L’équipe nationale mexicaine de football masculine participe à 15 Coupes du monde dans lesquelles elle s’est produite avec des performances discrètes, obtenant deux sixièmes places atteintes dans les éditions de la Coupe du monde qu'elle joue en tant qu'équipe locale: 1970 et 1986. Il participe aux tournois d'équipes nationales organisés par sa confédération (CONCACAF), étant couronnés champions de 10 éditions; 3 de la défunte Coupe CONCACAF en 1965, 1971 et 1977 et 7 de la Gold Cup actuelle en 1993, 1996, 1998, 2003, 2009, 2011 et 2015. Cependant, son plus grand succès international est le titre de Coupe des Confédérations de la FIFA 1999 et les finales de la Copa América en 1993 et 2001. L’équipe de football mexicaine U-17 est couronnée à la Coupe du Monde organisés au Pérou en 2005 et à celle de 2011 au Mexique. De plus, l'équipe des moins de a remporté la médaille d'or au tournoi olympique de football des Jeux de Londres en 2012. En bref, voici le bilan de toutes leurs équipes nationales: Football américain. Le football américain au Mexique est le cinquième sport le plus populaire du pays. La plus haute compétition est la Ligue mexicaine de football américain professionnel (LFA) et, au niveau universitaire, l’Organisation nationale des étudiants de football américain (ONEFA) et la Commission nationale du sport étudiant des institutions privées de football américain (CONADEIP). En outre, le football américain est à côté du baseball, l’un des deux sports d’équipe ayant donné le plus de satisfaction au pays. Il est probable que le football américain soit venu au Mexique au début du siècle dernier grâce de jeunes Mexicains rentrés des États-Unis et qui ont mis ce sport en pratique. Le représentant maximum de ce sport au Mexique est le lagon Raul Allegre, qui remporte deux Super Bowls avec les Giants de New York. Golf. Les meilleurs joueurs de golf mexicains à travers l'histoire sont dans la catégorie hommes et Lorena Ochoa dans la catégorie femmes, vainqueurs de tournois dans les circuits PGA et LPGA. Toledo remporte par exemple l' de 2016 et Ochoa est numéro 1 mondiale pendant trois ans, de 2007 à 2010. De nationalité américaine, mais d'origine mexicaine et multiple vainqueur de tournois majeurs, on peut également compter Lee Trevino. Depuis 2017, le WGC-Mexico Championship se déroule dans le pays, c'est l'un des quatre tournois annuels du World Golf Championships. Hockey sur glace. Le Mexique rejoint la Fédération internationale de hockey sur glace en . L'équipe de hockey mexicaine dispute son premier match international aux Championnats du monde de hockey sur glace 2000, battus 5-0 par l'équipe nationale belge. L’équipe féminine joue son premier match contre l’Argentine en 2012. La (Ligue mexicaine de hockey élite mexicaine - LMEH) est inaugurée le dans le but d'établir le hockey sur glace au Mexique à un niveau international élevé. Ceci est réalisé avec la participation conjointe d'investissements privés et des équipes de hockey professionnelles déjà existantes dans le pays. Jeu de balle. Certains sports ont une origine préhispanique. Au Michoacán, on pratique la qui, à l'instar de la d'Oaxaca et de l' de Sinaloa, est lié à l'ancien jeu de balle pratiqué par les peuples mésoaméricains. Ce jeu de balle simule le mouvement des étoiles dans le ciel et, en théorie, leurs descendants le font aussi. Bien sûr, maintenant les équipes défaites ne sont pas sacrifiées aux dieux. Au Chihuahua, les Tarahumaras exécutent des courses rituelles appelées "rarajípara" et "ariweta". La première est destiné aux garçons et se joue en équipes qui se relaient pour terminer un parcours de plusieurs kilomètres en frappant une petite balle dans la montagne. La deuxième est destinée aux femmes et elles doivent faire le voyage en poussant un cerceau. Le jeu de balle mésoaméricain est un jeu rituel dont la pratique s’est étendue tout au long des trois mille ans d’histoire précolombienne mésoaméricaine, dans toutes les cultures de la région et même dans des sites oasis-américains comme Paquimé et une partie de la Culture Fremont. Actuellement, il est pratiqué dans trois domaines: autochtone, rural et urbain, y participent des adultes et des jeunes, principalement issus des communautés mixtèques d'Oaxaca, de Guerrero et de Puebla. Il a 3 modalités: pelota Mixteca de Hule, la pelota Mixteca de Forro et la pelota Mixteca . Lacrosse. La crosse est un sport relativement nouveau au Mexique. Actuellement, la Fédération mexicaine de crosse cherche à être officiellement reconnue comme un régulateur de ce sport. Au Mexique, il existe plusieurs équipes de crosse au niveau universitaire, parmi lesquelles se distinguent les Lobos de l'Université ibéro-américaine de Mexico, les Pumas de l'UNAM et les ânes blancs de l'Institut polytechnique national. L'équipe mexicaine de crosse dispute pour la première fois le championnat du monde de crosse à Manchester, en Angleterre, en 2010. En , elle participe au championnat du monde de crosse à Denver, au Colorado. Lucha Libre. Elle est connue sous le nom de lucha libre mexicaine, la version locale de la lutte professionnelle pratiquée au Mexique, caractérisée par son style aérien et de clés. De là émergent des personnages mythiques de la culture populaire, tels que El Santo, Blue Demon ou Mil Máscaras. Le catch mexicain est un mélange de séquences sportives et théâtrales qui, au Mexique, est le spectacle sportif le plus populaire, juste après le football. La principale caractéristique de la lutte mexicaine sont les séquences acrobatiques de sauts et de clés, en plus du fait que beaucoup de leurs combattants sont masqués, c’est-à-dire qu’ils utilisent un masque pour cacher leur véritable identité et créer une image qui leur donne une personnalité spéciale. Les lutteurs peuvent mettre leur masque en jeu lors d'un combat contre un autre combattant masqué () ou avec un non masqué (), mais en le perdant, ils ne peuvent plus le porter dans leur carrière sportive, bien qu'il y ait eu des cas de combattants qui se sont à nouveau masqués. Pelote basque. La pelote basque au Mexique est pratiquée depuis environ 1895 et est représentée par la Fédération mexicaine de Fronton. Au Mexique émerge, en 1916, une nouvelle spécialité de la balle, le frontenis. Depuis sa création, les représentations mexicaines remportent toutes les éditions des championnats du monde organisés à ce jour, à l'exception de celui de La Havane 1990. Le Mexique est l’une des trois puissances mondiales de ce sport, avec l’Espagne et la France, avec lesquelles il dispute toujours la médaille des championnats du monde de la spécialité. C'est une discipline d'exhibition aux Jeux olympiques de Mexico de 1968 et aux Jeux olympiques de Barcelone de 1992. À ces occasions, le Mexique obtient deux médailles d'or et trois de bronze en 1968, ainsi que trois médailles d'or, deux d'argent et deux de bronze en 1992. Rugby. Le rugby apparaît au Mexique dans les premières décennies du dans des champs de pétrole concédés à des sociétés anglaises, où les travailleurs le pratiquent pendant leur temps libre, en souvenir de leur patrie. Le rugby universitaire, masculin et féminin, de rugby est l'un des projets lancés par la Fédération mexicaine de rugby dans le développement de ce sport au Mexique. Il y a 3 tournois annuels de rugby universitaire: Le championnat national de rugby à quinze est une compétition de ligue amateur, le plus haut niveau du système de compétition de rugby à quinze du Mexique et, par conséquent, l'un des principaux tournois de rugby du pays. La compétition se joue à partir de la saison 1972-1973. Tennis. La Fédération mexicaine de tennis, créée le , compte plus de et 33 associations dans tous les États de la République. L'Abierto Mexicano de Tenis (AMT) est l’un des événements les plus prestigieux et les plus importants du sport en Amérique latine. Le tournoi fait partie des activités menées par l'ATP et la WTA. L'AMT se dispute dans la ville d'Acapulco sur un terrain en dur du complexe appelé Princess Mundo Imperial. Les joueurs avec plus de titres de l’AMT sont l’Autrichien Thomas Muster et l’Espagnol David Ferrer avec 4 chacun. Le plus grand succès de l’histoire du tennis mexicain remonte à la Coupe Davis 1962, lorsque l’équipe mexicaine dirigée par Rafael Osuna atteint la finale après avoir battu les États-Unis au premier tour 3-2, la Yougoslavie 4-1 en huitièmes de finale, la Suède 3-2 en quarts de finale et parvient à s'imposer 5-0 en tant que visiteur en Inde en demi-finale. En grande finale, ils rencontrent le champion en titre Australie, devant lequel l'équipe intégrée d'Antonio Palafox, Mario Llamas et Pelón Osuna ont succombé 5-0. Quelques-uns des meilleurs joueurs de tennis mexicains: Taekwondo. Le Mexique a une importante participation internationale aux Jeux Olympiques avec les médaillés suivants: Le Mexique accueille trois Coupes du monde, Puebla 2013 et deux par équipes, Querétaro 2014 et Mexico City 2015 et a accueilli à deux reprises la finale du Grand Prix en 2014 et 2015. Volley-ball. Le volley-ball est l’un des sports les plus populaires au Mexique et se pratique comme l’une des disciplines de base au niveau scolaire. Il existe actuellement deux circuits professionnels de ce sport, à la fois dans la division masculine, la Ligue mexicaine de volleyball (LMV), et la ligue féminine, la Ligue mexicaine de volleyball féminin (LMVF). Les deux circuits sont créés dans le but de servir de base à l'intégration d'équipes nationales pour le cycle olympique de Rio de Janeiro 2016, puisque des équipes de différentes régions du pays sont constituées afin de les observer. Cependant, ce n'est pas la première tentative d'une ligue de volleyball professionnel au Mexique, car auparavant, la de volley-ball (LPV) est également développée dans les deux branches. Champions du monde mexicains. Au total, 10 sports différents et différentes catégories ont eu un champion du monde mexicain. Cette liste n'inclut pas les catégories de jeunes. |
Séville Séville (en ) est une ville du Sud de l’Espagne, capitale de la province de Séville et de la communauté autonome d’Andalousie. Quatrième ville du pays, elle accueille une population de en 2021, sur un total de dans son unité urbaine. Située au centre d'une riche région agricole, traversée par le fleuve Guadalquivir et connectée à un important réseau de communication, la cité est le cœur économique, politique et culturel de l’Andalousie, et constitue l’une des plus importantes villes du pays mais aussi de l'Europe du Sud. C’est également une ville au passé prestigieux, dotée d'un patrimoine artistique d’une grande richesse, ce qui en fait une des destinations touristiques les plus prisées d’Europe. Ses monuments, les nombreux artistes qui y sont nés ou y ont œuvré, son histoire glorieuse, ses fêtes traditionnelles, mais aussi son climat et sa gastronomie, contribuent à sa renommée. Géographie. Situation. Située dans le Sud-Ouest de l'Espagne, au cœur d'une dépression qui s'étend de Cordoue à l'Océan Atlantique, Séville bénéficie d'un emplacement privilégié, largement ouvert vers l'extérieur et qui s'appuie sur deux caractéristiques géographiques majeures. D'une part, la cité est traversée par le Guadalquivir, navigable jusqu’à la capitale andalouse. Le fleuve offre aux navires de commerces une liaison direct entre l'océan, distant de , et le port de Séville, le seul port fluvial espagnol majeur. La ville s'est construite autour du fleuve, et a connu son apogée au moment de la constitution de l'Empire espagnol. À noter que depuis 1948, le Guadalquivir contourne la ville par l'ouest pour éviter les inondations. Le cours d'eau qui traverse Séville, et sur lequel se trouve le port fluvial, est une darse, appelée canal Alphonse-XIII. D'autre part, Séville domine la "vega" (plaine) du Guadalquivir, la "Campiña sevillana". Cette vaste étendue de plaines légèrement ondulées est exploitée depuis des siècles pour sa fertilité qui a contribué à la richesse de la ville. Cultures céréalières, maraîchères, oléicoles, ou encore élevage de bétail ("toros bravos" notamment), n'ont cessé d'être développés sur ces terres qui continuent à faire vivre la région. Cette position enviable offre à Séville une franche ouverture vers les régions limitrophes, sur lesquelles s'étend son influence : l’"Aljarafe", l"Alcor" et les "sierras" nord et sud de la province. La ville, desservie par un réseau de communications dense, se trouve à de Cadix, de Cordoue, de Malaga, de Grenade, de Madrid et de Barcelone. Climat. Située dans le Sud de l'Espagne, non loin du continent africain, Séville bénéficie d'un climat très nettement méditerranéen, tout en subissant des influences continentales. Sa position modérément éloignée des côtes, dans la vaste plaine du Guadalquivir, lui permet de jouir d'un climat relativement doux et clément tout au long de l'année. La température moyenne annuelle s'établit à (minimales : ; maximales :+). Néanmoins, Séville connaît des étés particulièrement longs et torrides, avec des températures maximales moyennes atteignant ou dépassant les de mai à octobre. Séville est l'une des villes les plus chaude et sèche du pays, suivie par Murcie, Saragosse et Madrid. Les pics de températures sont atteints entre juin et septembre, à une période où le mercure dépasse ou atteint constamment la barre des , voire plus avec une température minimale de . Le maximum enregistré est de , tandis que le minimum est de . L’ensoleillement est l’un des plus élevés du pays, avec une durée de plus de par an. Les gelées sont très rares par rapport à Grenade, à plus de 700 m d'altitude. Une température de a été relevée le à la station de Sevilla San Pablo, ce qui constitue un nouveau record mensuel, l'ancien record de ayant été pulvérisé de plus de . Le régime pluviométrique de la capitale andalouse correspond également à celui d'un climat méditerranéen, avec en moyenne par an. Néanmoins on compte 50,5 jours de pluie par an. Les précipitations se concentrent sur la période d'octobre à avril avec en décembre de pluie. Les chutes de pluie sont en revanche quasiment nulles au cœur de l'été : on compte de pluie en juillet et 0,5 en août. La neige est un phénomène exceptionnel en ville. Le , après 56 ans sans chutes de neige, elle recouvre la ville et ses alentours, mais avec moins d’intensité qu’à l’occasion précédente, le . Étymologie, devise, blason. Le nom de "Sevilla" provient du toponyme ibère "I-Spal" (Isfân en carthaginois a donné l'Hispania romaine, l'Isfâniya arabe, Espana médiévale) romanisé sous la forme Hispalis, devenu "ichbillia" Isbaliya/Isbiliya/Ishbalyia/Isbilyia au . La devise de Séville est . Le 8 représente ici un écheveau de laine, "madeja" en espagnol. La phrase se lit donc : "no madeja do", contraction de "No me ha dejado" (« elle ne m’a pas laissé »). Cette formule fait référence au roi le Sage, lequel, chassé du pouvoir par son fils Sanche, futur , en 1282, se réfugie à Séville, l’une des très rares villes de sa couronne à lui être restées fidèles face à son fils rebelle. Il y meurt en 1284. Cette devise figure sur le drapeau municipal. Le blason, quant à lui, représente le roi , conquérant de la ville en 1248, entouré de saint Isidore et de son frère saint Léandre qui furent tous deux archevêques de Séville aux . La devise de la cité figure au bas du blason. Histoire. L'Antiquité. Selon la légende, Séville est fondée par les Tartessiens autour du , sous le nom de "Ispal" ou "Spal" (selon les sources latines). Le premier site de peuplement stable a été localisé au bord du Guadalquivir, sur un petit promontoire, aujourd’hui connu sous le nom de "Cuesta del Rosario". C’est à cet endroit que le fleuve cesse d’être navigable pour les grandes embarcations. La ville est ensuite peuplée par les Phéniciens et les Grecs. Séville se retrouve au cœur de la Deuxième guerre punique : les Carthaginois s'en emparent en -216. La bataille d'Ilipa permet aux Romains de la conquérir en -206. La ville est rebaptisée Hispalis et est reconstruite. Son tempérament mouvant amène néanmoins les Romains à fonder une autre cité à proximité : Itálica, qui devient la ville résidentielle, tandis qu'Hispalis conserve ses fonctions commerciales. Jules César la dote d'une nouvelle enceinte en -49, puis l'élève en -45 au rang de colonie romaine. Elle devient alors une cité importante, dominant toute la Bétique. Au moment des Grandes invasions, Séville est conquise successivement par les Vandales en 426, puis par les Suèves en 441. Ces derniers seront néanmoins chassés par les Wisigoths après la bataille de la rivière Órbigo en 456. Le Moyen Âge. La Séville wisigothique. Les Wisigoths sont chassés de Gaule par les Francs en 507. Commence alors une lente mais déterminante conquête de la péninsule Ibérique, sur laquelle les Goths avaient commencé à prendre leurs marques au siècle précédent. Hispalis est rebaptisée Spali, et se retrouve au centre des conflits qui déchirent le royaume : La cité s'exprime désormais à travers la culture, dont elle devient un des plus brillants foyers d'Occident, grâce à l'action de saint Léandre et saint Isidore, les deux plus illustres archevêques de Séville, qui développent notamment la bibliothèque. Jacques Fontaine parle même d'une « renaissance isidorienne ». La cité musulmane. Quelques mois à peine après l'invasion des troupes musulmanes dans la péninsule ibérique en avril 711, Moussa Ibn Noçaïr parvient à conquérir Séville. La ville occupe le cœur de l'activité politique d'Al-Andalus avant que la capitale ne se fixe définitivement à Cordoue. Les premiers temps de l'Islam à Séville sont bénéfiques. La ville retrouve assez rapidement sa prospérité passée par la mise en valeur des campagnes alentour et le retour en grâce des Juifs, persécutés par les Wisigoths. L'arrivée à Cordoue d', qui fonde l'émirat omeyyade en 756, marque le début d'une longue période de révoltes vis-à-vis du pouvoir central. Les entreprises successives de rébellion seront à chaque fois étouffées par les troupes émirales, de manière plus ou moins violente. Ces soulèvements réguliers sont néanmoins le signe de la difficulté pour le pouvoir cordouan d'imposer correctement son autorité. Le premier grand chantier entrepris, dans une cité qui se développe à un rythme soutenu, est celui de la construction de la grande mosquée, à partir de 829-830, à l'emplacement actuel de l'église du Salvador. Cette époque est également marquée par les incursions dévastatrices et répétées des Vikings, qui pénètrent jusqu'à Séville par le Guadalquivir. La première de ces incursions, en 844, est marquée par un bilan désastreux. Les autorités décident dès lors la construction de chantiers navals et la constitution d'une flotte, qui permet de repousser les tentatives d'incursion postérieures. Si Séville prospère économiquement et culturellement à la fin du , elle subit de plein fouet les conséquences d'une guerre ouverte opposant différents clans cherchant à accaparer le pouvoir dans la cité. Les vainqueurs de cette crise, les Banu Hadjdjadj, cherchent à se soustraire à la domination des émirs, avant de se soumettre en 902. L'arrivée sur le trône d' en 912 signe le retour en force de Séville dans le giron cordouan. La fermeté de l'émir, autoproclamé calife en 929, permet d'affermir le pouvoir des omeyyades dans la ville, dont les velléités rebelles sont matées, et les murailles abattues en guise de châtiment. Elle conserve toutefois un rôle non négligeable dans le dispositif militaire de l'État cordouan et continue son développement. Les premières pierres de ce qui deviendra plus tard l'actuel alcazar sont posées au . La chute du Califat en 1031 libère Séville de sa tutelle musulmane. Surgissent alors dans tout Al Andalus des taïfas. Celle de Séville est l'une des plus puissantes et absorbe peu à peu nombre de territoires voisins. Sous la dynastie des Abbadides, la cité connaît une période d'apogée culturelle. La cour des souverains sévillans est le lieu d'une intense activité artistique et littéraire, marquée par un raffinement dont la renommée traverse rapidement le Guadalquivir. Face au danger que représentent les troupes d'de Castille après la prise de Tolède en 1085, al-Mutamid décide de faire appel à l'émir almoravide Youssef Ibn Tachfin. Après plusieurs interventions, il envahit Al Andalus à partir de 1090. Séville tombe en 1091. L'échec des Almoravides, incapables de s'incorporer dans la population autochtone, et de plus en plus en difficulté face aux royaumes du nord de l'Espagne, entraîne le débarquement des Almohades en 1147. La construction d'une nouvelle grande mosquée est décidée par le calife Abu Yaqub Yusuf en 1172. Son minaret, la Giralda, édifiée entre 1184 et 1198, témoigne de l'architecture de l'époque. Par ailleurs, l'alcázar est réhabilité et la muraille est reconstruite et dotée de puissants éléments défensifs, dont la Torre del Oro. La décomposition progressive du pouvoir almohade commença à la suite de la Bataille de Las Navas de Tolosa en 1212. La ville chrétienne. La ville finit par être conquise par , lors du siège de Séville après 18 mois de siège et d'offensives tant terrestres que fluviales. Après cette conquête les rois et le clergé catholique veulent peu à peu remodeler la ville : destruction de la mosquée, remplacée par une cathédrale (que l'on veut l'une des plus vastes de la chrétienté), construction de nouveaux palais, d'églises et de couvents. En revanche la judería change peu. Si la capitale du royaume de Castille est Burgos, la cour est en fait itinérante, et de nombreux souverains prennent plaisir à séjourner plus ou moins durablement à Séville (dont le Sage, le Cruel). Cela stimule l'activité du bâtiment, l'artisanat d'art, la vie culturelle. Grâce à l'irrigation développée par les Arabes, les campagnes de la région sont florissantes. Comme les navires de l'époque ont un faible tirant d'eau, on peut embarquer à Séville pour les navigations océanes (Vespucci, Magellan). La cité est débordante de vie, et Isabelle la Catholique crée une Bourse du commerce en 1503. On a peut-être exagéré l'importance de Séville en lui attribuant alors , mais, même si elle n'en comporte que , c'est l'une des plus grandes villes du monde de cette époque. Séville au Siècle d'or. Ce qu'on entend habituellement par « Siècle d'or » s'étend du règne de Charles Quint à celui de . Le bilan pour Séville est contrasté. En points défavorables : l'ensablement progressif du Guadalquivir, qui entraîne un transfert à Cadix d'une bonne partie du trafic maritime, le départ des juifs et des musulmans. En points favorables : l'existence d'une université fondée en 1504, des travaux commandés par les rois, l'existence d'une brillante école de peinture, où l'on distingue trois générations : Roela et Pacheco à la première, Herrera le Vieux et Zurbaran à la deuxième, Murillo à la troisième. Vélasquez est né à Séville dans ce milieu porteur. Cette école de peinture doit beaucoup à des commandes de monastères, ce qui suggère l'existence d'une vie religieuse intense et une certaine richesse, grâce à des donations faites aux institutions religieuses et aux revenus tirés de propriétés foncières. Le déclin du. Le déclin du est relatif. Il semble bien que Cadix, où est transféré l'entrepôt du commerce colonial ainsi que la "Casa de contratación" (chambre de commerce) locale, marque beaucoup de points dans la compétition avec Séville, et l'ampleur des constructions baroques à Cadix en témoigne. Néanmoins, Séville n'est pas délaissée et elle reçoit une belle manufacture de tabac, due à l'architecte Sebastión Van der Borcht. Le tabac arrive d'Amérique, et on voit que Séville bénéficie de retombées du commerce atlantique. Cette manufacture emploie autour de . La fabrique commande à Domingo Martínez huit peintures qui relatent les défilés de chars organisés dans la ville à l'occasion de la commémoration de l'avènement sur le trône de Ferdinand VI et Marie-Barbara de Portugal en 1746, dont " Le Char de la remise des portraits des Rois à la Mairie", "Le Char du feu" et "Le Char de l'annonce de la mascarade". Elles sont conservées au musée des beaux-arts de Séville. Par ailleurs, le roi crée une fabrique de canons qui, pour l'époque, utilise une technologie avancée. Il y a des métiers textiles (laine, soie) et une fabrication importante de porcelaine. On est certain que la population de Séville au était de , ce qui est beaucoup. Séville est alors une ville de sociétés savantes, de bibliothèques et de savoir encyclopédique. La guerre d'indépendance. Les troupes françaises prennent la ville en 1810. Durant l'occupation de Séville, entre janvier 1810 et août 1812, l'armée française met en œuvre une spoliation systématique des biens ecclésiastiques : le patrimoine artistique des églises et monastères est particulièrement visé. Des tableaux de Herrera le vieux, Zurbarán, Roelas, Pacheco, et surtout de Murillo, peintre auquel Soult s'intéresse tout particulièrement, sont enlevés de leurs lieux d'origine, et emmenés à l'Alcazar de Séville. L'église de l'hôpital de la Charité, le couvent Saint-François ou la cathédrale sont privés entièrement de leurs œuvres précieuses. Une fois à l'Alcazar, Eusebio Herrera, un fonctionnaire collaborant avec les troupes françaises, les redirige vers d'autres lieux. Un total de 999 tableaux aurait donc été saisis par les troupes françaises : une sélection est envoyée au musée royal de Madrid, 150 d'entre eux – les plus beaux – partent directement au Louvre. Soult et d'autres officiers ou fonctionnaires français se serviront également au passage. Des œuvres de Murillo présentes dans Séville, seules celles conservées au couvent des capucins échapperont aux Français, déplacées par les moines préventivement à Cadix jusqu'à la fin de la guerre. Séville aux. L'Exposition ibéro-américaine de 1929, longtemps repoussée, notamment à cause de la Première Guerre mondiale, marque l'entrée de Séville dans le . La ville accueille l'Exposition universelle de 1992, année faste pour l'Espagne puisque cette même année, Madrid est désignée capitale européenne de la culture et Barcelone accueille les Jeux olympiques d'été. Séville abrite l'Institut de prospective technologique du Centre commun de recherche de l'Union européenne. Démographie. La commune de Séville est le centre d'une agglomération qui s'étend sur , et regroupe , ce qui en fait la quatrième agglomération d'Espagne. Selon l'Institut espagnol de la statistique (INE), la ville en elle-même comptait en 2013, la plaçant également au quatrième rang des villes espagnoles au regard de la population, après Madrid, Barcelone et Valence. Ces indications chiffrées sont révélatrices du dynamisme de la ville qui attire, en raison de facteurs divers, de nombreux Espagnols et étrangers. Centre de l'agglomération, Séville voit néanmoins se développer autour d'elle des cités dortoirs, peuplées de travailleurs qui se rendent dans la capitale pour travailler, mais résident à l'extérieur. Cette situation explique en partie les problèmes de transports importants observés depuis plusieurs années, et le développement de lignes de tramway (dont la première ligne est entrée en service le ) et de métro, dont la première relie depuis 2009 l'est à l'ouest en passant sous le Guadalquivir. Selon le dernier recensement complet mené par l'IAE, en 2001, une part très nettement majoritaire de la population est employée dans le secteur tertiaire, stimulé notamment par l'activité touristique. 80,60 % de la population active travaille dans ce secteur. Le secteur secondaire représente encore 17,73 % des actifs ; le secteur de la construction monopolise 39,05 % des emplois du secondaire, soit 6,92 % du total de la population active sévillane. Quant aux emplois liés à l'agriculture et à la pêche, ils ne représentent plus que 1,68 % des actifs de la ville. Diversité ethnique. Séville est une ville avec un faible taux de population étrangère. En 2017, 95,6 % de la population de Séville est d'origine espagnole, dont 75,3 % sont nés dans ou autour de la ville. Les nationalités étrangères les plus courantes sont : Administration. Administration municipale. L'article 140 de la Constitution, la loi 7/1985 du portant sur les bases du régime local, ainsi que le Statut d'autonomie pour l'Andalousie définissent les attributions des municipalités et du maire. Les articles 22 et 23 de la loi de 1985 précisent par ailleurs le fonctionnement des deux assemblées d'élus chargées de la gestion de la ville, le conseil municipal et le conseil de gouvernement local. Mairie. La mairie ("ayuntamiento") regroupe l'ensemble des services municipaux. Elle est installée dans l'hôtel de ville, un bâtiment du , située sur les places Neuve et Saint-François. Maire. Il détient le pouvoir exécutif local et a autorité sur l’ensemble des services administratifs et financiers de la ville, qu’il est chargé de diriger. La loi de 1985 lui donne notamment compétence en matière de gestion économique et financière, emploi public, police municipale… Ces compétences sont précisées par l'article 92 du Statut d'autonomie andalou. Conseil municipal. Le conseil municipal ("Pleno") est composé de l’ensemble des 31 conseillers ("concejales") désignés à l'issue des élections municipales. Il est présidé par le maire et dispose d'un grand nombre d'attributions. Il est chargé de l'élection du premier magistrat, et son éventuelle destitution, le contrôle de l'action municipale, l'approbation des projets et règlements municipaux, du budget. Les travaux du conseil municipal sont étudiés et préparés en commissions. Les sessions ordinaires ont lieu le troisième jeudi de chaque mois, à l’exception du mois d’août. Conseil de gouvernement local. Le conseil de gouvernement local ("Junta de Gobierno local") constitue un organe plus resserré. Présidé par le maire, il se compose de conseillers municipaux désignés par ce dernier, à hauteur maximale d’un tiers du total des élus municipaux. Lors de ces réunions hebdomadaires, dont les délibérations sont tenues secrètes, les membres de ce conseil politique élaborent, discutent et approuvent les projets qui seront ensuite débattus en conseil municipal : projets de règlements, budget… Ils statuent également sur l’offre d’emplois publics à la mairie. Districts et quartiers. Districts. Le , le « Règlement des juntes municipales de districts » ("Reglamento Orgánico de las Juntas Municipales de Distritos") a divisé Séville en onze districts. Chacun des districts est organisé par une "junte municipale de district" qui possède son délégué et ses bureaux administratifs. Quartiers. Même si le règlement de 2005 a défini très précisément leurs limites, la notion de quartier est, à Séville, plus souvent historique et culturelle qu'administrative et reste donc floue. Le sentiment d'appartenance des habitants influe sensiblement sur la définition des quartiers de la ville qui sont souvent constitués autour des anciennes paroisses dans le centre historique. Leur nombre et leurs frontières évolue logiquement avec le temps et la transformation de la ville. La structure du centre historique est particulièrement difficile à cerner. On y distingue de grands ensembles ou zones (Macarena, Santa Cruz…), eux-mêmes divisées en sous-unités, sans que cela ne soit tout à fait bien établi d'un point de vue légal. On trouvera ainsi à la Macarena les quartiers de Santa Marina ou San Julián, ou encore le quartier de Santa Ana à Triana, autour des églises éponymes. Transports. La capitale andalouse est connectée à un important réseau de communications, la reliant par voies routière, aérienne et ferroviaire à l’ensemble de l’Andalousie, de la péninsule ibérique et au reste de l’Europe. L’Expo ’92 a joué un rôle primordial dans le développement des infrastructures de transports, le président du gouvernement Felipe González, sévillan d’origine, ayant activement appuyé cette politique de désenclavement de la cité. Par ailleurs, la municipalité et le gouvernement andalou ont mis en place un réseau très dense de transports urbains par autobus. La première ligne de tramway a été inaugurée en octobre 2007 entre la plaza Nueva et le Prado de San Sebastián. De plus, la première ligne de métro est entrée en service le . Transport aérien. Séville dispose d'un aéroport situé à quelque du centre de la ville : l'Aéroport de "Sevilla San Pablo". Totalement restructuré et agrandi à l’occasion de l'Expo '92, le terminal est désormais relié aux principaux aéroports du pays (Barcelone, Madrid, Palma, Bilbao…) et d'Europe (Paris, Londres…). Quoique placé dans l'ombre du grand aéroport international de Málaga, San Pablo a reçu, en 2017, , dont 46,6 % en provenance de l’étranger. Transport ferroviaire. En prévision de l’Expo ’92, Séville s’est vu accorder la première ligne à grande vitesse espagnole (AVE), reliant la ville à Madrid, "via" Cordoue. La très moderne gare de Séville-Santa Justa a été bâtie afin d’accueillir les nouvelles rames de l’AVE, et fut inaugurée par le roi Juan Carlos peu avant l’Exposition. La gare est desservie quotidiennement par une trentaine de trains à grande vitesse, qui ont transporté en 2015. Néanmoins, la configuration des lignes classiques espagnoles ne permet pas à l’heure actuelle de relier directement Séville à toutes les grandes villes espagnoles. Seules quelques agglomérations sont connectées à elle, telles Madrid, Barcelone ou Valence. En revanche, la Renfe et le gouvernement andalou ont développé un excellent réseau régional, unissant les plus importantes localités de la province et de la communauté. D’autre part, Séville bénéficie d’un service de Cercanías (réseau de banlieue) qui la connecte régulièrement avec les communes de son aire métropolitaine. Transport routier. Séville jouit d'un raccordement optimal au réseau routier ("autovías", voies rapides) et autoroutier ("autopistas", autoroutes payantes) national, qui relie la capitale andalouse aux principales villes du pays. Vers les villes andalouses, la ville, ceinte de rocades (SE-30, SE-40…) et de voies d'accès (A-8002…), est desservie par l'AP-4 (Séville - Cadix) et l'A-92 (Séville-Almería par Grenade), mais également par l'A-47 et l'A-49. Ces deux dernières infrastructures routières la relient au Portugal, par Rosal de la Frontera et par Huelva et Ayamonte, respectivement. Les liaisons avec le reste de l'Espagne sont assurées par l'autoroute A-66 (Gijón - Salamanque - Mérida - Séville) et l'A-4 (Séville - Cordoue - Madrid). Le transport en autocar est bien plus utilisé en Espagne que dans d’autres pays d’Europe, comme la France. Séville est dotée de deux gares routières, gare routière du Prado de San Sebastián et gare routière de Séville-Plaza de Armas), d’où sont assurées des liaisons avec toute l’Andalousie, l’Espagne, le Portugal et l’Europe. Transport urbain. Autobus. La municipalité, la diputación et la communauté autonome ont organisé un vaste réseau de transports urbains. L'entreprise Tussam gère une cinquantaine de lignes d'autobus qui desservent la ville. Dans un souci de protection de l'environnement, la moitié des bus roulent au gaz naturel. Le Consorcio de Transportes del Área Metropolitana de Sevilla ("Consortium de transport de l'aglomeration de Séville") gère une centaine de lignes reliant Séville à sa banlieue. Il y a deux gares routières (Plaza de Armas et Prado de San Sebastián) qui relient Séville à d'autres villes d'Espagne et de l'étranger. Métro. Après l'échec d'un premier projet lancé dans les années 1970 par l'État et abandonné dans les années 1980 par la mairie, les travaux pour la réalisation du métro sévillan, financés par le gouvernement régional, commencent en . Devant compter à terme quatre lignes, il est inauguré en avec une seule ligne circulant d'est en ouest et desservant trois autres communes. La construction d'une deuxième ligne allant du nord au sud doit débuter en . Tramway. Toujours dans le souci d'optimiser le système de transports, une ligne de tramway, baptisée "MetroCentro" a été construite sur à travers le centre de la ville (entre la gare de San Bernardo et la plaza Nueva). Elle a été inaugurée le et prolongée en avril 2011. Créée pour désengorger le centre historique en interdisant la circulation sur l'Avenida de la Constitución, elle a motivé le déplacement de la principale plaque tournante du réseau de bus (auparavant à la Puerta de Jerez) plus au nord sur le parcours du tram, au Prado de San Sebastián. Vélo. C'est également par souci de désengorgement du centre que plusieurs dizaines de kilomètres de pistes cyclables ont été mis en place ces dernières années. En parallèle, la ville a installé en 2007, par l'intermédiaire de l'entreprise SEVICI de nombreux points de location de vélos, dont le nombre ne cesse d'augmenter : en 2011, sont disponibles sur 250 points de location à travers la ville. Économie. Séville est le siège des institutions andalouses, dont le parlement d'Andalousie, la Junta de Andalucia. L’activité économique de Séville ne saurait être détachée du contexte géographique et urbain de la ville. La capitale de l’Andalousie est le centre d’une vaste agglomération, dont la croissance soutenue témoigne de l’attractivité de la ville et de ses alentours, qui bénéficient en retour de l’attraction qu’exerce le chef-lieu, en voyant s’installer de nombreux habitants mais aussi de vastes zones industrielles et commerciales. Le climat et l’art de vivre sévillans sont des facteurs d’attractivité pour une ville dotée d’un excellent réseau de communications, et jouissant d’un emplacement géographique privilégié. Séville se situe ainsi à la tête des villes andalouses dans le domaine économique . Les infrastructures dont dispose la ville contribuent à la croissance d'une économie dominée par le secteur des services, mais dans laquelle l'industrie tient encore une place non négligeable. Infrastructures. Le développement économique de la cité et de son aire urbaine s’explique par la présence d’infrastructures fondamentales pour la circulation des biens et des personnes, mais également pour l’évolution des entreprises et de leurs activités. Leur création a accompagné la croissance de l’agglomération sévillane. Outre le réseau de transports optimal la desservant (voir supra), Séville dispose du seul port fluvial de la péninsule ibérique, situé à de l’embouchure du Guadalquivir. Ce complexe portuaire offre un accès à l’Atlantique et à la Méditerranée, et permet des échanges de marchandises entre le sud de l'Espagne (Andalousie, Estrémadure) et l’Europe, le Moyen-Orient et de l’Afrique du Nord. Le port a subi ces dernières années d’importants travaux de restructuration et d’agrandissement. Le tonnage annuel s’élevait à de tonnes de marchandises en 2006. Séville possède par ailleurs un Centre de transport de marchandises. Ce complexe, situé à l’est de la ville, est connecté aux réseaux ferroviaire et routiers, lesquels lui permettent un accès aux zones portuaire et aéroportuaire. Séville s’étant tournée depuis une quinzaine d’années vers la promotion du tourisme d'affaires, elle s'est pourvue à cet effet d'un Palais des congrès. Celui-ci accueille divers foires et congrès, et s’est hissé au troisième rang espagnol au regard de la fréquentation annuelle, laquelle s’élève à un million de visiteurs. Enfin, décidés à renforcer la dimension technologique et industrielle de l'activité économique de la ville, les pouvoirs publics ont procédé à l'implantation de zones industrielles et de technopôles. Non loin, Dos Hermanas accueille la plus grande zone industrielle andalouse, tandis qu’Alcalá de Guadaíra possède la plus vaste surface industrielle de la communauté. À Séville ont par ailleurs été aménagés deux technopoles de haute qualité : Caractéristiques par secteur. La ville de Séville et son agglomération ont, de par leur situation au cœur de la plaine du Guadalquivir, maintenu une activité agricole dynamique, l’industrie agroalimentaire y est florissante. Néanmoins, la région s’est depuis longtemps tournée vers l’avenir, en investissant massivement dans les activités industrielles, favorisées par les infrastructures existantes, et, de plus en plus, vers les services et les nouvelles technologies. Séville concentrait, en 2004, 31 % des grandes entreprises andalouses et 128 des entreprises nationales. L’agglomération comptait en 2005 une population active de , dont (69,81 %) pour la ville centre. Recherche et développement. À travers ses technopôles et son tissu d’entreprises innovantes, la capitale andalouse s’est hissée parmi les toutes premières villes espagnoles en matière de recherche et développement. À cela s’ajoute l’activité scientifique et technologique des universités de la ville, dont certains laboratoires et centres de recherche travaillent en étroite liaison avec le milieu socio-économique local. Ainsi, le "Parque Científico Tecnológico Cartuja" regroupe des acteurs privés et publics dans divers domaines de recherche. Les principaux axes de recherche et d’innovation s’articulent autour des télécommunications, des nouvelles technologies, des biotechnologies (en relation avec les spécificités agricoles locales), de l’environnement ou encore des énergies renouvelables. Enseignement supérieur. Deux universités publiques sont implantées à Séville. Ces deux établissements regroupent environ répartis sur les différents campus dont disposent les facultés. L'université de Séville ("Universidad de Sevilla") , est l'université la plus ancienne de la ville. Elle fut fondée en 1505 par une bulle du pape . Elle accueille environ dans ses nombreuses facultés, écoles et instituts, couvrant la plupart des champs disciplinaires, depuis les lettres aux sciences de la santé en passant par les technologies ou les arts. Le siège de l'université est sis dans l'ancienne fabrique Royale de Tabac, un édifice du , qui accueille également les facultés de lettres, et de sciences humaines. Les autres structures sont établies dans les diverses installations de l'établissement, aux quatre coins de la ville. L'université Pablo de Olavide est une petite université publique fondée en 1997. Construite à l'écart du centre, elle accueille environ , notamment dans les domaines des sciences juridiques, économiques et sociales, des humanités et des sciences du vivant. Elle entretient par ailleurs des liens très étroits avec l'Amérique latine. La fondation Universidad , parrainée par la fondation San Pablo et les Jésuites, eut pour projet de créer la première université privée d’Andalousie, l’université . Le projet fut approuvé en mars 2007 par le Parlement d'Andalousie, mais chaque entité a finalement décidé de créer sa propre université privée. L'université privée CEU Fundación San Pablo Andalucía fut fondée par la fondation San Pablo en 2008, à partir de l'expérience de son centre d’études supérieures à Madrid. Le campus est situé à Bormujos, dans l'agglomération sévillane. Elle accueille environ . Pour sa part, les Jésuites ont fondé l'université Loyola Andalucía en 2010, ayant son siège au campus Palmas Altas, à côté du Pont du Centenaire, dans un bâtiment conçu par l'architecte britannique Richard Rogers. En 2012, un autre campus a été créé à Cordoue. Elle accueille environ . Par ailleurs, le gouvernement andalou a fondé en 1994 la "", qui possède quatre sites répartis sur le territoire de la communauté, dont un à Séville. Cet établissement propose des formations absentes des enseignements dispensés par les universités de la région. Urbanisme. Séville est une ville de plaine, dont l'altitude moyenne s'élève à . Elle n'a donc pas connu les difficultés urbanistiques qui caractérisent le développement des villes au relief plus accidenté. L'horizontalité de la ville est renforcée par la faible élévation générale des bâtiments, surtout dans le centre. En dépit de la présence de tours d'habitation dans les quartiers modernes, les hauts immeubles, du type gratte-ciel, sont quasiment absents, une règle implicite d'urbanisme proscrivant de dépasser en hauteur la Giralda (). Cette règle orale, menacée par des projets de construction dans le quartier de Bellavista est mise à mal par la construction de la Tour Sevilla, gratte-ciel de , le quartier de la Cartuja. L'urbanisme de cette cité vieille de plus de deux mille ans conserve les traces du passage des différents peuples qui l'ont occupée. Son extension sur les deux rives du Guadalquivir s’est faite progressivement, avec une accélération évidente à partir du . Parcs, larges avenues, vastes places entourent un secteur historique immense, qui conserve un habitat local à la personnalité marquée. Six ponts sont construits à Séville en 130 ans, entre 1852 et 1980, et six également entre 1988 et 1992, en seulement 5 ans. Le centre historique constitue le cœur de la ville, c'est lui qui a le plus évolué, et qui a été le plus marqué par le passage du temps. Il se caractérise par une trame urbaine héritée de l’époque médiévale. La plupart des quartiers du centre ont conservé les rues et ruelles escarpées, et de largeur réduite pour préserver du soleil. L'habitat traditionnel y est très resserré et la présence imposante de monuments historiques de tous types et époques influence profondément la morphologie de la ville, qui s'est construite autour d'eux. Le percement d'avenues et l'aménagement de grandes places aux restructurent le centre historique et permet de mieux l'irriguer et d'en faciliter la circulation. Ces chantiers font de Séville une ville moderne, et étendent la surface de la ville, longtemps retenue dans le périmètre de l'ancienne muraille. Malgré ces campagnes de modernisation, le trafic demeure difficile, en raison de la configuration générale du centre, en rues étroites. Une autre caractéristique essentielle de l'urbanisme sévillan est l'existence de nombreux parcs et jardins, et de la présence d'orangers sur la majeure partie des voies publiques. Séville constitue donc encore une magnifique mosaïque urbaine, entourant le patrimoine historique d'un réseau de rues étroites, alternant avec des places aérées et des voies plus larges qui drainent la circulation automobile. C'est à compter du , et surtout du , que la ville commence réellement à déborder du périmètre de la muraille. S'établissent alors progressivement des quartiers de plus en plus nombreux et éloignés. Ce développement est marqué par l'édification du secteur du parc de María Luisa à l’occasion de l'Exposition ibéro-américaine de 1929 : jardins, pièces d’eau, grandes places, théâtre, pavillons nationaux, et nouveaux quartiers ("El Porvenir", "San Bernardo"…) prennent dès lors leur place au sud du centre historique. La construction dès le de ponts sur le Guadalquivir constitue elle aussi un formidable facteur de développement urbain : elle ouvre le centre sur la rive droite du fleuve (Triana), qui s'est considérablement étendue depuis. Le désenclavement du centre n'a cependant été rendu possible qu'avec le percement d'une longue ceinture de cours entourant le centre (les "Rondas"), qui représente en quelque sorte une frontière symbolique entre la partie historique et la ville nouvelle. La deuxième moitié du est dominée par deux projets d'aménagement urbain majeurs. Le premier d'entre eux est l'édification à partir des années 1960 de grandes cités, dont l'objet est d'absorber l'accroissement de la population ("Las 3000 viviendas", "Los Remedios", les "Polígonos"…). Le deuxième projet voit le jour avec la tenue de l'Exposition universelle de 1992, qui amène les autorités locales et nationales à engager la construction de nouvelles infrastructures de transport et de nouveaux quartiers, le réaménagement des quais, la restauration et la réhabilitation d'un grand nombre de zones et de monuments du cœur historique de la ville, sans compter la création du site propre de l'Exposition. Les quais du canal Alphonse-XIII sont depuis lors devenus une longue promenade fleurie, qui a rendu son fleuve à la ville. Autour du Guadalquivir. Le Guadalquivir, au bord duquel Séville voit le jour, joue un rôle primordial dans la croissance de la ville. Le fleuve, avec son accès à l'océan Atlantique et, par le détroit de Gibraltar, à la mer Méditerranée, est pendant longtemps la principale voie commerciale de la ville et de toute l'Andalousie en générale. De plus, Séville, par son pont de barques est pendant plusieurs siècles le seul point du sud de l'Andalousie où la traversée du fleuve est possible. L'accroissement de la population et la nécessité de développer les communications avec l'ouest du pays (notamment avec Huelva et sa province) et avec le Portugal motivent dès 1852 la construction de ponts par-dessus le Guadalquivir. La morphologie du fleuve change à plusieurs reprises pendant le , d'abord par le creusement d'un canal créant un raccourci au sud de la ville, puis par la déviation complète du fleuve quelques centaines de mètres à l'ouest de la ville, rendue nécessaire par les graves inondations touchant régulièrement la ville, transformant le fleuve d'origine en une darse reliée au nouveau fleuve par le sud. Ces modifications motivent bien entendu la création de nombreux nouveaux ponts. Pour l'Exposition universelle de 1992, afin notamment d'améliorer l'image de la ville, la darse est partiellement rouverte et ses quais deviennent un lieu de promenade privilégié des Sévillans. À cette occasion, six nouveaux ponts voient le jour, dont le style architectural parfois avant-gardiste contribue à donner une image moderne à la ville. Habitat. Il existe à Séville un habitat traditionnel, semblable en de très nombreux points à celui du reste de l'Andalousie. Il était la règle avant les grandes vagues d’urbanisation des années 1960 et postérieures. On retrouve encore ces constructions typiques, tantôt modestes, tantôt luxueuses dans le centre historique de la ville et les quartiers alentour. La demeure populaire sévillane, que l'on retrouve principalement dans les quartiers tels que la Macarena ou San Vicente se caractérise par sa faible élévation. Organisée autour d'un petit patio, elle comprend rarement plus d'un ou deux étages. Les pièces sont petites et sombres. Elle est surmontée d'un toit en terrasse, appelé "azotea", au plan à peine incliné, du fait de la faible pluviométrie locale. Une autre formule de logement dans le domaine de l'habitat populaire est incarnée par les "corrales de vecinos". Il s'agit d'immeubles collectifs, organisés autour d'un vaste patio, sur lequel s'ouvrent plusieurs appartements. Très en vogue parmi les classes sociales les plus défavorisées aux siècles passés, les "corrales" tendent à disparaître de nos jours, quoiqu'il en subsiste plusieurs dizaines à travers les différents quartiers de la ville. À côté de cet habitat populaire se sont multipliés les édifices cossus, plus élevés, et à l'architecture plus ostentatoire, à base de moulures, balcons à consoles ou en encorbellement (oriels)… Ces maisons sont souvent très colorées et situées dans les zones les plus opulentes de Séville, aménagées dans le centre (zone de la plaza Nueva et de l'avenue de la Constitution, plaza de San Bernardo…) aux . Comme dans toute l'Andalousie, il existe des caractéristiques communes à ces bâtisses, quel que soit leur degré de richesse. Le patio, élément fondamental, est présent dans toutes les maisons. Ses dimensions et sa décoration sont variables et généralement déterminées en fonction de la taille du bâtiment. Censé apporter l'ombre et la fraîcheur en plein été, il est un lieu de vie et de rencontres. Les patios sont toujours ornés de plantes et de fleurs, et les plus confortables d’entre eux peuvent être agrémentés d'une fontaine. La chaux est un autre élément incontournable de la maison sévillane. Qu’elle soit humble ou opulente, faite de briques ou de pierres, la demeure est régulièrement chaulée, afin d’assurer une blancheur éclatante aux façades. On remarque cependant qu'à Séville, contrairement à ce qui se passe dans le reste de l'Andalousie, les façades sont rarement unicolores. L'habitat sévillan se distingue de par sa tendance à égayer les édifices, notamment sur les encadrements des fenêtres et des portes, et sur la partie basse des murs. Les couleurs habituellement choisies sont plus vives et offrent un net contraste avec le blanc, mettant ainsi en valeur les différents éléments de la façade. Les fenêtres sont souvent de taille réduite, afin de limiter au maximum la pénétration de la chaleur dans les pièces. Elles sont ornées de grilles en fer forgé. Enfin, on ne saurait omettre les azulejos, carreaux de faïence assemblés en panneaux, placés à la base des murs. Ils reproduisent des motifs géométriques, végétaux ou historiés plus ou moins raffinés. Peints de couleurs vives, ils occupent une place de choix dans les maisons sévillanes. Avec l'accélération de la construction de logements depuis quelques décennies dans les nouveaux quartiers, l'habitat traditionnel de la ville a tendance à s'effacer, au profit de bâtiments fonctionnels de grande capacité d'accueil. Souvent néanmoins, les façades restent peintes de blanc, pour préserver une certaine unité urbaine. Dans le centre, les constructions nouvelles s'intègrent en règle générale au bâti déjà existant. Parcs et jardins. L'histoire urbaine locale est marquée par le goût des jardins, qui se manifeste sous la forme de patios, squares et autres parcs. Cette préoccupation pour les espaces verts s'est maintenue jusqu'à aujourd'hui : nombreuses sont les zones de promenade aménagées dans la ville et ses alentours. Dans le droit chemin de la tradition andalouse, ces lieux de verdure mêlent harmonieusement l'élément végétal et l'élément aquatique, ce qui en fait des lieux de repos et de fraîcheur recherchés en période estivale. Le plus célèbre des parcs sévillans est sans doute le parc de María Luisa. Le domaine sur lequel il s'étend appartenait autrefois aux jardins du Palais de San Telmo. Il fut offert à la ville en 1893 par l'infante Louise Fernande de Bourbon, Duchesse de Montpensier, puis transformé peu à peu en un vaste parc boisé, parsemé de fontaines, étangs, pavillons, et alternant les plantations à l’anglaise avec des îlots d’inspiration hispano-mauresque. Planté d’une variété d’espèces considérables, il est peuplé par plusieurs espèces d’oiseaux, poissons et batraciens. Il fut complètement restructuré à l'occasion de l’Exposition ibéro-américaine de 1929. On y implanta alors une partie des pavillons nationaux, autour de ruelles et de places, dont les plus emblématiques sont : la Plaza de España et la Plaza de América. Les jardins de l'Alcazar forment également un des grands espaces de verdure de Séville. Aménagés à l'arrière de l'ensemble palatin, ils ont été plantés et organisés au fil des siècles. Abrités au sein des murailles du palais, ils sont disposés en terrasses, et présentent des variations d'influences, de styles, de végétation, en fonction des secteurs. De l'autre côté de l'enceinte des palais, auxquels ils appartenaient jusqu'en 1911, ont été aménagés les jardins de Murillo et la promenade de Catalina de Ribera. Richement boisés et fleuris, ils ont été décorés de divers éléments architecturaux, dont un monument dédié à Christophe Colomb. Monuments historiques et sites remarquables. Séville possède un patrimoine architectural d'une ampleur considérable. Elle est en cela une des plus riches cités européennes. Ses églises, palais et édifices divers en font une ville d'art de premier ordre, et une destination privilégiée des touristes. Patrimoine religieux. Séville est une ville éminemment imprégnée par la religion, comme en témoignent le nombre très élevé de lieux de culte. Parmi les plus célèbres : Patrimoine civil. La richesse de la ville a permis aux hommes de pouvoir et aux institutions laïques et ecclésiastiques de bâtir de somptueuses demeures. Parmi les plus spectaculaires édifices civils de la ville se distinguent plusieurs palais : D'autres bâtiments civils sont dignes d'être mentionnés : Patrimoine militaire. Séville conserve quelques vestiges de son enceinte fortifiée : Arts et culture. Musées. Séville et les beaux-arts. L’opulence passée de Séville a légué à celle-ci un patrimoine artistique d’une ampleur exceptionnelle. Couvents, églises, confréries, monarques et nobles ont dépensé des fortunes en constructions et en œuvres d’art. La folie artistique qui s’est emparée de Séville entre le a favorisé le développement d’une école sévillane reconnue, dont l’origine remonte au bas Moyen Âge. Les mécènes ont attiré les grands maîtres gothiques et baroques de la peinture, de la sculpture et des arts décoratifs : Zurbarán, Valdés Leal, Velázquez, Murillo, Herrera el Viejo, Herrera el Mozo, Pedro Millán, Juan Martínez Montañés, Juan de Mesa, etc. Les liens étroits tissés entre l’Espagne et les mondes flamand et germanique ont stimulé les échanges culturels et la venue de maîtres de l’Europe du Nord. Les œuvres de ces artistes peuvent encore être admirées de nos jours dans les lieux de culte et les palais, mais également dans les musées de la ville. Les musées. Il n’existe pas à Séville de grand musée d’art de stature internationale, à l'inverse de Madrid, où sont concentrées les imposantes collections de la Couronne espagnole et de l'État. Les musées de la capitale andalouse, sans que cela puisse remettre en cause leur importance, sont orientés vers la mise en valeur du patrimoine local et régional: patrimoine artistique, culturel ou ethnologique. Parmi ces musées, pour la plupart gérés par le gouvernement autonome, trois sont consacrés à l’art et à l’archéologie, et se hissent au palmarès des plus grandes galeries nationales de leurs catégories. Le plus important des musées de la ville est sans conteste le musée des Beaux-Arts de Séville, où sont tout particulièrement représentées la peinture et la sculpture. Logé dans un somptueux monastère du , il abrite l'une des toutes premières collections de peinture d'Espagne. Ses collections, qui couvrent l’histoire de l'art du Moyen Âge au , mettent en valeur les productions de l’école de peinture locale, dont les plus prestigieuses réalisations appartiennent à la période baroque. Les toiles de Francisco de Zurbarán et de Bartolomé Esteban Murillo en constituent les chefs-d’œuvre, aux côtés de tableaux d’autres grands maîtres espagnols (Diego Vélasquez, José de Ribera, El Greco…) et européens (Lucas Cranach, Joos van Cleve…) et les contemporains Eugenio Hermoso, Vázquez Díaz, Zuloaga. Dans le registre des musées d’art figurent également le Musée archéologique et le Centre andalou d’art contemporain, deux musées de premier plan au niveau national dans leurs domaines de compétences. Le premier, fondé en 1867, est installé depuis 1946 dans un pavillon de l’Exposition ibéro-américaine de 1929, sur la Plaza de América, au cœur du parc de María Luisa. Y est conservée l’une des plus importantes collections archéologiques d’Espagne, constituée de plus de provenant de chantiers de fouilles andalous, de confiscations de biens ecclésiastiques menées au (les "desamortizaciones") et de diverses collections publiques et privées. Les collections comprennent principalement des objets d'époques préhistorique, protohistorique, tartessienne, romaine, mais également wisigothique et musulmane : sculptures, mosaïques, céramiques, pièces d’orfèvrerie, objets du quotidien, objets votifs et mortuaires… Deux trésors de la civilisation tartessienne y sont notamment renfermés : le trésor du Carambolo et celui d’Ébora. Le Centre andalou d’art contemporain (CAAC) a, quant à lui, été institué en 1990 par le gouvernement régional. Implanté depuis 1997 dans l’ancien monastère de la Cartuja, à proximité du site de l'Expo 92, il se consacre à la recherche, à la promotion, à la diffusion et à la conservation dans le domaine de la création artistique contemporaine. En plus d’une importante collection permanente, le CAAC organise régulièrement des expositions temporaires. Enfin, il existe à Séville un ensemble de musées plus modestes, dont la vocation est de mettre en valeur certains aspects de la culture et de l’histoire locales. Ainsi, l’ethnologie et la culture populaire andalouse bénéficient d’une vitrine au sein du musée des Arts et Cultures populaires, installé dans le pavillon mudéjar, face au Musée archéologique. Voué à la conservation et à l’exposition de la mémoire populaire régionale, il offre aux visiteurs un vaste ensemble d’objets représentatifs de la société, du mode de vie et du quotidien andalous : habillement, mobilier, outillage agricole, photos et gravures anciennes… Deux aspects incontournables du patrimoine culturel sévillan font l’objet d’une promotion muséographique : la tauromachie, à laquelle est consacré le Musée taurin situé aux arènes de la Maestranza, et le flamenco, à l’honneur dans un musée qui lui est entièrement consacré. Le Musée naval, qui occupe la Tour de l'or, traite quant à lui de la navigation, une des activités centrales de l’histoire de Séville. D’autres musées et salles d’exposition complètent le panorama culturel local, à l’image du musée des Carrosses et du Musée militaire. Théâtres, opéras et salles de concerts. Théâtre et musique classiques. Séville, fréquentée jadis par des dramaturges de l’importance de Tirso de Molina, Cervantes et Lope de Vega, est depuis longtemps une ville de théâtre. Elle s’est également tournée plus récemment vers l’opéra. Propriété de la ville, le théâtre Lope de Vega, baptisé du nom de l’illustre dramaturge du Siècle d’or, occupe le Pavillon de Séville, conçu à l’occasion de l'Exposition ibéro-américaine de 1929 pour abriter un théâtre et un casino. Les représentations théâtrales d’œuvres du répertoire classique espagnol et européen composent l’essentiel des représentations, mais la salle accueille également des projections cinématographiques dans le cadre du festival du cinéma européen, ainsi que des concerts de musique et des spectacles de danse. Le Théâtre de la Maestranza fut pour sa part créé à l'occasion de l'Expo 92 et inauguré par la reine Sophie en 1991. Il figure désormais dans le peloton de tête des opéras espagnols. La programmation, de 180 spectacles annuels, fait alterner des représentations d'opéra, de théâtre, de danse et de musique classique. Création contemporaine. La création contemporaine n’est pas absente de cette ville très ancrée dans la tradition. En témoigne l’existence du Teatro central, où se produisent divers auteurs et compagnies de théâtre, danse, musique au répertoire essentiellement contemporain et actuel, en collaboration avec des institutions culturelles locales (Centre de théâtre andalou, Ballet flamenco d’Andalousie) et d’autres théâtres. Ces caractéristiques en font une des principales scènes expérimentales d’Espagne, et un outil pour la diffusion et la promotion de la création contemporaine dans le domaine des arts de la scène. Aux côtés du Théâtre central existent plusieurs salles plus modestes, où se donnent des représentations de tous types. Il est à noter d’autre part que la présence d’une importante population juvénile et estudiantine a entraîné depuis longtemps l’émergence de salles de concerts de musique actuelle (rock, hip-hop, musique électronique…), officielles ou plus alternatives, tendance sans doute provoquée ou accentuée par le phénomène de la movida. Séville demeure toutefois moins dynamique que sa voisine Grenade, qui propose une offre plus étoffée. Enfin, Séville est le berceau de plusieurs interprètes musicaux de styles divers : La Mala Rodríguez et Dogma Crew (hip hop), Triana et Smash (rock progressif), Narco (rap et metal), Parachokes (rock), Reincidentes (punk rock). Culture populaire. Fêtes locales. Séville est une ville de fêtes, profanes et sacrées. Marquée par une intense religiosité, elle célèbre tout au long de l'année divers saints patrons locaux. La plus célèbre et la plus importante festivité chrétienne est la fameuse Semaine sainte, qui forme avec la non moins renommée Feria de Abril, le cycle des "", les Fêtes de Printemps, les plus populaires et fréquentées. C’est à cette période de l'année que les réjouissances battent leur plein. Les fêtes religieuses. La "Semana Santa" de Séville est la plus fameuse d'Espagne. Elle attire des centaines de milliers de croyants et de non-croyants ( selon des estimations de 1999) qui viennent admirer les processions des de la ville. La Semaine sainte a lieu du dimanche des Rameaux ("Domingo de Ramos") au dimanche de Pâques ("Domingo de Resurrección"), et atteint son paroxysme lors de la "Madrugá", dans la nuit du jeudi au vendredi saint, quand sortent les congrégations les plus emblématiques de Séville. Elle donne lieu à une grande animation dans la ville, dont les hôtels, bars et restaurants ne désemplissent pas. La "Romería del Rocío" constitue le deuxième grand rendez-vous du calendrier festif religieux local. Cinq confréries sévillanes participent à ce grand pèlerinage qui conduit vers la basilique du Rocío, à Almonte dans la province de Huelva, des centaines de milliers de fidèles de toute l’Andalousie venus à pied, à cheval ou en calèche vénérer l'image de la Vierge qui est sortie de l’église les dimanche et lundi de Pentecôte. Les confréries sévillanes partent pour Huelva le mercredi précédant la manifestation, pour rejoindre sur les routes et chemins leurs coreligionnaires. Le saint patron de la ville est célébré à l'occasion du "Día de San Fernando" le 30 mai. Les sévillans fêtent saint , le souverain qui reprit la ville aux musulmans en 1248. Son corps est exposé à la population dans la chapelle royale de la cathédrale, où il repose. Une messe est célébrée en son honneur ; elle est suivie d’une procession menée par la corporation des ingénieurs de la ville, dont saint Ferdinand est le patron. Une fête similaire a lieu à la saint Clément, le 23 novembre, jour anniversaire de la conquête de Séville. À cette occasion, le conseil municipal, précédé par le maire qui porte l’épée du saint, effectue une procession, cette fois à l’intérieur de la cathédrale. Le "Día del Corpus" représente un autre moment fort de la vie liturgique. La Fête-Dieu est célébrée depuis le Moyen Âge avec une grande ferveur. Après la messe célébrée en la cathédrale, un long cortège mettant à l'honneur le Saint-Sacrement prend possession des rues de la ville, recouvertes de thym et de romarin, au son des cloches de la Giralda et d’orchestres. Toutes les autorités civiles, militaires et religieuses de la capitale andalouse y prennent part : archevêché, mairie, université, police, armée, confréries, chapitre cathédral. Une course de taureaux est organisée à l’occasion. La "Virgen de los Reyes" est célébrée le 15 août. Cette fête est organisée en l'honneur de la Vierge des Rois, patronne de Séville et de son archidiocèse depuis 1946. Sa statue, qui aurait été commandée par après un rêve, trône au centre de la chapelle royale. Cette même statue aurait accompagné le saint lors de son entrée triomphale dans Séville. Toujours est-il que la sainte effigie est emmenée en procession le matin du quinze août, accompagnée par les autorités religieuses et le conseil municipal. La "Inmaculada Concepción" (Immaculée Conception) est fêtée dans toute l'Espagne, le 8 décembre, en l'honneur de la conception de la Vierge-Marie exempte de la tache du péché originel. À Séville, cette tradition est vécue avec une ferveur particulière. Outre les messes, la manifestation la plus populaire a lieu sur la "Plaza del Triunfo" où se regroupent les tunas de la ville pour entamer des chants en honneur de Marie de Nazareth. Il convient également de signaler l'existence de "Los Seises", un groupe de dix enfants (à l'origine six, d'où leur nom) âgés entre 9 et , dont l'existence remonte au milieu du . Ils forment un petit groupe de danse et de chant très apprécié, chargé d’accompagner la procession du Corpus Christi et de la Inmaculada. Fêtes populaires. La "Feria de Abril" est la grande fête populaire de Séville, organisée depuis 1847. Des dizaines de milliers d'autochtones et de visiteurs évoluent sur le "Real de la Feria", vaste esplanade décorée et illuminée. Y sont regroupées des centaines de casetas : des baraques colorées, où l’on boit, mange et danse jusqu’à épuisement, au rythme de la sévillane. La journée, le "Real" est le théâtre d’un défilé équestre informel, et des corridas sont données chaque soir. La "" remonte vraisemblablement, quant à elle, au . Ces festivités ont lieu annuellement autour du 25 juillet. Elles mêlent le profane au religieux. Aux célébrations liturgiques s'ajoute en effet la fête populaire, qui s’installe au bord de la darse du Guadalquivir, dans la calle Betis, à Triana. Des casetas sont montées à cet emplacement, pour permettre à tous de s’abreuver et de se restaurer. Diverses réjouissances sont organisées durant ces quelques jours. Tauromachie. Séville est un des hauts lieux de la tauromachie espagnole. Berceau de nombreux toreros et capitale d’une des plus fameuses régions d’élevage de "toros bravos", elle est un des plus éminents foyers de l’"afición" en Espagne. Se produire à la "Maestranza" est le rêve de tout matador, et les triomphes en ces lieux sont gages d’un avenir prometteur. Les arènes. Les arènes de Séville, les plus anciennes d’Espagne après celles de Ronda, sont classées en première catégorie. Construites à partir du , elles sont la propriété de la "Real Maestranza de Caballería de Sevilla", une corporation nobiliaire, composée de descendants de la noblesse andalouse, et fondée par , en 1670, à partir d’anciennes confréries chevaleresques médiévales. Son rôle était de former à la cavalerie de guerre les officiers de l’armée espagnole, et d’habiliter ces derniers à intégrer les rangs. Ses activités originelles sont clairement liées à l’équitation. Elle se consacre aujourd’hui à diverses actions de bienfaisance, de mécénat artistique et culturel, ainsi qu’à la promotion de la pratique équestre et de la tauromachie. En ce sens, elle soutient l’école de tauromachie de la ville. Elle est placée sous le haut patronage du roi, Hermano Mayor, depuis le règne de Philippe V, qui lui accorda plusieurs privilèges. Les corridas. La Real Maestranza délègue l’organisation des spectacles taurins à un prestataire privé, l’Empresa Pagés, tenue par la famille Canorea. Totalisant environ 35 spectacles annuels (ce qui fait de la "Maestranza" les deuxièmes arènes d'Espagne, après Madrid), la saison taurine se déroule selon un calendrier traditionnel, dont le commencement est marqué par la corrida du dimanche de Pâques (Domingo de Resurrección), la plus prestigieuse de l’année. Une à deux semaines plus tard se tient la "Feria de Abril", constituée d’une série d’une vingtaine de spectacles taurins sur deux semaines. La deuxième partie du cycle coïncide avec la semaine de "Farolillos", la "Feria de Abril" à proprement parler. Une fois la feria achevée, l'activité des arènes perd en intensité. Un cycle de novilladas dominicales a lieu en mai et juin, puis deux courses de taureaux se tiennent à des dates importantes du calendrier liturgique de la ville, pour le "Corpus Christi" (Fête Dieu), et au 15 août, en honneur de la "Virgen de los Reyes". Plus tard, le dernier week-end de septembre a lieu la Feria de San Miguel, qui compte de deux à trois corridas selon les années. Enfin, la corrida de la "Virgen del Pilar", le 12 octobre, vient clore la saison. L'afición. La tradition tauromachique est très ancienne à Séville, et surtout très bien implantée. La ville et ses alentours ont vu naître de nombreux toreros, qui ont contribué au rayonnement taurin de la cité. Plusieurs "peñas" (clubs) taurins rassemblent les aficionados sévillans, tandis que la ville regorge de références à la tauromachie (rues baptisées de noms de toreros, statues…). Les arènes, d'une capacité de , accueillent un public métissé, de connaisseurs, connus pour leur tendance toreriste. Célèbres pour les silences méprisants qu'elles préfèrent aux huées, ces arènes sont également réputées pour leur propension à se livrer entièrement aux matadors qui l’honorent d’une grande faena. La récompense suprême est octroyée aux toreros ayant coupé un minimum de trois trophées : le triomphateur sort alors par l’illustre "Puerta del Príncipe", qui lui assure honneur et renommée. Traditions. Bars et tapeo. Le bar est un lieu incontournable de la vie sociale sévillane. Les débits de boissons sont légion, tant dans le centre, que dans les quartiers périphériques. Ils sont un point de rencontre entre les habitants d'une rue, les habitués, les employés du secteur et les gens de passage. Une grande majorité de sévillans se rend dans les cafés aux heures du déjeuner, de l'apéritif (deux coutumes qui ont conservé toute leur vigueur), des repas, ou aux moments des pauses au travail. Les établissements sont souvent bondés à midi et, surtout dans la partie historique, le soir, en période de week-end essentiellement. La tradition du tapeo est très largement répandue dans toute l'Espagne. Toutefois, Séville est réputée pour l’intensité de cette pratique, qui consiste à naviguer de bar en bar, en famille, entre amis, ou entre collègues, afin de partager un rafraîchissement et quelques tapas. Le vin et la bière y sont les breuvages de loin les plus consommés, vendus à un prix modique. Le tout est communément accompagné de tapas, ou de simples cacahuètes, pistaches, pipas, "altramuces" (lupins) ou olives. Cette coutume du bar appartient au rituel que tous les autochtones accomplissent à une fréquence plus ou moins élevée. Le dîner au restaurant ne répond pas à un usage aussi répandu qu'en France, ou que dans le nord du pays. Les "tabernas" (tavernes), "cervecerías" (brasseries), et autres bars concentrent les foules jusqu’à tard le soir. Parmi les zones les plus courues peuvent être citées la Plaza del Salvador, la Calle Adriano (plus généralement les alentours des arènes), le quartier de Santa Cruz (notamment la calle Mateos Gago), le quartier de l’église Santa Catalina ou encore Triana. Vie nocturne. Plus tard dans la soirée, certaines rues et places reçoivent les amateurs de fête, qui se rassemblent dans les bars de nuit et discothèques. Le quartier de Triana, et notamment la Calle Betis, au bord de la darse du Guadalquivir, est certainement l'un des plus fréquentés, pour ses bars de nuit ou ses "tablaos". Les noctambules amateurs de bars s'agglutinent également sur la plaza de la Alfalfa et ses alentours. Le quartier de l'Arenal attire les férus des boîtes de nuit, lesquels se retrouvent en été aux abords du parc de María Luisa, où abondent les discothèques en plein air. Enfin, la jeunesse plus portée par la musique et l'ambiance alternatives tend à se concentrer le long d'une promenade, la Alameda de Hércules. Une autre pratique nocturne reste très prisée des jeunes sévillans : la "botellona". Cette tradition bien implantée parmi les jeunes dont les moyens ne leur permettent pas de consommer dans les débits de boissons, consiste à acheter au supermarché des bouteilles d'alcool, pour les consommer ensuite en pleine rue, lors d'un "botellón", regroupement spontané et improvisé, pouvant réunir au même endroit de quelques individus à plusieurs centaines de personnes. Le gouvernement andalou, à l'instar d’autres communautés autonomes, a toutefois décidé en 2006 de réglementer la tenue des "botellones", pour limiter la gêne occasionnée au voisinage, et lutter contre l'alcoolisme. Les municipalités sont depuis lors autorisées à prohiber la tenue de "botellones" sur la voie publique, et à mettre en place des enceintes à ciel ouvert spécialement affectés à cet usage : les botellódromes, qui connaissent désormais une affluence imposante. Gastronomie. La gastronomie populaire sévillane est fortement influencée par la cuisine méditerranéenne, à base de poissons, d'huile d'olive, de nombreux fruits et légumes. Elle accorde également une large place aux produits régionaux des provinces voisines : charcuteries, viande de porc, de taureau… Elle se distingue par la simplicité des mets que l'on préfère généralement cuisinés nature, grillés ou sautés : les plats élaborés ou en sauce, si prisés des Basques ou des Navarrais, pour lesquels la cuisine est une institution, connaissent un écho plus limité. Au premier rang de la gastronomie sévillane figurent les productions régionales, qui entrent souvent dans la composition des tapas : Parmi les mets les plus fréquents se retrouvent : Les pâtisseries, généralement issues de la tradition orientale, sont fort prisées à Séville. Les plus fameuses trouvent leurs origines dans les très nombreux couvents de la ville, dont certains continuent à les produire et à les commercialiser : La confiture d'écorces d'oranges amères est également très prisée. Une autre spécialité très appréciée au petit déjeuner est la "tostaíta", simple pain grillé, frotté à l’ail puis arrosé d’huile d’olive. On lui ajoute ensuite, selon les goûts, divers ingrédients : jambon, tomate… Séville et la littérature. Les principales personnalités écrivant des poèmes en Al-Andalus comprennent des rois, visires, princes, califes et gouvernants de tout type; des docteurs,et autres connus simplement comme des poètes ou érudits.<br> Ce sont entre autres Wallada, Ibn Saïd, l'abadí Al Mutamid ibn Abbad de Séville, Ibn Ammar de Taïfa de Séville; Abd al-Rahman V de Cordoue; Ibn Abd Rabbih, Ibn Zeydoun, al Ramadi ou Ibn Hazm de Cordoue. Sports. Équipements. La ville de Séville possède de très nombreux équipements sportifs construits durant les dernières décennies. Outre les installations de proximité, destinées à l'usage de la population, Séville possède trois stades de grande capacité, où évoluent les équipes locales, et sont organisés des évènements sportifs ou culturels nationaux et internationaux. Le stade Benito-Villamarín, inauguré en 1997 et inachevé (il reste un quart à finir), accueille les matchs de l'équipe de football du Real Betis Balompié. Actuellement, il dispose de . Le stade Ramón-Sánchez-Pizjuán date de 1958. Il est utilisé par l'équipe du Séville FC et compte . Enfin, en 1999 fut inauguré le Stade olympique de la Cartuja, un équipement omnisports de , qui accueille divers évènements sportifs et culturels. Événements sportifs. À la suite de l'Exposition universelle de 1992, et la déprime qui s'est alors emparée de la ville, la municipalité a, entre autres mesures de relance de l'économie locale, lancé un plan de promotion et de développement de la dimension sportive de la ville, intitulé "" ("Séville, la ville du sport"). La ville a alors présenté sa candidature à l'organisation des Jeux olympiques de 2004, sans succès, la taille modeste de la cité et la récente tenue des Jeux olympiques à Barcelone en 1992 l'ayant disqualifiée dès le départ. Le même scénario s'est reproduit pour les Jeux olympiques de 2008. Néanmoins, en 1995 est engagé le projet de construction du stade olympique de La Cartuja, qui voit le jour en 1999, avec une inauguration par le roi d'Espagne. Ce nouvel équipement avait pour objectif de promouvoir l'image sportive de la ville et de permettre l'organisation de grands événements sportifs d'envergure internationale. Depuis 1999 ont eu lieu en ces lieux les championnats du monde d'athlétisme 1999, la finale de la Copa del Rey (en 1999 et 2001), la finale de la coupe de l'UEFA (en 2003), le championnat du monde de supercross (en 2003), la finale de la Coupe Davis (en 2004 et en 2011) ainsi que divers matchs de la sélection de football espagnole. Par ailleurs, la ville a accueilli les événements suivants : les championnats d'Europe de natation en 1997, le mondial de gymnastique rythmique en 1998, la coupe du monde d'aviron et de canoë-kayak en 2001, les championnats du monde d'aviron en 2002, la Coupe du monde de golf 2004 et des matchs de la phase préliminaire du championnat du monde de handball masculin 2013. Équipes sportives. Plusieurs équipes sportives sévillanes évoluent dans les compétitions nationales, les plus célèbres d'entre elles étant les équipes de football locales, le Séville FC & le Real Betis Balompié, deux clubs rivaux dont les rencontres déchaînent les passions. Séville s'illustre dans d'autres disciplines avec des équipes telles que le C.D. Universidad de Sevilla (hockey en salle), le club de rugby Universidad de Sevilla (rugby à XV), El Monte Ciencias CR (rugby à XV), ou encore le Club Baloncesto Sevilla "Cajasol" (basket-ball). Jumelages. "Pacte d'Amitié et de Coopération signé avec Rome (Rome n'est jumelée qu'avec Paris, et ce, réciproquement)" |
Science des sols La science des sols est un terme générique regroupant l'ensemble des sciences s'intéressant à l'étude des sols de la surface terrestre dans leur ensemble. En anglais, le terme est "soil science" (littéralement : science du sol). Les deux branches principales de la science des sols sont : Le congrès mondial des sciences du sol est un congrès quadriannuel créé au début du qui porte sur la science des sols. Plus de étaient attendus en à Glasgow. |
Shiva Shiva (sanskrit IAST : ; devanagari : ; transcrit parfois par "Çiva", « le bon, celui qui porte bonheur ») est un dieu hindou, l'un des trois dieux primordiaux, membre de la Trimūrti avec Brahmā et Vishnou. Shiva est quelquefois considéré comme le dieu du yoga, et il est représenté en tant que yogi qui possède la connaissance universelle, suprême et absolue, voire dans un état « au-delà de la connaissance ». Doté d'un grand pouvoir, il mène une vie de sage sur le mont Kailash. La tradition shivaïte de l'hindouisme est centrée sur Shiva, considéré dans cinq grandes fonctions : il est le créateur, le préservateur, le transformateur, le dissimulateur et le révélateur (par la bénédiction). Dans la tradition smārta, il est considéré comme l'une des cinq formes primordiales du Dieu. Les hindous qui vénèrent principalement Shiva sont appelés shivaïtes ou shaïvas (sanskrit : "Śaiva"). Le shivaïsme est l'une des plus influentes variantes de l'hindouisme, avec la tradition vishnouïte ("vaiṣṇava") qui est centrée sur Vishnou et la tradition shakta ("śākta"), centrée sur la déesse Shakti. Shiva est souvent vénéré sous la forme abstraite de Shiva linga. Il est aussi représenté plongé dans une profonde méditation, ou bien dansant le tandava sous la forme Nataraja. Shiva est aussi le père des divinités Ganesha, Murugan (Karttikeya), et Ayyappan (Dharma Sastha). Cadre historique et origine. Shiva, le dieu des shivaïtes assume les fonctions de Rudra le terrible, ancien dieu védique. Cette transformation est considérée comme étant l'une des marques de la fin de l'Âge védique. En effet, le théonyme Shiva provient d'une épithète de Rudra, l'adjectif "shiva" « gentil, aimable » utilisé par euphémisme pour ce dieu qui, dans le Rig-Véda porte également l'épithète "ghora" « terrible ». L'utilisation de l'épithète a fini par dépasser le théonyme d'origine et dans la période post-védique (dans les épopées sanskrites), le nom de Rudra a fini par être considéré comme un synonyme du dieu Shiva et les deux noms ont été utilisés de façon interchangeable. Du point de vue des sources, Shiva est, selon Philippe Swennen, encore « inconnu dans la strate archaïque de la poésie religieuse sanskrite, à savoir les hymnes du Rigvéda. Sa figure est textuellement constituée dans la Śvetāśvatara Upaniṣad, donc dans la strate la plus tardive de la littérature canonique védique. Elle est alors liée d’emblée à la pratique ascétique et au yoga. ». Shiva et Dionysos. L'indianiste Alain Daniélou, après d'autres chercheurs, a rappelé les nombreux points communs qui unissent Shiva et Dionysos. Selon lui, ces parallèles ont pour origine un culte commun dont la croyance aurait décliné en Europe et se serait poursuivie en Inde. Daniélou oppose deux types de religions (l'une agricole et l'autre urbaine) en se basant sur les travaux de Mircea Eliade. Dans cette logique il avance que le culte d'un dieu naturiste et phallique, assimilé au taureau, serait un modèle universel mais que cette croyance aurait été marginalisée par l'expansion de la culture urbaine monothéiste. D'après Daniélou toujours, non seulement les deux divinités, grecque et indienne, partagent bien des mythes en commun, mais en plus leur épithètes ont des significations comparables. [...] Dionysos est le Prôtogonos (le Premier-né) comme Shiva est Prathamajâ (Premier-né), le « plus ancien des dieux », aussi appelé Bhâskara(Lumineux) ou Phanès (Celui qui illumine) dans la tradition orphique. Ce dieu qui enseigne l'unité fondamentale des choses est appelé Shiva (Bienveillant) ou Meilichios (le Bienveillant). Il est Nisah (la Béatitude), le dieu de Naxos ou de Nysa. Ces deux dieux de la fureur rassemblent autour d'eux des fidèles qui les imitent. Ils sont à l'origine du théâtre qui est un rite avant d'être un spectacle. Cependant, à l'inverse de Daniélou, les auteurs plus récents ne voient pas dans ces concordances « un shivaïsme primitif, religion de la Nature et de l'Eros », mais davantage un héritage indo-européen. Ainsi, Pierre Lévêque constate également des similitudes entre les deux divinités, mais il rappelle que Dionysos et Shiva représentent deux formes bien spécifiées d'un même archétype, remontant sans doute au début du Néolithique, quand les communautés humaines se sont organisées en agglomérations villageoises et que ville et territoire se sont donc séparés. Bernard Sergent confirme que Śiva et Dionysos représentent un héritage religieux indo-européen car d’autres figures divines chez les Germains, les Baltes, les Anatoliens, les Thraces, les Phrygiens, les Celtes se rattachent à ces divinités. Fonctions et attributs. Le symbolisme de Shiva est d'une grande complexité du fait des nombreux courants qui l'ont vénéré au cours des siècles. Shiva est le dieu de la destruction de l'illusion et de l'ignorance . Il représente la destruction, mais celle-ci a pour but la création d'un monde nouveau : Shiva transforme, et conduit la manifestation à travers le « courant des formes ». L'emblème de Shiva est le "lingam" (représentation phallique), symbole de la création. Il a les yeux mi-clos, car il les ouvre lors de la création du monde et les ferme pour mettre fin à l'univers et amorcer un nouveau cycle. Il est représenté avec un troisième œil ("jñāna-cakṣus") au milieu du front, symbole d'éternité et de sagesse, et avec un cobra autour du cou, symbole de puissance. Il porte un trident ("trishula") et tient un tambour à boules fouettantes ("damaru"). Il est assis sur une peau de tigre, symbole de l'énergie potentielle. Shiva représente en effet la source créatrice en sommeil. De sa chevelure, dans laquelle se trouve un croissant de Lune, symbole du cycle du temps, s'écoule le Gange, fleuve sacré de l'hindouisme. Sa monture est le taureau Nandi qui fait lui-même l'objet d'un culte. Shiva est représenté sous différentes formes (l'ascète, le yogi, le mendiant, etc.) et possède, d'après les textes, 1008 noms distincts (Shambhu, Shankara, Pashupati, etc.). L'une de ses manifestations les plus célèbres est "Shiva Nataraja", le danseur cosmique qui rythme la destruction et la création du monde. Shiva est uni à Shakti, L'Énergie matricielle. Elle-même a plusieurs noms suivant la fonction qu'elle occupe (Parvati, Durga, Kâlî). Il a deux fils avec Parvati : Ganesha et Skanda. Le premier a la particularité d'avoir été conçu par Parvati d'abord, Shiva l'ayant seulement ramené à la vie en le dotant d'une tête d'éléphant. Quant au second, il est le fruit de la volonté des dieux que Shiva fasse naître un fils décisif. La famille vit au sommet du mont Kailash dans l'Himalaya. Représentation ou mûrti. Parmi les attributs de Shiva, on trouve : Comme ascète, mais aussi comme seigneur des lieux de crémation, il se couvre le corps de cendre. Shiva protège la terre de la force de Gangâ, la déesse du Gange (Gangā) ; il calme l'ardeur de ses flots en les filtrant dans les boucles de ses cheveux. Il possède un trident, symbole qui concentre, pour ses adorateurs, les pouvoirs de la trimûrti, c'est-à-dire création, perpétuation et destruction. D'après la légende, Shiva et Vishnou se rendirent dans une forêt pour combattre . Furieux, ceux-ci envoyèrent pour attaquer Shiva un tigre, un serpent et un nain noir et féroce armé d'une massue. Shiva tua le tigre ─ il est traditionnellement assis sur une peau de tigre, car maître de la nature "Pashupati" ─, apprivoisa le serpent qu'il mit autour de son cou en guise de collier (symbole de la maîtrise des passions), posa son pied sur le nain et réalisa une danse développant une telle puissance que le nain (voir illustration) et les hérétiques reconnurent en lui leur seigneur. Shiva est parfois représenté mêlé avec sa Shakti formant un être hermaphrodite, Ardhanari. Le symbole du lingam. Shiva est habituellement représenté par un phallus, emblème du Feu divin dans le monde indo-européen. Ce phallus stylisé, appelé shiva lingam (ou linga), symbole de création associé au yoni, une dalle de pierre représentant l'organe féminin, la matrice du monde. Par l'union du linga et du yoni, l'Absolu qui se déploie dans le monde prouve qu'il surmonte l'antagonisme mâle-femelle ou spirituel-matériel. Le linga représente également le cosmos, mais aussi le pouvoir de connaître, la conscience comme axe de la réalité. Non plus orienté vers la finalité naturelle de force de vie et d'incarnation, le phallus dressé vers le ciel représente le rassemblement des énergies du yogi sur le plan sensible et leur conversion vers un niveau subtil. Dans le shivaïsme brahmanique, les caractères phalliques fondamentaux du linga se retrouvent toujours nettement, tant dans les légendes expliquant l'origine de ce culte que dans les qualités corporelles occasionnellement attribuées au dieu. C'est ainsi que Shiva, ayant trouvé toutes les créatures créées (par Brahma ?), s'irrita, arracha son organe génital et le cacha dans la terre pour se vouer à une vie ascétique. À l'origine, raconte pour sa part le "Linga Purana", lorsque l'univers était envahi par les eaux, Vishnou et Brahmâ se disputaient, affirmant chacun qu'il était le plus grand des dieux. Mais tout à coup, surgit une immense colonne de feu entre les eaux. Elle était si haute qu'elle semblait sans fin. Les deux dieux décidèrent de s'affronter en mesurant la hauteur de la colonne : Vishnou se transforma en sanglier et plongea au fond des eaux tandis que Brahmâ prit la forme d'une oie pour voler aussi haut que possible. Mais ni l'un, ni l'autre ne purent atteindre l'extrémité de la colonne incandescente. Shiva, apparaissant alors, expliqua qu'il s'agissait du "lingam", symbole de son pouvoir mais aussi Shiva lui-même. Les dieux reconnurent alors la suprématie de Shiva, qui leur adressa un discours censé instituer les principales règles de son culte (Nuit Sainte de Shiva, processions, instaurations de statues, etc.) Une autre légende raconte que Shiva apparut nu devant un groupe d'ascètes qui méditaient dans la forêt sans comprendre sa vraie grandeur. Pour les punir, Shiva décida de séduire leurs femmes. Pour se venger, les ascètes émasculèrent Shiva en invoquant un tigre, mais à l'instant où son "lingam" tombe à terre, l'univers fut plongé dans les ténèbres. Les yogi, enfin conscients de leur erreur, prièrent Shiva de restaurer la lumière dans le monde. Celui-ci accepta, à condition que les ascètes l'adorent sous la forme du "lingam". Ainsi, le "lingam" est une représentation religieuse tout à fait commune en Inde, sans que le caractère sexuel soit minimisé ou occulté. Pierres, galets ou fourmilières constituent les lieux d'érection de lingams « spontanés ». Les lingams "svayambhû" (« automanifestés ») sont les plus sacrés, à l'image de celui d'Amarnath, une formation de glace naturelle. Le lingam est souvent oint de lait de buffle ou de lait de coco et de ghee (beurre clarifié) ou entouré de fruits, de sucreries, de feuilles et de fleurs. Shiva Nataraja. Une forme particulière de représentation de Shiva est "Naṭarāja" ("le danseur cosmique", "seigneur de la danse", de "naṭa", danse et "rāja", roi). Il est le plus souvent inscrit dans un cercle de flammes ("prabhāmaṇḍala") qui représente la succession des cycles cosmiques. Dans cette forme, il possède quatre bras tels que la main supérieure droite porte un tambour ("ḍamaru") symbolisant la pulsion rythmique de l'univers, la main inférieure droite fait le geste de protection ("abhaya-mudrā"), la main supérieure gauche tient la flamme qui symbolise la destruction, l'inférieure gauche montre sa jambe levée qui représente . Le pied droit prend un appui fort en écrasant le démon de l'ignorance ou des passions, le pied gauche est levé en une posture de danse. Sa tête est encadrée par les flots du Gange dont son chignon a calmé l'impétuosité et qui coule maintenant sans danger dans le monde. Shiva dansant représente l'âme universelle et éternelle irradiant toute l'énergie ("shakti"), notamment par le symbole du feu destructeur et créateur. Cette danse continue engendre la succession des jours et des nuits, le cycle des saisons et celui de la naissance et de la mort. À terme, son énergie provoquera la destruction de l'univers, puis le fera renaître. Cette danse de création du monde symbolise le processus éternel. "Shiva Nataraja" est une forme typique originaire du Sud de l'Inde, c'est la divinité tutélaire du temple de Chidambaram où sont sculptées dans la pierre les postures du Bharata Natyam, la danse classique sacrée de l'Inde méridionale. Il est, sous cette forme, vénéré par les artistes scéniques (musiciens, danseurs, comédiens) indiens, les yogis et « les gens de bien ». Les épithètes de Shiva. Shiva porte de nombreuses épiclèses : Rapports entre Vishnou et Shiva. Depuis le début de l'ère chrétienne au moins, sinon plus tôt, la plupart des hindous lettrés sont des adorateurs, soit de Vishnou, soit de Shiva — c'est-à-dire qu'ils considèrent soit Vishnou ou Shiva, comme le premier des dieux, voire comme dieu unique identifié au brahman indifférencié, tous les autres ne représentant à leurs yeux qu'une expression secondaire de la divinité. Ainsi, les fidèles de Vishnou ne nient pas l'existence de Shiva, mais le placent sur un plan annexe, le considérant comme une création ou une émanation de Vishnou ou de son démiurge Brahmâ. D'une façon similaire, les shivaïtes voient en Vishnou une émanation du grand dieu Shiva. De nombreux mythes, dans les "purāṇa" śivaites ou viṣṇuites, illustrent la suprématie d'un dieu sur l'autre. Ainsi la « lingodbhavamūrti », illustrée abondamment sur les temples, surtout en Inde du Sud, raconte comment, alors que Vishnou et Brahmâ se disputaient la suprématie divine, Shiva apparut sous la forme d'un lingam de feu infini. Pour se mettre au défi, Brahmā décida d'en trouver le sommet sous la forme d'un hamsa (oie sauvage, véhicule de ce dieu) et Vishnou décida d'en trouver la base en prenant la forme d'un sanglier fouisseur. Tous deux échouèrent dans cette tâche et se prosternèrent devant le lingam de feu, reconnaissant sa suprématie. Shiva se révéla alors en sortant du lingam et leur expliqua que tous deux étaient nés de lui-même. Si ces différences de point de vue ont à l'occasion été la cause d'affrontements, dans l'ensemble, ces deux branches de l'hindouisme sont parvenues à préserver entre elles une harmonie. D'ailleurs, les textes contribuent à l'inclusion réciproque des deux dieux l'un par rapport à l'autre et soulignent leur solidarité étroite : Dans l'iconographie, ce syncrétisme est illustré par la forme de Hari-Hara, mi-Vishnou mi-Shiva. Jeux vidéo. .On peut aussi suivre l’histoire du jeu Uncharted The Lost Legacy ou 2 femmes tentent de retrouver la défense de Ganesh fils de Shiva. |
Satoru Iwata , né le à Sapporo, île d'Hokkaidō, et mort le à Kyoto, est un développeur puis producteur de jeu vidéo et chef d'entreprise japonais, président de HAL Laboratory de 1993 à 2000 puis de la société de jeu vidéo Nintendo de 2002 à sa mort en 2015. Dès l'adolescence, il s'intéresse à la conception de jeux vidéo. Pendant ses études d'informatique à l'université de technologie de Tokyo, il devient employé à temps partiel de HAL Laboratory qu'il rejoint à plein temps à la fin de ses études. Après avoir été président de cette société, il rejoint Nintendo comme chef de la planification en 2000 puis succède fin à Hiroshi Yamauchi au poste de président-directeur général de l'entreprise Nintendo, l'un des plus grands groupes de jeux vidéo au monde. Il est à l'origine de deux consoles au concept novateur, la Nintendo DS et la Wii. Grâce à une façon de diriger proche de ses employés et à sa constante sympathie, il est considéré en 2007 et en 2008 comme l'un des meilleurs dirigeants d'entreprise au monde par ' et par le magazine spécialisé dans la finance '. Son salaire annuel s'établit en 2009 à 187 millions de yens, soit 1,7 million d'euros, ce qui est relativement très peu par rapport aux autres PDG dans le secteur du jeu vidéo. En crise de renouvellement au début des années 2010, Iwata divise à deux reprises son salaire pour réaliser des économies à Nintendo et garder de la motivation chez ses employés créatifs. Il meurt le des suites de complications d'une tumeur biliaire pourtant soignée un an plus tôt. Il laisse derrière lui un patrimoine vidéo-ludique en ayant contribué à de nombreuses franchises phares de Nintendo, dont les séries "Pokémon", "Kirby", ou encore "Metroid". À la suite de l'annonce officielle du décès le , Nintendo met ses drapeaux en berne en signe de deuil. Plusieurs dizaines d'acteurs du jeu vidéo rendent également hommage à Iwata en exprimant leur tristesse face à la perte d'un membre incontournable de l'industrie du jeu vidéo. Biographie. Enfance. Satoru Iwata naît le 6 décembre 1959 à Sapporo, dans la préfecture de Hokkaidō au Japon, où son père est maire. Il commence à s'intéresser à la création de jeux vidéo dès sa scolarité : originaire d'un environnement propice à la programmation, il produit des jeux électroniques chez lui. Iwata partage avec ses camarades d'école les quelques jeux de chiffres qu'il programme avec la HP-65, une calculatrice électronique. Son premier jeu est un jeu de baseball, qu'il décrit plus tard comme « sans graphismes », le jeu étant représenté par des chiffres. Ses amis prennent tout de même du plaisir à y jouer, le convainquant ainsi de continuer dans cette branche. Après le lycée, Iwata est admis à l'université de technologie de Tokyo, où il est major en informatique. Malgré le manque de cours sur le développement du jeu vidéo, Iwata poursuit sa passion : il se rend régulièrement à un magasin d'informatique de Tokyo et forme un groupe d'amis, qui développe des jeux dans un appartement loué pour l'occasion. Ce groupe fonde plus tard la société HAL Laboratory, dont Iwata affirme que HAL , et fait également référence à l'ordinateur HAL 9000 du film "2001, l'Odyssée de l'espace". Toujours intéressé par les jeux vidéo, il travaille à temps partiel en tant que programmeur de jeux dans cette société, qui devient plus tard une filiale de Nintendo, tandis qu'il poursuit ses études jusqu'à l'obtention de son diplôme. Malgré l'ouverture d'esprit des Japonais sur les loisirs, le père d'Iwata ne lui adresse plus la parole pendant six mois, déçu par le choix de carrière de son fils. Plus tard lors d'une interview, Satoru évoque que sa famille , le jeu vidéo étant encore à l'état embryonnaire à cette époque. Pour autant, Satoru garde des points communs avec son père. En effet, ce dernier sauve plusieurs emplois lors de son mandat d'élu grâce à sa détermination, alors que Satoru redressera les finances de Nintendo plus tard grâce à cette même qualité. En 1982, après ses études à l'université, Iwata est recruté à plein temps par . Il est alors le cinquième employé de la société et le seul spécialiste en développement de jeux vidéo. Il commence sa vie active en concevant des périphériques pour ordinateur. Cependant, il est rapidement intéressé par les projets de Nintendo : déjà connue pour ses jeux "Game & Watch", la société a l'intention de sortir sa première console de salon, la Nintendo Entertainment System. Iwata prédit un succès commercial et demande alors à HAL d'entrer en contact avec Nintendo pour obtenir des contrats sur cette console. À cette époque, HAL n'obtient qu'un projet en difficulté, "Pinball", qu'Iwata finalise seul. Il devient le coordinateur de la "production software" en 1983 et participe au développement de jeux tels que "Balloon Fight", "EarthBound", ou ceux de la série "Kirby", ce qui lui forge une réputation de développeur chevronné, travaillant sur des jeux aux gameplays originaux. En 1993, Iwata est promu président de HAL Laboratory, alors en difficulté financière. Iwata arrive toutefois à redresser la barre, et assiste également Tsunekazu Ishihara lors de la création de la société Creatures Inc. en 1995, principalement connue pour ses produits dérivés de l'univers "Pokémon". Malgré son poste de président, Iwata continue de participer aux développements de plusieurs jeux, dont "Kirby's Dream Land" et "Super Smash Bros.", qui deviennent deux succès dans les années 1990. Il est également l'initiateur de plusieurs idées novatrices : alors que Hiroaki Suga, développeur en chef de "Kirby's Adventure", doute de la possibilité technique des idées de Iwata, ce dernier lui explique qu'. Bien qu'il ne soit pas employé par Nintendo à cette période, Iwata participe au développement de plusieurs jeux de la série "Pokémon" : il est responsable de l'internationalisation de "Pokémon Rouge et Bleu" dans un premier temps. Il participe ensuite au développement de "Pokémon Stadium" sur Nintendo 64, en analysant le code du système de combat de "Pokémon Rouge et Bleu" et en le retravaillant pour ce nouveau jeu. Enfin, il intègre l'équipe de développement de "Pokémon Or et Argent", sorti sur Game Boy Color en , en créant des outils de compression, permettant d'intégrer la zone de Kanto au jeu. Nintendo. Arrivée dans l'entreprise. En 2000, conscient de l'aide qu'Iwata a fourni à Nintendo à plusieurs reprises, Hiroshi Yamauchi, président de Nintendo, lui propose le poste de chef de la division de planification d'entreprise. Iwata accepte volontiers l'offre, heureux de pouvoir travailler aux côtés de Shigeru Miyamoto, déjà connu pour ses talents en . Dès son arrivée, il s'assigne personnellement le développement de "Super Smash Bros. Melee", dirigé par son ancienne entreprise HAL Laboratory, alors en difficulté pour sortir le jeu dans les temps. Il prend en charge l'équipe de test et s'occupe de résoudre les bugs empêchant la sortie du jeu, pendant trois semaines, dans les locaux de HAL. Ce jeu est la dernière contribution d'Iwata en tant qu'. Quand Yamauchi, le président de la compagnie depuis 1949, prend sa retraite en , il convoque Iwata dans son bureau. S'ensuit une longue discussion sur les défis que Nintendo a dû relever lors de ses cinquante années de présidence. Alors qu'Iwata pense qu'il est sur le point d'être licencié, Yamauchi lui propose en réalité de lui succéder en tant que quatrième président. Iwata devient alors le premier président de la firme sans lien de parenté avec la famille Yamauchi. Selon l'ancien président, le choix s'est porté sur Iwata pour , estimant qu'Iwata est apte à mener la société sur tous les fronts. Contrairement à son prédécesseur qui règne seul sur la firme, Satoru Iwata est accompagné d'un conseil exécutif de six membres. Il sort l'entreprise de l'isolement, en s'associant avec d'autres entreprises du jeu vidéo, dont Namco, Square Enix et Sega. Yamauchi reste tout de même proche de la société jusqu'à sa mort en 2013, puisqu'Iwata . 2004-2011 : retour des succès commerciaux. Après l'échec de la GameCube avant son arrivée comme président, les projets d'Iwata pour relancer Nintendo sont la Nintendo DS et la Wii. En 2004, deux ans après son arrivée à la présidence, l'entreprise sort la Nintendo DS (Dual Screen) , console portable qui concurrence alors la PSP de Sony, et devient un succès commercial en étant la console de jeu portable la plus vendue au monde. Conforté par le marché de la console portable, Iwata souhaite une console de salon ouverte au grand public, là où ses concurrents se concentrent à la course à la performance, laissant sur le chemin beaucoup de joueurs occasionnels. Il estime que . Lors de la en 2006, Iwata reprend la même idée et annonce : (). Pour concevoir la console, il se demande pourquoi les gens sont si à l'aise pour prendre en main une télécommande de télévision, mais sont effrayés par les jeux vidéo. La Wii sort alors en 2006 et devient également un succès commercial pour l'entreprise, avec "Wii Sports" qui, neuf ans après sa sortie, demeurait le second jeu vidéo le plus vendu de tous les temps. Sa vision a pu ouvrir le marché des jeux vidéo à un public beaucoup plus étendu, plaçant l'offre de Nintendo en complémentarité face à la course à la puissance de la PlayStation 3 et de la Xbox 360. À la même période, il rénove l'organisation de Nintendo, avec la mise en place d'un conseil de gestion permanent, où siège Shigeru Miyamoto, autre personnalité phare de la société. En interview, les deux reconnaissent être complémentaires : alors que Miyamoto a un côté créatif très poussé, que lui jalouse Iwata, ce dernier a un esprit scientifique reconnu par son acolyte. Iwata amène également de la transparence à son public en initiant les « Iwata demande » (' en version originale), qui sont une série d'interviews d'Iwata avec d'autres employés de Nintendo. En 2007 et 2008, le ' ainsi que le magazine spécialisé dans la finance "" le considèrent comme l'un des meilleurs dirigeants d'entreprise au monde. Dans les années 2010, Iwata instaure les Nintendo Direct, afin de renouer le lien avec les joueurs les plus fidèles de Nintendo. Ce sont des présentations organisées régulièrement via Internet afin de présenter les nouveautés de la société. Iwata est le présentateur des Nintendo Direct japonais et internationaux de 2011 jusqu'à son décès, en 2015. Ces présentations montrent une image décontractée et sympathique d'un président, pourtant à la tête d'une société multi-milliardaire, où Iwata se déguise notamment en Luigi ou se bat face à Reggie Fils-Aimé. 2011-2015 : un renouvellement difficile. Dans les années 2010, Nintendo doit faire face à la concurrence des smartphones et tablettes, qui marquent l'arrivée des jeux gratuits ('). Iwata sera toujours critique face à ce modèle : . Il établit une comparaison avec l'arrivée de ce modèle dans le secteur de la musique, lequel s'est selon lui dégradé en s'y adaptant. Son intention n'est pas d'éviter totalement le ' mais de révolutionner le genre pour en corriger ses défauts. Lors de la conférence E3 2010, il dévoile la Nintendo 3DS. Cependant, les ventes de cette nouvelle console sont dans un premier temps moroses. En 2011, Satoru Iwata décide ainsi de diminuer de moitié le montant de la part fixe de son salaire, lequel se montait au total en 2009 à 187 millions de yens, soit 1,7 million d'euros. Ce salaire est alors composé d'une base fixe de 68 millions de yens, portée à 187 millions avec les bonus de performances. Il reste un président modeste, puisqu'en comparaison, Shigeru Miyamoto a un salaire de 100 millions de yens, soit environ euros. En 2014, malgré le succès de la Nintendo 3DS, il divise à nouveau par deux son salaire à la suite d'une baisse des résultats en partie expliquée par un manque d’engouement pour la Wii U. Toujours proche de ses développeurs, il estime que si ceux-ci vivent dans la peur d'être licenciés, ils ne peuvent . Grâce aux réserves de l'entreprise, il continue à pousser de nouvelles idées, en ouvrant un nouveau centre de recherche et en lançant un nouveau projet, "". De même, après des années d'une politique anti-smartphone critiquée, Iwata annonce que Nintendo publiera des jeux sur téléphones. Souvent attaqué sur les faiblesses techniques des consoles de Nintendo par rapport aux concurrents, Iwata défend son entreprise : . En 2015, une des dernières annonces d'Iwata est la "Nintendo NX", nom de code pour la nouvelle console Nintendo Switch sortie en 2017, où la firme veut montrer que le marché de la machine dédiée au jeu vidéo n'est pas encore mort. Iwata promet que la console sera une surprise pour les joueurs, une fois encore innovante sur le marché du jeu vidéo. En effet, lors d'une interview, il laisse entendre que cette nouvelle console n'aura rien à voir avec les consoles précédentes, notamment la Wii U. Jusqu'à sa mort, Iwata est responsable du développement du projet, et donne la direction dans laquelle aller pour rendre la console innovante et non seulement une mise à jour matérielle des consoles précédentes. Maladie et décès. En 2014, Nintendo annonce l'absence de Satoru Iwata à l'E3 pour des raisons médicales. Plus tard, il est annoncé qu'Iwata a une tumeur biliaire et que ses médecins lui ont conseillé de ne pas voyager, avant une opération pour retirer la tumeur. Cela l'empêche d'assister à l'assemblée générale de Nintendo en juin 2014. Un an plus tard, Iwata meurt à l'âge de 55 ans le , des complications de cette tumeur, quelques jours après l'édition 2015 de l'E3 à laquelle il n'a pas participé non plus. Il laisse derrière lui sa femme, Kayoko. Nintendo annonce officiellement la mort de son président le 13 juillet 2015. De nombreuses entreprises et personnalités du jeu vidéo rendent hommage à Iwata le jour de l'annonce, notamment via les réseaux sociaux. Bien que concurrents de Nintendo, des sociétés comme Sony et Microsoft relaient via Twitter leurs messages de deuil. Sony remercie Iwata pour son travail, tandis que Microsoft estime que son travail a eu un impact sur le développement de l'industrie du jeu vidéo. De son côté, Nintendo ne publie de la journée aucun message sur ses réseaux sociaux, en signe de deuil, et met en berne les drapeaux au siège social de l'entreprise. Pure coïncidence, un arc-en-ciel apparaît au-dessus du siège de Nintendo le même jour. Plusieurs fans de la société le qualifieront de , en référence à un circuit populaire de la série "Mario Kart" et au décès d'un de ses contributeurs. Des mémoriaux sont dressés par les fans de Nintendo dans le monde, notamment à l'ambassade du Japon de Moscou, au Nintendo World Store de Manhattan, où des dessins d'Iwata ou d'éléments clés de Nintendo sont déposés. À l'annonce de sa mort, Shigeru Miyamoto et Genyo Takeda sont nommés pour prendre en charge la direction de Nintendo de façon temporaire. Dans un discours pour IGN, Miyamoto dit être surpris de la mort soudaine d'Iwata mais que les équipes de Nintendo resteront fidèles à la ligne directrice construite par Satoru Iwata, pour produire dans les années futures ce qu'Iwata aurait apprécié voir. Ses funérailles sont organisées le 17 juillet, et plus de y assistent. Lors de sa prise de parole, au nom de Nintendo et de ses employés, Takeda dit vouloir finaliser avec Miyamoto ce qu'Iwata a commencé, ajoutant qu'. Hommages posthumes. En octobre 2015, un Amiibo unique à l'effigie d'Iwata, entouré de plusieurs objets emblématiques de Nintendo, est réalisée par l'artiste GandaKris. La figurine est vendue aux enchères sur eBay et l'argent récolté est reversé à l'association , dont le but est d'améliorer le quotidien des enfants hospitalisés via le jeu vidéo entre autres. Lors de la cérémonie de 2015, Iwata se voit attribuer à titre posthume le prix pour ses travaux dans l'industrie du jeu vidéo et l'impact qu'il a eu. L'année suivante, il reçoit également le aux DICE Awards, organisé par l'. Depuis le , chaque année, le jour de l'anniversaire de Satoru Iwata, ce dernier est temporairement jouable dans le rogue-like dans le mode "Daily Challenge" (ou "Challenges journaliers" en Français) via un changement d'apparence du personnage principal du jeu "Isaac". La particularité de ce mode de jeu est que, chaque jour, les joueurs peuvent lancer une partie où le but est d'aller le plus loin dans le jeu, le plus rapidement possible, et avec un personnage, des statistiques et des objets (de base) imposés qui changent quotidiennement. Lors de cet evènement, le joueur commence avec des objets faisant référence à un Gameboy et une cartouche de Super Nintendo. En 2016, David Hellman, artiste ayant travaillé sur "Braid", réalise un film d'animation de trois minutes afin de rendre hommage à Iwata. Enfin, le texte (littéralement ) est présent à la fin des crédits du jeu "Star Fox Zero", dernier jeu auquel il a contribué en tant que producteur exécutif avant sa mort. En 2017, il apparaît dans le jeu "" en tant que personnage non-joueur, Oudeau, qui se situe étrangement à côté d'une montagne, le Mont Satori. Étant décédé lors de la production du jeu, les développeurs avaient envie de lui rendre hommage avec un personnage qui met en garde le héros des dangers à venir. Un hommage secret a été caché sur toutes les Nintendo Switch. Accessible en modifiant la date de la console au 11 juillet (date du décès d'Iwata), ou exécutant la manipulation le bon jour, puis en tendant les manettes de manière à reproduir un geste qui lui est associé. Après cela, le jeu vidéo Golf sur NES, dont Iwata était développeur, est jouable. Cet hommage a malheureusement été supprimé lors de la mise à jour "4.0.0" de la Nintendo Switch. Dans le jeu vidéo "AM2R", un remake non officiel et fait par des fans du jeu "" sur Game Boy, est noté à la fin des crédits: . Philosophie. Un développeur dans l'âme. Créatif et baignant dans le développement depuis son enfance, Iwata se désigne comme étant un développeur au fond de lui tout au long de sa vie. Même à des postes de manager chez Nintendo, il participe à la finalisation de plusieurs jeux, afin d'aider ses équipes en difficulté. Un exemple marquant est "Super Smash Bros. Melee" où Iwata prend la casquette d'. Lors de la GDC en 2005, il est selon lui un développeur avant d'être un président, mais surtout un joueur au fond : . Il réitère le même discours lors d'une interview dans les années 2010, où il rit de ces situations en disant qu'il était plus un développeur qu'un président de société à l'époque de HAL Laboratory : Ce vécu de développeur est d'ailleurs la raison pour laquelle il crée les « Iwata demande », afin de permettre à ses collègues de partager leur passion. Amorcés au lancement de la Wii, ces entretiens ont pour but de discuter du processus de développement des jeux et produits de la société, ceci dans le but de les promouvoir. C'est un moyen pour Iwata de partager . Ces entretiens, ponctués de blagues et de rires, montrent un président proche de ses employés, tel un bon camarade. Cette ambiance se retrouve également lors des Nintendo Direct, où Iwata se retrouve à simuler un combat à la façon "Super Smash Bros." contre Reggie Fils-Aimé, ou représenté sous forme de marionnette. Vision du jeu vidéo. Iwata est connu pour sa vision novatrice du jeu vidéo, qui a transformé cette industrie lors de sa présidence au sein de Nintendo. Contrairement aux acteurs de l'époque qui se concentrent sur la course à la puissance, Iwata prend la décision de repenser le jeu vidéo comme un divertissement universel, et non réservé aux joueurs déjà avertis. En effet, en 2001 Nintendo se retrouve en difficulté avec la Gamecube face à la PlayStation 2 et la Xbox. Alors que la Nintendo Entertainment System s'est vendu à d'exemplaires aux alentours des années 1990, la Gamecube n'atteint que d'exemplaires. Iwata réfléchit à une nouvelle console, capable de réunir à la fois ceux qui n'ont jamais joué et les passionnés de jeux vidéo. Avant l'E3 2006, Nintendo annonce la sortie prochaine de la Wii, connue précédemment sous le nom de code "Revolution". Le nom n'est pas anodin et reflète l'envie d'Iwata : une console pour plusieurs (le nom se prononce « », « nous » en anglais). Alors que ses concurrents annoncent des consoles encore plus puissantes, Nintendo présente une console avec un tout nouveau système de jeu, reposant sur les gestes, via la Wiimote. Ces dernières années, malgré les ventes décevantes de la Wii U, Iwata maintient le cap, voulant toujours proposer des plates-formes à la fois conviviales et ouvertes, comme ce fut le cas avec "Wii Sport" ou la série "Mario Kart" par exemple, et intéressantes pour les joueurs les plus exigeants, avec les licences "The Legend of Zelda" ou "Metroid Prime". Il n'a ainsi jamais réellement cru au mobile, et bien que des projets aient été annoncés, aucun jeu Nintendo n'est sorti sur smartphone sous la direction d'Iwata. Selon lui, le smartphone n'est pas une plate-forme adaptée pour le jeu vidéo. Même s'il n'interdit rien à ses équipes, il reste opposé à ce secteur où le développement des jeux est affecté par des prix trop faibles et le "free to start", terme qu'il préfère à celui de "". Il admet cependant que cela peut être l'occasion de développer des outils amenant l'utilisateur vers les jeux Nintendo (et donc ses consoles), via une application pour Mii par exemple. Ludographie. En plus de son engagement dans la conception des consoles de la firme entre 2002 et 2015 (notamment la Nintendo DS et 3DS, la Wii et la Wii U), Iwata a aussi travaillé sur plusieurs séries populaires de Nintendo : "The Legend of Zelda", la série des Mario, la série "Animal Crossing", "EarthBound", Pokémon ainsi que la série "Metroid". Principalement développeur pendant ses années à HAL Laboratory, il travaille sur de nombreux projets pour les consoles de Nintendo. Il devient producteur puis rapidement producteur exécutif après son entrée chez la firme nippone. Il supervise près de 150 jeux en vingt ans de carrière, notamment sur les licences les plus célèbres de Nintendo. Tout au long de sa carrière, Iwata sait faire preuve d'audace, en insufflant une vision toujours novatrice : il n'hésite pas à remettre en question les bases du jeu vidéo et invente de nouvelles façons de jouer pour toucher le grand public. Cela se reflète via les consoles de Nintendo, dont la Wii est l'exemple le plus marquant, ce qui amène également de nouveaux concepts de jeux, comme "Wii Sports" ou la série "WarioWare", utilisant pleinement les capacités de ses consoles. |
Spiritualité La notion de spiritualité (du latin ecclésiastique "spiritualitas") comporte aujourd'hui des acceptions différentes selon le contexte de son usage. Elle se rattache conventionnellement, en Occident, à la religion dans la perspective de l'être humain en relation avec des êtres supérieurs (dieux, démons) et le salut de l'âme. Elle se rapporte, d'un point de vue philosophique, à l'opposition de la matière et de l'esprit (voir problème corps-esprit) ou encore de l'intériorité et de l'extériorité. Elle qualifie l'activité de l'esprit en tant qu'elle se rapporte à lui-même, séparément de ce qu'il n'est pas ou plus. Par conséquent, est compris comme spirituel tout ce qui se rattache à la nature de l'esprit. Elle annonce le spiritualisme. Elle désigne également la quête de sens, d'espoir ou de libération et les démarches qui s'y rattachent (initiations, rituels, développement personnel, Nouvel Âge). Elle peut également, et plus récemment, se comprendre comme dissociée de la religion ou de la foi en un Dieu, jusqu'à évoquer une « spiritualité sans religion » ou une « spiritualité sans dieu ». Elle désigne parfois des aspects esthétiques dans la littérature. Religions et spiritualité. Bien que les aspirations et pratiques spiritualistes se soient développées de façon souvent très normative (dans le cadre d’Églises établies, ou de rites traditionnels) au point de rendre les termes religion et spiritualité synonymes pendant plusieurs siècles, la notion de spiritualité s'est de plus en plus appliquée dans les travaux de théologiens ou de sociologues pour désigner des croyances et comportements humains universels antérieurs ou postérieurs aux religions historiques et dont la motivation serait liée à l'idée d'une survie après la mort physique, à une notion plus ou moins apparentée à celle de l'âme, en tant qu'entité cohérente et indépendante du corps, ainsi qu'à des rites propitiatoires proches du chamanisme (pour appeler une bonne chasse, de bonnes récoltes, etc., voir les rites funéraires préhistoriques). Certains voient dans la spiritualité une simple expression de l'instinct de survie, voire un moyen de ne pas se confronter à la réalité de notre condition de mortels ; selon d’autres, elle révèle la mémoire intrinsèque de l’immortalité de l’âme. Si toute religion est fondée dans une spiritualité, toute spiritualité n'est donc pas une religion. Selon certains auteurs, la distinction se ferait ainsi : il y aurait dans la religion une perspective collective et dans la spiritualité une démarche plus individuelle. La spiritualité dans le cadre de la religion. La spiritualité religieuse est souvent associée à l'origine latine "religare", dont le premier sens (Félix Gaffiot) est : attacher par-derrière, relier , attacher, amarrer [les navires au rivage]. C'est une racine possible du mot "religion". Il s'agit alors essentiellement dans un sens très extensif de se relier à Dieu, au divin, à une réalité transcendante ; un lien qui conduirait, toujours par extension, l'homme à se relier aussi à lui-même, aux autres, à la nature ou à l'univers. Beaucoup d'auteurs cependant, et depuis l'Antiquité (Cicéron), s'appuient sur l'étymologie latine "relegere", « relire », peut-être par extension « réécrire », par exemple les rituels, ou se placer dans la perspective d'une nouvelle lecture. Aujourd'hui, dans les études francophones c'est l'étymologie "relegere" qui est considérée comme généralement admise, tandis que dans les études anglophones c'est plutôt celle de "religare". Après avoir supplanté les spiritualités plus ou moins structurées du paganisme ou de l'animisme, les spiritualités juive, chrétienne, musulmane, se sont développées sans véritable concurrence pendant de nombreux siècles en Occident, jusqu'au siècle des Lumières. Dans tous les pays où ces religions n'étaient pas parvenues à s'imposer, des spiritualités locales ont cependant continué à se développer. Pratiques associées. Différentes pratiques sont issues des spiritualités religieuses : Certaines de ces activités sont solitaires, d'autres collectives, certaines se vivent dans la réclusion volontaire (cellule monastique) et d'autres « à l'extérieur » (dans la société civile). Certaines sont contemplatives, d'autres plus pratiques. Le choix des activités et l'importance relative donnée à chacune permettent d'approcher la « spiritualité » qui diffère à chaque courant spirituel. Toutes ces activités sont expressément définies et organisées lorsque l'expérience spirituelle est vécue au sein d'un monastère (ou son équivalent couvent, ashram, confrérie), les tâches domestiques sont alors également incluses dans le champ de la pratique spirituelle et donc stipulées par la Règle monastique. La notion « d'expérience spirituelle ». La spiritualité n'est pas limitée à une démarche conceptuelle ou dogmatique. L'expérience spirituelle (ou expérience mystique), par la recherche d'intériorité, de connaissance de soi, de transcendance, de sagesse, ou de dépassement des limitations de la condition humaine est indissociable de la démarche intellectuelle. C'est pourquoi la spiritualité débouche généralement sur des démarches corporelles, émotionnelles et mystiques, cherchant à générer une expérience transcendante, une relation (selon l'une des étymologies de "religion") avec Dieu, le Soi, la Conscience, l’Âme, le Monde, le Devenir, etc. Pour certains, le but de la spiritualité est une exploration profonde de l'intériorité, conduisant à l'éveil spirituel, une conversion intime, ou l'accession à un état de conscience modifié et durable. La spiritualité hors du cadre des religions. Humanisme, néopaganisme, spiritualité laïque, New Age. La spiritualité, en tant qu'expression d'une aspiration aussi ancienne que l'humanité, existait avant les institutions religieuses. Après plusieurs siècles d'une spiritualité presque exclusivement religieuse, l'émergence de la philosophie (c'est une opinion discutable car la philosophie est effectivement "bornée" par le réel d'un côté et la métaphysique de l'autre. Elle est donc distincte de la religion et n'a aucune vocation, ni prétention de s'y substituer. Seule une lecture approximative de Nietzsche permet de penser la philosophie en termes de religion). Mais , le déclin de l'adhésion aux grands courants religieux et le passage à la société postmoderne ont conduit une partie des « croyants » à revendiquer à nouveau une spiritualité sans appartenance à une institution religieuse, exprimant, par exemple, une préférence pour l'humanisme (pouvant relever de l'athéisme ou non). Une autre origine de cette transformation se trouverait dans le fait que, par la sécularisation de la société, le « religieux » place une importance plus grande sur la spiritualité, jusqu'à la recherche d'expériences mystiques individuelles, alors qu'auparavant, « dans la société plus marquée religieusement, la demande va plutôt dans le sens d’une religion plus mondaine ». Mais c'est surtout à partir de la seconde moitié du que se développent des approches spirituelles non religieuses, avec le New Age, l'adoption par l'Occident des pratiques orientales, souvent dissociées de la religion qui les contenait, et les psycho-spiritualités. Françoise Champion qualifie cette émergence des nouveaux mouvements religieux de « nébuleuse mystico-ésotérique », caractérisée, selon Claude Rivière, par « "la primauté accordée à l’expérience personnelle et à la voie spirituelle de chacun, (…) l’inclusion de la santé (thérapie, guérison) et du bonheur ici-bas dans la visée du salut, (…) une conception moniste du monde sans séparation du naturel (écologisme), du surnaturel, de la science, de la religion et des pratiques magiques populaires ou ésotériques" ». Dans le discours des pratiquants de diverses spiritualités postmodernes, on retrouve deux tendances principales «" se connecter à son soi profond (se relier à soi) ou se rapprocher de l’autre (se relier à l’extérieur de soi)" ». La fonction de la démarche spirituelle est alors de « "se rattacher avec ferveur à l’autre, au sens large du terme : que ce soit à Dieu (pour une connexion verticale, Ellison, 1983), à un proche, aux morts, à la nature ou à une cause (pour une connexion horizontale)" ». Parmi ces nouvelles émergences, une mouvance se distingue des autres et se fait appeler "spiritualité laïque". La spiritualité laïque conçoit l'existence d'une « "intuition spirituelle qui fédère l'humanité tout entière" » capable de « "développer une véritable « Science spirituelle » et une « Spiritualité scientifique" » ». Elle se dit issue d'une « démocratisation de la spiritualité » aboutissant à une « spiritualité séculière affranchie du contrôle religieux institutionnel ». Le philosophe Vladimir Jankélévitch tentait d'approcher ainsi, à la suite de Bergson, au plus près de ce qu'il percevait comme les fondamentaux d'une spiritualité humaine, ou d'une « philosophie première », proche de la conception bouddhiste. Le bouddhisme exprimait en effet, à son émergence, le besoin d'une régénération de la spiritualité hors des dogmes du védisme dominant en Inde. Encore aujourd'hui, selon Matthieu Ricard, interprète français du Dalaï Lama : « "[le Dalaï-Lama] très attaché à la notion de « spiritualité laïque », déclare que « la religion est un choix personnel et que la moitié de l’humanité n’en pratique d'ailleurs aucune et qu'en revanche les valeurs d’amour, de tolérance, de compassion prônées par le bouddhisme concernent tous les humains, et cultiver ces valeurs n’a rien à voir avec le fait d’être croyant ou non »". » Le néo-paganisme du est une résurgence des croyances et pratiques, plus ou moins revisitées, qui précédaient le christianisme avant la fin du . Spiritualité en philosophie. La philosophie est une approche qui repose, en principe, sur la raison. La spiritualité est fondée sur la notion plus évasive et aléatoire de l'« expérience intérieure » ou de la croyance. Pour le philosophe, le discours devrait toujours faire référence à une "expérience possible" (Kant) et ne jamais spéculer sur du vide. La philosophie concerne plutôt la « pensée » là où la spiritualité s'intéresse à l'« Esprit », dans le sens spiritualiste du terme. Bien que pour Spinoza, il existe cependant quelque chose de l'ordre de l'intuition (ou de l'évidence, pour Descartes), donc pas seulement de l'expérience empirique, et conduisant à la vérité, pour le philosophe, en général, la spiritualité est une notion valide, aussi longtemps qu'elle ne fait pas « référence à des croyances, religieuses ou autres » et qu'elle se définit comme « l’incidence de la vérité (comme telle) sur le sujet (comme tel) ». Combinaison des spiritualités et de la psychothérapie. Dans les doctrines comme le soufisme, le taoïsme, l'hindouisme, le bouddhisme, l'être humain est considéré comme souffrant du déséquilibre de ses émotions, de ses fixations mentales, de ses « mémoires » (vāsanā et saṃskāra en sanskrit) et du manque d'harmonie entre les différentes composantes de l'être : l'intellect, le corps, la parole, etc. La « guérison spirituelle » est généralement recherchée avec l'appui et l'encadrement d'un maître, d'un guide, dénommé lama, gourou ou cheykh selon les traditions. Au travers de la relation entre le disciple et le maître, ce dernier jouait parfois le rôle d'un thérapeute avant l'heure, et le disciple était proche du « patient » de la médecine moderne. Cette approche spirituelle reste cependant limitée aujourd'hui aux régions du monde où la relation de maître à disciple est perçue comme une composante naturelle des relations humaines. Le psychothérapeute joue un rôle similaire (en France, le développement de cette pratique a conduit à l'élaboration d'une loi pour mieux encadrer la profession et éviter que le psychothérapeute se confonde avec l'image du gourou). L'expérience des groupes des alcooliques anonymes a souvent été donnée en exemple ou, alternativement, montrée du doigt, comme une combinaison de psychothérapie et de spiritualité. Dans les pays occidentaux, quelques psychanalystes en vinrent à penser que certaines pathologies pourraient ne pas trouver de résolution par l'analyse seule. Après avoir montré le rôle important de la société dans la névrose, l'analyse débouchait parfois sur des problèmes qualifiés de « spirituels ». Certains psychanalystes, dont Jung, se tournèrent vers l'étude de pratiques issues de religions traditionnelles afin de « guérir l'âme ». Ainsi, dans les années 1960, les travaux de Jung avec la collaboration d'Abraham Maslow, de Roberto Assagioli entre autres, en collaboration avec des scientifiques et des moines bouddhistes, ont donné naissance à la psychologie transpersonnelle. Le New Age, syncrétique, éclectique, a contribué à brouiller les signes religieux traditionnels en développant une spiritualité sans frontière ni contours bien définis. L'usage des psychothérapies les plus diverses (ainsi que des médecines non conventionnelles) y est dominant. La séparation traditionnelle entre le conseil spirituel et le conseil thérapeutique y est souvent gommée. Une critique des spiritualités du postmodernisme. Selon certains auteurs, ce qu'ils qualifient de « spiritualités fugitives » (fuyant la société), serait le résultat d'un « manque de transcendance » dans l'espace social. La rupture avec le monde de ces nouvelles spiritualités les conduit à « évoluer librement » au point de ne plus pouvoir être questionnées faute de l'existence d'espaces créés à cet effet. L'affirmation courante, dans certaines formes de spiritualités « libres » issues du postmodernisme, que la spiritualité n'a pas besoin de la « vérité » (voire d'objectivité) mais uniquement de la « beauté » et d'absence de contrainte, sexuelle, intellectuelle voire financière est un sujet de débat autant pour les religions établies que pour les observateurs laïcs qui associent généralement ces nouveaux courants à des sectes par le potentiel de dérives qu'ils leur semblent contenir. |
Shōjo Le est une catégorie éditoriale du manga, aussi parfois qualifié de , qui cible un public féminin, adolescent ou jeune adulte. Elle est avec le manga et le manga, l'une des trois principales catégories éditoriales du manga. Le manga est traditionnellement publié dans des magazines de prépublication de manga dédiés, qui peuvent se spécialiser sur une tranche d'âge du lectorat ou sur un genre narratif. En dehors de son lectorat cible, il n'y a pas de définition stricte de ce que peut être le manga, mais il existe des codes esthétiques, visuels et narratifs qui lui sont associés et qui évoluent dans le temps, bien qu'aucun ne soit strictement exclusif ni systématique au . De même la plupart des genres narratifs (science-fiction, policier) sont couverts par la catégorie, mais certains sont plus proéminents que d'autres, tels que la romance ou l'horreur. Le manga plonge ses racines dans la culture , pour filles, de la première moitié du , que ce soit avec la littérature du ', du théâtre de la revue Takarazuka ou des illustrations de la peinture lyrique. Alors balbutiant lors de cette première moitié de siècle, il se développe grandement à partir des années 1960 et devient l'une des pierres angulaires de la culture . Le développement et la diversication de cette catégorie éditoriale fait émerger d'autres catégories dérivées du manga, avec notamment le ' pour les femmes adultes, le ' manga centré sur les relations gay ainsi que le ' manga centré sur le contenu érotique pour filles et femmes. Définition. La. Le mot japonais peut être approximativement traduit en français par le mot , pour autant en japonais une fille est généralement désignée par l'expression , et rarement par le terme . La réfère plutôt à une classe sociale qui est apparue lors de l'ère Meiji (1868-1912) pour qualifier les filles et femmes situées entre l'enfance et le mariage, ce qui concerne principalement les adolescentes scolarisées dans les établissements d'enseignement secondaire d'une part, auxquelles est associé une image , et d'autre part les jeunes femmes , qui ne sont pas mariées et préfèrent travailler, auxquelles est associé une image plus sulfureuse. Après la Seconde Guerre mondiale le concept de reste associé à une image d'innocence et de femmes non-mariées, mais se teinte d'une forte connotation consumériste avec le développement d'une très importante catégorie marketing dédiée aux dans les années 1980 et 1990, cependant que les modes que sont la et la , réputées tapageuses et enclines à la promiscuité sexuelle, remplacent les dans leur caractère sulfureux. Le manga. Définir précisément le manga n'est pas aisé. Les styles graphiques varient selon les auteurs et les genres sont multiples. La définition la plus souvent adoptée est liée au lectorat. En effet, le marché du manga au Japon est segmenté en fonction du lectorat cible, caractérisé par un genre (féminin/masculin) et un âge ; le manga est ainsi l'un des principaux segments du manga et s'adresse donc aux personnes qui se reconnaissent dans cette image de , typiquement des filles adolescentes et femmes jeunes adultes, et de façon plus marginale certains hommes ainsi que des femmes bien plus âgées. Les mangas sont traditionnellement publiés dans les magazines dédiés au lectorat , qui sont apparus au début du et se sont développés et diversifiés avec le temps. Ces magazines publient divers types d'histoires en fonction des époques, du moment qu'elles , un invariant au fil des décennies reste cependant l'intérêt pour les relations humaines et les émotions qui les accompagnent. Toutefois, d'autres personnes comme Kayoko Kuramochi, conservateur au Musée international du manga de Kyoto ou l'universitaire Masuko Honda mettent plus en avant des éléments graphiques qui leur semblent représentatifs du : une figuration d'un imaginaire propre aux lectrices fait de fleurs, de rubans et de robes qui voltigent, de jeunes filles aux grands yeux étincelants et de mots qui s'enchaînent sur la page ; ce que Honda décrit par l'onomatopée ". Cette définition permettrait ainsi de rendre compte des œuvres disponibles sur internet qui sortent des limites de l'offre éditoriale mais restent perçues comme des . Histoire. 1900-1945 : les prémices du " manga. Début de la culture "". Lors de l'ère Meiji (1868-1912) le marché de l'édition de magazines est en plein essor ; les magazines pour adolescents, dits , se développent et proposent en théorie du contenu aussi bien pour les garçons que les filles, mais en pratique ces magazines contiennent en grande partie du contenu en lien avec les centres d'intérêt des garçons, et peu avec ceux des filles. Face à la demande croissante du lectorat, des premiers magazines , spécialement pour les filles, voient le jour, faisant des titres des magazines pour garçons. Ainsi, les premiers magazines dédiés exclusivement aux ' apparaissent en 1902 avec la création du , puis ' en 1906, ' en 1908, ' en 1912 et enfin "Club" en 1923. Cependant, les mangas restent sous-représentés dans ces magazines avec tout au plus quelques pages leur étant dédiées, laissant la place majoritairement au ", constitué de romans et poèmes abondamment illustrés. Ces histoires illustrées ont malgré tout une place importante dans la mise en place de la culture ', et par extension du ' manga. En effet, elles posent les bases des thèmes récurrents aux ' mangas à venir, en proposant aux jeunes Japonaises des histoires . En tête des autrices emblématiques de cette époque, on retrouve notamment Nobuko Yoshiya et son récit ' ; cette romancière est réputée pour ses histoires ', centrées sur les amitiés romantiques entre filles et femmes. Par ailleurs, les racines graphiques du ' manga puisent leurs origines dans les illustrations de ces magazines, avec notamment le travail des peintres lyriques Yumeji Takehisa, Kashō Takabatake et Jun'ichi Nakahara, façonnant des personnages féminins avec des corps fins et des vêtements à la mode ainsi que de grands yeux, particulièrement chez Nakahara. Les premiers " mangas. Les ' mangas en sont quant à eux à leurs balbutiements. Ils se déclinent principalement sous forme de courtes histoires humoristiques de quelques planches, prenant place dans les lieux du quotidien . Bien que sensiblement plus rares par rapport au ' ou aux ' mangas de l'époque, les ' mangas se développent particulièrement dans les années 1930, sous le crayon d'artistes comme Suihō Tagawa et Shōsuke Kuragane ou de quelques rares autrices telles que Machiko Hasegawa et Toshiko Ueda, mettant le plus souvent en scène des filles de type garçon manqué comme protagonistes. Katsuji Matsumoto est un peintre lyrique qui exprime de la sympathie pour les et la culture des États-Unis ; il devient lassé de représenter des ' sages et jolies dans ses illustrations, et s'oriente à la fin des années 1920 vers le manga afin de pouvoir représenter plus librement des et des garçons manqués, physiquement voire sexuellement actives. Son style, probablement inspiré d'artistes de comics comme George McManus ou Ethel Hays et du cinéma hollywoodien de l'époque, introduit des innovations formelles et avant-gardistes dans le ' manga avec des œuvres comme entre 1930 et 1934 et son style art déco ou encore en 1934, particulièrement cinématographique ; son œuvre la plus célèbre et qui influencera le plus le medium est cependant ', publiée à partir de 1938. Avec le commencement de la seconde guerre sino-japonaise en 1937, la censure et le rationnement du papier étouffent les magazines, qui sont forcés à fusionner pour survivre. Il ne reste alors plus que quelques magazines (41 en 1945), réduits à quelques pages en noir et blanc, où les illustrations se font rares. Les restrictions sont telles qu'à la fin de la guerre, il ne reste que deux magazines ', le " Club" et le '. Il faut attendre la fin de la guerre, en 1945, pour retrouver une situation éditoriale normale. Pourtant, les magazines pour filles doivent faire face à une mutation importante : l'essor du " manga. 1945-1970 : après-guerre et essor du " manga. 1950 : structuration du " manga. Avec la fin de la guerre, le peuple japonais peut enfin mettre derrière lui les années de privations et de malheur. Il se rue sur les divertissements, offrant son âge d'or au cinéma, à la radio et aux variétés. Le livre populaire connaît quant à lui une renaissance, grâce à de petits éditeurs implantés dans la région du Kansai. En deux ans, on passe de 41 magazines à près de 400 et entre 1945 et 1952, date de la fin de l'occupation américaine, le nombre d'éditeur explose de 300 à environ 2000. Tous ne sont pas des éditeurs de revues pour enfants mais celles-ci constituent un pourcentage important de l'ensemble. Parallèlement, les librairies de location connaissent un essor important, proposant des livres spécialement dédiés à la location, les ", pour la somme modique de 5 ou 10 yens pour une journée, l'équivalent de la moitié d'un ticket de métro à l'époque. Par ailleurs, cet essor permet l'arrivée de nouveaux talents dans le monde des mangas. Dans les magazines, les mangakas déjà actifs avant la guerre recommencent à dessiner des séries avec des succès notables, comme ' (1949-1955) de Shōsuke Kuragane, ' (1957-1962) de Toshiko Ueda ou encore ' (1949-1954) de Katsuji Matsumoto, dont la publication s'était interrompue en 1940 avec la guerre ; Matsumoto en profite pour faire évoluer encore une fois son style, qui annonce le style ' qui se développera plusieurs dizaines d'années plus tard. De nouveaux mangakas, dont Osamu Tezuka et les autres artistes du groupe ', marchent dans leurs pas en reprenant la figure de l'héroïne garçon manqué, mais ils le font dans un nouveau format déjà populaire dans le ' manga, le , qui propose de longs récits dramatiques plutôt qu'une successions de vignettes plus ou moins indépendantes. L'œuvre emblématique du genre est "Princesse Saphir" (1953-1956) de Tezuka, qui impose ce type de récit et le style dynamique de l'auteur dans les magazines '. Ces succès font que la proportion de mangas dans les magazines augmente. Par exemple, s'ils ne représentaient que 20 % du magazine " Club" au milieu des années 1950, ils en occupent déjà plus de la moitié à la fin de celles-ci. Avec une telle augmentation de la part des mangas, ces magazines ' deviennent rapidement des magazines de "" mangas. Ainsi, en , le mensuel "Nakayoshi" de l'éditeur Kōdansha est créé, suivi en 1955 par le magazine de Shūeisha, "Ribon". Dans le même temps, les ' mangas du marché ' se développent eux-aussi en prenant une toute autre direction : des peintres lyriques illustrent les couvertures d'anthologies de ' mangas. Parmi eux se trouvent Yukiko Tani qui illustre et Macoto Takahashi qui illustre . Ces deux artistes commencent à créer des mangas, mais au lieu de faire comme Katsuji Matsumoto en s'éloignant des standards de la peinture lyrique, Takahashi et Tani importent au contraire ses codes dans le manga, ce qui résulte en une narration dite , qui permet de magnifier l'atmosphère des œuvres ainsi que les émotions des personnages plutôt que de se concentrer sur leurs actions. Lorsque Takahashi dessine le manga ' en 1958 pour le magazine ', son style décoratif fait sensation parmi les lectrices de magazines et est immédiatement repris par d'autres mangakas, éclipsant en l'espace de quelques mois le style dynamique de Tezuka chez la plupart des artistes. Dans un registre plus sombre, est une anthologie ' lancée en 1958 qui propose des histoires surnaturelles de ' (fantômes) et de ' (esprits japonais) qui deviennent de plus en plus bizarres, grotesques et horrifiques avec le temps. Son succès auprès des lectrices impose aux anthologies pour filles de publier elles aussi des histoires à tendance horrifique, posant ainsi les bases de ce qui deviendra le " manga d'horreur. Avec les histoires humoristiques héritées d'avant la guerre, les récits dramatiques introduits par le ' et les œuvres de l'étrange qui se développent dans les anthologies ', les " mangas deviennent marquetés par les éditeurs selon un triptyque d'émotions : les mangas tristes, les mangas du bonheur et les mangas effrayants, ce dernier type se trouvant essentiellement dans les " mangas. En outre, deux thèmes majeurs s'imposent : les mangas de ballet qui permettent de faire rêver les lectrices dans un pays en pleine reconstruction, et les mangas familiaux centrés sur la figure maternelle, qui permettent de panser les blessures et de combler les pertes causées par la guerre. À la fin des années 1950, le manga pour fille demeure principalement produit par des hommes. Parmi ces auteurs, on retrouve par exemple Leiji Matsumoto, Shōtarō Ishinomori, Kazuo Umezu ou encore Tetsuya Chiba. Ces auteurs masculins ont des difficultés à saisir les attentes de leurs lectrices, ils enchaînent alors les tragédies mettant en scène des héroïnes torturées et passives qui endurent l'adversité avec courage, même si certains dessinateurs, comme Tezuka, Ishinomori ou Umezu tentent de dépasser ces clichés avec des héroïnes plus actives. 1960 : l'arrivée des autrices. Au cours des années 1950, une petite dizaine d'autrices rejoignent Toshiko Ueda avec par exemple Hideko Mizuno, Miyako Maki, Masako Watanabe ou encore Eiko Hanamura, dont beaucoup ont débuté dans le ' avec l'anthologie ' de Wakagi shobō avant d'intégrer des magazines. Si elles restent minoritaires parmi les créateurs de ' manga, les services éditoriaux des magazines se rendent rapidement compte que leurs œuvres sont plus populaires que celles des hommes auprès des lectrices. Au tout début des années 1960, la télévision s'impose dans les ménages japonais et les séries télévisées constituent un sérieux concurrent aux magazines jeunesses ; de nombreux magazines mensuels, d'abord ' puis ', succombent et sont remplacés par des magazines hebdomadaires comme ' ou '. Pour satisfaire le besoin en contenu, un système d'école du manga est mis en place par les éditeurs de manga : il s'agit de concours qui permettent de repérer de nouveaux auteurs issus de leurs lecteurs ; les femmes dominent ces concours dans le domaine du ' manga et commencent donc leur carrière. La première d'entre elles est Machiko Satonaka, qui a voit son premier manga, ", publié dans le " " en 1964. L'arrivée des autrices permet l'essor des histoires d'amour, un genre que la plupart des auteurs masculins de l'époque n'osent pas aborder. Hideko Mizuno ouvre la marche en adaptant des films romantiques du cinéma hollywoodien ; elle est suivie par des dessinatrices comme Masako Watanabe, Hosokawa Chieko ou Michiko Hosono. Ces histoires, dites ' (comédie romantique), mettent en scène de très belles jeunes femmes, inspirées d'actrices ou mannequins d'Occident, et sont situées en Europe ou aux États-Unis. De son côté, Yoshiko Nishitani tente une nouvelle approche en mettant en scène des héroïnes à l'image de ses lectrices : de jeunes japonaises vivant leur vie d'adolescente ordinaire avec par exemple le manga ' ; on parle alors de ' (de l'anglais '). Ces histoires d'amour d'abord simples et stéréotypées vont, sous les dessins d'autrices comme Machiko Satonaka ou Yukari Ichijō, s'étoffer et se complexifier, gagnant en profondeur scénaristique et dramatique, avec certaines œuvres qui peuvent s'engager sur des sujets sociaux de l'époque. Les mangas de Nishitani marquent la multiplication, dans la seconde moitié des années 1960, d'œuvres qui proposent un univers plus proche de la réalité des lectrices. Par exemple Kazuo Umezu, chef de fil des mangakas d'horreur dans le ', débarque en 1965 dans le " " avec "La Femme-serpent" et défigure littéralement les ', introduisant ainsi de la laideur dans les magazines ' jusqu'ici dominés par la beauté. Puis Chikako Urano, avec son manga sportif "Les Attaquantes" en 1967, impose aux corps des ' efforts et sueurs. Enfin c'est au tour de Hideko Mizuno d'introduire des scènes de sexe avec des mangas comme " en 1969. À la fin des années 1960, le monde du ' manga arrive à maturité : les magazines ' se sont pour la plupart spécialisés dans la publication de mangas, avec la disparition de la littérature et des articles ; les mangakas sont majoritairement des femmes ; le ' possède une identité graphique qui le distingue du ' manga ; les anthologies de " disparaissent, leurs talents étant absorbés par les magazines. Années 1970 : l'âge d'or du "" manga. À l'aube des années 1970, les mangakas dans le domaine du ' manga sont à quelques exceptions près des femmes, mais les éditeurs avec qui elles travaillent restent majoritairement des hommes. Les ' mangas se complexifient, graphiquement comme thématiquement, en phase avec la révolution féminine et sexuelle. Ce renouveau résulte d'une nouvelle génération d'autrices, nommée rétrospectivement le « Groupe de l'an 24 ». Parmi elles, on retrouve notamment Moto Hagio, Keiko Takemiya, Ryōko Yamagishi ou Yumiko Ōshima. Ces autrices vont offrir à leurs lectrices des histoires aux thèmes inédits partageant comme thématique commune, l'amour, et décrivant avec profondeur la psychologie de ses personnages. Takemiya et Hagio inaugurent un nouveau genre, le "", mettant en scène l'homosexualité masculine, avec les œuvres " " (1970) pour Takemiya et "Le pensionnat de novembre" (1971) pour Hagio. Ces fleurs de l'an 24 vont continuer d'enrichir les codes graphiques, avec des traits plus fins et plus légers, des visages d'une beauté frôlant l'exagération, des pages plus lumineuses, et des cases aux contours éclatés, effacés, voire dépassés. Ces innovations ne sont pas le seul fait de ce groupe et d'autres autrices, qui s'inscrivent dans la lignée dramatique de Satonaka et Ichijō, participent de cette évolution. Ainsi une autrice comme Riyoko Ikeda avec "La Rose de Versailles" propose un manga dans lequel le jeu sur le genre, l'homosexualité constitue une des bases du récit. Il est de ce fait une œuvre importante dans le genre des ", mangas dans lesquels le personnage masculin est androgyne. Cette époque voit aussi fleurir la tendance du manga ' dans lequel sont racontés les évènements ordinaires de la vie d'une jeune fille et dont les premières traces remontent au début des années 1970. En effet, si le groupe de l'an 24 impose des autrices fortes ayant un discours original, d'autres autrices comme A-ko Mutsu, Yumiko Tabuchi, Hideko Tachikake ou Mariko Iwadate proposent des œuvres plus proches de ce que vivent les adolescentes. D'une part elles racontent des histoires dans lesquelles l'individu et les relations interpersonnelles sont essentielles et d'autres part elles peignent un univers de . Si la base du récit reste la quête de la relation amoureuse hétérosexuelle, elle sert aussi de prétexte à montrer l'évolution psychologique de l'héroïne. Celle-ci est alors l'image de la lectrice qui veut être elle-même. Ce genre connaît son pic dans la seconde partie des années 1970 mais depuis, il reste un élément important du ', d'autant qu'il est l'une des origines du mouvement '. Ces ' centrés sur la vie d'adolescente et l'univers " s'entrecroisent et deviennent des éléments de la culture des adolescentes avant de se répandre dans la société japonaise. Non seulement, cette génération apporte un renouvellement profond du ' mais elle exerce aussi une influence sur le monde de l'édition. En effet, elles travaillent toutes pour les trois plus grandes maisons d'édition de manga (Kōdansha, Shōgakukan, Shūeisha) ou pour la plus récente Hakusensha, spécialisée dans le '. Ces quatre éditeurs s'imposent comme les leaders du ' et gardent cette position dominante dans les décennies qui suivent. En outre, les expérimentations de ces autrices attirent l'attention des critiques de manga, qui jusqu'à présent ignoraient le genre ; ils déclarent que le ' est rentré dans son âge d'or et occupe une place centrale dans le monde du manga ; ce coup de projecteur important attire un premier lectorat masculin, qui bien que minoritaire, reste. De plus, dans les années 1970, l'édition de séries prépubliées dans des magazines devient progressivement la norme. Or, le genre du "" se prête très bien à cela. En effet, les séries sont le plus souvent brèves et peuvent être relues pour découvrir des éléments jusqu'alors passés inaperçus. La relecture permet aux jeunes femmes d'assurer ou de questionner leur identité. En parallèle, des vétéranes de l'industrie comme Miyako Maki ou Hideko Mizuno font évoluer leurs œuvres pour les adapter à leurs jeunes lectrices désormais devenues des femmes adultes. Bien que leurs tentatives restent commercialement infructueuses avec des magazines éphémères, comme "Papillon" chez Futabasha en 1972, ces premiers travaux sont les prémices du ", avant sa consécration dans les années 1980. Tendances depuis les années 1980. Après la mise en place du ' et l'arrivée d'autrices majeures dans les années 1960 et 1970, les années 1980 sont plus une période d'évolution que de révolution. C'est d'abord un changement dans le choix de l'univers des héros qui se remarque. En effet, après-guerre, alors que le Japon se reconstruit, l'étranger est le lieu privilégié des histoires ou bien se sont des éléments culturels du monde occidental qui sont utilisés. Dans les années 1980, les japonais redécouvrent leur pays, l'économie est puissante et la magie de l'exotisme passe de mode. Les histoires se passent plus souvent au Japon et la vie quotidienne est un thème plus présent. L'exemple le plus évident est le développement du genre de la comédie romantique et plus particulièrement du ', la comédie romantique dont les personnages principaux sont des lycéens japonais. Toutefois cela ne doit pas masquer le foisonnement de sous-genres dans le ". Entre les magazines où ne se retrouvent que des histoires d'amour hétérosexuelles, ceux spécialisés dans le "boy's love" ou ceux qui s'adressent aux fans de science-fiction et de fantastiques, les lectrices ont le choix parmi des magazines qui se spécialisent dans une niches. Le shojo se caractérise toujours par un récit centré sur la personne et les relations humaines mais perd son aspect enfantin. Le ' et le ' adulte. C'est durant cette période que les mangas pour jeunes femmes se développe. En 1980 paraît le premier magazine destiné à ce lectorat publié par Kōdansha et intitulé '. Il est rapidement suivi par d'autres comme, entre autres, ' chez Kōdansha, "Judy" chez Shōgakukan et ', ' et ' chez Shūeisha. Ce genre de manga, nommé le plus souvent ' ou encore ' manga naît du ' et il est parfois difficile de distinguer les deux. La différence essentielle, lorsque se constitue ce genre, tient à l'âge des protagonistes principales. Il s'agit alors de jeunes femmes qui entrent dans la vie active et qui sont confrontées aux mêmes soucis que les autrices. Les thèmes abordés sont donc plus adultes. Entre autres la sexualité y est traitée plus clairement. Or cette peinture du désir et de la sexualité influence en retour les ' qui progressivement se libèrent pour aboutir dans les années 1990 à une banalisation de la représentation de la sexualité. Selon l'âge des lectrices, l'évocation de la sexualité sera plus ou moins fréquente et explicite. Les ' qui s'adressent aux plus jeunes ne vont pas plus loin que le baiser ; ceux qui s'adressent aux collégiennes abordent plus franchement la sexualité mais celle-ci est très rarement montrée et le plus souvent reste sous les couvertures ; enfin ceux qui visent les lycéennes et les étudiantes sont les plus explicites. Cependant, même dans ceux-ci la sexualité sans être taboue n'est pas une fin en soi et les récits s'intéressent surtout aux relations humaines entre les personnages. Dans les années 2000 une nouvelle classe d'âge gagne son propre genre car les éditeurs ont remarqué qu'après le lycée, les jeunes filles lisaient moins de mangas et reportaient leur attention sur les magazines féminins. Aussi entre le ' et le ', ils proposent des mangas qui gardent l'aspect mignon des ' tout en proposant des histoires plus adultes où la sexualité est présente. Les magazines représentatifs de ce sous-genre se nomment ' chez Kōdansha en 1992, ' en 1994 et ' en 2000 chez Shūeisha et " en 2002 chez Shōgakukan. Ces mangas subissent aussi l'influence des dramatiques télévisées et des romans à l'eau de rose. La scène « " ». À la marge des magazines grand public apparaissent des publications de niche qui s'éloignent des conventions du ' manga plus « ' ». Ces publications s'illustrent notamment dans l'horreur et l'érotisme. Certains éditeurs de ' survivent en proposant directement à la vente des mangas en volumes reliés sans passer par une prépublication en magazine, ces mangas étant un mélange de rééditions de ' et des créations originales ; c'est notamment le cas de Hibari shobō et de Rippū shobō qui proposent d'importantes collections dédiées à l'horreur typées '. Mais ces maisons d'éditions disparaissent à la fin des années 1980 car elles sont remplacées par des magazines ' dédiées au genre. Le ' d'Asahi Sonorama ouvre la marche en 1986, rapidement suivit par d'autres titres chez des concurrents. Mais les titres publiés chez les anciens éditeurs de ' ou dans les magazines spécialisés vont beaucoup plus loin dans le gore et le grotesque que leurs pendants horrifiques des magazines « " ». Ceci attire les foudres du grand public et des associations montent des procès contre des magazines, notamment sous la charge de . Quant à lui, le genre du ' manga érotique ou de voit jour dans les années 1990 sous le nom de '. Construits exactement sur le même schéma que les ' érotiques ou pornographiques, la seule différence avec ces derniers consiste en l'âge des protagonistes, âgés d'environs . Les magazines ' se multiplient chez les petits éditeurs avec par exemple le ' chez Issuisha ou le ' chez Takeshobo, quand l'éditeur Ohzora Publishing développe une large collection de titres en plus de ses magazines '. Les éditeurs grand public s'emparent eux aussi du genre en allégeant le contenu. Par exemple des titres ' commencent à apparaître dans le ' de Kōdansha ou dans la majorité des magazines ' de Shōgakukan. Dans les années 2000, cette scène plus « ' » du ' manga abandonne en bonne partie le format papier pour se tourner vers internet avec l'essor du téléphone mobile au Japon. Lors de la même décennie, un mouvement politique de censure des mangas cherche à bannir le contenu sexuel (viol, inceste, pédophilie) des mangas destinés aux adolescents, ce qui affecte entre autres les magazines de ' mangas qui s'engagent dans le ', les contraignant à se réorienter vers un public adulte ou à contrôler strictement leur contenu. Restructurations et cross-média. Dans les années 2000, les éditeurs de mangas féminins doivent faire face à plusieurs tendances : le ' perd en popularité, les filles préfèrent de plus en plus les séries ' aux autres formes de divertissement, et le marché du manga fait face à un ralentissement généralisé. Les premières réactions viennent des principaux éditeurs de " mangas qui se lancent dans la restructuration de leurs magazines et de leurs collections ainsi que dans le lancement de nouveaux magazines ; la plupart de ces lancements sont des échecs et seul Shōgakukan parvient à pérenniser quelques titres. En 2008, la maison d'édition Fusōsha, qui est jusqu'à présent absente du marché manga, lance en grande pompe le magazine "Malika". La revue se montre particulièrement avant-gardiste ; en plus de publier des mangas d'autrices de renom, le magazine fait intervenir dans ses pages de nombreuses célébrités, parfois étrangères, provenant des milieux médiatiques, de l'illustration et du design et il fonctionne en binôme avec un site web qui propose musiques et histoires complémentaires. Le magazine est un véritable échec et est interrompu après seulement six numéros, mais il illustre une nouvelle tendance dans le "" : le marketing cross-média, où les œuvres sont déclinent sur plusieurs médias en même temps. Les premiers succès dans cette démarche sont les mangas "Nana" de Ai Yazawa, ' d'Aya Nakahara et ' de Tomoko Ninomiya, qui sont déclinés en films, séries ' et animes, jeux vidéo et de nombreux CD de musique. Cependant que d'anciens succès du ' manga, comme "Les Attaquantes" ou "", reçoivent eux-aussi des adaptations dans le but de les relancer. Le ' dans le ' manga. Lors de la décennie 2000, les magazines ' de Kadokawa Shoten et ' d'Akita Shoten, réputés pour leur ligne éditoriale variée qui met en avant des genres comme la fantasy ou la science-fiction, voient de nouveaux concurrents émerger : ' en 2002 chez Ichijinsha, "Sylph" en 2006 chez ASCII Media Works, ' en 2007 chez Mag Garden ou encore "Aria" en 2010 chez Kōdansha. Ces magazines ciblent ouvertement une audience ' (les fans de mangas et d'anime) et plus particulièrement les ' et ' (les fans de ') en proposant une esthétique proche des codes de l'anime, de très nombreux personnages ' dans des univers fantastiques, et se jouent volontairement des codes du ' manga. Ces titres suivent ainsi les canons du ', une forme de mignon qui cherche à faire fantasmer et exciter l'audience, ce qui diffère du ', un mignon enfantin et innocent, typique du " manga. Une autre forme de ' voit le jour dans des magazines de avec des titres comme ' en 2004 chez Futabasha ou ' en 2007 chez Hōbunsha. Outre leur concept antinomique de publier des « mangas pour filles pour garçons », ces magazines jouent sur une esthétique à la fois ' et " pour tenter d'attirer leur lectorat masculin. Analyse stylistique. Généralités. De l'avant-guerre jusqu'aux années 1950, le ' manga, essentiellement écrit et dessiné par des hommes, possède un style similaire à celui des ' mangas, destinés aux garçons. Ainsi pendant l'avant-guerre, les mangakas étaient essentiellement influencés par le style moderniste de George McManus, tandis que dans les années 1940 et 1950 le style très dynamique d'Osamu Tezuka s'impose comme référence. Le ' manga hérite bien entendu d'une partie de leurs codes, mais son style, qui se développe réellement à partir des années 1960, est essentiellement dérivé de celui du ' d'avant-guerre. Le ' est caractérisé par une prose au style qui explore les émotions et le monde intérieur de ses protagonistes. La narration est typiquement ponctuée de nombreux éléments non-verbaux pour exprimer les sentiments des protagonistes ; par exemple Nobuko Yoshiya, cheffe de fil des écrivains ', utilise intensivement des éléments tels que des double points de suspension « …… », des points d'exclamations « ! » ainsi que des tirets « — » en plein milieu des phrases, ces dernières étant par ailleurs distribuées sur la page tels des vers de poésie. Cette prose est accompagnée de très nombreuses illustrations de peintres lyriques. La peinture lyrique mélange Art nouveau et ' et est caractérisée par un style sentimental et une représentation de ' particulièrement bien habillées avec de grands yeux très détaillés, qui possèdent des rehauts en forme d'étoile par exemple. Jun'ichi Nakahara, l'artiste qui possède la plus grande influence sur le ' manga, confectionne aussi des poupées françaises. Il dépeint ainsi ses ' avec le corps fin et les grands yeux caractéristiques à ces poupées. Ce style, à la fois littéraire et pictural, commence à refaçonner le ' manga dans la seconde moitié des années 1950 ; il est généralement considéré que Macoto Takahashi, à la fois peintre lyrique et mangaka, est le premier à utiliser ces nouveaux codes dans ses ' mangas. Ce style est rapidement reprit par ses contemporains et la nouvelle génération d'autrices des années 1960 et surtout du début des années 1970 avec le groupe de l'an 24 l'enrichissent énormément. Ainsi si le ' manga alterne dialogue et scènes d'action les ' sont des œuvres dans lesquelles l'expression des sentiments et des émotions ont une place bien plus importante. Pour cela, les autrices agrandissent encore plus les yeux qui permettent, selon la façon dont ils sont dessinés, de mieux faire saisir l'état émotionnel du personnage. Mise en page. L'utilisation du cadre des cases est plus libre et originale dans les ' que dans les ' des années 1970. Alors que les premiers "" d'après-guerre gardaient l'usage classique des cadres, les autrices délaissent ce système pour une mise en page moins contrainte évoquant une cascade. Les cases s'enchaînent de telle façon que le passage de l'une à l'autre est des plus fluides. Cette rupture avec le modèle qu'Osamu Tezuka proposait permet, selon la critique Mizuki Takahashi de mieux s'attacher au texte. Ce dernier est d'ailleurs aussi travaillé grâce aux polices de caractère et à la disposition des dialogues, qui peuvent sortir des phylactères pour exprimer les sentiments des personnages surtout lorsqu'il s'agit de leurs pensées et de leurs souvenirs. Les mangakas abandonnent donc dans les années 1970 la succession linéaire des cases pour une construction générale de la page. Selon l'autrice Fusanosuke Natsume, les artistes usent beaucoup de l' (') et de la (') des cases sur la planche. La première technique consiste à insérer des cases se rapportant à un élément entre d'autres qui traitent d'un autre objet. L'exemple donné par Natsume vient d'une page du manga "(Watashi ni yasashii yoru" dans laquelle trois images d'une jeune fille qui danse entourent une autre image qui est liée aux souvenirs du personnage. La seconde technique consiste à superposer des cases de tailles différentes de telle façon que la lecture et le flux temporel du récit soient hésitants. La construction même de la page a du sens en permettant la saisie instantanée du moment. Les mangakas disposent de bien d'autres techniques de mise en page pour s'exprimer. La succession de cases classique est abandonnée. Cela permet ainsi un travail sur la temporalité. L'intervalle entre les cases varie, un même moment est vu sous différents angles mais les cases restent liées. Il n'est pas rare non plus que le cadre n'existe plus : le personnage est présenté de face sans décors permettant au lecteur de mieux saisir les sentiments de celui-ci. Le vide devient alors un élément du discours au même titre que l'est le dessin et ce afin de donner un rythme particulier au récit. Ainsi, la composition de la page des " se distingue de celle des autres genres en permettant un jeu sur le temps du récit, une plus grande liberté dans la lecture et en utilisant la page même comme élément signifiant. Depuis, les autres genres ont repris ces codes propres à l'origine aux . Keiko Takemiya, mangaka devenue universitaire, explique que le " manga a pu développer un style si différent du reste de la production manga de l'époque car il était à l'époque marginal et négligé. Aussi les éditeurs laissaient les mangakas dessiner leurs histoires de la façon dont elles le voulaient, dès lors que la réponse du lectorat restait positive. Depuis ces expérimentations, qui sont devenues des éléments classiques des ' mangas, ont essaimé et même dans des ' mangas, il arrive que les yeux servent à y exprimer plus vivement les sentiments des personnages et que les cadres y enserrent moins les personnages. Les grands yeux du " manga. Le ' manga est réputé pour ses , aussi nommés ', qui servent à exprimer les sentiments et émotions des personnages. De grands yeux ont été dessinés dans le manga tout au long de la première moitié du , notamment chez Osamu Tezuka, qui s'est inspiré du maquillage des actrices de la revue Takarazuka pour concevoir les siens. Une grande étoile centrale, qui remplace l'habituel point pour la pupille commence à apparaître lors de moments clés de l'histoire dans les " mangas de Tezuka ou de Shōtarō Ishinomori vers le milieu des années 1950, mais ces yeux restent noirs et , c'est-à-dire émotionnellement superficiels. Au même moment dans les " mangas, l'esthétique des peintures de Jun'ichi Nakahara influence grandement les mangakas, notamment Macoto Takahashi qui cite Nakahara comme sa principale influence artistique. Il reprend les grands yeux de poupée de Nakahara, avec ses nombreux rehauts et longs cils, et expérimente avec pendant quelques années avant de fixer son style d'yeux, combinant plusieurs points et étoiles avec des nuances de couleurs pour l'iris. Tout à la fin des années 1950, Miyako Maki, une des mangakas les plus populaires de l'époque reprend ce style d'yeux, qui se diffuse alors très rapidement dans les mangas de magazine. À partir de ce point, les expérimentations sur les yeux fleurissent dans le " manga, avec par exemple des jeux d'ombres ou de cils, l'apparition de cercles concentriques de différentes teintes ou encore des déformations de l'iris, pour par exemple donner un effet scintillant aux yeux. Cette volonté de détailler les yeux à l'extrême pousse les mangakas à cadrer leur cases sur de gros plans de visages, pour s'assurer que ce que dit le visage et surtout les yeux des protagonistes soit bien lisible pour le lectorat. Enfin, les yeux servent de marqueurs d'identification et de genre : la ou le protagoniste possède le plus souvent les yeux les plus grands afin que le lectorat puisse plus facilement s'identifier au personnage, cependant que les personnages féminins possèdent typiquement de plus grands yeux que les personnages masculins. Principaux thèmes. Relations humaines. L'un des concepts les plus développés dans les ' mangas est celui du ', des relations humaines. L'expression recouvre aussi bien les relations sociales entre individus, que les interactions de leurs émotions. Ces émotions sont donc centrales dans la plupart des " mangas, particulièrement celles de l'amitié, de l'affection et de l'amour. La narration des œuvres est ainsi tournée vers le monde intérieur des protagonistes, où les émotions, sentiments, souvenirs et monologues intérieurs sont exprimés au travers de techniques visuelles idoines, notamment sur les yeux et l'agencement des cases. Lorsque les personnages se confrontent, le mode d'échange privilégié est le dialogue, et non le combat comme dans les ". Dans les deux cas, que ce soit une réflexion d'un personnage ou une discussion, la mise en page, comparée par Rachel Thorn a une , exprime la force des sentiments. Yukari Fujimoto considère ainsi que le contenu des " mangas a grandement évolué au fil du temps, car ils suivent l'évolution de la société japonaise, que ce soit sur la place des femmes, le rôle de la famille et les relations amoureuses. Fujimoto constate ainsi que dans les drames familiaux des années 1960, les liens de sang mère-fille étaient primordiaux, avant de perdre en importance dû aux remariages qui deviennent de plus en plus communs à partir des années 1970, tandis que la figure paternelle commencent à avoir une importance à partir des années 1990. Toutefois depuis les années 1970, alors que les ' quittent de plus en plus le monde de l'enfance pour entrer dans celui de l'adolescence, les relations amoureuses deviennent en général plus importantes que les relations familiales ; celles-ci sont le plus souvent de nature hétérosexuelle bien que l'homosexualité ait aussi sa place dans la production des '. Genre et sexualité. Dès ses origines le ' manga propose une certaine ambiguïté sur le genre et la sexualité, il s'agit d'un motif récurrent dans l'histoire du genre. Ainsi les protagonistes garçons manqués, dits ' apparaissent régulièrement dans les " mangas d'avant-guerre. Il existe deux principales évolutions de l' avec la « fille guerrière », que l'on retrouve par exemple dans le manga de Katsuji Matsumoto en 1934, où l'héroïne prend les armes pour affronter un groupe de brigands qui pillent son village, et celle la « fille travestie » avec par exemple d'Eisuke Ishida en 1951, où une princesse est éduquée comme un prince. Le manga "Princesse Saphir" d'Osamu Tezuka, publié en 1953, rassemble ces deux archétypes en un seul, avec une princesse élevée comme un prince qui affronte ses adversaires à l'épée. L'archétype de l' se développe tout particulièrement après la guerre ; le critique Yoshihiro Yonezawa explique ainsi que ce mode de vie y est plus accepté, que l'égalité des sexes, introduit dans la constitution en 1947, devient une réalité et les mangakas inscrivent dans leurs œuvres cette évolution du statut des femmes au Japon. À partir de la fin des années 1960, l'évocation de la sexualité qu'elle soit hétéro ou homosexuelle se libère. La représentation dessinée s'explique en partie par un respect littéral du code de la censure. En effet, il est strictement interdit de représenter les poils pubiens ou un pénis mais tant que les personnages sont couverts d'un drap et quoi que le récit montre sous celui-ci, les auteurs sont libres. Ainsi, les autrices de ' vont pouvoir proposer des récits sexualisés, bien loin de ce qui se trouvait dans les ' mangas des origines. L'évolution de la représentation de personnages féminins va de pair avec la féminisation du métier d'auteur de ' et le lectorat. Le ' est pensé pour plaire aux jeunes filles. À partir des années 1960, les femmes remplacent les hommes pour réaliser des ' alors que ceux-ci se consacrent aux ', dans l'idée que pour comprendre ce que veulent les lectrices, des autrices sont le mieux placées. Cela entraîne que depuis le débuts des années 1970, les " sont quasi-exclusivement écrits par des femmes. Homosexualité. Homosexualité masculine. Bien que cela soit minoritaire, les histoires d'amour entre hommes, nommées ' sont présentes dans les '. Celles-ci obéissent à des codes qui en font plus des fantasmes que des représentations de la réalité. Les personnages ont des traits féminins (longs cheveux, grands yeux qui brillent) qui en font des êtres androgynes, des ", tandis que les lieux et les époques sont le plus souvent éloignés du Japon contemporain. Le japonologue Mark McLelland explique cela par la place accordée aux femmes dans la société japonaise qui se résumerait à celles de la mère ou de la prostituée. La sexualité féminine est niée et les femmes sont destinées à être soumises aux hommes. Les histoires d'amour entre hommes seraient donc une échappatoire à cette fatalité. Cela est renforcé par le fait que ces hommes ont de nombreux traits, physiques mais aussi psychologiques, associés aux femmes. Il est ainsi symptomatique que dans des récits, dans lesquels la représentation de la sexualité est plus explicite, ces beaux jeunes hommes peuvent être victimes des violences sexuelles telles que peuvent les subir les lectrices. Ainsi les jeunes femmes se projetteraient dans ces beaux jeunes hommes androgynes qui peuvent être aimés par un homme et appréciés comme un égal. McLelland cite Ian Buruma : et ces récits d'amours homosexuelles, qui sont aussi un jeu sur le genre, le permettraient. Un dernier élément complète ce jeu lorsque les autrices de ces mangas signent leurs œuvres en employant des termes ou des caractères mêlant le masculin et le féminin. Lesbianisme. Fraser et Monden dans leur article ' remarquent la propension des critiques à s'attarder sur les mangas qui questionnent le genre. Cela est d'autant plus vrai que le groupe de l'An 24, par la qualité de leurs œuvres met dans l'ombre toute une production plus conventionnelle jugée dès lors plus superficielle. Or, il existe une importante production de ' qui répondent aux rêves des adolescentes. Ainsi, dans les années 1950, les mangas dont le thème était la danse classique sont à la mode et dans les années 1970 et 1980 les contes de fées sont très présents. Surtout l'un des genres les plus prisés depuis les années 1980 est celui du drame romantique avec des lycéennes comme protagonistes. Cette importance de la relation hétérosexuelle, qui est représentatif de la majorité des lectrices, fait que l'homosexualité féminine est très rarement abordée dans les ". Yukari Fujimoto explique cela en développant l'idée que le lesbianisme apporte trop de réalité. Dès les années 1970, il existe quelques mangas dont les personnages principaux apparaissent comme lesbiennes, mais cet amour se résout fréquemment par une révélation que les deux femmes sont en fait sœurs et surtout la fin est quasiment toujours tragique. Les années 1980 ne sont guère mieux loties. Ainsi, l'amour entre deux femmes est voué au malheur. Fujimoto y voit une peur de la sexualité de la part des lectrices et de ce qu'elles sont. Pour se réaliser en tant que femme, l'hétérosexualité est la seule voie. Les héroïnes suivent le modèle de la princesse qui attend son prince charmant, désir partagé par les lectrices qui sont encouragées par ces mangas à ainsi se soumettre au modèle dominant. Enfin, cela correspond à une invisibilisation de l'homosexualité féminine, encore plus importante que la masculine, dans la société japonaise. Surnaturel. Le ' manga propose de nombreuses œuvres qui versent dans le surnaturel, l'étrange et l'horreur, avec des histoires de ' (fantôme), ' (démon) et ' (esprit) construites autour des légendes urbaines et du folklore japonais. Ces œuvres développent un univers féminin, où les principaux protagonistes (monstres, victimes, personnages principaux) sont typiquement des femmes ou des '. Ainsi ces œuvres permettent au lectorat féminin d'explorer librement leurs sentiments les plus sombres comme la jalousie, la colère, leurs peurs ou leurs frustrations, qui transpirent moins dans les œuvres généralement plus mignonnes ou dramatiques du ' manga grand public. L'un des principaux motifs de ces histoires est le conflit mère-fille ainsi que la peur ou le rejet de la maternité : des mères qui prennent l'apparence de démons ou de fantôme maléfiques, des filles qui se transforment elles-mêmes en démons à l'image de leur mère, des grossesses impies qui résultent de viols incestueux, des mères jalouses de leur fille ou des filles qui se sentent oppressées par leur mère perdent la raison et tuent l'autre. Pour expliquer un tel motif, plusieurs auteurs d'horreur, comme Kazuo Umezu ou Ryōko Yamagishi, soulignent qu'au Japon les mères ont tendance à considérer que leur fille est leur possession absolue et leur imposent tout ce qu'elles n'ont pu accomplir dans leur vie, ce qui selon l'universitaire en lettres japonaises Hiromi Tsuchiya Dollase provoque un vif rejet chez certaines filles, qui se retrouvent alors écartelées entre une recherche d'amour maternel et une volonté de ne surtout pas devenir elles-mêmes mère. Un autre motif particulièrement présent dans ces mangas horrifiques ou fantastiques est celui de la pression sociale ou de l'oppression qui a lieu dans la société japonaise patriarcale ; elles s'incarnent le plus souvent sous la forme d'un fantôme vengeur ou d'une malédiction qui cible de façon indiscriminée tout membre d'un groupe social (clan familial, classe d'école) ; l'origine du fantôme ou de la malédiction provient par exemple d'une fille ou d'une femme sacrifiée par un seigneur de guerre médiéval ou encore d'une victime d' (harcèlement). La protagoniste est souvent dotée de pouvoirs surnaturels et agit ainsi telle une (une chamane de la religion ) ; bien que traquée, elle lève généralement la malédiction en montrant de la compassion pour le fantôme, plutôt qu'en essayant de le détruire. Enfin les légendes urbaines japonaises, qui se sont particulièrement développées lors des années 1970 irriguent beaucoup d'histoires, où l'horreur peut toucher tout le monde indistinctement à partir de rumeurs et autres phénomènes viraux populaires parmi les collégiennes et lycéennes japonaises. Ce monde est peuplé de " particulièrement graphiques, avec par exemple (la femme défigurée), (le fantôme des toilettes des filles) ou encore (la femme découpée en deux). Beauté et mode. Historique. Selon la mangaka Sakumi Yoshino le ' manga donne une grande importance aux tenues vestimentaires de ses personnages, et par extension à la mode. La relation entre la culture ' et la mode s'est constituée dès l'apparition des magazines ' lors de l'avant-guerre, où des peintres lyriques, comme Jun'ichi Nakahara, vont jusqu'à proposer des catalogues de modes à l'intérieur des magazines, avec des instructions pour confectionner soi-même les vêtements représentés. Avec l'accroissement du nombre de mangas dans les magazines d'après-guerre, les mangakas remplacent les peintres dans cette fonction : Macoto Takahashi insère ainsi des "-" dans ses mangas, il s'agit d'illustrations non-narratives qui servent entre-autres choses de gravures de mode. Les "-" se propagent dans les mangas lors des années 1960 et de nombreuses dessinatrices, comme Eiko Hanamura ou Yukiko Tani, deviennent connues pour leur design de vêtements. Miyako Maki sort tout particulièrement du lot : les vêtements que porte l'héroïne de ' dans les "-" sont offerts comme cadeaux de jeux concours ; ses designs servent aussi de matériel de base pour la création de la célèbre poupée en 1967. À partir des années 1970 le shopping remplace la confection de vêtement chez les adolescentes ; les ' mangas suivent cette tendance avec l'apparition d'histoires centrées sur le parcours professionnels de designers de vêtements, cependant que les mangas de la tendance ' insistent particulièrement sur une mode ' inspirée du style de la ; les magazines de mode féminine tels quan an" ou "Olive" reprennent dès lors cette esthétique "". À partir des années 1980 les magazines de mode féminine commencent par ailleurs à publier leurs propres "" mangas, avec par exemple des œuvres comme de Kyōko Okazaki ou de Moyoco Anno dans le ou encore d'Ai Yazawa et "★Rendez-vous" de George Asakura dans le ; ces mangas remettent en avant le des décennies précédentes. En parallèle de l'émergence des magazines de modes, la pratique du cosplay et la culture otaku se propagent. Des ' mangas s'emparent du phénomène et habillent leurs protagonistes avec des vêtements à forte valeur symbolique, destinés à être cosplayés. C'est typiquement des œuvres appartenant au genre de la ' avec par exemple les mangas ou ". Le secteur de la haute couture s'intéresse au sujet à partir des années 2000, avec des défilés de modes ayant pour thème le ' manga, ou encore avec l'apparition de gammes de robes de mariée basées sur des costumes de franchises ' populaires comme . Une mode ". Des chercheuses comme Masuko Honda ou Masafumi Monden constatent une continuité dans la mode proposée par les ' mangas et médias associés quel que soit les époques. Ainsi l'on retrouve des caractéristiques communes entre les designs d'avant-guerre de Jun'ichi Nakahara, les ' mangas, les magazines de mode des années 1980 et 1990 comme "Olive" ou encore des marques de vêtements des années 2000 qui se réclament du " comme . Honda décrit ainsi l'esthétique comme ", c'est-à-dire plein d'accessoires et de vêtements qui volent au vent, comme les rubans, les frous-frous ou les jupes, constituant une mode particulièrement féminine, enfantine et volontairement peu pratique. Cette mode se distingue d'autres modes féminines par le fait qu'elle n'est ni sexualisée ni modeste, elle est au contraire voyante, enfantine et mignonne et couvre les formes du corps. Monden note par ailleurs deux inspirations majeures, avec d'une part la mode victorienne pour filles, incarnée par la figure d'Alice des "Aventures d'Alice au pays des merveilles" qui est souvent invoquée par les mangas, magazines et les marques, ainsi que le style du ballet romantique avec son tutu. Une communauté "". Relation entre les lectrices et les éditeurs. Les mangas, au Japon, sont publiés dans des magazines avant de l'être en livre. Ces magazines doivent donc proposer des séries qui plaisent mais aussi faire en sorte que les lectrices achètent régulièrement le magazine. Pour cela d'autres rubriques se retrouvent dans les magazines afin de faire participer les lectrices et de créer une communauté. Cela est particulièrement le cas dans les magazines qui s'adressent aux plus jeunes. Ceux-ci, nommés ' sont le plus souvent les premiers magazines de manga lus et proposent en plus des pages consacrées à la bande dessinée des pages sur les animes, les jeux vidéo, les jouets, des jeux, des sondages, un courrier des lecteurs. Grâce à cette interaction, les éditeurs espèrent tenir captives les jeunes lectrices, dont l'âge moyen est de dix ans et les amener lorsqu'elles grandissent à acheter d'autres magazines édités par leurs soins. Si ces techniques marketing sont particulièrement développées dans les ' pour les plus jeunes, on les retrouve encore quelque peu dans les ', les magazines ' qui s'adressent aux plus âgées. Les lectrices peuvent donner leur avis sur les séries en cours grâce au courrier des lecteurs et à des sondages. Fort de ces informations, les éditeurs adaptent les séries les plus populaires en animé. Il n'est pas rare qu'ensuite des jeux vidéo, des jouets et d'autres produits dérivés soient proposés. Cela n'est pas propre aux " mais il semble que cela soit ici plus systématique. Suppléments. Une autre façon d'attirer les jeunes lectrices et d'éviter que les magazines soient lus par plusieurs consiste à ajouter des suppléments à la revue. Ceux-ci, qui sont souvent plusieurs, sont mis dans un plastique attaché au magazine et peuvent être des autocollants, des posters, des stylos décorés avec des dessins des ' mangas. Le plaisir de lire les ' se double de celui de posséder ces petits objets mignons. Ceux-ci par ailleurs servent à assurer la notoriété des séries utilisées pour les décorer. Ainsi les lectrices potentielles sont encouragées à acheter leur propre exemplaire du magazine pour avoir les mêmes gadgets que leurs amies.<br> Jusqu'en 2002, ces objets étaient en papier ou en carton mais depuis cette date le plastique voire le métal sont aussi utilisés. Le but était toujours d'attirer par cette nouveauté les lectrices et le faible coût de ces suppléments fabriqués en Chine n'entraînait pas de hausse des prix. Vente par correspondance. Les suppléments ne sont le seul moyen d'avoir des objets en lien avec les bandes dessinées gratuitement. Les lectrices peuvent aussi en commander par correspondance grâce à des coupons à découper dans le magazine (les photocopies sont interdites). Ce système n'est pas propre aux " mais c'est pour ce genre de magazines qu'il est le plus présent. Le nombre de ces objets est moindre que celui des suppléments mais lors de périodes particulières (vacances d'été ou fêtes de fin d'année) ils sont plus nombreux. Ils sont gratuits et pour les obtenir il suffit d'envoyer le coupon à l'éditeur avec une somme comprise entre 400 et 800 yens pour couvrir les frais d'envoi variables selon le produit. Il peut arriver qu'il faille deux coupons disponibles dans deux numéros du magazine. Le but de cette vente par correspondance est le même que celui des suppléments, la différence venant surtout de la taille des objets proposés qui ne peuvent tenir dans une pochette attachée au magazine. Cette vente par correspondance fonctionne très bien puisque au début des années 2010, le nombre de coupons renvoyés varie entre 80 et chaque mois. Sondages primés. Pour connaître l'avis des lecteurs sur les séries publiées, et cela est valable aussi pour les autres genres de mangas, les éditeurs proposent des questionnaires. Les ", et particulièrement ceux destinés aux plus jeunes, sont ceux qui amènent le plus de réponses. L'intérêt pour la lectrice n'est pas seulement de donner son avis mais aussi de pouvoir gagner un prix. En effet, les premières réponses sont récompensées par un objet qui peut aller des autocollants à un lecteur de CD. Grâce à ces sondages, les éditeurs peuvent faire évoluer les récits, mettre en avant un personnage secondaire ou au contraire cesser une série qui ne serait pas assez populaire. Cela leur permet aussi de savoir quels personnages ou quelles séries peuvent être adaptés en dessin animé ou en produit dérivé. Courriers et rencontres. En plus des réponses aux sondages, les lettres des lectrices sont aussi un moyen pour d'une part connaître leurs attentes et pour développer le sentiment d'appartenir à une communauté. Ces courriers adressés aux autrices sont d'abord lus par les éditeurs ; les mangakas en prenant connaissance de ces lettres voient ce qui plaît le plus et, comme les lectrices parlent aussi de leurs vies, elles peuvent aussi avoir une image de leur vie quotidienne. Certaines de ces lettres sont publiées dans les magazines dans des pages réservées aux lecteurs. On y trouve aussi des dessins, des anecdotes de lectrices ou de mangakas, des questions posées aux autrices ; tout cela mis ensemble renforce les liens entre les deux mondes. Enfin, des rencontres avec les autrices ou du moins des visites de la société éditrice sont régulièrement programmées. Elles peuvent être organisées par l'éditeur qui sélectionne une centaine de lectrices pour les faire venir durant les vacances ou être programmées par des écoles qui font un voyage scolaire à Tokyo car une visite d'un éditeur de manga est souvent prévue. C'est une autre façon pour les éditeurs de connaître les goûts des potentiels lecteurs. Fabrique des autrices. Les éditeurs de mangas misent sur les lecteurs pour découvrir de nouveaux talents. Ceux-ci sont invités à envoyer leurs mangas aux écoles du manga des magazines pour des auteurs ou des éditeurs apportent leurs conseils. Ce système n'est pas propre au ", mais cette façon de trouver les personnes qui travailleront demain pour le magazine tire son origine des magazines pour filles d'avant-guerre pour lesquels les lectrices étaient invitées à envoyer des romans ou des nouvelles. Dans les maisons d'édition de ' mangas, ce système est développé pour que dès le plus jeune âge dans les magazines ' les lectrices participent et qu'ainsi, lorsqu'elles sont adultes elles soient des autrices pour les magazines qu'elles lisaient plus jeunes, cependant que pour les magazines "", il est fréquent que les autrices et lectrices soient exactement de la même génération, les premières dessinant des œuvres qu'elles veulent elles-mêmes lire plutôt que d'essayer d'imaginer ce qui pourrait plaire à leur audience. Ainsi, les autrices sont d'anciennes lectrices et la distance entre les deux s'amenuisent, renforçant le sentiment de communauté. Réception à l'étranger. En France. Le ' apparaît dès les années 1970 en France. C'est en premier lieu l'adaptation de "Prince Saphir" qui est diffusée à la télévision qui donne un avant-goût du genre en 1974. Puis en 1978 l'adaptation de "Candy Candy" est aussi proposée à l'écran avant qu'en 1982 il soit le premier ' publié -partiellement- en France. Suivent la diffusion de plusieurs séries inspirées de shojo avant que ceux-ci soient traduits en français. Ainsi au début des années 1990, sont publiés "Sailor Moon" de Naoko Takeuchi et des œuvres de CLAMP. Le succès aidant, le nombre de ' publié augmente et la catégorisation de ces mangas s'impose avec cependant des variantes avec la catégorie originelle japonaise. En effet, dans les deux pays les ' s'adressent à un public féminin et ce sont les éditeurs qui, en fonction de ce qu'ils imaginent être les attentes de ce lectorat, font vivre cette catégorie. Comme les représentations de ce qu'est le public féminin changent d'un pays à l'autre des mangas peuvent passer d'un genre à l'autre : des ' japonais deviendront des ' en France et inversement. Ainsi "En Scène !" de Cuvie est un seinen au Japon et un shojo en France ; le milieu dans lequel se déroule l'intrigue, à savoir la danse, étant la cause de ce changement. À l'inverse "Le Requiem du roi des roses" d’Aya Kanno est un ' à l'origine mais publié dans une collection ' en France.. Le choix de la publication d'un manga dans une collection destinée aux ' ressort donc de préjugés sexistes dont le plus important est la place accordée aux histoires d'amour. Ce faisant, l'image des ' en France est appauvrie par rapport à celle qui existe au Japon et des mangas japonais destinés aux jeunes femmes mais sortant de cette thématique ne peuvent trouver le public féminin. |
Septoriose du blé La septoriose du blé est une maladie fongique due principalement à "Septoria tritici" et "Septoria nodorum", qui affecte le blé et d'autres espèces du genre "Triticum" et se rencontre dans toutes les zones de culture du blé à travers le monde. Elle peut causer des pertes de rendement de plus de 40 %. Elle touche également d'autres cultures. Les épidémies peuvent être très dommageables du fait de leur développement exponentiel. Biologie. Ces deux champignons appartiennent aux Ascomycètes mais sont très différents sur le plan biologique et morphologique. "Stagonospora nodorum", qui était dominant sur blé en France au début des années 1980, a été supplanté par "Septoria tritici". Les périthèces formés sur résidus de culture libèrent à l'automne des ascospores responsables des contaminations primaires. Les pycnospores libérées en présence d'humidité constituent ensuite le moteur de l'épidémie. Elles requièrent de l'eau libre pour germer. La phase d'incubation (apparition des premiers symptômes et des pycnides) dans les tissus de blé est relativement longue (15 à 21 jours). Concrètement, chaque pycnospore peut être à l'origine d'une nouvelle lésion. Or, il y a en moyenne 1000 pycnospores par pycnide, 40 pycnides par lésion et de 3 à 4 lésions par feuille en cas de forte attaque. On peut donc estimer le nombre de pycnospores potentiellement infectieuses produites par chaque plante contaminée à environ 250 000. Symptômes. Les symptômes engendrés par "Septoria tritici" sont observables dès la fin de l'automne et durant tout l'hiver sur les feuilles de blé. Les principaux organes atteints sont les feuilles, les nœuds et les épis. Les semences contaminées sont à l'origine de « manque à la levée » et de fonte des semis. Les jeunes plantules attaquées sont souvent de taille réduite, mais les racines ne présentent aucune pourriture. L'aspect des taches est assez diversifié, celles-ci débutent souvent par un pâlissement du limbe évoluant en une coloration brunâtre. La présence de minuscules ponctuations noires, les pycnides, permet de distinguer "Septoria tritici". Le symptôme typique de "Septoria nodorum" est la présence sur les feuilles de taches brun clair nécrosées au centre en losange et bordées d'une chlorose ou d'un jaunissement. "Septoria nodorum" peut aussi provoquer des symptômes sur les gaines ou les épis (nécrose brune) et contaminer les semences. Dégâts. La septoriose attaque principalement le blé de la germination à la maturité. On peut obtenir une réduction de rendement allant jusqu'à 45 % lorsque l'épi est attaqué, et 55 % lorsque la partie foliaire d'une plante est touchée dans son ensemble (dernière feuille : 35 %, avant dernière feuille : 10 %, troisième feuille : 10 %). Conditions favorisantes. La principale forme d'hibernation est celle se passant sur des restes de plantes et sur les plantules du froment d'hiver. Avec les hivers doux, il peut y avoir multiplication et propagation. Le champignon se manifeste de façon massive après un printemps humide, combiné à 15 jours de temps humide au moment de l'épiaison. La propagation des spores se fait au moyen des éclaboussures de pluie et du frottement des feuilles les unes contre les autres. Des gouttelettes contenant des spores peuvent être disséminées par le vent. L'infection peut également être dispersée via la paille et les semences contaminées. Une forte humidité pendant une à quatre heures (selon la température) suffit pour assurer l'infection. En revanche, de trop fortes pluies lessivent les spores. "Septoria tritici" se développe à des températures plus froides que "Septoria nodorum". Les souches de septorioses varient dans leur pouvoir pathogène. Prévention et lutte contre les septorioses. Le risque de contamination peut être réduit en gardant une large rotation de cultures, en enfouissant profondément les restes végétaux et en ne laissant aucune chance de développement aux repousses et aux adventices. Un semis peu profond diminue également le risque d'infection. L’utilisation de variétés de blés améliorées pour leur résistance au champignon "Zymoseptoria tritici"responsable de la septoriose contribue à la lutte contre cette maladie. Les régulateurs de croissance doivent être utilisés de sorte que le raccourcissement des tiges soit minime. Il augmente en effet le risque d'attaque. La fumure azotée doit de préférence être fractionnée. L'important est que les deux feuilles supérieures soient préservées de l'infection. En raison d'une phase d'incubation relativement longue (15 à 21 jours), il est très difficile de lutter en préventif strict contre ces agents pathogènes, à moins de faire appel aux outils de diagnostic, tels que les tests sérologiques ou moléculaires ou des outils d'aide à la décision basés sur des données agronomiques, de sensibilités variétales et des données météo. Le diagnostic visuel est très difficile au stade 8-9, et au-delà de ce stade des confusions sont possibles avec d'autres maladies. À l'heure actuelle, la lutte chimique est le seul moyen permettant de lutter efficacement contre cette maladie, car elle seule semble permettre de stopper l'extension des épidémies. Les deux agents de la septoriose ont une sensibilité différente aux fongicides. Un traitement dès la montaison permet de limiter les attaques foliaires et de retarder les risques avant le traitement d'épiaison. En raison de la durée d'incubation très longue du champignon et des cycles d'infection successifs qui se superposent au cours d'une campagne, la stratégie fongicide visera à enrayer la poursuite d'une épidémie (effet curatif) tout en empêchant la contamination des nouveaux étages foliaires (effet préventif). Dans le cadre de lutte fongicide, cela consiste à pratiquer un suivi des populations pathogènes, en fonction de leur sensibilité et de leur résistance à un fongicide donné Seuil d'intervention : 15 % de symptômes sur la (F3). Dans des itinéraires de protection intégrée, le passage de fongicide est reculé jusqu'au stade « dernière feuille étalée » ce qui permet de protéger les deux dernières feuilles, essentielles pour le rendement. Dans ce cas, on utilise souvent une Triazole à 1/2 ou 1/3 de dose en fonction de la pression de la maladie et de la météo à venir. Par ailleurs, la protection fongicide est un poste d'investissement important, il mérite donc d'être raisonné. Outre la connaissance des produits proposés sur le marché, et le temps passé à l'observation des parcelles, la protection fongicide nécessite la prise en compte de plusieurs paramètres : région, variété, conditions agronomiques de la parcelle et climat de l'année. Les fongicides doivent impérativement être bien positionnés, afin de bénéficier de la meilleure persistance d'action. Dans la définition d'une stratégie fongicide, la prise en compte de la sensibilité de chaque variété est nécessaire. L'apparition sur le marché de variétés moins sensibles, voire tolérantes, permet une plus grande souplesse dans les programmes de protection, sans toutefois supprimer leur nécessité. L'utilisation de modèles de simulation de développement de la maladie permet d'évaluer le risque de développement de la septoriose. Produits phytopharmaceutiques français contre la septoriose du blé. Liste des produits phytopharmaceutiques autorisés en France pour lutter contre la septoriose du blé . |
Ska Le ska est un style musical ayant été créé en Jamaïque à la fin des années 1950. Il se caractérise par un son rythmé et reconnaissable au contretemps marqué par la guitare électrifiée, un piano et parfois un instrument de la famille des cuivres. Il est diffusé internationalement grâce notamment au label Island Records de Chris Blackwell. Laurel Aitken, Toots & The Maytals ou encore Desmond Dekker & The Aces et The Skatalites ont été des pionniers de ce style musical. Il aboutit au reggae et lui survit. Histoire. Au début des années 1950 en Jamaïque, île dépendante alors du Royaume-Uni, la grande majorité des habitants sont d'origine africaine. La vie y est rude, les noirs n'ont pas le droit de vote, la violence n'est pas rare et la religion est très présente. Les émeutes sont une plaie chronique, et seuls les bakras, riches blancs implantés en Jamaïque, ont une vie plus aisée. Musicalement, plusieurs îles des Antilles font danser la population sur différents rythmes : le merengue dominicain, le kompa haïtien, le calypso de Trinité très en vogue, le son cubain, la biguine de Martinique. Le folklore local, le mento jamaïcain, quant à lui, est composé d'influences européennes, bantoues et ouest-africaines. Le rythme 4/4 est doux, contrairement au calypso plus rythmé avec son temps 2/2. Le calypso est surtout joué pour les touristes. Les musiciens locaux jouent aussi du slack, chansons paillardes qui font rire le public pour oublier la dure vie. Ceux qui possèdent une radio peuvent capter les ondes de "Wins", la radio américaine de Miami, la seule qui parvienne en Jamaïque ; on y passe principalement du rhythm and blues et du jazz ; ces musiques ont déjà déferlé sur l'île avec les disques qu'ont amenés les soldats américains basés à Kingston durant la Seconde Guerre mondiale. Les jazzmen noirs américains ont alors représenté une lueur d'espoir pour les Jamaïcains des ghettos qui se sont mis à jouer tous les soirs, en plein air dans les parcs de Kingston, les chansons américaines qu'ils essayaient de reproduire, mêlées inévitablement aux rythmes qu'ils savaient déjà jouer (mento, calypso, merengue…), produisant leur propre rhythm and blues, le Jamaican boogie ou Jamaican R&B. Un son nouveau prend forme, avec une basse plus puissante et un rythme de guitare syncopé et plus rapide, comme avant-goût du ska : le shuffle. En 1950, les disques 45 tours en vinyle et les sonos apparaissent, faisant naître des "sound systems" dans lesquels on peut danser à bas prix un peu partout dans l'île. La concurrence devient sauvage : les "disc jockey" sont obligés d'enlever les étiquettes de leurs disques pour être les seuls à les posséder. Une année plus tard, Stanley Motta réalise les premiers enregistrements pour concurrencer le calypso, mais sur l'île on attend un nouveau son, plus branché et plus dansant que le R&B américain. La déferlante rock n' roll s'abat sur l'île avec notamment Fats Domino et Little Richard ; ce nouveau style mêlé au boogie-woogie, au gospel, déjà très présent dans l'île, au mento local, au jazz, au scat, au calypso, au merengue, aux musiques africaine et cubaine ainsi qu'à la culture de la rue formera un cocktail détonant qui, en explosant, donne naissance au son que tous les Jamaïcains attendaient : le ska. Le succès est au rendez-vous : les "sound systems" jamaïcains se multiplient dans l'île, les gens se pressent pour venir danser sur ce rythme endiablé. En 1955, crée le premier "sound system" jamaïcain à Londres, ville où les émigrés affluent à la recherche de travail. En 1959, Chris Blackwell enregistre des dubplates qu'il teste dans les "sound systems" avant de faire presser ceux qui ont bien marché. Les juke-boxes se répandent, aidant en cela à la diffusion de la musique. C'est la naissance de l'industrie musicale jamaïcaine. En 40 ans, l'île produira plus de disques, avec parfois plus de 200 singles par semaine. La musique étant le meilleur moyen pour se sortir de la misère, il faut produire, toujours produire, car les enregistrements ne sont pas bien payés et les producteurs pas toujours honnêtes. Il faut donc jouer le plus possible pour gagner sa vie, d'où cette extraordinaire production. Débuts. Aux États-Unis, les mouvements noirs sont très actifs à la fin des années 1950 afin de mettre fin à la ségrégation raciale qui existe encore dans les États du Sud. Au fil du temps, la syncope du boogie basé sur le contretemps s'accentue au point de devenir le temps fort du rythme. Le ska se dégage peu à peu des différents styles, caractérisé par ce rythme syncopé marqué par un temps fort sur les deuxième et quatrième temps de la mesure. Le jeu de guitare correspond au contretemps du R&B et au piano du boogie. Les cuivres sont ajoutés pour les solos de jazz, ainsi qu'une contrebasse très en avant, comme pour le merengue, le calypso et le mento. Souvent, les morceaux joués sont instrumentaux, frénétiques et soutenus. En 1960, le ska se distingue et devient un genre à part entière. Aussi, certains affirment que le mot « "ska" » est né du son que produit la façon sèche de plaquer des accords sur la guitare, d'autres affirment que ce mot est la déclinaison du mot "skavoovee", crié par un pianiste qui a participé à l'émergence du genre. Prince Buster, décidant de se démarquer du R&B, préfère accentuer l'identité purement jamaïcaine de sa musique, tout comme Coxsone. En 1961, les "sound systems" et les producteurs se multiplient. Avec les succès beaucoup se délocalisent au Royaume-Uni. Et un an plus tard, Chris Blackwell d'Island records a l'idée d'y distribuer des disques de ska, là où les émigrés peuvent se permettre d'en acheter. 1962 est aussi l'année de l'indépendance de la Jamaïque liée jusqu'alors au Royaume-Uni. C'est une indépendance non seulement territoriale, mais aussi musicale, car le ska incarne maintenant l'identité de la nouvelle nation qui ne cesse de danser au rythme des cuivres, l'espoir et l'optimisme sont retrouvés. Coxsone construit un studio d'enregistrement indépendant qui deviendra le mythique Studio One. De 1962 à 1967, la marque britannique Blue Beat publie 600 produits en Jamaïque par Prince Buster : le ska sera souvent associé, au Royaume-Uni, au nom « "blue beat" », qui désigne donc une marque et non pas cette musique. Les disques sont le plus souvent pressés dans les usines américaines Federal Records. En 1964, c'est l'explosion avec le premier hit international "" de Millie Small sur le label Island Records de Blackwell. Tournant décisif aussi, la formation des Skatalites ; s'ensuivront des dizaines de reprises des vieilles chansons R&B version ska. Le style ska est désormais une tendance positive ou négative. Les rude boys, jeunes voyous jamaïquains des ghettos tombés dans la délinquance et semant la terreur, adoptent un nouveau look caractéristique : treillis militaires, pantalons pattes d'éph, T-shirts décolorés, badges, cheveux longs… En 1965, Duke Reid monte son studio d'enregistrement ; Martin Luther King, pasteur pacifiste, est accueilli à Kingston en grande pompe, ce qui redonne espoir aux habitants, mais n'empêche pas la misère et la violence de s'accroître. Les musiciens appellent souvent, dans leurs lyrics, les rude boys à se calmer et à s'assagir en arrêtant de semer la terreur à tous les coins de rue. La musique devient le seul moyen de se sortir du ghetto. Cette violence et cette hargne se ressentent dans le rythme de plus en plus frénétique du ska, qui redevient soudainement très lent, annonçant ainsi les prémices du rocksteady. On raconte que le rythme s'est mis à ralentir à cause des vagues de chaleur de l'été 1964, les danseurs ne pouvant plus soutenir le rythme effréné de cette musique. Transition rocksteady. Le ska est peu à peu supplanté par le rocksteady, jusqu'à ce que ce dernier soit considéré à partir de 1966 comme la soul locale. Prince Buster multiplie les classiques, notamment un duo avec Lee Perry. Judge Dread chantera "Je t'aime moi non plus", de Gainsbourg. En Jamaïque en 1966 Hailé Sélassié fait une visite qui recentre l'ensemble de la population vers les croyances spirituelles originellement africaines, les rastafaris adoptent l'usage de la marijuana. Au Royaume-Uni, Chris Blackwell fonde la maison de disques Trojan Records, spécialisée en musique jamaïcaine. Au-delà de son rythme plus lent que le ska, le rocksteady offre plus de clavier et plus de chant, mais moins de cuivres et d'instrumentaux. La contrebasse est souvent remplacée par la basse électrique. Cette fois, le temps fort marqué sur le troisième temps. On trouve surtout des trios de rocksteady chantant des chansons d'amour. Le chanteur est bien mis en avant, le musicien est confiné dans les studios et le producteur supervise tout de A à Z. Révolution reggae. En 1969, tandis que dans les endroits où on dance vibrent au son du rocksteady, Desmond Dekker chante son tube « "Israelites" » sur un rythme innovant, plus rapide que le rocksteady, le reggae. Plusieurs artistes revendiquent le titre de premier chanteur de reggae, comme Stranger Cole et Lester Sterling, Larry et Alvin, Bob Marley, the Beltones, the Maytals ou Lee « Scratch » Perry. De 1969 à 1970, le reggae est appelé a posteriori , prédominé par la basse et joué sur un tempo plus rapide, dû aux influences du mento local, encore très rythmé. Pour une croche jouée en rocksteady, un musicien reggae en jour deux. Un style est né et se répand partout. Popularisé par une myriade d'artistes locaux talentueux, mais aussi par les reprises de stars internationales blanches telles que Eric Clapton ou Neil Diamond qui lui ouvrent de nouveaux marchés, le reggae devient rapidement mondial, accompagnant l'expansion du mouvement rastafari avec ses dreadlocks et sa feuille de cannabis sur les tee-shirts "rasta". Pour la petite histoire, le reggae s'appelait à ses débuts , ce qui désignait une fille facile, qui « danse » avec tous les hommes. Le slack est en effet toujours présent dans la culture locale et rappelle le côté machiste de la musique jamaïcaine. Mais ce nom aurait paru trop péjoratif au goût des radios de l'époque et le streggae serait devenu le reggae. Frederick "Toots" Hibbert (Toots & The Maytals) revendique une autre version, revendiquant la paternité, si ce n'est du genre, du moins du nom qui viendrait de "regular" (régulier), prononcé à la manière locale "regaelar", pour décrire le tempo du nouveau genre musical. Puis le rythme évolue encore, devenant plus lent, au tempo medium, appelé le "reggae one-drop" entre 1970 et 1972. En Jamaïque, comme à la fin des années 1950, la population réclame des nouveautés et des innovations musicales. Les artistes remixent alors les morceaux destinés aux "dancehalls", il s'agit du dub, nouvelle dimension de la musique jamaïcaine. Les versions purement instrumentales sont gravées en face B du 45 tours ; des effets d'écho (reverb) sont ajoutés sur les voix. En live, les DJ n'hésitent pas à prendre le micro pour se laisser aller à leur délire musical : ils . Dans le Royaume-Uni de la fin des années 1960, en particulier grâce au label Trojan Records qui publie alors la majeure partie des disques de reggae, les skinheads, jeunes des banlieues ouvrières de Londres descendant des Mods, raffolent particulièrement de ce nouveau rythme. De là naîtra le skinhead reggae. Après en avoir été fanatiques en 1970, en 1971 les skinheads violents commencent à se désintéresser un peu de cette musique dont le tempo se ralentit avec l'arrivée des thématiques rastas dans les morceaux. L'année suivante, 1972, apparaît comme décisive pour la Jamaïque ; le dub s'affine en séparant les pistes de basse, de batterie, de voix et des autres instruments, en réalisant des mixages plus créatifs et aussi plus complexes, annonçant la fatale arrivée de la musique technoïde quelques années plus tard. C'est aussi en 1972 que le reggae entre dans sa troisième phase d'évolution : après le early reggae et le one-drop, un nouveau rythme apparaît, au tempo encore plus lent que pendant la deuxième phase, mais plus rapide que le rocksteady, avec une basse qui s'alourdit encore plus. C'est le reggae moderne qui intéressera de plus en plus les premiers groupes punk rock du Royaume-Uni, notamment les Clash à partir de 1976, qui le mêleront souvent à leur répertoire. Parallèlement, le pays doit encaisser deux nouveaux coups durs : le dollar s'effondre, l'élite intellectuelle s'exile aux États-Unis laissant l'île sans capitaux, les violences dues aux élections approchantes se multiplient. Les messages véhiculés par la musique reflètent alors bien un fort espoir de sortir de la misère et de l'oppression omniprésentes. En 1974 à la suite de la vague d'émigration aux États-Unis, la forte communauté de Jamaïcains installés à Brooklyn introduisent la culture des "dancehalls". Mêlé au funk local, le dub donne vite une mixture ressemblant au rap et au hip-hop. Deux ans plus tard, en 1976, Bob Marley devient une superstar avec ses Wailers, après des années de galères et une collaboration avec Blackwell sur le label Island en 1974, qui l'a fait connaître du grand public. Les jamaïcains délaissent les DJ, préférant leur nouvelle idole. C'est l'âge d'or du reggae, tant du point de vue de la qualité que de la quantité et de l'innovation. Grande nouveauté, le reggae jusque-là très machiste se féminise et introduit aussi des sujets comme l'Afrique. La musique jamaïcaine s'exporte alors dans le monde entier. Années 1980. Les années 1960 qui enfantent du ska Jamaïcain refilent le bébé au Royaume-Uni des années 1980 où tout se joue désormais. En 1979, le ska revient au goût du jour grâce au fondateur des Specials, Jerry Dammers et son label britannique 2 Tone (avec les têtes de file The Specials, Madness, The Beat, The Selecter, Bad Manners…) qui réhabilite les esthétiques rude boy, mod et skinhead des années 1960. Il met son logo à la mode en Angleterre puis dans le monde entier : le damier noir et blanc, symbole d'unité entre les noirs et les blancs. Symbole aussi d'un désir de mettre fin à la haine raciale qui règne depuis des années dans le pays. Les groupes de musiciens ethniquement mixtes essaient de prôner l'unité raciale dans le Royaume-Uni déchirée avec des paroles plus engagées, mais ne peuvent empêcher les émeutes de 1981, à cause des difficultés des ghettos, des attaques fascistes, du chômage, des contrôles policiers, des émeutes raciales, du front national à son apogée, de la communautarisation des immigrés etc. Un pays en profonde crise. En 1981 toujours, autre choc : Marley meurt le . Les Blancs britanniques jouent eux aussi du reggae, comme UB40, Boy George et Culture Club, ce qui n'est pas du goût de Chris Blackwell qui le prend comme un manque de respect à Bob Marley. Il abandonne le créneau de la musique jamaïcaine. Le continent africain se met au reggae, avec comme précurseur Alpha Blondy. En 1985, les rythmiques numériques envahissent le son reggae et virent ragga. Le dub teinté de numérique influence fortement de nombreux artistes, ce qui produit la house music, la techno. La jungle apparaîtra même en 1994, jouée par des descendants jamaïcains qui accélèrent le rythme du reggae en lui ajoutant des sons numériques et d'autres éléments. Le label Two-Tone, racheté par Chrysalis Records, s'effondre en 1985, ce qui n'empêche pas au damier de rester le symbole du ska à travers le monde. Après le raz-de-marée 2 tone, Gaz Mayall (fils de John Mayall des Bluesbreakers) relance le ska en 1986 avec son label Gaz Records. D'autres labels apparaissent également, tels que Ska records et Moon records aux États-Unis, Skank et Unicorn en Grande-Bretagne, Pork Pie en Allemagne, ainsi que des groupes tels que les Deltones, Potato 5 et The Trojans (le groupe de Gaz Mayall). Les concerts et les festivals de ska se multiplient, c'est l'époque cruciale du ska revival qui perdure bon an mal an jusqu'à aujourd'hui. Une date à retenir tout de même: 1989, c'est l'explosion du revival avec trois grands courants distincts : le courant allemand, une des scènes les plus productives encore actuellement, avec des groupes comme the Busters, Skaos, The Braces, No Sports, El Bosso und Die Ping Pongs… Un mélange de revival et de 2 Tone au rythme très soutenu et très rapide, avec 4 ou 5 cuivres par groupe. Vient ensuite le courant américain, avec certains groupes toujours présents comme The Toasters, Mighty Mighty Bosstones, Bim Skala Bim, Voodoo Glow Skulls… une scène fusion, caractérisée par un mélange détonnant de 2-tone, de hardcore, de funk et de punk, ce qui donne souvent un ska punk . Enfin, le courant international qui désire rester proche des racines jamaïcaines des années 1960 : les californiens de the Liquidators puis Jump With Joey et Hepcat ; the Trojans, Skaville Train, The Cosmics et 100 Men en Angleterre ; Dr. Ring Ding and the Senior Allstars en Allemagne ; Tokyo Ska Paradise Orchestra et Ska Flames au Japon, La Poupée vinyle, Les Frelons, Tchicky-Monky et La Marabunta en France. Le ska revival est aussi appelé le (en français, ), les américains opérant cependant une dichotomie entre et pour distinguer l'approche rock/2-Tone de l'approche sixties. Labels. Les labels notables du genre incluent : Trojan Records, Crash Disques, Epitaph Records, Fat Wreck Chords, Grover, Small Axe, Stomp Records, Studio 1, Blue Beat, 2 Tone Records. |
Sokaris Sokaris est, dans la mythologie égyptienne, la déification de l'acte de séparer le ba du ka, ce qui correspond à peu près à la séparation de l'âme du corps après la mort. Cette opération est rendue possible par le rituel de l'« Ouverture de la bouche », c'est pourquoi le nom de Sokaris signifie "qui nettoie la bouche". Le ba, plus ou moins équivalent à l'âme, est représenté par un oiseau à tête d'homme survolant le ka, qu'on peut assimiler au corps nouvellement momifié, l'enveloppe vide du corps. C'est pourquoi Sokaris est représenté par un humain momifié à la tête de faucon, à la peau verte, symbole de renaissance. Le ba est traditionnellement représenté donnant à Sokaris le titre de « Grand Seigneur aux Deux Ailes ». On plaçait souvent une statue de Sokaris dans les tombes, sur laquelle figurait le "Livre des Morts", participant à la bonne séparation, puis libération du ba. Sokaris était de la nécropole de Memphis, ainsi connu comme « Celui qui est sur le sable » ; la nécropole prit ensuite le nom de Saqqarah. Il existait un festival à sa gloire à Thèbes, nommé le festival de Henou, pendant lequel une image de Sokaris était transportée dans une barque Henou, représentant le passage en bateau contenant le défunt sur les champs d'Ialou. Son nom peut également être décomposé en "Celui qui est adoré", c'est pourquoi Sokaris est progressivement devenu le dieu des joailliers, des armuriers et autres forgerons. Ainsi, pendant le Moyen Empire, lorsque Ptah devint le dieu des artisans et un dieu de la réincarnation, Sokaris, qui était déjà le dieu d'une classe d'artisans et le dieu à l'origine du processus de réincarnation, fut assimilé à Ptah. Finalement, l'identité de Sokaris fut mélangée à celle de Ptah pour devenir Ptah-Sokar. Au début du Nouvel Empire, Ptah-Sokar, en tant que dieu funéraire, fut assimilé à la divinité mortuaire plus importante Osiris, devenant Ptah-Sokar-Osiris. On trouve parfois dans les textes une déesse Sokaret, parèdre féminine de Sokar, qui s'applique à Isis en tant que femme d'Osiris, ou à Hathor, « sœur divine de Sokar ». Sokaris est le dieu des morts à Memphis, capitale du premier nome de Basse-Égypte fondée vers -3000. C’est donc un dieu très ancien présent dans le culte de Ptah dès le début de l’Ancien Empire. Ptah étant un dieu très ancien, « Sokaris représente l’une des conceptions les plus primitives de la mort ». Il semble qu’à l’origine Ptah et Sokaris étaient un seul personnage. Ptah étant l’aspect vivant, Sokaris étant sa forme morte, celui qui vit sous terre. |
Sobek Dans la mythologie égyptienne, Sobek (en grec : Suchos ou Sucos, σοũχος ou Σοũχος) « Crocodile », est le fils de la déesse aquatique Neith et d'un des dieux jumeaux. Son statut de dieu de l’eau et de la fertilité le fait adorer partout dans le delta du Nil, le Fayoum et à Kôm Ombo. Sobek dans ses temples. Dans le temple de Kôm Ombo, il est adoré sur un pied d'égalité avec Haroëris, Horus l'Aîné (le temple de Sobek et Haroëris, avec deux dieux principaux, présente un fait unique en Égypte). Il y a Hathor pour parèdre, mais selon les temples, il peut avoir telle ou telle autre déesse pour compagne (Rénénouet à Médinet el Fayoum, par exemple). Dans les temples qui lui sont consacrés dans le Fayoum, il est couramment désigné comme "Sobek, Seigneur de "tel " sanctuaire". À Soknopaiou Nésos (site archéologique au nord du lac du Fayoum), il est "Sobek, Seigneur du Lac" : "So(b)k-Neb-Payou(m)", ce qui donne Soknepaiou en démotique et en grec ; à Tebtynis, à côté du village actuel de Tell Oumm el-Baragat, dans le sud-est du Fayoum, il est adoré sous l'intitulé "Sobek, Seigneur de (Teb)tynis", soit "So(b)k-Neb-Tynis", d'où les noms démotique et grec de Soknebtynis. Cultes du crocodile. La présence de crocodiles dans le Nil était pour les Égyptiens l’annonce d'une crue favorable aux récoltes : les crocodiles étaient donc des animaux sacrés à cette époque. Maître des eaux, il est le dieu qui irrigue les champs. Vers la Basse époque, les Égyptiens cherchent à gagner ses faveurs afin d’en avoir moins peur en lui offrant des figurines représentant l’animal portant le disque solaire orné du cobra protecteur. Il deviendra rapidement un dieu important dans le panthéon sous la forme syncrétique de Sobek-Rê. Il est parfois représenté sur la barque solaire en train de terrasser le serpent géant Apophis, personnification du chaos, monstre essayant d'engloutir le Soleil. Ce rôle de protecteur de la barque solaire est aussi attribué à la déesse Sekhmet ou bien encore au dieu Seth. Il est localement considéré comme un dieu primordial. Selon l"'Interpretatio graeca", Sobek est assimilé à Chronos, l'un des dieux grecs primordiaux et le dieu du temps. L'origine et les raisons de cette assimilation sont encore en débat chez les historiens des religions. Théonomie. Les noms d'Égyptiens composés à partir du nom Sobek sont légion. Dès la avec la reine Sobeknéferourê ("Sobek est la perfection de Rê"), puis lors de la Deuxième Période intermédiaire (), plusieurs rois prendront le nom ("Sobek est satisfait") dans leur titulature. Lors de la deux souverains se nommèrent Sobekemsaf ("Sobek est sa protection"), ainsi qu'une princesse, plus curieusement car c'est un nom masculin. De nombreux Égyptiens des époques tardives (grecque et romaine) portent des noms tels que Sisoukhos, Marsisoukhos, Pétésoukhos, ou encore Khroniôn. Taxonomie. En taxonomie paléontologique, un crocodylomorphe fossile, "Sebecus icaeorhinus" et à sa suite, le clade des Sébécosuchiens et la famille des Sébécidés dont il fait partie, ont été nommés en hommage à Sobek par George Gaylord Simpson en 1937. |
Sia (mythologie) Dans la mythologie égyptienne, Sia est la personnification de l'intuition qui aide à prendre les bonnes décisions. C'est l'incarnation de l'omniscience intuitive des dieux, que seul le démiurge possède. Avec Hou et Heka, il permet à celui-ci d'imaginer, d'énoncer et d'ordonner la création. Avec Hou, il guide le soleil dans ses transformations nocturnes jusqu’à ce qu’il renaisse à l’aube, c’est pourquoi ils sont représentés à l’avant et à l’arrière de la barque de Rê. « "Ce sont les deux pilotes qui dirigent la barque nocturne de Rê dans sa navigation souterraine. Hou est à l'avant de la barque et Sia à l'arrière". » |
Sekhmet Sekhmet "la puissante" est une déesse de la mythologie égyptienne. Elle est représentée par une femme à tête de lionne portant d'abord l'uræus, puis, par la suite, le disque solaire ; de sa gueule de lionne sortent les vents du désert. Rôle symbolique. Les textes égyptiens la présentent comme la fille du dieu Soleil, Rê, incarnant l’œil de ce dernier. Déesse guerrière, elle se bat seule ou bien accompagnée de son armée de génies porteurs de flèches et de couteaux. Déesse guerrière personnifiant la puissance destructrice du Soleil, elle est l'instrument de la vengeance de Rê. Elle aurait été spécialement créée par lui pour réprimer les hommes révoltés contre lui, comme l'indique le Livre de la vache du ciel, dont le texte est gravé sur les parois de plusieurs tombeaux de la Vallée des rois. Son corps brûlant et ses flèches incandescentes détruisent les ennemis du roi, déchaînant la fureur de Rê sur les avatars d'Isfet et les ennemis du pharaon. Elle était celle qui conseillait et guidait les pharaons au combat. Mais, épouse de Ptah et mère de Néfertoum dans la triade memphite, elle est aussi, dans ce rôle maternel, la déesse de la guérison et du foyer. Elle est surnommée « la puissante », « Celle devant qui le mal tremble », la « colère de Rê » ou « la maîtresse des maladies ». Elle a également été attestée comme une divinité liée au féminin, gouvernant le domaine des cycles menstruels. La déesse chatte Bastet s'identifie parfois à Sekhmet. Les prêtres de Sekhmet étaient reconnus comme spécialistes de la médecine vétérinaire. Représentations. Elle fut souvent représentée, assise ou debout, avec un corps de femme vêtue d’une longue tunique rouge et une tête de lionne. À partir de la elle acquit également les symboles divins tels que le disque solaire, l'uræus et le sceptre ouas, et le signe de la vie appelé ânkh. Plus rarement elle fut représentée comme une femme à tête de crocodile. Une fête était célébrée en son honneur dans la saison Akhet. Culte. Elle apporte les maladies par ses miasmes (entre autres durant les cinq derniers jours de l'année, avant le retour de l'année nouvelle). Afin d'éviter qu'elle ne tue tous les humains, Rê dut lui faire préparer un breuvage spécial de bière coloré de rouge pour apaiser sa soif de sang dans l'ivresse. De cette façon, elle est remplacée par Hathor, déesse de la fertilité. C'est cette histoire qui était répétée lors d'un festival de l'ancienne Égypte où le zythum était consommé de façon délibérément excessive. Elle était également célébrée à chaque fin de bataille afin de calmer la fureur et de retrouver la paix, calmant ainsi son incarnation destructrice. Cependant, l'initié peut gagner ses faveurs à condition de vaincre ses propres peurs ; car malgré sa violence, la déesse a le pouvoir de guérison, ce qui l'a consacrée déesse des médecins. |
Satis Dans la mythologie égyptienne, Satis (ou Sati) est une déesse associée au Nil et à ses cataractes. C'est la fille de Rê, le soleil. Son nom, qui vient de "setji" (semer, répandre) et signifie « Celle qui répand », la confirme dans la fonction de celle qui répand les eaux que son époux, Khnoum, a fait jaillir. Présentation. Si Satis est surtout représentée anthropomorphe, il semblerait que, très anciennement, elle ait été vénérée sous forme d'antilope ou de bubale, dont sa couronne Hedjet pourvue de deux cornes est la réminiscence. De même, l'antilope lui est consacrée, ainsi que le vautour, dont elle se pare parfois. Ses attributs personnels sont, outre le "sceptre Ouas" et le signe "ânkh", des flèches, à l'instar de Neith. Cette dernière, avec qui elle partage sa personnalité assez virile, sportive et indépendante, peut être considérée comme son pendant du Nord. Origine géographique et lieux de culte. Satis est indéniablement originaire de la du Nil, au niveau d'Éléphantine ou de Sehel, où se trouvaient ses premiers lieux de culte ; elle est généralement considérée comme la gardienne de toutes les cataractes. Ses lieux de vénération sont multiples, et principalement situés dans le Sud : à Éléphantine, sa ville tutélaire bien sûr, où elle forme une triade avec Khnoum, son parèdre — époux durant la Basse époque — et leur fille Anoukis, en Nubie (Semna, Bouhen, Koumna, Gebel Docha, etc.) où elle est adorée en compagnie d'Amon, de Montou ou d'Horus de la à la période romaine, et au Fayoum, là où étaient cachées les sources mythiques du "Nil du Nord", assimilée à Ouadjet et donc porteuse de la couronne rouge Decheret. C'était près de ses temples qu'étaient célébrées les fêtes religieuses liées à la crue du Nil. Fonctions. Satis, « "Celle qui donne l'eau fraîche qui vient d'Éléphantine" » et « "La maîtresse de la première cataracte" » est une des déesses les plus importantes du cycle de l'inondation et de la crue, responsable soit de son déclenchement, soit de sa distribution. Sans être symbole de fécondité, elle apportait fertilité et prospérité, ce qui l'a rapprochée de Sothis. Les anciens Égyptiens étant néanmoins parfaitement conscients que l'inondation prenait naissance au cœur de l'Afrique, Satis était vénérée en tant que « "Maîtresse du Grand Sud" », « "Maître de la Nubie" » ou encore « "Maîtresse de Pount" », et protégeait les marchandises et les caravanes venant de ces lointaines contrées. En outre, son association avec l'eau fait de Satis une déesse de la purification, invoquée en faveur des défunts. Ses fonctions s'étendaient également de déesse protectrice du pays, implantée à la limite méridionale de l'Égypte, lieu de nombreux conflits (« "Gardienne de la frontière sud de l'Égypte" » et, comme le flot tumultueux qui submerge et s'empare du pays, « "Celle qui a conquis l'Égypte" »), jusqu'à déesse guerrière et protectrice de la royauté (« "Celle qui lance ses flèches contre ses ennemis" »), probablement de par sa proximité avec d'autres déesses de l'inondation aux aventures nubiennes, telles que Sekhmet. À partir du Nouvel Empire, Satis porte ainsi le même tire que l'Uræus, celui de "L'Œil de Rê" qui détruit les ennemis du soleil et du pharaon. |
Sarapis Sarapis ou Sérapis (en grec ancien ) est une divinité gréco-égyptienne syncrétique créée à l'époque hellénistique par , fondateur de la dynastie lagide. Sarapis rassemble des traits d'Hadès, du dieu-taureau Apis et d'Osiris. Au , il devient, aux côtés d'Isis, l'une des divinités les plus vénérées du panthéon égyptien. Son culte s'étend alors à l'ensemble du bassin méditerranéen. Culte. Le nom de ce dieu est apparu sur un malentendu : le taureau Api (Apis) était une manifestation terrestre du dieu Oser (Osiris). On procédait donc à un culte d'Oser-Api. Mais en grec, « o » est un article, et les prêtres grecs ont donc transformé Oser-Api en « O Serapis », « le » Serapis. Alexandre, en devenant fils de Zeus Ammon, avait réussi à asseoir son autorité sur le clergé égyptien. Les Lagides ont eux aussi souhaité associer leur nom à une divinité. Pour être accepté par tous, ce dieu devait convenir aux Grecs et aux Égyptiens. La figure de Sarapis apparaît au tout début du avant notre ère. On ignore lequel des deux premiers Ptolémée en est à l'origine mais, selon une légende rapportée par Plutarque et Tacite, c'est qui l'a institué. Il aurait rêvé d'un dieu qui lui aurait demandé de transporter sa statue jusqu'à Alexandrie. À son réveil, il raconta son rêve et un homme reconnut, d'après la description de Ptolémée, une statue qu'il avait vue dans la colonie grecque de Sinope (au sud de la mer Noire). Le roi voulut s'emparer de la statue mais les habitants refusèrent et, après trois ans d'attente, il décida de la voler. Une autre version de la légende dit que la statue se serait dirigée toute seule vers le bateau qui devait l'emmener à Alexandrie. À son arrivée à Alexandrie, ce dieu fut assimilé par l'entourage du roi à l'Hadès des Grecs à cause du chien Cerbère représenté lui aussi sur la statue. Le culte de Sarapis existait déjà avant les Ptolémées sous sa forme égyptienne d'Osiris Apis (en grec "Osorapis") au Sérapéum de Memphis. en a fait une figure composite, qui regroupait la symbolique égyptienne (en tant que manifestation d'Apis mort, donc de l'Osiris Apis) mais surtout les fonctions des dieux grecs : il reçoit de Zeus son aspect solaire, Hadès le lie à l'au-delà, Dionysos le rapproche de la fertilité agraire et Asclépios lui permet de guérir les malades. Cela deviendra d'ailleurs sa principale fonction. Il prend en plus une apparence « à la Zeus », c’est-à-dire les longs cheveux bouclés et la barbe. Il est souvent représenté avec un "calathos" - une sorte de gobelet servant à mesurer le blé (symbole du monde des morts) - sur la tête, ou encore trônant avec, à ses pieds, Cerbère, le chien à trois têtes d'Hadès. Plus tard, il fut apparenté à Isis et à Harpocrate, ce qui donna naissance à une sorte de triade alexandrine. Pendant l'époque ptolémaïque, son culte n'a vraiment été pratiqué qu'à Alexandrie et à Memphis mais, à l'époque romaine, il s'est répandu dans tout le pays. Il a aussi été très populaire en Grèce, en Asie Mineure et même jusqu'à Rome. Preuve de sa popularité, il est représenté sur de nombreuses monnaies provinciales romaines, par exemple au revers de tétradrachmes de Néron, ou encore sur une monnaie émise à Marcianopolis où son portrait apparaît en face à face de celui de l'empereur . En 69, lors de son accession au pouvoir, Vespasien fait de Sérapis l'une de ses divinités protectrices (avec Isis). Lors de la guerre civile, il avait été proclamé empereur à Alexandrie par les armées de Syrie et d'Égypte, et, à cette occasion, il avait parlé des visions où le dieu "Sérapis" lui accordait la victoire. Développements ultérieurs. Dans l'Antiquité tardive, Sarapis a été réinterprété dans la tradition judéo-chrétienne lors de la christianisation de l'Empire romain. Julius Firmicus Maternus a écrit que le nom de Sarapis () indiquait qu'il était un () et qu'il descendait donc du patriarche Abraham. |
Scribe dans l'Égypte antique Le scribe (du latin "scriba", de "scribere", écrire) désigne dans l'Égypte antique un fonctionnaire lettré, éduqué dans l’art de l’écriture et de l’arithmétique. Omniprésent comme administrateur, comptable, littérateur ou écrivain public, il fait fonctionner l’État de Pharaon au sein de sa bureaucratie, de son armée ou de ses temples. Le scribe royal domine l’administration centrale. Les scribes supérieurs font partie de la cour du pharaon, ils ne paient pas d’impôts et n’ont pas d’obligations militaires. Organisation. Les scribes sont des fonctionnaires recrutés et payés par l'État. Ils interviennent à tous les niveaux de la société, assumant, par délégation du roi, le pouvoir dans tous les domaines : économiques, politiques, militaires et religieux. À partir des textes, on connaît ainsi : Comme l'enseignement est uniformisé dans les établissements d'enseignement, les scribes peuvent à tout moment passer d'une branche à l'autre. Au service de la population, en majorité analphabète, ils exercent aussi le métier d'écrivain public, établissant les contrats légaux les plus divers, écrivant les lettres sous la dictée ou les lisant à ceux qui ne peuvent le faire eux-mêmes. Le monde des scribes étant fortement hiérarchisé, pour chaque catégorie on identifie plusieurs grades : directeurs, instructeurs, inspecteurs, assistants... Formation et attributs symboliques. Associée initialement à la déesse Seshat (celle qui écrit ; lit. celle qui est un scribe), la profession de scribe passa sous la protection du dieu Thot, au cours des dernières dynasties. D’abord recruté dans l’entourage de la famille de pharaon, le développement de l’administration à la fin de l'Ancien Empire supposa qu’une large caste d’administrateurs soit formée et renouvelée. La position de scribe est héréditaire. Elle se lègue de père en fils mais suppose une bonne transmission des connaissances, en particulier par une sérieuse éducation, dès l’âge de cinq ans et pendant une douzaine d’années, à la grammaire, aux textes classiques, au droit, aux langues, à l’histoire, à la géographie et la comptabilité, enseignements donnés dans une maison de vie, dépendant du temple, lieu tenant tout à fois d’une bibliothèque, où l’on conserve les précieux papyrus et où savants et lettrés se retrouvent, et de centre de formation pour les scribes et les prêtres. Le scribe maîtrise les différentes formes de caractères écrits : écriture hiéroglyphique, à base de symboles, écriture hiératique, à forme cursive et logographique, écriture démotique, de type logo-syllabique et ancêtre du copte (le hiéroglyphique, le démotique et le grec ancien sont les trois langues de la fameuse pierre de Rosette). Maître de l’écrit et du savoir, le scribe en a les attributs symboliques. Représenté vêtu simplement d’un pagne, le calame (roseau taillé en pointe) à la main, un papyrus ou un ostracon (tesson de poterie) dans l’autre, le scribe exerce une profession respectée, que le texte célèbre dit « de l'enseignement de Khéty » consacre comme l’activité la plus noble et honorable dans la société égyptienne. Il est d’ailleurs remarquable que la représentation de l’unité monétaire la plus élevée du royaume soit le hiéroglyphe du scribe. À l’époque tardive, le babouin est l’animal qui lui est consacré et qui sert à le représenter. Matériel. Le scribe dispose pour écrire : Pharaon imitateur de Thot, le dieu créateur du monde par le Verbe. Le savoir et la connaissance, ainsi que le service de l’État, sont vénérés à un tel point que pharaon est considéré lui-même comme le premier des scribes, donc le premier des fonctionnaires de son État ; il se fait représenter en pagne, dans la modeste tenue règlementaire des scribes. D’essence divine, le souverain ne fait que se conformer au dieu Thot, créateur des langues et de l’écriture, scribe et vizir des dieux. Représenté par un ibis au plumage blanc et noir ou un babouin, Thot capte la lumière de la lune, dont il régit les cycles, ce qui le fait surnommer « le seigneur du temps ». Un texte d'Edfou relate sa naissance : Au sein de l'océan primordial apparut la terre émergée. Sur celle-ci, les Huit vinrent à l'existence. Ils firent apparaître un lotus d'où sortit Rê, assimilé à Shou. Puis il vint un bouton de lotus d'où émergea une naine, auxiliaire féminin nécessaire, que Rê vit et désira. De leur union naquit Thot qui créa le monde par le Verbe. Inventeur de l’écriture et du langage, Thot est la « langue d'Atoum » et donc naturellement le patron des scribes. Incarnation de l'intelligence et de la parole, il connaît les formules magiques auxquelles les dieux ne peuvent résister. Selon la légende, celui capable de déchiffrer les formules magiques du Livre de Thot peut espérer surpasser les dieux. Plusieurs pharaons (Snéfrou, , Amenhotep/Akhenaton, Horemheb ou ) ont légué des écrits, en particulier des Enseignements destinés à leurs successeurs, entre autres le grand papyrus Harris rédigé par à l’attention de son fils . Scribe des Archives royales. Parvenu au faîte de son art et de la société, le scribe des Archives royales domine l'administration centrale. Ses compétences sont étendues : il coiffe, contrôle et enregistre les actions de toutes les autres institutions. L'ampleur de sa charge souligne, dès les plus hautes époques, l'importance que l'État accorde à l'écrit, c'est le témoin indispensable de tout ce qui constitue la vie d'un pays dont le gouvernement est fondé sur une connaissance précise des personnes, des biens et des situations. Sous l'Ancien Empire, le scribe des Archives royales, dont on trouve trace à partir du règne de Néferirkarê Kakaï (), est responsable du département des Documents royaux, également appelé le « Double Laboratoire ». À cette institution se rattachent d'autres services d'archives et de bibliothèques. Le scribe Khououiou, qui vivait sous la , était à la fois « chargé d'affaires du roi », « scribe des Documents royaux » et « directeur des Scribes ». Sous la , Djâou, dont on a retrouvé la tombe à Abydos, était « scribe des Rouleaux divins », « directeur des scribes royaux » et « prêtre lecteur ». Représentations de scribes. Après le pharaon, les scribes sont les personnages les plus représentés dans la statuaire ou la peinture. Des chefs-d’œuvre de l’art égyptien que l’on retrouve au Musée du Caire, au Musée du Louvre ou au Neues Museum (Berlin), nous ont été légués, montrant l’importance historique et symbolique des scribes dans l’Égypte pharaonique. Le scribe accroupi (Musée du Louvre). La situation politique. Le scribe accroupi a été réalisé durant les et s. C’est à cette époque que l’Ancien Empire est au sommet de sa gloire. Lors de la , la construction des pyramides, occupant les paysans durant les crues du Nil, seraient alors une nécessité économique et politique ; créant ainsi un État centralisé. À la , on abandonne les pyramides monumentales pour privilégier des tailles plus modestes. Les arts se développent, les tombes sont de plus en plus complexes, l’architecture se développe dans les temples, les décorations des temples sont mises en avant et retracent toute la vie du défunt et souvent d’un règne. L'analyse de l'œuvre. Le scribe accroupi fut découvert à Saqqarah en 1850. Fait de calcaire, de cristal de roche, de cuivre et de magnésie, ce scribe était certainement un haut fonctionnaire, un personnage important de son époque. Il était placé dans la chapelle de culte d’une tombe, la statue participait aux cérémonies et recevait les offrandes pour le défunt. Sa fonction avait donc un caractère funéraire. Le scribe est assis et est représenté en train d’écrire sur un rouleau de papyrus, il tient à la main droite un pinceau ou un roseau qui aujourd’hui n'est pas apparent. Il porte un pagne comme seul vêtement, qui est le support de ce rouleau. Son visage est attentif et son regard est vif ; cette partie du corps est très réaliste, les os du visage ressortent : surtout ses pommettes et ses joues creuses, les yeux présentent beaucoup de détails. Les mains sont sculptées avec un certain souci du détail. Sa posture est un peu hiératique, son attitude est raide. Il présente beaucoup de formes, au niveau du ventre, qui font ressortir son obésité. Sa bonne conservation nous permet de voir la polychromie antique ; l’application des différentes couleurs de la statue. La sculpture à l’Ancien Empire était caractérisée par une attitude assez hiératique. Les détails sont très développés au niveau du visage ; mais il n’est pas idéalisé, vu son obésité ce qui est assez rare à cette époque. Il est en activité ce qui est rare également. Souci du réalisme, les yeux sont très développés et détaillés. Legs laissés par les scribes. Presque tout ce que nous connaissons de l’Égypte ancienne a été légué par les scribes, tant sur la vie et les réalisations des pharaons, la construction des grands monuments, la vie des classes populaires ou les événements politiques et militaires. Les scribes du monde juif ancien et moderne (sofer, en Héb. סופר) sont des docteurs de la foi enseignant la loi de Moïse et l’interprétant pour le peuple. L’importance du Verbe dans la foi juive, et par extension dans le christianisme et l’histoire occidentale, à travers la Révélation de la parole divine et le Livre sacré, la Bible, qui la contient, pourrait trouver son origine dans la figure du scribe égyptien et du dieu Thot. Le terme de scribe s’applique, dans l’Europe médiévale, aux officiers des villes, chargés de travaux de rédaction et soumis à l’autorité du chancelier. |
Seconde (temps) La seconde est une unité de mesure du temps de symbole s (sans point abréviatif). Qualitativement, elle est d'une durée égale à la soixantième partie de la minute, la minute étant elle-même la soixantième partie de l'heure. C'est d'ailleurs l'étymologie du mot qui provient de la francisation écourtée de l’expression en latin médiéval, qui signifie littéralement "minute de second rang", c’est-à-dire "seconde division de l’heure". C'est une des unités de base du Système international (SI), ainsi que du système CGS. Quantitativement, la seconde du SI est définie par la durée d'un certain nombre d'oscillations ( exactement) liées à la fréquence de transition hyperfine de l'atome de césium. La mesure et le comptage de ces oscillations sont effectuées par les horloges atomiques. Choix de la base 60. À partir du début du , les Mésopotamiens ont compté en base 60 en utilisant une numération de position dérivée du système de numération de type additif et de base mixte des Sumériens. Ce système est généralement associé à la civilisation babylonienne, qui occupe le sud mésopotamien et jusqu'au début de notre ère. Cette base a traversé les siècles : on la retrouve aujourd'hui dans la notation des angles en degrés () ou dans le découpage du temps (). Étalon de mesure du temps. La définition de la seconde, l'unité de temps dans le Système international, a été établie selon les connaissances et les possibilités techniques de chaque époque depuis la première Conférence générale des poids et mesures en 1889. La seconde, symbole s, est l'unité du temps du SI. Elle est définie en prenant la valeur numérique fixée de la fréquence du césium, formula_1, la fréquence de la transition hyperfine de l'état fondamental de l'atome de non perturbé, égale à lorsqu'elle est exprimée en Hz, unité égale à s. Cette définition implique la relation exacte formula_1 = . En inversant cette relation, la seconde est exprimée en fonction de la constante formula_1 : Il résulte de cette définition que la seconde est égale à la durée de de la radiation correspondant à la transition entre les deux niveaux hyperfins de l’état fondamental de l’atome de non perturbé. La seconde, étalon de mesure du temps, est ainsi un multiple de la période de l’onde émise par un atome de césium 133 lorsqu’un de ses électrons change de niveau d'énergie. On est ainsi passé de définitions, en quelque sorte "descendantes", dans lesquelles la seconde résultait de la division d’un intervalle de durée connue en plus petits intervalles, à une définition "ascendante" où la seconde est multiple d'un intervalle plus petit. Lors de sa session de 1997, le Comité international a confirmé que la définition de la seconde se réfère à un atome de césium à une température de , c'est-à-dire au zéro absolu. Cette dernière précision souligne le fait qu’à , la transition en question subit, par rapport à sa valeur théorique, un déplacement en fréquence dû aux effets de rayonnement du corps noir. Cette correction a été apportée aux étalons primaires de fréquence et donc au Temps atomique international (TAI) à partir de 1997, quand elle a cessé d’être négligeable par rapport aux autres sources d’incertitude. On dispose aujourd’hui d’une exactitude allant jusqu’à la (). L’exactitude et la stabilité de l’échelle dite du TAI obtenue principalement à partir d’horloges atomiques à jet de césium sont environ supérieures à celles du temps des éphémérides. C’est d’ailleurs l’unité du SI la plus précisément connue. Unités dérivées. Unités et symboles normalisés dans le SI. Les préfixes du Système international d'unités permettent de créer des multiples et sous-multiples décimaux de la seconde. Si les sous-multiples décimaux (milliseconde, microseconde, nanoseconde, etc.) sont d’un emploi assez fréquent, les multiples (kiloseconde () pour , mégaseconde, etc.) sont très peu usités, les multiples de 60 (minute, heure) puis 24 (jour) leur étant préférés. Les multiples de la seconde en usage avec le Système international sont : Unités et notations usuelles dérivées du SI. Il existe d’autres unités usuelles non décrites dans le SI, mais dérivées de celui-ci : Notations erronées. L'emploi d'une ou de deux primes (caractères « ′ » et « ″ ») comme symboles respectifs de la minute et de la seconde temporelles est incorrect, ces signes désignant la minute et la seconde d'arc, subdivisions du degré d'arc. De même il n’est pas correct d’utiliser des abréviations pour les symboles et noms d’unités, comme « sec » (pour « s » ou « seconde »). Multiples et sous-multiples. Les préfixes du Système international d'unités permettent de créer des multiples et sous-multiples décimaux de la seconde. Comme indiqué plus haut, les sous-multiples sont employés fréquemment contrairement aux multiples. Voici la table des multiples et sous-multiples de la seconde : Ordres de grandeur. On peut noter que l'âge de l'univers, exprimé en secondes, est voisin de , ce qui donne peu de sens aux durées bien plus grandes exprimées en zettasecondes ou yottasecondes. De même un milliard de secondes correspondent environ à et , plus parlant à l'échelle humaine. À l'opposé, dans le domaine des durées extrêmement courtes, l’Institut Max-Planck d'optique quantique a mesuré en 2004 la durée du trajet d’électrons excités par les impulsions de d’un laser à ultraviolets ; position mesurée toutes les , correspondant à - à titre de comparaison, une attoseconde est à une seconde ce qu'une seconde est à environ d'années. Pour avoir une meilleure idée de la prouesse, dans le modèle d’atome d’hydrogène de Niels Bohr, l’orbite d’un électron autour du noyau dure (mais les modèles atomiques actuels considèrent que l’électron ne tourne pas). L'Institut Max Born d’optique non linéaire et de spectroscopie (MBI) de Berlin est parvenu à établir en 2010 le record de la plus faible durée d'impulsion contrôlable, atteignant la durée de . Les unités de temps plus petites, zeptoseconde et yoctoseconde, ont peut-être encore un sens à des échelles subatomiques, mais ne sont pas mesurables avec les instruments actuels. Autres unités de temps usuelles non linéaires. D'autres unités usuelles ne correspondent pas à un nombre précis de secondes, et ne sont donc pas des unités de temps dans le SI, ni même dérivées directement de celui-ci puisque ce ne sont que des approximations dans leur propre système non linéaire, d’une durée réelle en secondes SI : Toutefois, dans de nombreux pays, l’heure légale dans une journée calendaire est maintenant déterminée par une durée exprimée en heures, minutes et secondes du SI : le réajustement des jours calendaires avec les jours solaires se fait aujourd'hui de temps en temps au moyen des secondes intercalaires, insérées ou supprimées à certaines dates en fin de journée (de sorte que les jours calendaires légaux font le plus souvent dans le SI, mais certains jours sont raccourcis ou augmentés d’une ou deux secondes du SI). Cela a permis d’éliminer dans de nombreux domaines l’emploi des traditionnelles secondes, minutes et heures solaires, et même celui des secondes, minutes et heures calendaires, au prix d’une complexification de la durée légale d’une journée calendaire. Perspectives. Étalon de fréquence et de mesure du temps. Les développements récents d'horloge atomique, basés sur des transitions électroniques à des fréquences optiques, ont permis de construire des horloges plus stables que les meilleures horloges à jet de césium. Lors de la Conférence générale des poids et mesures, ces atomes et leurs fréquences ont été ajoutés aux représentations secondaires de la seconde. D'après les publications sur les performances de ces étalons de fréquence (dont "Nature" de ), ces horloges pourraient dans le futur conduire à une nouvelle définition de la seconde. |
Sejong le Grand Sejong le Grand (), né le et mort le , est le quatrième roi de la dynastie coréenne Joseon, de 1418 à 1450. C'est lui qui est à l'origine du "", les "Sons corrects pour l'éducation du peuple" (que l'on appelle hangeul de nos jours), alphabet destiné à remplacer le système d'écriture chinois utilisé dans le pays à l'époque mais jugé bien trop complexe. Les historiens confirment qu'il serait le seul à l'origine de l'alphabet national coréen, le hangeul, puisque les chroniques de l'époque indiquent que les savants lui reprochèrent de l'avoir rédigé seul et en secret. En effet il était très probablement l'homme le plus apte en matière de phonétique, il envoya treize fois ses savants consulter un grand phonéticien chinois exilé à la frontière sino-coréenne pour leur faire entendre raison. Selon Louis-Jean Calvet, . Fils du roi Taejong, il devient le Grand prince Chungnyeong (, ) à dix ans et épouse une fille de Sim On (, ), connue sous le nom de Sim-ssi, et qui devient plus tard la princesse consort Soheon (, ). Le roi humaniste. Certains indices incitent à lui attribuer le seul mérite de l’invention du hangeul. Pour certains, il s’est fait aider de parents ou de lettrés. Cependant, la majorité des lettrés, formés à l’utilisation des caractères chinois, les "hanja", se sont opposés à l’introduction du nouvel alphabet. On lui attribue aussi l’invention d’une mesure des pluies, d’une horloge à eau et d’un cadran solaire. Tous ces objets sont développés dans son palais par l'inventeur Jang Yeong-sil. Suivant les principes du néo-confucianisme, Sejong est également un roi humaniste, qui introduisit trois degrés de justice, avant que le jugement soit définitif, et qui interdit les punitions brutales ou cruelles, comme la flagellation. Ses écrits sont également estimés : il a composé le célèbre ' (« Chansons des dragons volants ») en 1445, ' (« Épisodes de la vie de Bouddha ») en , Worin Cheon-gang Jigok (« Chansons du clair de lune sur des milliers de rivières ») en , et son œuvre majeure qui fait référence, "" (un dictionnaire de prononciation sino-coréenne) en . Administration. L'efficacité de Sejong dans l'administration de son pays s’est manifestée dans plusieurs domaines. Il est d’abord un planificateur et un organisateur militaire de premier ordre. Sous son règne, l’armée coréenne débarque à Tsushima pour éliminer les pirates japonais qui ravageaient la côte méridionale de la Corée. Au nord, il repousse la frontière jusqu’au fleuve Yalu après avoir vaincu les Jürchen. Il construit quatre forts et six postes de surveillance pour protéger son peuple des incursions des nomades de Mandchourie. Il établit également divers règlements militaires et unités spécialisées pour renforcer la sécurité du royaume. Il établit la chambre d'élite de l'Académie royale en 1420, pour réunir les intellectuels de Corée. Les élèves de ce Cercle des vénérables ont écrit des chroniques, ont rédigé des documents et ont compilé des livres dans différentes sciences. Sejong meurt à et est enseveli au mausolée Yeong. Son fils aîné Munjong lui succède. Mémoire. La nouvelle capitale administrative de la Corée du Sud a été nommée Sejong en son honneur. L'avenue Sejong () et le centre Sejong des arts vivants — au centre de Séoul — portent son nom, et il est représenté sur le billet de . Une université a également pris son nom en 1987, l’université de Sejong. L'astéroïde (7365) Sejong a été nommé en son hommage. Jeux vidéo. Le roi Séjong est un personnage jouable dans le jeu "Civilization V" (édité par 2K Games et développé par Firaxis Games). Il est le dirigeant de la Corée. |
Shibuya est un des vingt-trois arrondissements spéciaux formant Tokyo, au Japon. L'arrondissement a été fondé en 1932. En même temps qu'au nom de l'arrondissement, le nom « Shibuya » se rapporte à la gare et au quartier d'affaires autour de la gare. La gare de Shibuya est une des plus fréquentées dans la région de Tokyo, ce qui est particulièrement visible au niveau du Shibuya Crossing. L'arrondissement de Shibuya est connu comme un centre de la mode et c'est un quartier bien animé. Un symbole de ce quartier pour les jeunes est la tour 109, qui renferme une centaine de boutiques consacrées aux dernières tendances de la mode. D'autres quartiers importants composent l'arrondissement de Shibuya : Daikanyama, Ebisu, Harajuku, Hiroo, Sendagaya, Omotesandō et Yoyogi. Toponymie. Plusieurs théories existent à propos de l'origine du nom de l'arrondissement de Shibuya. L'une d'entre elles affirme qu'il dérive de l'ancien nom d'un hameau « Shioya » (« »). Une autre soutient que le toponyme « Shibuya » (« ») correspond au nom donné à un territoire par un seigneur de la fin de l'époque de Heian (794-1185), Kawasaki Shigeie, honoré par l'empereur Horikawa du surnom « Shibuya » pour avoir capturé, dans l'enceinte du palais Heian, un opposant au pouvoir impérial nommé Shibuyagon no Sukemorikuni. Ainsi serait né le clan Shibuya. Une troisième rapporte que les flots d'un cours d'eau de la région étaient chargés en fer, lui conférant la couleur de la rouille (), d'où son nom « Shibuya-gawa » (« »), repris pour forger le nom de lieu « Shibuya ». Malgré les nombreux réarrangements administratifs de l'ère Meiji (1868-1912), le nom « Shibuya » a perduré. Géographie. Situation. Shibuya est l'un des vingt-trois arrondissements spéciaux de Tokyo, la capitale du Japon. Il s'étend de nord-ouest en sud-est, au sud-ouest du palais impérial de Tokyo et au nord-ouest de la baie de Tokyo. Le quartier de Shibuya est officiellement une section de l'arrondissement qui s'étend à l'est de la gare de Shibuya. Cependant, il est couramment étendu aux quartiers Dōgenzaka et Udagawa, à l'ouest de la gare. Démographie. Selon les résultats du recensement national, l'arrondissement de Shibuya rassemblait, en 2015, répartis sur une superficie totale de . La population de l'arrondissement était en augmentation de 9,8 % par rapport à celle estimée cinq ans plus tôt. Au , selon la mairie de Shibuya, l'arrondissement comptait (52 % de femmes), dont étrangers (4,9 %). Topographie. L'arrondissement de Shibuya s'étend sur environ dans sa plus grande largeur, de nord-ouest en sud-est, sur le plateau de Yodobashi, dans la partie est du plateau de Musashino. Le plateau de Yodobashi occupe une bande de terre comprise entre la rivière Kanda, au nord, et le fleuve Meguro, au sud. Il comprend tout ou parties des arrondissements de Shinjuku, Chiyoda, Minato, Shinagawa, Meguro, Setagaya et Shibuya (dans sa partie centrale). L'altitude y varie de ; celle de Shibuya décroît de , suivant la direction nord-ouest-sud-est. Quartiers. Voici la liste complète des quartiers officiels composant l'arrondissement spécial de Shibuya : Histoire. Des sites archéologiques établis sur le territoire de l'arrondissement de Shibuya montrent que des humains vivant durant la période Jōmon ( ), occupaient les parties élevées du plateau de Musashino. Des "kofun" (monuments funéraires), des objets faits d'argile et des os humains ont été sortis de terre. L'histoire de la région, durant les périodes Nara (710-794) et Heian, reste très peu connue. Le plateau de Musashino est alors une vaste étendue sauvage. En 1092, un clan de samouraïs donne son nom à une fortification militaire et à un lieu de culte du shintō. Le château de Shibuya a été détruit en 1524 par le clan Go-Hōjō. Au début du , seul le sanctuaire Shibuya Hachiman, couramment appelé Konnō Hachiman-gū, a été préservé. L'histoire de Shibuya commence à s'écrire au cours de l'époque de Kamakura (1185-1333), dans la province de Musashi, sous l'impulsion du clan Musashi. Jusqu'à l'époque d'Edo (1603-1868), dans le fief du clan Go-Hōjō, des villages se développent, parmi lesquels Harajuku, Sendagaya, Hatagaya et Shimoshibuya. Pendant le shogunat Tokugawa, ils prospèrent comme extension du domaine du pouvoir central qui siège à Edo. Après la restauration de Meiji, le nouveau gouvernement installé à Tokyo remodèle l'organisation administrative du pays. Le district de Shibuya est officiellement créé, en 1869, dans la préfecture de Musashi. En 1889, le village de Shibuya est fondé. En 1904, il comprend et rassemble une population de . Le , le village de Shibuya devient l'un des de la ville de Tokyo ; il inclut la vallée du cours supérieur du fleuve Shibuya, le quartier résidentiel de Yoyogi et celui de Harajuku. L'année 1947, après la Seconde Guerre mondiale, Shibuya est maintenu parmi les spéciaux de la capitale japonaise. À partir de 1955, des gratte-ciel sont construits. Shibuya s'établit comme un centre d'affaires, administratif et commercial, desservi par de nombreuses lignes de chemins de fer, la ligne Yamanote, notamment. La tenue des Jeux olympiques d'été de 1964 entraîne une accélération du développement urbain. Par la suite, les boutiques de mode se multiplient et l'arrondissement de Shibuya devient le lieu de rendez-vous favori de la jeunesse tokyoïte. En particulier, l'année 1979, est inauguré l'un des symboles de Shibuya : 109, un centre commercial de dix étages, dédié à l'habillement pour femmes jusqu'en 1996, puis ciblant les jeunes. Culture locale et patrimoine. Patrimoine architectural. Édifices religieux. Sanctuaire Meiji. Le sanctuaire Meiji est un lieu de culte du shintoïsme construit de 1915 à 1920, dans les règles du style "nagare-zukuri". Il est dédié au couple impérial de l'ère Meiji : l'empereur Meiji et l'impératrice Shōken. Patrimoine naturel. Les plus importants espaces verts de Shibuya sont le parc Yoyogi et une partie du jardin national Shinjuku gyoen. Situés dans le nord, ils représentent environ 10 % de la superficie de l'arrondissement. Le parc Yoyogi. Situé dans le nord de Shibuya, le parc Yoyogi est un des plus grands parcs à Tokyo. Ouvert au public depuis 1967, ce parc de sport et de loisirs s'étale sur une superficie de . Shinjuku gyoen. Le Shinjuku gyoen est un jardin national, étendu sur une superficie de , à cheval sur la limite sud de Shinjuku et la limite nord de Shibuya. Il mélange trois styles distincts de jardins : anglais, français et japonais. Patrimoine historique. Près de la sortie ouest de la gare de Shibuya est érigée une statue en bronze dédiée à Hachikō, le « chien fidèle ». Ce chien, de la race Akita, a accompagné son maître, chaque matin, jusqu'à la gare de Shibuya, et est venu l'accueillir tous les soirs, jusqu'à sa mort, survenue, en 1935, dix ans après le décès de son propriétaire. La place sur laquelle est honoré l'animal, symbole de fidélité, est un lieu de rendez-vous célèbre depuis son inauguration en 1934. Dōgenzaka est une rue commerçante en pente et un quartier du centre de l'arrondissement de Shibuya, célèbre pour ses boîtes de nuit et ses "love hotels". Le quartier inclut Bunkamura et le square Hachikō. Il tire son nom d'une légende qui raconte qu'à l'époque de Kamakura, des membres de la famille du commandant militaire Wada Yoshimori, y sévissaient comme brigands appelés "dōgen". Moyens de transport. Transport ferroviaire. Il y a plusieurs gares dans l'arrondissement, dont la principale, la gare de Shibuya. Il y a aussi plusieurs lignes ferroviaires et de métro. Symboles d'arrondissement. Sélectionné par une assemblée populaire en 1978, la fleur symbole de Shibuya est un cultivar de l'iris du Japon, une plante ornementale créée au Japon. Le jardin d'iris du sanctuaire Meiji, qui entretient horticoles de cette plante à fleurs, est particulièrement renommé. Choisi en 1978, le zelkova du Japon est l'arbre symbole de l'arrondissement. Il est typique de l'espace forestier du plateau de Musashino et est planté en nombre dans le parc Yoyogi et le long d'Omotesandō, une avenue de Shibuya. Dans la culture. Le quartier de Shibuya a inspiré de nombreuses œuvres. En musique, une chanson de l'album "À plus tard crocodile" du groupe Louise Attaque s'appelle « Shibuya Station » et le clip de la chanson « Panic Station » de Muse a été tourné dans le quartier. Plusieurs jeux vidéo se déroulent à Shibuya, notamment "Jet Set Radio," "The World Ends with You", "Shin Megami Tensei: Imagine" et "". L'action du film d'animation "Le Garçon et la Bête" prend également place dans le quartier. En littérature, Le "visual novel" "Chaos;Head" se déroule à Shibuya et dévoile de nombreux lieux connus du quartier, dont le nom a parfois été légèrement modifié pour des questions de copyright. Le manga "Tokyo Tribe" y prend également place, le quartier étant le théâtre d'affrontements entre les différents gangs de Tokyo, ainsi que la bande dessinée "Spirou et Fantasio à Tokyo" : le chien Hachikō y prend notamment vie avant d'être abandonné par Spirou et Fantasio à l'un des aéroports de Tokyo. Le quartier a également été vu dans la série Netflix "Alice in Borderland". De même, le quartier de Shibuya est le lieu-cadre de l’arc « Shibuya Incident » du manga "Jujutsu Kaisen". |
Syndrome d'immunodéficience acquise Le syndrome d'immunodéficience acquise, plus connu sous son acronyme SIDA (également écrit sida), est un ensemble de symptômes consécutifs à la destruction de cellules du système immunitaire par le virus de l'immunodéficience humaine (VIH). Le SIDA est le dernier stade de l'infection au VIH, lorsque l'immunodépression est sévère. Il conduit à la mort par suite des maladies opportunistes auxquelles il donne lieu. Un patient atteint du sida est appelé « sidéen », terme qui a progressivement remplacé le terme plus ancien « sidatique ». Trois modes de transmission du VIH ont été observés : Une pandémie s'est développée à partir de la fin des années 1970, faisant de cette maladie un problème sanitaire mondial. La prévention, telle que l'usage du préservatif dans les rapports sexuels, constitue de loin la meilleure solution, puisqu'il n'existe actuellement aucun vaccin permettant de se protéger du VIH, et que les traitements antiviraux disponibles n'entraînent pas de guérison. Ces traitements, bien qu'ayant une certaine efficacité, ne peuvent que stopper la prolifération du virus au sein de l'organisme mais non l'éradiquer. De plus ces thérapies, coûteuses, ne sont facilement accessibles que dans les pays développés qui peuvent en assurer la charge financière ; dans les pays en développement, plus de 95 % des patients ne bénéficient aujourd'hui d'aucun traitement efficace. Pour cette raison, l'ONU, avec son programme ONUSIDA, a fait de la lutte contre le sida l'une de ses priorités. Modes de transmission. Les trois modes de transmission du VIH ont chacun leurs particularités : par voie sexuelle, par voie sanguine et durant la grossesse et l'allaitement. Infection. Le VIH désorganise le système immunitaire en infectant les lymphocytes T CD4+. Ces cellules sont en effet les « coordinatrices » de la réponse immunitaire : elles jouent un rôle tout à fait central. La mort des cellules infectées est consécutive au détournement de la machinerie des lymphocytes, qui ne peuvent plus fabriquer leurs propres molécules, ainsi qu'à la destruction de l'intégrité membranaire au moment de la sortie des virus néoformés. Par ailleurs, les cellules infectées exposent à leur surface membranaire des protéines virales (complexe "Env"). Ces protéines sont reconnues par des cellules immunitaires saines et s'accolent au lymphocyte infecté. S'ensuit un processus de « baiser de la mort » ("") par lequel la cellule saine est détruite par activation de la voie de l'apoptose. Dans ce sens, Luc Montagnier rappelait lors d'un colloque tenu à Bruxelles en décembre 2003) : En l'absence de traitement, la quasi-totalité des patients infectés par le VIH évolue vers le sida, phase ultime de la maladie. La durée d'évolution vers le sida a semblé être de deux ou trois ans au début de la pandémie, mais est plutôt de l'ordre de dix ans, ainsi que l'ont montré des études faites en Ouganda. Les raisons de la latence de l'apparition de la maladie demeurent inexpliquées de façon satisfaisante. Un certain nombre de patients ne développent pas le sida, même sans traitement : ce sont les asymptomatiques à long terme dont un sous-groupe est composé de contrôleurs du VIH (estimés à 1 % des séropositifs) ; leur dénombrement – rendu plus difficile depuis le développement des antirétroviraux – a pu faire l'objet de contestation. Pour décrire la progression de l'infection par le VIH, il existe deux classifications, fondées sur les manifestations cliniques et les anomalies biologiques avec CD4<200/mm3. Classification CDC de l'ensemble des infections liées au VIH. Cette classification des Centres pour le contrôle et la prévention des maladies (CDC) est hiérarchique et historique, c’est-à-dire qu’une fois que le patient a atteint une classe, il reste dans cette classe, que les signes cliniques aient disparu ou non. Autrement dit un patient classé B ne pourra plus réintégrer la catégorie A, même si les signes cliniques de la classe B ont disparu. Épidémiologie. Depuis l'année 2002, le sida est considéré comme une pandémie mondiale. Les dernières estimations fournies par le rapport ONUSIDA 2007 portent à le nombre de personnes séropositives au VIH dans le monde ; à le nombre de personnes nouvellement séropositives au VIH en 2007 ; et à le nombre de personnes mortes du sida en 2007. Ce qui permet d'estimer à plus de le nombre de morts depuis le début de la maladie en 1981. L'organisation note une stabilisation du taux d'infection (c'est-à-dire du nombre de personnes infectées par rapport à la population globale), ce qui amène à penser que le pic de l'épidémie a été atteint et que celle-ci se stabilise. Cependant, le nombre de personnes infectées a augmenté, en raison de l'augmentation de la population et de l'accès aux trithérapies (qui retarde les décès). Ces estimations sont obtenues grâce à l’"Epimodel" utilisé par l'ONUSIDA. L'évolution de la prévalence de la séropositivité au VIH est alors obtenue par modélisation utilisant plusieurs paramètres démographiques et médicaux déterminés sur des échantillons de la population, en particulier les études antenatales. Cependant, les chiffres de cette pandémie ne sont que des chiffres officiels, car certains États sont trop pauvres pour pouvoir avancer avec certitude un chiffre exact à un niveau national, surtout en Afrique. Par exemple, la Somalie, État qui n'existe plus, en proie à une guerre civile depuis 1989, est dans l'impossibilité de pouvoir engager une enquête sanitaire à grande échelle pour connaître le nombre exact de malades ; autre exemple, le Sud-Soudan, nouvellement indépendant, qui sort de de guerre civile, n'a pas les moyens d'établir des statistiques à grande échelle, et tout au plus, donne des estimations basses. À ces chiffres, il faut ajouter des populations aux modes de vie traditionnels qui vivent dans une économie de subsistance, qui, la plupart du temps, ne se font pas soigner ou optent pour une médecine « traditionnelle » inefficace et où le poids des traditions, coutumes et croyances est lourd. Souvent le sida n'est pas diagnostiqué. Ainsi de nombreux malades meurent du sida sans le savoir. La Chine offre un autre exemple : depuis des années, de nombreuses ONG dénoncent les chiffres discutables donnés par l'État chinois. Il semblerait que, pour des raisons politiques sensibles, l'État chinois donne des chiffres éloignés de la réalité. Par exemple, un scandale a éclaté dans les années 2000 car, lors de campagnes de vaccinations, les seringues n'étaient pas changées, d'où un nombre important de contaminations au VIH. De nos jours encore, l'ampleur de ce désastre est méconnu et l'État chinois n'avance aucun chiffre, seules quelques ONG peuvent avancer des estimations basses. Pour d'autres pays, il y a aussi le poids de la religion : un État comme l'Arabie Saoudite, par exemple, communique peu, le sida étant considéré comme une honte dans ce pays. Souvent, les causes des décès sont cachées et on parle le plus souvent de tuberculose, alors que la raison de la mort est le sida. Régulièrement, l'OMS communique que la pandémie du sida se stabilise. Mais dans les faits, rien ne permet de dire si c'est vraiment le cas, car derrière la pandémie se cachent de nombreux tabous, tout comme des enjeux politiques importants, ce qui explique la prévalence de la raison d'État (la Chine en est un parfait exemple). Parler de la stabilisation de la pandémie du sida est aléatoire, mais le sida reste une pandémie, ce qui explique que l'OMS reste vigilante. Ce qui est certain, c’est que les chiffres de la pandémie restent très élevés et qu'elle a toujours un impact majeur, surtout en Afrique. Sans doute, l'ampleur de la pandémie est-elle sous-estimée, tout comme les chiffres peuvent aussi correspondre à la réalité. Dans le monde, l'Union sud-africaine semble être l'un des rares pays où le sida fait des ravages à communiquer en toute transparence des chiffres et des données qui correspondent à la réalité. Dans ce pays, le système de santé est performant, et de plus, il y a de nombreux hôpitaux, contrairement à d'autres pays africains qui en sont dépourvus, par exemple l'Éthiopie, pays très pauvre, qui malgré sa bonne volonté a du mal à donner des chiffres exacts sur l'impact du sida, en ce pays de plus de d'habitants. L'épidémie s'étend en Asie rapidement (plus d'un million de personnes ont été nouvellement contaminées dans cette région) et poursuit son expansion en Europe orientale. En s'étendant aux pays les plus peuplés du monde, elle peut avoir des conséquences potentiellement catastrophiques. Alors que dans les premières années elle touchait principalement les consommateurs de drogues injectables, les hommes homosexuels et travailleurs sexuels ainsi que leurs partenaires, ce n'est plus le cas aujourd'hui où la majorité des contaminations sont hétérosexuelles. Dans les pays occidentaux, la prévalence de la séropositivité au VIH a quelque peu diminué, grâce aux campagnes de sensibilisation, ainsi que dans les pays d'Afrique centrale. Par exemple, en Ouganda, elle est passée de 30 % en 1995 à 5 % en 2003. Néanmoins, parmi certaines parties de la population telles que les jeunes homosexuels, le taux d'infection montre de légers signes d'un possible retour à la hausse. Cela constitue un problème majeur pour les professionnels de la santé publique. Le sida demeure également extrêmement problématique en ce qui concerne les travailleurs du sexe et les toxicomanes. Le taux de décès a considérablement chuté, à la suite de l'utilisation des trithérapies qui se sont avérées très efficaces, sans toutefois jamais arriver à le guérir (selon le rapport 2004 d'ONUSIDA, il y a en 2003 environ séropositives au VIH en Europe de l'Ouest). Selon l'UNICEF, de moins de ont été infectés par le VIH en 2006, essentiellement par transmission mère-enfant, malgré les progrès faits en Afrique, notamment dans le Sud et l'Est dans la prévention de ce type de transmission. 50 % des bébés infectés mourront avant d'avoir deux ans s'ils ne sont pas traités. Le nombre de femmes infectées est plus élevé que celui des hommes. En Afrique, les antirétroviraux (ARV) manquent toujours : 9 % des femmes enceintes séropositives au VIH en ont reçu en 2005 dans les pays pauvres ou moyennement riches, pour empêcher la transmission du VIH au bébé, contre 3 % en 2003. Toutefois, dans les pays en développement (surtout en Afrique sub-saharienne), les conditions économiques et le manque de campagnes de sensibilisation ont contribué à maintenir des taux d'infection élevés. Certains pays d'Afrique comptent actuellement jusqu'à 25 % de leur population active séropositive au VIH. Si ces populations atteignaient effectivement le stade sida, elles deviendraient inaptes au travail et nécessiteraient des soins médicaux intensifs. De telles situations pourraient, à l'avenir, provoquer dans la région l'effondrement de certaines sociétés, la chute de gouvernements, augmentant d'autant plus la détresse de ces pays. Pendant des années, nombre de ces gouvernements ont nié l'existence de ce problème, et commencent seulement à rechercher des solutions. Le manque de soins médicaux adéquats, l'ignorance vis-à-vis de la maladie et de ses causes, ainsi que le manque de moyens financiers pour éduquer et soigner sont actuellement les principales causes de décès par le sida dans les pays en développement. Pour l'essentiel, la rapidité de diffusion du VIH dans ces pays est due aux coinfections VIH et virus de l'Herpès (HSV). Ce dernier favorise, lors des rapports sexuels, la transmission du VIH, en particulier la transmission hétérosexuelle en rendant les muqueuses génitales davantage perméables aux virus. En 2004 la mortalité globale en Afrique du Sud, par exemple, était de par an dont décédées des suites du HIV, soit 2,39 % des décès et la de mortalité par effectifs, pour une population de à la même date. En France, les statistiques de 2010 dénombrent contaminations par an. Dans 40 à 50 % des cas, le virus est contracté dans le cadre de relations sexuelles homme-homme (HSH), témoignant de ce que l'épidémie n'est pas encore contrôlée dans cette population (le nombre de nouveaux diagnostics chez les HSH a augmenté par paliers, puis s’est stabilisé depuis 2010 autour de ). Font suite par ordre d'incidence, les personnes d'origine d'Afrique subsaharienne et les usagers de drogues par voie intraveineuse. Le taux d’incidence est estimé à 39 pour en Île-de-France et à 11 pour pour le reste de la Métropole. La majorité des découvertes de séropositivité en 2011 (72 %) correspondent à des personnes de 25 à . Diagnostic. En 2009 en France, il était estimé qu'un tiers des séropositifs ne connaissaient pas leur statut sérologique. Il n'y a pas de dépistage obligatoire, si ce n'est lors d'un don de sang, de sperme ou d'organe, ainsi que lors d'une fécondation in vitro. Il est proposé lors des tests à passer avant la grossesse. Chacun est libre de se poser la question de son propre statut sérologique vis-à-vis du VIH et de subir un test de dépistage. Souvent la primo-infection est silencieuse et l'infection par le VIH passe inaperçue jusqu'à ce que le sida apparaisse ou qu'un test de séropositivité soit effectué. Signes cliniques. Les signes cliniques de l'infection par le VIH varient selon le stade de la maladie. Dans son livre "Des Virus et des Hommes", le professeur Luc Montagnier indique que cette maladie n'a aucun symptôme spécifique constant. Les symptômes de la primo-infection sont peu spécifiques. Ils apparaissent entre une et six semaines après la contamination, sous forme d'un syndrome pseudogrippal, ou mononucléosique. La fièvre est quasi constante, accompagnée de céphalées, de myalgies, d'asthénie. Les signes cutanéomuqueux associés sont une angine érythémateuse ou pseudomembraneuse comme dans la mononucléose infectieuse, et une éruption cutanée maculopapuleuse à type d'exanthème roséoliforme touchant essentiellement le tronc et la face. Peuvent s'y associer des ulcérations cutanéomuqueuses superficielles, surtout génitales et buccales. Dans plus de la moitié des cas, apparaissent au cours de la deuxième semaine des adénopathies multiples, cervicales, axillaires et inguinales. Des manifestations digestives à type de diarrhée avec douleurs abdominales sont présentes dans un tiers des cas. La durée d'évolution d'une primo-infection est en moyenne de deux semaines. En l'absence de dépistage précoce et donc de traitement, tant prophylactique que curatif, de nombreux patients découvrent leur séropositivité au VIH au stade sida, à l'occasion de l'apparition d'une maladie opportuniste. La liste en est longue : atteintes pulmonaires (pneumocystose, tuberculose, pneumopathie interstitielle lymphoïde, lymphome), digestives (diarrhée, cryptosporidiose), neurologiques (toxoplasmose cérébrale, démence à VIH, méningites), dermatologiques (sarcome de Kaposi, dermite séborrhéique), oculaires (rétinite à cytomégalovirus qui peut entraîner une cécité). Tests de dépistage de l'infection. Le diagnostic de l'infection par le VIH fait appel à la détection dans le sang des patients des anticorps dirigés contre le VIH. C'est la recherche de séropositivité au VIH, qui est un signe de l'infection ; mais l’absence de séropositivité au VIH ne veut pas dire qu'il n'y a pas eu une contamination (ce qui peut être le cas au tout début de l'infection). La législation française actuelle exige l'utilisation de deux trousses sérologiques différentes lors du test de dépistage, car le test Elisa, s'il présente une sensibilité de 99,9 % (c'est-à-dire qu'il ne passera pas à côté d'une personne infectée), peut donner des résultats faussement positifs, en particulier lors de grossesses multipares, lors de maladie grippale, chez les porteurs de facteur rhumatoïde, etc. Deux tests différents sont donc réalisés issus de deux laboratoires différents. Ces tests sont des "tests à limite", c'est-à-dire que la séropositivité au VIH est déclarée si le taux d'anticorps dépasse une certaine valeur fixée par le fabricant du test. Afin d'éliminer le risque de résultat faussement positif, la séropositivité au VIH sera confirmée par un second prélèvement pour confirmation par un "" (immunoblot). Le malade est considéré comme séropositif au VIH si des anticorps dirigés contre les protéines constitutives du virus et contre les protéines internes du virus sont observés. De nouveaux tests de dépistage permettent d'identifier des patients porteurs de l'antigène . En effet, en cas de prélèvement trop précoce, l'organisme n'a pas fabriqué d'anticorps en quantité détectable, et la recherche de l'Ag ou la mesure de l'ARN-VIH plasmatique permettent un diagnostic plus précoce mais qui doit toujours être confirmé par un second prélèvement. Il est également à noter que les tests de séropositivité au VIH dans les pays en voie de développement se réduisent le plus souvent à un seul test Elisa effectué auprès des femmes enceintes, qui constituent les populations les plus faciles à dépister à l'hôpital. Une étude a montré que des souris alloimmunes peuvent produire les antigènes GP120 et créés lors d'une infection par le VIH, bien qu'elles n'aient pas été exposées au VIH. Chez l'être humain, les antigènes GP120, et dans certains tissus placentaires spécifiques ("") de femmes à termes non infectées ont été retrouvés. Les tests de dépistage (Elisa) peuvent se révéler faussement positifs chez les personnes atteintes de lupus (ainsi que d'autres maladie auto-immunes tel qu'il a été confirmé au congrès de Yokohama en 1994) mais cela ne se retrouve généralement pas pour les tests de confirmation (). Pendant les mois qui suivent une vaccination anti-grippale (deux à cinq mois), le dépistage peut également se révéler faussement positif dans certains cas, y compris pour les tests de confirmation. Il existe plusieurs lieux concernant le dépistage. En France, les tests peuvent être réalisés dans les centres de dépistage anonyme et gratuit CDAG, dans les hôpitaux (centres de planification, centres de la Femme), dans les centres de santé universitaires (pour les étudiants) et dans les laboratoires de ville. Depuis le 1er janvier 2022, il est possible d’effectuer un dépistage dans un laboratoire de ville sans avance de frais, sans ordonnance et sans rendez-vous. Ce dispositif concerne tous les assurés sociaux et leurs ayants droit (dont les bénéficiaires de l’aide médicale d’État (AME). Mesure de l'ARN viral plasmatique. La quantification par PCR (Réaction en chaîne par polymérase) de l'ARN viral plasmatique est le test permettant de suivre l'intensité de la réplication virale dans l'organisme infecté et est appelé "charge virale". Ce test, couplé à la mesure du taux de lymphocytes T CD4+, est utilisé pour suivre l'évolution virologique d'un patient avant ou après la mise sous traitement. Il ne peut être utilisé comme seul moyen de diagnostic. On considère qu'une variation de la charge virale n'est significative qu'au-delà de , soit des variations d'un facteur (multiplication) de 3,6 environ à la hausse ou à la baisse. La charge virale est exprimée en "copies par ". Évolution de la charge virale et du système immunitaire. Les valeurs temporelles de la phase de latence clinique (ou phase asymptomatique) ne sont qu'une moyenne. Cette phase peut en effet aussi bien durer que 16, selon l'individu. Traitements. Le traitement systématique est recommandé. Il n'existe à l'heure actuelle pas de traitement permettant de guérir du sida, malgré l'existence de traitements comme les trithérapies antirétrovirales qui permettent de contenir l'action du virus avec plus ou moins d'efficacité ; de nombreux morts sont déplorés chaque jour en particulier dans les pays en développement où ces traitements sont difficilement accessibles en raison de leur coût. Des recherches continuent pour la mise au point d'un vaccin, mais les progrès dans ce domaine sont lents. La prévention est donc essentielle. Les traitements n'étaient généralement pas prescrits au début de la séropositivité au VIH, car ils présentent des effets indésirables, ainsi qu'une certaine toxicité. Depuis 2016, l'OMS recommande le Traitement Anti Rétroviral (TAR) à vie pour toute personne infectée par le VIH, sans exception (même les enfants pour femmes allaitantes), indépendamment du stade clinique de la maladie et de son niveau de CD4. D'autres sources également. L'OMS recommande également le dépistage immédiat des infections potentiellement mortelles comme la tuberculose et la méningite à cryptocoque en vue de leur prévention. L'objectif premier d'un traitement anti-rétroviral est de maintenir le nombre de CD4 au-dessus de 500/mm³. Pour atteindre cet objectif, un traitement anti-rétroviral doit maintenir une charge virale plasmatique au-dessous de 50 copies/mL. Ceci a pour effet de réduire la morbidité du VIH, d'améliorer le profil de tolérance clinique et biologique ainsi que la qualité de vie. Les principaux effets indésirables à court terme des multithérapies s'atténuent généralement rapidement : fatigue, maux de tête, troubles digestifs (nausées, diarrhées), fièvre ou plaques rouges sur la peau. Après plusieurs mois de traitement, une lipodystrophie (graisse disparaissant du visage pour aller sur le ventre pour les hommes et les cuisses pour les femmes), des dyslipidémies (augmentation du cholestérol et des triglycérides) ; ainsi qu'une perturbation du métabolisme glucidique (mauvaise assimilation du sucre) peuvent survenir. Certains de ces effets indésirables peuvent être atténués par une activité physique adaptée ou une adaptation des traitements médicamenteux. Une fois le traitement commencé, il doit être poursuivi avec une très grande régularité (une mauvaise observance peut rendre le virus « résistant »). Les tentatives d'arrêt des traitements n'ont pour l'instant pas donné de résultats probants. Au cours d'une grossesse, le risque de transmission "de la mère à l'enfant" est de 20 % à 40 %. Un traitement antirétroviral associé à la césarienne et à l'allaitement artificiel permet de réduire le risque de transmission à moins de 1 %. La durée courte du travail et le délai court de prise en charge après la rupture de la poche des eaux sont des facteurs de protection contre la transmission maternofœtale. Les dernières recommandations favorisant l'allaitement maternel complet jusqu'à l'âge de au moins proviennent d'études très récentes qui montrent que celui-ci réduit le taux de transmission à 4 %. L'espérance de vie actuelle sous traitement chez le sujet jeune infecté peut dépasser . Guérison : trois cas dans le monde. En 2012, l'Américain Timothy Brown (surnommé le « patient de Berlin ») est le premier cas connu de guérison du VIH. Il aurait été soigné indirectement à la suite d'une greffe de moelle osseuse alors qu'il était atteint d'une leucémie en 2007. En 2019, l'opération est reproduite sur une deuxième personne, qui a également connu une rémission durable du VIH-1. Le patient de Londres ainsi que le patient de Berlin ont subi des transplantations de cellules souches de donneurs porteur d'une mutation du gène CCR5 rendant inopérant un récepteur du VIH. La mutation du gène du CCR5 en question empêche le virus de pénétrer dans les cellules hôtes, ce qui rend les porteurs de cette mutation résistants au virus du sida. Cette mutation génétique n'est présente que chez 1 % de la population mondiale. Le , un troisième cas de guérison est annoncé au travers d'une publication dans "Nature Medicine". Comme pour les deux cas précédents, le traitement a consisté en une greffe de moelle osseuse. Le patient, dénommé le « patient de Düsseldorf », a également guéri d'une leucémie. Vers une éradiction de l'épidémie, puis du virus. En 2016, l'OMS annonce une stratégie d’élargissement de l’accès au traitement ambitionnant de mettre fin à l’épidémie de sida d’ici à 2030. Début juillet 2019, des chercheurs américains parviennent à éliminer définitivement le virus chez des souris infectées, une première mondiale, même si la perspective d’une application chez l’homme n’est pas encore en vue. Cette prouesse repose sur une double approche novatrice : l’utilisation du système d’édition génétique CRISPR d’une part, et le recours à une technique appelée LASER ART, qui permet de libérer les médicaments plus lentement. Un accès encore inégal aux traitements dans le monde. Le sida, qui a touché des populations riches, a fait l'objet d’investissements de recherche très important et de résultats remarquablement rapides (première trithérapie en 1995). Contrairement aux idées reçues, et grâce notamment à l’action des associations de patients et de certaines institutions, ONG, lobbys, etc., des traitements auparavant hors de prix sont devenus accessibles en Afrique, pour environ la moitié des malades, alors qu’en Europe et aux États-Unis, les prix des mêmes traitements sont restés stables. Sur ce sujet plus général du marché pharmaceutique des pandémies, l’action des gouvernements peut, elle aussi, être primordiale. Mais les grands laboratoires pharmaceutiques pratiquent parfois des marges bénéficiaires irrationnellement abusives, tout à fait déconnectées du coût réel de développement et de fabrication de ces médicaments. Le 18 juillet 2018, l'instance ONUSIDA affiliée aux Nations unies a publié un rapport décrivant que sur des séropositifs dans le monde ont accès aux traitements, soit presque 3 séropositifs sur 5. Il s'agit de la proportion la plus élevée jamais atteinte. Le directeur exécutif de l'ONUSIDA, Michel Sidibé, a cependant rappelé l'insuffisance des financements qui pourrait conduire à des résultats moins bons dans le futur. Sidibé a signalé que de fortes disparités demeurent : certains pays inquiètent, comme le Nigeria, ou comme la Russie qui voit l'épidémie se généraliser au sein de sa population. Aussi, la lutte contre le virus chez les enfants est jugée insuffisante par le directeur exécutif malien de l'ONUSIDA, avec et constatés en 2017 parmi eux. Prévention. Les divers modes de transmission du VIH sont désormais parfaitement connus. Il n'existe, à ce jour, aucune vaccination efficace contre le sida. La prévention est donc fondamentale et le préservatif reste actuellement le meilleur moyen. Malgré la large diffusion d'informations sur la maladie et la prévention, certaines personnes ont néanmoins des comportements à risque (voir article prise de risque du sida), ce qui nécessite des actions de prévention. Plusieurs enquêtes épidémiologiques ont mis en évidence un relâchement des comportements de prévention dans les pays occidentaux, tout particulièrement dans le cadre de la transmission sexuelle du VIH, alors que la transmission du VIH chez les usagers de drogues intraveineuses a nettement diminué et que la transmission par transfusion est devenue pratiquement nulle en Europe. Contamination sexuelle. Les rapports réceptifs sont plus à risque que les rapports insertifs, et les rapports anaux réceptifs sont ceux qui comportent le risque de transmission le plus élevé. Selon le ministère de la Santé français, la probabilité de transmission par acte varie de : Ces quatre types de rapports sont classés à haut risque dans le document cité en référence, alors que les rapports oraux réceptifs ou insertifs avec ou sans éjaculation sont tous classés à faible risque, mais sans estimation chiffrée du risque réel. Les infections sexuellement transmissibles (IST) favorisent la transmission du virus VIH par les micro-ulcérations et l'inflammation qu'elles entraînent localement. Répondent à cette définition la syphilis, la gonococcie, la chlamydiose (CT), l’"herpès virus" (HSV), la papillomatose et la trichomonase. Être déjà séropositif pour le VIH ne protège pas d'une surinfection VIH par une nouvelle souche virale potentiellement plus virulente. Les personnes séropositives au VIH ne souffrant d’aucune autre MST et suivant un traitement antirétroviral efficace, c'est-à-dire ayant une virémie indétectable depuis au moins six mois, ne risquent de transmettre le VIH par voie sexuelle que de façon négligeable, avec un risque inférieur à 1 sur . Préservatif masculin ou féminin. Lors d'une relation sexuelle, seuls les préservatifs, qu'ils soient masculins ou féminins, protègent du VIH et des principales infections sexuellement transmissibles. Ils doivent être utilisés lors de tout rapport sexuel avec pénétration (qu'elle soit vaginale, anale ou buccale), avec un partenaire séropositif ou dont le statut sérologique est inconnu. La condition pour l'efficacité du préservatif masculin est qu'il soit utilisé correctement à chaque rapport. Les lubrifiants à base de corps gras, comme la vaseline, des pommades ou des crèmes, voire du beurre, doivent être proscrits, car ils fragilisent les préservatifs en latex et augmentent les risques de rupture. Il faut leur préférer des lubrifiants à base d'eau. Il est préférable d'utiliser un préservatif non lubrifié pour la fellation. Il est par ailleurs indispensable de vérifier sur la pochette du préservatif l'inscription de la date de péremption et d'une norme reconnue (CE-EN 600 pour l'Union européenne). Le préservatif féminin représente une alternative au préservatif masculin. Il est en polyuréthane — ce qui autorise les lubrifiants à base de corps gras ou aqueux — avec un anneau externe et interne. Il se place à l'intérieur du vagin grâce à un anneau souple interne. Il peut être mis en place dans le vagin ou dans l'anus quelques heures avant un rapport sexuel, et n'a pas besoin d'être retiré tout de suite après le rapport, à l'inverse du préservatif masculin. Le principal obstacle à sa diffusion reste son coût élevé. L'usage du préservatif permet une diminution du risque d'infection. Circoncision. Selon certaines études, la circoncision permettrait de réduire la propagation du sida de 38 % à 66 % lors des rapports vaginaux pour le partenaire masculin. L'hypothèse de cette réduction des risques d'infections fut avancée dès 1986, puis confirmée au cours des années 2000 par trois essais contrôlés randomisés. Fortes de ces résultats, en , l’OMS et ONUSIDA ont indiqué que la circoncision médicale est une stratégie additionnelle dans la lutte contre l’épidémie de sida dans les zones qui connaissent une épidémie généralisée du virus (prévalence supérieure à 3 %) et où sa transmission est essentiellement hétérosexuelle. Contamination sanguine. L'usage de drogue peut permettre la contamination par le partage de seringues par exemple, avec au moins une personne infectée, mais de plus certaines drogues peuvent avoir en elles-mêmes une action nocive sur le système immunitaire ; le risque pour la santé peut donc être double. Là encore, certains prônent l'abstinence, tandis que d'autres, jugeant cette position peu réaliste, préfèrent mettre à la disposition des toxicomanes un matériel stérile ou des traitements de substitution. Les drogues comme la cocaïne, l'héroïne, le cannabis, , sont des corps toxiques étrangers. Elles provoquent donc une réponse immunitaire plus ou moins aiguë, dépendant de la nature de la substance, de sa concentration et de la fréquence à laquelle elle est consommée. Par exemple le THC présenterait en particulier des effets immunosuppresseurs sur les macrophages, les cellules NK et les lymphocytes T. L'ecstasy a également des effets néfastes sur les cellules CD4+ du système immunitaire. Le partage et la réutilisation de seringues usagées et souillées par du sang contaminé constituent un risque majeur de contamination par le VIH, mais aussi par les virus des hépatites B et C. En France, des mesures de réduction des risques sanitaires ont été mises en place : vente libre de seringues (depuis 1987), trousses de prévention contenant le matériel nécessaire pour réaliser une injection à moindre risque, mise en place d'automates de distribution et de récupérateurs de seringues, offre de traitements de substitution par voie orale. Le risque d'infection par le virus du sida peut être augmenté lorsque la personne à l'origine de la contamination est porteur du VIH "et" d'un virus de l'hépatite (A, B ou C). Dans ce cas très particulier, la surinfection simultanée est même à envisager (voir test VIH). Pour prévenir ces contaminations, il est essentiel de ne pas partager le matériel d'injection ou d'inhalation (seringues, cotons, cuillères et cupules, eau de dilution de la drogue, mais aussi pailles et pipes à "crack", surtout si elles sont ébréchées). Le matériel d'injection doit être à usage unique. L'efficacité de ces mesures reste toutefois controversée. Une étude datant de 1997 indique qu'à Montréal, ceux qui participaient aux programmes « seringues stérilisées » auraient eu un taux de transmission plus élevé que ceux qui n'y participaient pas. Des associations de lutte contre la drogue reprochent à ces mesures de rendre la toxicomanie plus accessible et de ne pas insister suffisamment sur les possibilités de désintoxication. À leur avis, résoudre le problème de la drogue éliminerait l'un des modes de transmission du sida. Prévention par l'éducation. L’éducation contribue à l’acquisition de connaissances et de compétences personnelles qui sont essentielles pour prévenir le VIH. Dans les pays où il existe une épidémie généralisée de VIH, le secteur de l’éducation participe également à l’atténuation des effets du SIDA sur les élèves, le personnel éducatif, leurs familles et leurs communautés. Il est important de suivre et d’évaluer le rôle de l’éducation face à l’épidémie de VIH afin que les pays améliorent la qualité de leurs politiques et de leurs programmes en milieu scolaire. L’instrument des politiques et des engagements nationaux, ainsi que les enquêtes de population sont, respectivement, des outils de mesure et des sources de données pour surveiller les aspects de la réponse du secteur de l’éducation au VIH et au SIDA qui ne peuvent être évalués via le SIGE ou des enquêtes en milieu scolaire. Par exemple, les bureaux nationaux de statistique sont généralement responsables des données démographiques. Traitement préventif. Un agent rétroviral, le ténofovir (l'emtricitabine/ténofovir) est la seule molécule utilisable à titre préventif. Déjà prescrite aux personnes séropositives dans le cadre d'une thérapie médicamenteuse, elle est également proposée pour les personnes particulièrement exposées au virus, comme les homosexuels séronégatifs n'utilisant pas le préservatif et ayant des partenaires multiples, ou encore pour les couples dits "sérodiscordants" (une personne séronégative et une personne séropositive sous traitement). Cet agent est autorisé en France et aux États-Unis pour la prévention du risque, même s'il est indiqué de continuer l'utilisation du préservatif. Les études menées aux États-Unis, notamment, indiquent des taux d'efficacité variant entre 50 et 100% selon les posologies. Depuis 2016, l'OMS recommande le Traitement Anti Rétroviral (TAR) pour les individus non infectés par le VIH mais exposés à un risque plus élevé de contamination, par exemple ans les couples sérodiscordants (un partenaire infecté et l’autre non), les consommateurs de drogues par injection, etc. Ceci permet de limiter, mais pas de supprimer, les risques de contamination sans usage de préservatif sous certaines conditions : les partenaires s'engagent sur la fidélité, le séropositif doit avoir une charge virale indétectable depuis au moins et ne jamais manquer de prise de médicament selon les conseils du médecin. Dans ces conditions, le risque de contamination reste présent, à hauteur de 4 %. Ces conditions sont définies par le Conseil Supérieur de la Santé de Belgique dans le cadre d'un Plan VIH 2014-2019. Ce concept doit faire partie d'une prévention globale intégrée (prévention primaire, dépistage et prise en charge) qui fait intervenir le traitement comme outil de prévention. L'utilisation du préservatif et du lubrifiant, la distribution de seringues stériles et l'éducation à la sexualité et à la prévention des infections sexuellement transmissibles restent néanmoins les éléments clés de la prévention pour tous les groupes à risques (les hommes qui ont des relations sexuelles avec des hommes, les personnes migrantes, personnes vivant avec le VIH, adolescents, travailleurs du sexe, personnes qui s’injectent des drogues et détenus). Autre. La position de l'Église catholique sur la question met en exergue l'importance d'une sexualité ordonnée pour lutter contre le sida. La contraception, toujours identifiée comme empêchant de vivre l'acte sexuel dans toutes ses dimensions, n'est pas considérée comme une solution « véritable et morale ». Cependant, la contraception peut être parfois tolérée selon le principe de gradualité. Histoire. Reconnaissance d'une épidémie. Les premiers signes de l'épidémie remontent à la fin des années 1970, lorsque des médecins de New York et de San Francisco, à l'instar de Linda Laubenstein ou Paul Volberding, s'aperçoivent que beaucoup de leurs patients homosexuels souffrent d'asthénie, de perte de poids et parfois même de forme rare et atypique de cancer (comme le sarcome de Kaposi). L'existence d'un problème sanitaire est avérée en juillet 1981 lorsque le Centre pour le contrôle et la prévention des maladies (CDC) d'Atlanta relève une fréquence anormalement élevée de sarcomes de Kaposi, en particulier chez des patients homosexuels. La maladie est d'abord connue sous le nom de « » ou « », GRID () ou encore aux États-Unis. Ces diverses appellations s'avérèrent inappropriées dès que s'affirma l'universalité de la maladie : à l'été 1982, débuta aux États-Unis l'usage du sigle AIDS, qui signifia d'abord puis . Le terme "AIDS" avec la notion d’ (acquis) sont réputés être donnés par le chercheur Bruce Voeller, mort lui-même d'une complication liée à cette maladie. À la fin de 1981, le Bureau d'épidémiologie du Ministère de la santé nationale et du bien-être social du Canada demandait au Bureau de la traduction du gouvernement canadien l'équivalent français du terme « acquired immune deficiency syndrome » ou « AIDS ». Ces deux appellations apparaissaient dans un communiqué diffusé par le Center for Disease Control (CDC) d'Atlanta, aux États-Unis. Or, conformément à la Politique sur les langues officielles en vigueur au Canada, tout bulletin émis par un ministère fédéral devait être diffusé simultanément en anglais et en français. Le Bureau d'épidémiologie devait donc absolument trouver le terme correct pour décrire cette réalité en français. À l'époque, aucun ouvrage médical francophone ne traitait de ce syndrome, exception faite d’un rapport qui faisait mention des travaux de Luc Montagnier de l'Institut Pasteur, en France, où il était question d’« immuno-dépression acquise » et de « déficience immunitaire acquise ». L’experte du Bureau de la traduction en matière de terminologie médicale, Sylvie DuPont établit avec son interlocuteur du ministère de la Santé qu'il s'agissait toutefois d'un syndrome, c'est-à-dire d'un ensemble de symptômes constituant une entité clinique. Le Ministère de la santé souhaitait également trouver un sigle, de préférence aussi simple à l'usage que le « AIDS » anglais. En manipulant les composantes du syntagme, elle proposa différents équivalents, dont « syndrome d'immunodéficience acquise » qui pouvait être abrégé en l'acronyme « sida ». Au fil des ans, ce terme est passé dans l'usage et a subi une dernière transformation : depuis la fin des années 1980 on utilise la graphie « sida » plutôt que « SIDA », d'autant que le terme est devenu un nom commun dans les dictionnaires de français "Petit Larousse" et "Petit Robert". Pour désigner la personne atteinte de sida, . La ministre française de la santé de l'époque, . Puisque la presse écrite française jouit d'une plus grande diffusion à l'échelle internationale, . L'origine virale ne fut pas d'emblée évoquée, et l'hypothèse d'une intoxication par des produits comme les "poppers" (stimulants sexuels contenant du nitrite d'amyle) a pu être émise au début, car les six premiers malades en avaient tous été de gros consommateurs. De même, l'identification du virus responsable a été difficile, beaucoup de scientifiques parlant d’"HTLV" comme cause de l'épidémie. C'est à la même période que de nombreux transfusés sont contaminés par des lots de sang contenant le VIH. En quelques années, le virus va s'étendre pour finir par toucher toutes les couches de la population. En , l'équipe du professeur Jean-Claude Chermann et Françoise Barré-Sinoussi qui travaille à l'Institut Pasteur sous la direction de Luc Montagnier, isole un virus étroitement associé au sida ; à ce stade, cependant, le lien entre le LAV () et le sida n'est pas clairement établi par l'équipe de Luc Montagnier. Le , une conférence de presse est organisée par le département de la Santé et des Services sociaux des États-Unis. À cette occasion, la secrétaire américaine à la Santé Margaret Heckler annonce d'abord que Robert Gallo et ses collaborateurs ont découvert l'agent causal du sida, un rétrovirus baptisé HTLV-. Elle annonce ensuite que cette équipe est en mesure de produire le virus en masse. Enfin, elle annonce la prochaine distribution d'un test de diagnostic. En , une commission de nomenclature virologique forge un sigle pour désigner le virus isolé : HIV (), que les Français transcrivent en VIH. En , sous le gouvernement Chirac, le sida devient une maladie à déclaration obligatoire. En décembre, les cas de sida avérés obtenant le statut de maladie de longue durée ouvrent droit à une prise en charge à 100 %. Contestation du lien entre VIH et sida. Certaines personnes ou groupes ont remis en question le lien de causalité entre le VIH et le sida, voire nié l'existence du virus. Le virologiste Peter Duesberg, dont les travaux ont depuis été contredits, soutient que le sida est causé par la consommation à long terme de drogues ou d'antirétroviraux. En réaction à ces controverses, la "Déclaration de Durban" entend rappeler que les preuves que le sida est causé par le VIH sont claires, sans ambiguïté et conformes aux plus hauts standards de la science. Origine. Les VIH font partie d'un groupe de virus entraînant des maladies semblables au sida chez les primates, les virus de l'immunodéficience simienne (VIS). Les différents virus humains (VIH) sont le résultat de la transmission à l'Homme de différents virus au , notamment des VIS des chimpanzés (pour les VIH-1) et des mangabeys (probablement, pour les VIH-2). Bien que les VIS n'infectent habituellement pas l'Homme, certaines mutations, dont quelques-unes ont été identifiées, ont permis ces transmissions. Le mode exact de transmission n'est pas connu, mais il aurait pu s'agir, par exemple, d'une contamination par voie sanguine lors du découpage d'animaux infectés. Les études scientifiques suggèrent que VIH-1 est apparu dans le bassin du Congo dans les années 1920. À cette époque, le développement économique du Congo belge s'est accompagné d'un développement des liaisons ferroviaires et d'une forte croissance de la population de Kinshasa, ce qui pourrait avoir favorisé la propagation du virus. Le premier échantillon recensé du VIH fut recueilli en 1959 à Léopoldville (aujourd'hui Kinshasa), dans l'actuelle République démocratique du Congo. Parmi les premiers échantillons recueillis, le cas d'un Américain homosexuel en 1969 et d'un marin hétérosexuel norvégien en 1976. Au début de l'épidémie, des recherches ont été entreprises pour déterminer le patient zéro qui aurait propagé le virus aux États-Unis. Pendant un temps les soupçons se sont portés sur Gaëtan Dugas, un steward canadien homosexuel qui est mort le . Une étude fait remonter l'entrée du VIH aux États-Unis vers 1969. Pandémie. Dans les années 1980, le sida se transforme en une pandémie. Il y a eu, entre 1981 et 2006, environ de morts dus aux maladies en rapport avec le sida. En 2007, l'épidémie semble marquer le pas, le nombre de séropositifs au VIH ayant sensiblement diminué de en 2006 à de personnes séropositives au VIH. L'ONUSIDA indique cependant que cette diminution provient d'une meilleure utilisation des outils statistiques, et met en garde contre un optimisme exagéré. Les séropositifs au VIH étrangers peuvent difficilement entrer dans plusieurs pays, comme la Russie. Aux États-Unis, l'interdiction a été levée par l'administration Obama en janvier 2010. Rôle des médias. Impact positif sur la compréhension du sida. Dès le début de l’épidémie, les médias font du sida l’un des sujets centraux de leur couverture. Ainsi, en France, dès 1986, les sources médiatiques deviennent un élément central de la prévention mise en place par l’État : publicité pour les préservatifs, campagne de prévention « le Sida, il ne passera pas par moi ». Cette campagne utilise une variété de médias, tels que la télévision, le minitel ou encore la radio, afin de toucher le plus grand nombre. Le message transmis est que la maladie ne faisant pas exception du genre, du sexe, de l’orientation sexuelle ou encore de la richesse, tout le monde peut être touché et ne doit être en aucun cas mis à l’écart. Ces campagnes ont également l’objectif de lever des fonds, afin de venir en aide aux personnes touchées et trouver des solutions médicales pour contrer la maladie. Les campagnes gouvernementales utilisent les médias les plus populaires comme la télévision et la radio, aux meilleures heures d’audience. Par exemple en Suisse, l’un des pays les plus touchés d’Europe, afin que la campagne nationale soit la plus utile possible, l’État recommande des messages permanents détenant des informations centrales à mentionner dans chaque intervention « l’usage de préservatif », « la fidélité » et la « non-entrée dans la toxicomanie ». Impact négatif sur la compréhension du sida. Toutefois, les médias participent également à la propagation d’informations erronées, au début de l’épidémie. Les moyens de transmission de la maladie étant peu connus au début des années 1980, certaines personnes n’étant pas issues de la communauté scientifique, mais plutôt de milieux religieux, comme des pasteurs, sont invitées à s’exprimer sur le sujet, ce qui engendre des croyances de transmission par contact physique ou par contact buccal. Ces informations ont pour conséquence la montée de la peur dans la société, mais aussi la stigmatisation des homosexuels, qui sont accusés d’être à l’origine de l’épidémie. Ainsi, la télévision américaine présente des médecins partager leur volonté d’isoler les homosexuels pour amoindrir l’épidémie. Un manque important de couverture médiatique est à noter dans les régions du tiers monde, pourtant très touchées par le virus, alors qu’il est l’un des sujets dominants dans les médias occidentaux. L’Afrique subsaharienne reste la zone du globe la plus concernée (la probabilité pour un adulte d’y attraper le sida est alors 125 fois supérieure à celle des États-Unis). Mêmes si certaines sources médiatiques internationales informent tout de même sur cette région, certains n’y voient qu’une volonté de renforcer les stéréotypes traditionnels associés à l’Afrique, donc d’un territoire instable économiquement et politiquement, déjà enclin à la famine et au non-respect des droits de l’homme. Cette situation a pu renforcer, en Occident, la compréhension de l’Afrique comme un continent incapable de s’autogouverner et de légitimer alors des politiques internationales controversées. Implication de célébrités. Elizabeth Taylor est la première star à s'impliquer dans la lutte contre le sida à la suite du choc que créa le décès de son ami Rock Hudson. Elle crée l'AmfAR en 1985. Son engagement a permis de récolter plus de de dollars pour la recherche contre la maladie. Lady Diana et Rock Hudson s’inscrivent comme des figures influentes de cette lutte. Diana, la princesse de Galles, épouse du prince Charles, est issue d’un milieu aisé et respecté dans la conscience collective. À l’époque, la population, peu informée, craint que tout contact avec les sidéens engendre une contamination. Ainsi, en 1987, Lady Diana crée un émoi lorsqu’elle serre la main d’un homme atteint du sida, sans protection. En effet, en profitant de sa couverture médiatique, elle affaiblit la stigmatisation entourant les personnes contaminées, en prouvant qu’elles ne représentent pas un danger pour la santé publique par le toucher. De plus, Rock Hudson, un acteur américain des années 1950 incarnant les bonnes valeurs traditionnelles américaines dans ses films avec ses rôles de séducteur, est également une figure importante ayant usé de sa notoriété artistique pour lutter contre la stigmatisation. En effet, cette vedette du cinéma, souhaite sensibiliser le public américain, alors qu’un climat hostile domine aux États-Unis envers les malades. En 1985, au moment où il dévoile être homosexuel et contaminé, le gouvernement américain est réticent envers l’immigration de personnes touchées par le sida, renforçant le phénomène de stigmatisation. Toutefois, les révélations chocs d’un homme représentant l’idéal du « "gentlemen" » aux États-Unis ébranlent le public et ont des répercussions significatives. L’acteur perturbe le stéréotype pré-construit que la société détient à cette époque voulant que les homosexuels sidéens représentent une menace ou une forme de « cancer gay ». Quelques mois après la mort d’Hudson, le gouvernement fédéral entreprend une réforme, finançant divers projets de recherche pour contrer la propagation du sida et pour développer un traitement. Le , Freddie Mercury meurt à l'âge de un jour après avoir révélé au public qu'il était porteur du VIH et atteint du sida. Le 20 avril 1992 les membres restants de Queen organisent un concert et y invitent une pléiade d'artistes (David Bowie, Elton John, George Michael, Liza Minnelli, Guns N' Roses, Metallica, Robert Plant) à reprendre les tubes du groupe. L'argent récolté par le concert et par la vente des VHS et DVD est reversé à la Fondation Mercury qui lutte contre le sida. En France, Line Renaud et Pierre Bergé créent Sidaction en 1994. Victimisation des malades. Les personnes atteintes du sida et les associations qui les défendent comme Act Up sont plutôt mal vues par la population ignorante à l’endroit de la maladie. Afin de palier cela, il est jugé nécessaire d’entretenir une image victimisante des sidéens dans les médias, pour susciter l’empathie et ainsi enclencher une campagne de prévention. Ce rôle est d’abord attribué aux gouvernements, puis des associations telles que Sidaction prennent le relais afin de soutenir les victimes et faire avancer la recherche. Les organismes et institutions ciblent ces groupes en fonction de leur culture, leurs origines, leurs risques, leurs comportements. La sociologue Janine Barbot écrit : « La première forme d'engagement est construite sur une lecture politique de l'épidémie du sida en termes de rapports de domination et de luttes de pouvoirs. C'est la lecture d'Act Up. Pour cette association, le sida n'a pas frappé au hasard, mais touché des catégories spécifiques : homosexuels, toxicomanes, minorités ethniques, etc. Ces catégories sont « socialement définies » par des conduites qui s'écartent du « modèle dominant » ou des « normes morales majoritaires ». |
Soudan Le Soudan ( ; en '), en forme longue la république du Soudan ( '), est un pays d'Afrique du Nord-Est. Le Soudan est bordé par la Libye au nord-ouest, l’Égypte au nord, la mer Rouge à l'est-nord-est, l'Érythrée à l'est, l'Éthiopie à l'est-sud-est, le Soudan du Sud au sud, la République centrafricaine au sud-ouest et le Tchad à l'ouest. Les langues officielles du pays sont l’arabe et l'anglais depuis 2005. Sa capitale est Khartoum et sa plus grande ville est Omdourman. Étymologie. Son nom vient de l'arabe "balad as-sūdaan", qui signifie littéralement « pays ("balad") des Noirs » ("sūdaan", ce terme étant le pluriel d"'aswad") ; cette expression désigne le Soudan, une région d'Afrique plus grande dont fait partie l'Ouest du pays. Histoire. Dans l'Antiquité, le pays correspondait en grande partie à l'ancienne Nubie (voir l'article détaillé sur l'histoire du Soudan). Quelques repères : Dans les années 1820, l'Égypte est gouvernée par le pacha Méhémet Ali. L'Égypte étant une province de l'Empire ottoman, il est en théorie vassal du sultan de Constantinople, mais s'est en pratique libéré de la tutelle de celui-ci et mène une politique indépendante d'expansion territoriale. Après d'infructueuses tentatives pour conquérir la Palestine et la Syrie, il se lance avec succès à la conquête du Soudan dans les années 1820. En 1885 le chef religieux Muhammad ibn Abdallah, s'étant proclamé « le Mahdi » (« l'attendu »), tenta d'unifier les tribus de l'Ouest et du Centre du Soudan contre la domination égyptienne. Il prit la tête d'une révolte religieuse que le gouvernement égyptien s'avéra incapable de réprimer et infligea une défaite écrasante à l'armée envoyée contre lui par Le Caire : commandée par le colonel anglais Hicks, celle-ci commit l'imprudence de s'aventurer dans le désert à la poursuite du Mahdi qui, lorsqu'elle fut bien épuisée et démoralisée, se retourna contre elle et l'anéantit. Cette victoire, outre qu'elle laissait l'Égypte presque sans moyen militaire, apporta au Mahdi les moyens qui lui manquaient pour donner à l'insurrection une plus grande ampleur : le ralliement de nouvelles tribus et surtout des milliers de fusils Remington, de cartouches et des pièces d'artillerie. Jusque-là cantonnée au désert et à des opérations de guérilla, l'insurrection mahdiste pouvait désormais s'attaquer aux villes et garnisons égyptiennes du Soudan, à commencer par la capitale : Khartoum. Le Khédive d'Égypte demanda l'aide de la Grande-Bretagne, mais le gouvernement de Gladstone refusa d'engager des troupes dans une aventure qui ne le concernait pas. Il consentit tout au plus à mettre à la disposition de l'Égypte le général Gordon avec pour mission d'organiser l'évacuation des garnisons égyptiennes du Soudan, abandonnant le pays au Mahdi. Si Gordon connaissait bien le Soudan (dans les années 1870, il en avait été gouverneur général, nommé par le khédive) et s'il était un chrétien convaincu, il ne comprit pas vraiment la signification de la révolte, ni la raison pour laquelle elle mobilisait largement la population. Pour reprendre les remarques d'un des meilleurs observateurs britanniques de l'époque, Wilfred Scawen Blunt, il ne se rendit pas compte que tous les gens de bien au Soudan étaient du côté du Mahdi. Encerclé à Khartoum, il refusa de l'abandonner et organisa la défense, persuadé que l'opinion publique britannique et en particulier la très influente Ligue contre l'esclavage exercerait sur le gouvernement une pression telle que celui-ci se verrait contraint d'envoyer des troupes à son secours, ce qui fut le cas. L'expédition de secours, commandée par Garnet Joseph Wolseley, arriva trop tard et se trouvait encore à quelques jours de marche de Khartoum lorsqu'elle apprit la chute de la ville et la mort de Gordon (janvier 1885). Les instructions qu'avait reçues sir Garnet étaient claires : sa mission était de sauver Gordon, pas de conquérir le Soudan. Il fit donc demi-tour et regagna l'Égypte, ramenant avec lui les dernières garnisons égyptiennes ; le Mahdi restait maître de tout le pays. Ce dernier ne profita guère de sa victoire, il mourut quelques semaines plus tard, peut-être d'une méningite. Dirigé par le khalifa Abdullah, le pouvoir mahdiste survécut jusqu'en 1898 où il fut anéanti à la bataille d'Omdurman par une armée anglo-égyptienne commandée par sir Horatio Herbert Kitchener. Cette bataille fit du côté soudanais et 48 du côté anglo-égyptien, ce qui en fait un massacre plus qu'une bataille, et personne ne s'interrogea sur le fait que presque aucun des blessés ne survécut. Kitchener était en route vers Fachoda et sa dramatique confrontation avec l'expédition française du commandant Marchand. Le Soudan connait une famine particulièrement meurtrière entre 1889 et 1891, tuant environ un tiers de ses habitants. 1916 est l'année de la défaite et de la mort d'Ali Dinar, dernier sultan du Darfour et Dar Massatite en 1921. L'indépendance fut proclamée en 1956, mais le gouvernement de Khartoum revint sur les promesses faites aux provinces du Sud de créer un État fédéral, ce qui conduisit à une mutinerie menée par des officiers du Sud, qui fut le début d'une guerre civile de dix-sept ans (1955-1972). Des élections eurent lieu en avril 1965 mais les gouvernements successifs furent incapables de se mettre d'accord sur une constitution permanente ou de résoudre les problèmes de la lutte entre factions, de la stagnation économique et de la dissidence ethnique. Le mécontentement amena un deuxième coup d'État militaire le . Son meneur, le colonel Gaafar Muhammad Nimeiri, devint Premier ministre, et le nouveau régime supprima le Parlement et interdit tous les partis politiques. Des luttes entre les marxistes et les non-marxistes à l'intérieur de la coalition militaire au pouvoir provoquèrent un nouveau coup d'État en juillet 1971, dirigé par le Parti communiste soudanais. Quelques jours après, des troupes anti-communistes du colonel Nimeiri exécutent le secrétaire général du PC soudanais : l'écrivain , le dirigant de la Confédération Générale des travailleurs du Soudan, Chafi’Al Cheikh, sont pendus le 28 juillet, et des centaines de militants et de syndicalistes sont exécutés. En 1972, l' mit fin à la guerre civile Nord-Sud et instaura un certain degré d'autonomie régionale. En septembre 1983, le président Nimeiri annonça sa décision d'étendre au droit pénal le domaine du droit musulman, cantonné depuis la colonisation au droit personnel. Bien que le droit pénal soit en théorie uniquement personnel et proportionné. Cette décision est l'élément déclencheur d'une guerre civile qui oppose le Gouvernement (GOS) à des groupes armés du Soudan du Sud. Ce conflit s'analyse le plus souvent comme une guerre de religion entre le Nord et le Sud — chrétien. Si cette dimension religieuse existe certainement, ce sont plutôt deux cultures, une tribale traditionaliste au sud et une arabo-musulmane au nord, qui s'opposent. On peut aussi y analyser une opposition entre le Centre et la périphérie, expliquant ainsi aussi les moteurs des conflits au Darfour, à l'ouest du pays, et dans le Béjaland, à l'est du pays. La proximité avec les États-Unis s’accentue sous l'administration de Ronald Reagan. L’aide américaine passe de de dollars en 1979 à en 1983, puis à 254 en 1985, essentiellement pour les programmes militaires. Le Soudan devient ainsi le deuxième bénéficiaire de l’aide américaine en Afrique (après l’Égypte). La construction de quatre bases aériennes destinées à accueillir des unités de la Force de déploiement rapide et d’une puissante station d’écoute, près de Port-Soudan, est mise en chantier. En 1984 et 1985; après une période de sécheresse, plusieurs millions de personnes sont menacées par la famine, en particulier dans l’ouest du Soudan. Le régime fait en sorte de cacher la situation à l'international. En mars 1985, l’annonce de l’augmentation des prix des produits de première nécessité, sur l’injonction du Fonds monétaire international avec lequel le régime était en négociation, provoque de premières manifestations. Le 2 avril, huit syndicats appellent à la mobilisation et à une « grève politique générale jusqu’à la suppression du régime actuel ». Le 3, des manifestations massives secouent Khartoum, mais aussi les principales villes du pays ; la grève paralyse les institutions et l’économie. Un autre coup d'État, mené par le général Souwar ad-Dahab, restaura un gouvernement civil. Cependant la guerre civile faisait de plus en plus de morts et la situation économique continuait à se dégrader. En 1989, à la suite d'un coup d'État, le général Omar el-Bechir devint chef de l'État, Premier ministre et chef des forces armées. La loi pénale de 1991 institua des peines sévères dans tout le pays, telles que l'amputation et la lapidation. Bien que les États du Sud non musulmans soient officiellement exemptés de ces dispositions, la loi permet cependant une possible application future de la charia dans le Sud. La guerre civile a déplacé plus de quatre millions d'habitants du Sud et fait deux millions de morts. Certains ont fui dans des villes du Sud comme Djouba, d'autres ont cheminé vers le nord jusqu'à Khartoum ou ont pris le chemin de pays voisins comme l'Éthiopie, le Kenya, l'Ouganda ou l'Égypte. Ces gens ne pouvaient pas produire de la nourriture ou gagner de l'argent pour se nourrir, et la malnutrition et la famine se sont répandues. Le manque d'investissement dans le Sud a également abouti à ce que les organisations humanitaires internationales appellent une « génération perdue », mal éduquée, sans accès aux soins de base et sans grandes chances de trouver un emploi productif que ce soit dans le Sud ou dans le Nord. Rébellion de 2005. Les pourparlers de paix entre les rebelles du Sud et le gouvernement ont fait des progrès notables en 2003 et au début de l'année 2004, même si des accrochages se seraient encore produits dans certaines régions méridionales. Une nouvelle rébellion dans la province occidentale du Darfour a commencé début 2003. Le gouvernement et les rebelles ont été accusés d'atrocités au cours de cette guerre. En février 2004, le gouvernement a proclamé sa victoire sur la rébellion mais les rebelles disent garder le contrôle des zones rurales et certaines sources indiquent que des combats continuent à de nombreux endroits. Les milices janjawids sont accusées du massacre de plus de cinquante mille personnes, le conflit ayant fait, en trois ans, plus de trois cent mille morts et trois millions de déplacés et réfugiés, selon certaines estimations. Accord de paix de 2005. Le , un accord de paix a été signé à Nairobi entre John Garang de l'APLS et le vice-président Ali Osmane Taha, représentant le gouvernement soudanais. Il met fin à vingt-et-un ans de guerre civile dans l'État, dominé par les musulmans et les miliciens chrétiens de Garang. Cet accord prévoit un régime d'autonomie de six ans au Soudan du Sud, période à l'issue de laquelle un référendum d'autodétermination sera organisé. Le , la nouvelle constitution, élaborée grâce aux accords de Nairobi, est appliquée et permet le retour du mouvement de John Garang à Khartoum. Un gouvernement d'union nationale est instauré pour cette période de transition. Le , John Garang meurt dans l'accident de l'hélicoptère ougandais qui le transportait, dans le Sud du Soudan. Cela provoque plusieurs jours d'émeutes dans la capitale ainsi qu'à Djouba entre les partisans de Garang et ceux du gouvernement. Les partisans de l'ancien chef rebelle John Garang ne croient en effet pas à la thèse officielle du gouvernement selon laquelle l'hélicoptère a été victime de problèmes techniques. Ils déclenchent des émeutes à Khartoum, provoquant les représailles de militants nordistes. Ces violences font, d'après le bilan du , cent trente morts et plus de trois cent cinquante blessés. Le référendum d'autodétermination du Soudan du Sud prévu par les accords de paix a eu lieu le . Les votants se sont exprimés en faveur de la sécession à 98,83 %. Le , Omar el-Béchir a officiellement reconnu ce résultat. Ce nouvel État a accédé à son indépendance dès le . En perdant plus d'un quart de son territoire, le Soudan perd également son « statut » de plus grand État d'Afrique (au profit de l'Algérie) qu'il détenait depuis son indépendance en 1956. Selon certains observateurs, la sécession du Sud ne manque pas d'alimenter une certaine inquiétude au sein de la population quant à l'avenir du pays. Jusqu'ici, le gouvernement central profitait des ressources pétrolières du Sud (qui assurait 85 % de la production nationale) pour, « acheter » la paix civile avec les différents groupes rebelles qui sévissaient dans le Nord. Avec des revenus en baisse, il lui sera difficile de poursuivre ce type de politique. Ainsi, selon Fouad Hikmat, analyste à l'International Crisis Group : . Cette manne pétrolière permettait également de limiter les conséquences économique de la crise en jugulant l'inflation, garantissant une certaine « paix sociale ». Face à ces nombreux défis intérieurs, ces mêmes observateurs craignent que les durs du régime, « débarrassés » du Sud chrétien et animiste, n'en profitent pour se radicaliser en accélérant l'islamisation du reste du pays, comme le président Bashir l'avait laissé entrevoir, d'autant plus que les effectifs des communautés chrétiennes se trouvant dans le Nord se sont largement réduits. En effet, l'essentiel de leurs membres, originaires du Sud, ont regagné leur région d'origine en prévision de son indépendance. Le régime d'Omar el-Bechir applique en 2018 un plan d'austérité du Fonds monétaire international (FMI), transférant certains secteurs des importations au secteur privé. En conséquence, le prix du pain est doublé et celui de l’essence augmente de 30 %. L’inflation atteint les 40 %. Des mouvements étudiants et le Parti communiste soudanais organisent des manifestations pour contester cette politique. Omar el-Bechir réagit en faisant arrêter le secrétaire général du Parti communiste et deux autres dirigeants du parti, et par la fermeture de six journaux. Révolution soudanaise de 2019. À partir de décembre 2018, un vaste mouvement de protestation contre le régime se forme dans les villes de l’extrême nord du pays, en particulier autour d'Atbara, agglomération ouvrière et fief du syndicalisme soudanais. Les manifestants réclament initialement de meilleures conditions de vie (plus de de personnes vivent sous le seuil de pauvreté), puis, alors que la répression s’accentue, la démission du président. Omar El-Béchir est destitué par l'armée et remplacé par un conseil militaire de transition, composé aussi de civils, le . Le 21 août, le Conseil militaire de transition devient le Conseil de souveraineté. Il maintient les président et vice-président sortants en place mais dispose de membres civils. Abdallah Hamdok, ancien économiste à l'ONU, est nommé premier ministre à la tête d'un gouvernement de transition. Une tentative de coup d'État a lieu le 21 septembre 2021. Politique. Le Soudan est une république de type présidentiel dont l'actuel président est Abdel Fattah Abdelrahmane al-Burhan. De 1983 à 1997, le pays était divisé en cinq régions dans le Nord et trois dans le Sud, chacune dirigée par un gouverneur militaire. Les parlements régionaux ont été suspendus après le coup d'État militaire du . Le Conseil révolutionnaire a été aboli en 1996 et le Front national islamique au pouvoir a pris le nom de Congrès national. Après 1997, les structures administratives régionales ont été réformées vers un système de . Les membres des exécutifs régionaux sont nommés par le président de la République. Le budget des États est entièrement dépendant du pouvoir central de Khartoum. À la suite d'une décision de la cour pénale internationale (CPI), Omar al-Bashir est désormais sous le coup d'un mandat d'arrêt international. Du 11 au 15 avril 2010 ont eu lieu les premières élections régionales, législatives et présidentielle tenues depuis 1986. Les deux principaux rivaux du général Omar al-Bashir, , un musulman laïque soutenu par le Mouvement populaire de libération du Soudan (SPLM, ex-rebelles sudistes) et Sadek al-Mahdi, ancien Premier ministre et chef du parti Umma (nationaliste) ont décidé de boycotter le processus électoral et retiré leur candidature. Entaché de graves irrégularités mais porteur d'espoir aux dires de Véronique de Keyser, chef de la mission d'observation de l'Union européenne, le scrutin a reconduit le général Omar El-Béchir dans ses fonctions de chef de l’État. Le 4 août 2019, une nouvelle déclaration constitutionnelle a été signée entre les représentants du Conseil militaire de transition et des Forces de liberté et de changement , et le 21 août 2019, le Conseil militaire de transition a été officiellement remplacé à la tête de l'État par un Conseil de souveraineté de . Un premier ministre civil a été nommé. Néanmoins, l'automne 2021 voit s'affronter les militaires et le gouvernement civil dans des harangues où le général Abdel Fattah Abdelrahman Burhan exige quotidiennement la dissolution du gouvernement. Dans le même temps les pénuries qui frappent le pays sont dramatiquement accentuées par le blocage de Port Soudan par des manifestants du peuple Bedja, à l'est du pays. Relations internationales. Le président américain Bill Clinton place en 1993 le Soudan sur la liste des pays soutenant le terrorisme, puis fait adopter en 1996 une série de mesures (interdiction des transferts de technologie, du commerce des pièces détachées, et embargo sur toutes les transactions bancaires internationales en dollars) qui pénalise lourdement le fonctionnement de l’économie soudanaise. Les attentats du 11 septembre 2001 incitent Washington à se rapprocher du Soudan dans le cadre de la « guerre contre le terrorisme ». Engagé de longue date en faveur de la cause palestinienne, le Soudan a été accusé de livrer des armes au mouvement palestinien Hamas. Un raid aérien israélien en janvier 2009 en territoire soudanais contre un convoi de camions fait . À partir de 2015, l'Arabie saoudite sollicite des troupes soudanaises pour combattre au Yémen, pays dans lequel le royaume s'est engagé dans une guerre contre le mouvement Houthi qui avait pris le pouvoir. Le Soudan reçoit en échange des « prêts » importants, dont le montant n'a jamais été dévoilé. Le régime de Omar el-Béchir adhère de plus en plus au « programme diplomatique » américano-saoudien dans le monde musulman, visant avant tout l'Iran. En outre, Riyad achète massivement des terres agricoles soudanaises, dans un programme confié à un proche du milliardaire anglo-soudanais Mo Ibrahim. Barack Obama annonce en janvier 2017 une levée partielle des sanctions ciblant le Soudan. Celles-ci sont ensuite totalement levées par Donald Trump. Géographie. Le Soudan est situé dans le Nord de l'Afrique, en bordure de la mer Rouge, entre l'Égypte et l'Érythrée. Il est traversé de part en part par le Nil. Avec une superficie de , le Soudan est le troisième plus grand pays d'Afrique après l'Algérie et la République démocratique du Congo. Avant l'indépendance du Soudan du Sud en 2011, le Soudan était le plus grand pays d'Afrique. Le Soudan est une très grande plaine entourée à l'est et à l'ouest par des montagnes. Le climat y est semi-aride dans le Sud et désertique dans le Nord, avec la saison des pluies d'avril à octobre. La désertification qui s'étend vers le sud et l'érosion des sols sévissent sur le pays. Divisions administratives. Le Soudan est un État fédéral divisé en dix-sept États ou "wilayat". Économie. L'agriculture est la principale activité économique locale du pays, bien que 90 % des ressources économiques proviennent du pétrole que contient ses sols (ce qui explique les tensions ou conflits dans ce pays). La superficie des terres cultivables au Soudan est estimée à kilomètres carrés. Seulement 18 % sont actuellement exploités. Seule une paix dans ce pays lui permettrait de devenir le grenier à blé de l'Afrique. Les principaux produits agricoles sont le coton, le sésame, l’arachide, la gomme arabique dont le Soudan est le premier producteur mondial et le sucre (troisième pays producteur de sucre en Afrique). Le cheptel, le deuxième du continent africain, est à la base d'un intense trafic clandestin avec les pays voisins. L'exploitation pétrolière a commencé dans le Sud et modifie les conditions économiques du pays. Le Nord possède les raffineries et contrôle la répartition des profits. Depuis 2011, le chômage touche en moyenne 18 % des actifs et près de 50 % de la population vit sous le seuil de pauvreté. En 2020, la situation économique du Soudan reste des plus alarmantes. L'inflation augmente constamment, la monnaie nationale ne représente plus au marché noir que la moitié de son cours officiel, le taux de chômage des jeunes est estimé aux alentours de 30 %, sans compter tous ceux, très nombreux, travaillant dans le secteur informel ou les activités précaires (le Soudan est lui aussi atteint par ). L'hypothèse d'une aide économique internationale est peu vraisemblable en raison de la radicalité sociale du mouvement de protestation qui a conduit à la en 2019. Démographie. En 2014, la population du Soudan est estimée à environ d'habitants. Le Soudan est majoritairement peuplé d'Arabes (70 %), de Nubiens, de Fours, de Bejas et de Noubas. Langues. Les langues officielles de la république du Soudan sont l'arabe et l'anglais, mais le pays montre une grande diversité linguistique et de nombreuses langues y sont parlées. Elles appartiennent à plusieurs familles: les langues nilo-sahariennes, les langues kordofaniennes, les langues kadougliennes et les langues couchitiques. Selon l'article 8 de la Constitution de 2005 : Religions. Le Soudan est un pays majoritairement musulman dont la constitution prévoit la liberté de religion ; cependant, en pratique le gouvernement soudanais traite l'islam comme la religion d'État et certains préceptes de la charia sont en vigueur dans tout le pays. En réaction à la sécession du Soudan du Sud, peuplé majoritairement d'animistes et de chrétiens qui se sont affranchis du régime islamique et de la charia, à la suite du référendum d'autodétermination du , le président Omar el-Bechir a annoncé un renforcement de la charia dans les régions septentrionales du pays restant sous le contrôle de Khartoum. Il y aurait au Soudan 93 % de musulmans (majorité de sunnites, et minorité chiite), 5 % de chrétiens coptes (il y a une cathédrale de l'église copte à Khartoum), les 2 % restants sont composés d'animistes, de protestants, et de baha'is. Le jeudi 14 mai 2014, un tribunal de Khartoum condamne une femme enceinte de huit mois à la pendaison, pour avoir adopté la religion chrétienne. Née de père musulman mais élevée par sa mère chrétienne-orthodoxe, Meriam Yahia Ibrahim Ishag est mariée à un catholique. Elle est aussi condamnée pour cela à 100 coups de fouet, cette union étant considérée comme un adultère. Libérée officiellement le 24 juin 2014, réfugiée à l'ambassade des États-Unis le 27, elle quitte le Soudan avec sa famille le 24 juillet pour l'Italie, où elle est reçue par le pape au Vatican. Le , le ministre de la Justice du Soudan, Nasredeen Abdulbari, annonce que le gouvernement met fin à la peine de mort pour apostasie, dans l'objectif de se détacher de la charia. Culture. Les romanciers Tayeb Salih ou Leila Aboulela et l'érudit de la littérature et langue arabes Abdallah Al-Tayib sont les principaux visages de la littérature soudanaise et arabe. Ibrahim el Salahi, Adam D. H. Hinawi dit Adam Dafalla et Nezar Musa Noreen sont les peintres contemporains les plus connus. Santé. En 2020, l'épidémie de COVID-19 au Soudan a alarmé les médecins en raison du manque d'équipements nécessaires sous forme de gants, masques et respirateurs. Malgré des ressources limitées, les médecins ont participé à une formation générale sur la prévention et le contrôle des infections, et les participants ont dû former leurs collègues et organiser leur service autant que possible. Le gouvernement a également pris des mesures fortes, telles que la fermeture d'écoles, d'aéroports, de ports et de frontières terrestres. Le Soudan du Sud est l'un des pays avec le taux de vaccination contre le Covid-19 le plus bas au monde, distribuer des vaccins au Soudan du Sud coûte beaucoup plus cher que de les acheter en raison de la médiocrité des infrastructures et de l'insécurité. Codes. Le Soudan a pour codes : |
Salaryman est le terme par lequel les Japonais désignent les cadres non dirigeants d'une entreprise ou les employés (à l'opposé des ouvriers). Ce mot, pourtant à consonance anglaise, est un néologisme issu de la langue japonaise (). Plus qu'un type de poste ou de responsabilités, ce mot désigne un style de vie masculin, dans lequel le travail et les collègues de travail occupent l'essentiel du temps et des centres d'intérêt du . Contrairement à ce que suppose le terme « cadre », ce type de poste est accessible au Japon à la plupart de ceux qui terminent leur premier cycle universitaire (quatre ans d'études). Dans la culture japonaise, il est généralement considéré comme plus important de travailler pour le bien de la société tout entière que pour soi-même. Les "salarymen" sont censés travailler de longues journées avec beaucoup d'heures supplémentaires, et participer à des activités entre collègues après le travail telles que les soirées "nomikai", le karaoké et les "hostess bars". Le "salaryman" entre généralement dans l'entreprise lors d'un recrutement groupé de nouveaux diplômés et y reste toute sa vie. Les "salarymen" sont parmi les plus touchés par le "karōshi", la mort par excès de travail. Dans la culture japonaise conservatrice, il est attendu des jeunes hommes qu'ils intègrent une société, et ceux qui ne suivent pas cette voie sont considérés comme des personnes moins respectables. Le fait de vouloir développer sa propre entreprise ("startup") n'est généralement pas bien vu car cela implique un fort potentiel d'échec. D'autre part, le mot "salaryman" est parfois utilisé de manière péjorative pour dénoncer une dépendance totale à son employeur et son manque d'individualité. |
Saltimbocca Le saltimbocca ou saltimbocca alla romana (littéralement « saute en bouche » à la romaine, en italien) est une recette de cuisine traditionnelle de la cuisine italienne, en particulier de Rome, à base d'escalope de veau, de jambon cru "prosciutto crudo" et de sauge, cuite au beurre, huile d'olive et vin blanc. Il est également populaire dans le sud de la Suisse, en Espagne et en Grèce. Histoire. Cette spécialité typique de la cuisine romaine, connue sous le nom de "saltimbocca alla romana", est attesté dans l'ouvrage culinaire "La Science dans la cuisine et l'art de bien manger", de Pellegrino Artusi de 1861. La recette pourrait malgré tout être originaire de Brescia en Lombardie. Préparation. Il s'agit d'une escalope de veau coupée très finement sur laquelle est appliquée une tranche de jambon cru "prosciutto crudo" avec une feuille de sauge, maintenue par un cure-dent. Légèrement enfariné, l'ensemble est roulé (ou à plat) cuit dans du beurre et huile d'olive avec ajout de vin blanc de déglaçage en fin de cuisson. Accord mets/vin. Ce mets est traditionnellement accompagné avec le même vin blanc que celui de la cuisson. |
Système immunitaire Le système immunitaire d'un organisme est un système biologique complexe constitué d'un ensemble coordonné d'éléments de reconnaissance et de défense qui discrimine le soi du non-soi. Ce qui est reconnu comme non-soi est détruit. Il protège l'organisme des agents pathogènes : virus, bactéries, parasites, certaines particules ou molécules « étrangères » (dont certains poisons), mais est responsable du phénomène de rejet de greffe. Il est hérité à la naissance, mais autonome, adaptatif et doué d'une grande plasticité, il évolue ensuite au gré des contacts qu'il a avec des microbes ou substances environnementales étrangères au corps. On dénombre plusieurs types de systèmes immunitaires parmi les espèces animales, et généralement plusieurs mécanismes immunitaires collaborent au sein d'un même organisme. Pour de nombreuses espèces, dont les mammifères, le système est constitué de 3 couches. Ses principaux effecteurs sont les cellules immunitaires appelées leucocytes (ou globules blancs) produites par des cellules souches, au sein de la moelle osseuse rouge. Cette séparation en trois couches n’empêche pas une interaction très importante des couches entre elles: On appelle réponse immunitaire l'activation des mécanismes du système immunitaire face à la reconnaissance de non-soi, agressive ou pas, face à une agression ou à une dysfonction de l'organisme. L'ensemble de ces systèmes (y compris lors de la vaccination) permet la résilience immunitaire, notion qui recouvre la somme des mécanismes efficaces de défense d’un organisme vis-à-vis d’un agent pathogène (du grec "pathos" : souffrance) ; il se dégrade avec l'âge (Immunosénescence). Le système peut entraîner un dysfonctionnement autoimmune. Cellules du système immunitaire. Toutes les cellules du système immunitaire dérivent d'une cellule souche présente dans la moelle osseuse. Cette cellule souche donne deux lignées de cellule : la lignée lymphocytaire et la lignée myélocytaire. Les cellules de l'immunité innée sont produites par la lignée myélocytaire. Les cellules de l'immunité adaptative sont produites par la lignée lymphocytaire. Un seul type de cellule est produite par les deux lignées : la cellule dendritique. Lignée lymphocytaire. La cellule souche multipotente donne le progéniteur lymphoïde (") qui se divise en trois types de cellules : Lignée myélocytaire. Responsable de la production des hématies et plaquettes, cette lignée donne naissance à des cellules impliquées dans le système immunitaire inné et dans le système immunitaire adaptatif en produisant des cellules portant les antigènes des agents pathogènes pour les présenter aux cellules du système immunitaire adaptatif : Mécanismes de défense. L'organisme se défend contre les dysfonctions de ses cellules et les agressions, c'est-à-dire des processus qui ont pour conséquence de détruire des êtres vivants. Ces agressions peuvent revêtir différentes formes : Mécanismes de défense non spécifique (innée). Le système inné est un mécanisme très rapide de défense aux infections: il permet souvent d'arrêter un agent pathogène ou, du moins, de permettre la mise en route du système adaptatif qui a des armes plus puissantes et plus spécifiques pour arrêter l'agent pathogène. Il a longtemps été considéré comme un système non spécifique, mais la découverte de récepteurs cellulaires spécifiques de plusieurs familles de pathogènes (comme les bactéries gram-négatives) dans les années 2000 a changé notre regard sur le système inné. Système de défense inné. Le système immunitaire inné est déclenché par des récepteurs cellulaires reconnaissant des structures moléculaires uniques aux agents pathogènes ou par des molécules signifiant les dégâts. Cellules effectrices de l'immunité innée. Elles dérivent toutes de la lignée myélocytaire de l'hématopoïèse. Elles sont parfois regroupées sous le terme de leucocytes phagocytaires ou phagocytes. Ce terme est très réducteur car il laisse à penser que la seule fonction de ces cellules est la phagocytose, alors qu'elles ont d'autres fonctions essentielles. Ce sont des cellules immunitaires qui reconnaissent les microorganismes grâce à de nombreux récepteurs cellulaires présents à leur surface. Ces récepteurs permettent aux phagocytes de reconnaître certaines structures présentes à la surface des microorganismes infectieux et d'internaliser ces derniers à l'aide d'une vacuole digestive. Par la suite, ils fusionnent la vacuole contenant les microbes avec un lysosome. Les lysosomes peuvent contenir des formes toxique d'oxygène comme du monoxyde d'azote (NO) ou du peroxyde d'hydrogène (), et ils peuvent aussi contenir du lysozyme et d'autres enzymes digestives qui dégradent des structures microbiennes. Cellules résidentes dans le tissu sous épithéliales. Les cellules résidentes sont les premières activées en cas de franchissement de la barrière épithéliale (cutanée, respiratoire ou intestinales) par un microbe. Macrophage. Les macrophages ont une plus grande capacité de phagocytose que les granulocytes neutrophiles, et, lorsqu'ils phagocytent un microorganisme, des voies cellulaires internes les stimulent, ce qui les rend plus efficaces dans leurs tâches. Mastocyte. Ces cellules contiennent des granules contenant des substances vasodilatatrices comme l'histamine. Cette substance en vasodilatant le vaisseau entraîne une diminution de la vitesse de circulation du sang permettant au leucocyte neutrophile de traverser la paroi vasculaire. Cellule dendritique. Les cellules dendritiques qui dérivent aussi des monocytes sont des cellules présentatrices d'antigènes. Leur rôle est de capturer un microbe au site d'infection, de migrer vers les tissus lymphoïdes et de présenter les antigènes du microbe aux lymphocytes T à l'aide d'une molécule de CMH. Ce type de molécule joue un rôle très important dans la réaction immunitaire primaire. Cellules présentes dans le sang. Leucocyte neutrophile. Les granulocytes neutrophiles représentent des leucocytes. Ils pénètrent dans les tissus infectés pour phagocyter les microbes présents et les détruire. Généralement, les granulocytes neutrophiles s'autodétruisent en même temps qu'ils détruisent les microbes. Ils ont normalement une espérance de vie de seulement quelques jours. Ce sont des cellules présentes dans le sang et capables de migrer vers un site où se produit une infection. Leucocyte éosinophile. Les granulocytes éosinophiles sont présents en très petite quantité dans l'organisme. Ils ont une faible capacité de phagocytose, mais ils sont essentiels dans le combat contre les parasites présents dans l'organisme. Ils se lient à la paroi du parasite et libèrent des enzymes qui vont causer des dommages importants à celui-ci. Leucocyte basophile. Les leucocytes basophiles sont les plus rares des leucocytes. Leur taux est si faible que l'absence de leucocyte basophile au cours d'une numération formule sanguine ne doit pas être considérée comme anormale. Monocyte. Les monocytes représentent 5 % des leucocytes. Ils circulent dans le sang et migrent vers un tissu où ils se transformeront par la suite en macrophages. Les macrophages et les cellules dendritiques sont des cellules résidentes dans les tissus sous-épithéliaux. Molécules de l'immunité innée. Il existe quatre grands groupes de molécules intervenant dans l'immunité innée : les peptides anti-microbiens, le système du complément, l'interféron I alpha et I beta et les protéines de la phase aiguë dont la plus utilisée en pratique médicale est la protéine C reactive. Mécanisme général du système inné. Première étape ; le franchissement de la barrière épithéliale. L'introduction d'un agent infectieux, comme une bactérie gram négatif, au cours d'une piqûre à travers la peau déclenche dans les minutes qui suivent la libération de peptides anti-microbiens et de cytokines par les cellules de l'épithélium cutané. Deuxième étape ; la stimulation des cellules résidentes. Les cellules résidentes de l'immunité innée (macrophage, mastocyte, cellule dendritique) reconnaissent le pathogène par des récepteurs appelés "pattern recognition receptor" (PRR) ou en français récepteurs de reconnaissance de motifs moléculaires, dont il existe 4 types principaux. Pour les bactéries gram-négatives, il s'agit d'un récepteur de type Toll (TLR ou "Toll Like Receptor"). La bactérie contient sur la surface de sa paroi des lipopolysaccharides spécifiques aux bactéries gram-négatives qui sont reconnus par les TLRs. Les structures biochimiques reconnues par le TLR sont appelées motifs moléculaires associés aux pathogènes. La liaison TLR-PPR va déclencher des événements qui diffèrent selon le type cellulaire. Au niveau des mastocytes, elle entraînera la libération d'histamine, celle-ci déclenchant la dilatation des vaisseaux aboutissant à un ralentissement de la circulation sanguine. Au niveau des macrophages et des cellules dendritiques, elle entraînera la libération des cytokines et des chimiokines; les chimiokines vont attirer les leucocytes une fois que ceux-ci ont traversé l’endothélium de la paroi vasculaire. La liaison TLR-PPR active une voie de signalisation qui va déclencher une synthèse de protéine anti-microbienne. Troisième étape ; le recrutement des cellules immunitaires sanguines. Le ralentissement du débit sanguin secondaire à la vasodilatation permet aux leukocytes de traverser la paroi. Outre les leucocytes, les facteurs du complément traversent la paroi participant aussi à la réaction du système inné. Au niveau cutané, la manifestation clinique de l'infection se traduit par quatre signes : rougeur, chaleur, douleur et œdème. Ces quatre signes caractérisent la réaction inflammatoire. Si l'infection n'est pas contenue localement. Si le système inné n'arrive pas à contenir l'infection, la cellule dendritique va se diriger vers un ganglion lymphatique par les canaux lymphatique. Elle va se maturer au cours du voyage. Dans le ganglion, elle présentera à la cellule T CD4 + auxiliaire des petits morceaux de 30 à 40 acides aminés de la bactérie phagocytée. Cette présentation de l’antigène se fait par son complexe majeur histocompatibilité de classe II. Mécanismes de défense spécifique (adaptative). L'immunité adaptative repose sur 3 acteurs : les organes lymphoïdes, les lymphocytes B et les lymphocytes T. Ces 3 acteurs vont permettre de reconnaître un agent pathogène, de le signaler et de déclencher soit l'immunité humorale soit l'immunité cellulaire. Que ce soit l'immunité humorale ou l’immunité cellulaire, l'immunité adaptative ne se déclenchera que si cet antigène porte aussi un récepteur cellulaire de pathogénicité montrant bien la complexité et l'interaction des deux immunités. Organes lymphoïdes. Les organes lymphoïdes comprennent le thymus, la moelle osseuse, la rate, les amygdales, l'appendice et les ganglions lymphatiques. Immunité humorale. Le système immunitaire humoral agit contre les bactéries et les virus avant leur pénétration dans les cellules. Les cellules responsables de la destruction des pathogènes extra-cellulaires sont les lymphocyte B agissant en sécrétant des anticorps. Lymphocyte B. La production et la maturation des lymphocytes B se fait dans la moelle osseuse. Les lymphocytes B sont le support de l'immunité humorale. Ils possèdent à leur surface des récepteurs, nommés BCR, "B Cell Receptor" ou récepteurs des cellules B. Chaque lymphocyte B possédée plusieurs BCRs mais pour un seul agent pathogène. Ce BCR est une immoglobuline membranaire formée de 2 chaînes légères et de 2 chaînes longues. Il existe autant de lymphocytes B que de pathogènes. L'ensemble des lymphocytes B est appelé le répertoire des lymphocytes B. Chaque BCR possède 2 sites de fixations à l'antigène. Le lymphocyte B avant d'être activé est appelé naïf. L'activation du lymphocyte B par l'intermédiaire des BCR déclenche une expansion clonale du lymphocyte activé, avec production de cellule mémoire, et déclenche à distance des cellules produisant des anticorps. Ces cellules produisant des anticorps sont appelés plasmocytes. L'activation du lymphocyte B par un antigène nécessite l'implication des cellules lymphocytaires T CD4. Les lymphocytes B sont nommés "B" car ces lymphocytes ont été découverts chez l'oiseau dans la bourse de Fabricius ; par la suite le « B » fut conservé car c'est l'initiale de "bone marrow" (l'anglais de moelle osseuse) qui correspond au lieu de maturation de ces cellules à la suite d'une exposition à une interleukine (molécule chimique permettant le clonage des lymphocytes B et leur différenciation) produite par les lymphocytes T4. Anticorps ou immunoglobulines. Structure. Ses principaux moyens d'action sont les immunoglobulines, aussi appelées "anticorps". Les anticorps sont des molécules ayant une forme de « Y » formées de quatre chaînes polypeptidiques : deux chaînes légères (environ 200 acides aminés chacune) et deux chaînes lourdes (environ 450 acides aminés chacune). Les chaines légères ont des régions constantes et des régions variables. Les régions variables dépendent de la régulation somatique. Les anticorps ont une forme en Y. La barre verticale du Y est constituée de deux chaînes lourdes constantes qui vont déterminer la fonctionnalité de l’immunoglobuline. Les deux barres inclinées du Y sont formées chacune d'une chaîne lourde et d'une chaîne légère, chacune ayant une partie constante et une partie variable qui est responsable de la spécificité de l'anticorps. Fonctions. Il existe 5 classes d'anticorps : les IgM, les IgG, les IgA, les IgE et les IgD. Les IgM sont les premiers anticorps à être produits lorsque le corps reconnaît un nouvel antigène. Ceux-ci se retrouvent dans le corps sous forme de pentamère et ils sont très efficaces pour activer le complément. Les IgG sont la classe d'anticorps la plus retrouvée dans le sang, c'est aussi la seule classe d'anticorps qui peut traverser le placenta et donner au fœtus une immunité passive. Les IgA se retrouvent dans les sécrétions (salive, larme, mucus) sous la forme de dimères. De plus, la présence de ce type d'anticorps dans le lait de la femme permet aux nouveau-nés de recevoir une immunité passive durant la période d'allaitement. Les IgE sont les anticorps impliqués dans les réactions allergiques puisqu'ils provoquent la libération d'histamine et d'autres substances impliquées dans ce genre de réaction par les granulocytes basophiles. Finalement, les IgD sont retrouvés à la surface des lymphocytes B dits « naïfs » (qui n'ont pas encore été exposés à un antigène) et servent de récepteurs cellulaires à ceux-ci. Contrairement aux quatre autres classes d'anticorps, les IgD ont une région transmembranaire qui leur permet de se fixer à la membrane cellulaire des lymphocytes B. Les quatre fonctions principales des anticorps sont : Immunité cellulaire. La fonction principale de l'immunité cellulaire est de détruire les agents infectieux intracellulaires. Les cellules responsables de la destruction des pathogènes intra-cellulaires sont les lymphocytes T qui agissent directement en injectant des substances toxiques dans les cellules infectées. Lymphocyte T. La formation et la maturation des lymphocytes T se fait dans le thymus où le lymphocyte prend le nom de thymocyte. Le lymphocyte T est aussi porteur d'un récepteur pour reconnaître les antigènes pathogènes : les récepteurs des cellules T ou TCR. À la différence des récepteurs des cellules B, le récepteurs des cellules T ne reconnaissent qu'un seul type de molécules : les peptides. La reconnaissance de la présence d'un agent infectieux intracellulaire par les lymphocyte T se fait par l'intermédiaire du complexe majeur d'histocompatibilité, nommés aussi CMH ou MHC, présent sur les cellules. Ce complexe majeur d'histocompatibilité a été découvert lors des transplantations d'organes. Ces MHC recueillent en permanence les peptides formés continuellement par la cellule par la dégradation protéique intracellulaire ; elles sont spécifiques à un individu. Les peptides formés en permanence par la cellule par la dégradation protéique intracellulaire et portés par les MHC à l'extérieur de la cellule permettent aux lymphocytes T de vérifier la « santé » de la cellule. En cas d'infection virale, les MHC vont présenter à l'extérieur des peptides viraux qui vont être reconnus par les lymphocytes T. Il en est de même lors d'une greffe d'organe après laquelle les MHC produits seront reconnus comme n’appartenant pas à l'organisme (au soi) risquant de déclencher un rejet de greffe. Le système immunitaire cellulaire s'occupe des cellules infectées par des virus, bactéries, et les cellules cancéreuses. L'action s'effectue via les lymphocytes T. Les lymphocytes T sont capables d'interagir avec les cellules de l'organisme grâce à leurs récepteurs cellulaires T ou TCR ("T Cell Receptor") formés de deux chaînes polypeptidiques: la chaîne α (alpha) et la chaîne β (bêta). Ces récepteurs sont tout aussi spécifiques aux antigènes que les anticorps ou que les récepteurs de lymphocytes B, mais, contrairement aux anticorps et aux récepteurs de lymphocytes B, les récepteurs de lymphocytes T ne reconnaissent que de petits antigènes qui doivent être présentés par une molécule de CMH à la surface d'une cellule infectée. Aux lymphocytes T s'ajoutent aussi les lymphocytes NK ("natural killer"). Ces cellules sont impliquées dans une réponse à mi-chemin entre spécifique et non spécifique, selon les situations. Ils jouent notamment un rôle en début de grossesse, le fœtus devant se protéger contre eux pour pouvoir survivre dans le ventre de sa mère. Les deux types de complexe majeur d'histocompatibilité. Lorsqu'un agent pathogène pénètre dans une cellule, il reste dans le cytoplasme ou infecte les vacuoles. Les mécanismes pour détruire l'agent différent selon sa localisation et expliquent en partie l'existence de deux familles de MCH, les MCH I et MCH II. Le complexe majeur d'histocompatibilité de type I. Les MHC I sont produites par les infections cytoplasmiques. Ils activent les lymphocytes T CD 8 qui possèdent le récepteur CD 8. Ces cellules jouent un rôle prédominant dans l'infection virale. Les lymphocytes T CD 8 sont nommés lymphocytes cytotoxiques ou CTL. En effet, la liaison de CD8 sur la molécule de CMH permet de garder le lymphocyte T et la cellule infectée liés plus longtemps, ce qui favorise l'activation du lymphocyte. Une fois activé, le lymphocyte T cytotoxique libère des protéines, comme la perforine ou des granzymes qui provoquent la formation de pores dans la paroi cellulaire de la cellule infectée, entraînant sa mort. Cela a pour effet de priver le pathogène d'un lieu de reproduction et de l'exposer aux anticorps et aux leucocytes phagocytaires qui circulent dans la région infectée. Les MHC I sont présents sur toutes les cellules nuclées de l'organisme. Les hématies ne possèdent donc pas de MHC I. Le complexe majeur d'histocompatibilité de type II. Les MHC II sont présents sur un nombre très restreint de cellules : cellules dendritiques, macrophages et lymphocytes B. Les MHC II sont produits par les infections vacuolaires ou la phagocytose. Ils activent les lymphocytes T CD 4 qui possèdent le récepteur CD 4. Les lymphocytes T CD 4 sont nommés lymphocytes helpers ou auxiliaires. En activant les TCD4, ceux-ci libèrent des cytokines transformant les lymphocytes B en plasmocytes sécrétant des immunoglobulines. Mécanisme général de l'immunité adaptative. Vidéo de la réponse adaptative Pour que la cellule lymphocytaire B produise des anticorps spécifiques et que le lymphocyte T CD8+ naïf se transforme en lymphocyte T CD8 tueur, il faut deux signaux : Première étape : la présentation de l’antigène par la cellule dendritique. La cellule dendritique est une cellule immunitaire résidant dans le derme ou dans le tissu conjonctif sous-épithélial des bronches ou de l'intestin. Dès l’introduction d'un pathogène, elle va être activée par les molécules émises par les cellules de l'épithélium (les peptides anti-microbiens et les cytokines pro-inflammatoires : l' interleukine-1, l' interleukine-6 et l'interféron-1 alpha et beta). La cellule dendritique immature possède des récepteurs de reconnaissance de motifs moléculaires qui reconnaissent la famille du microbe porteur d'un motif moléculaire associé aux pathogènes. Elle va internaliser le microbe, le transporter vers un ganglion lymphatique par la lymphe. Au cours du transport, elle va devenir une cellule dendritique mature avec apparition de molécules qui vont lui permettre de se fixer à un lymphocyte T CD4+ auxiliaire naïf. Durant son transport et dans le ganglion, la cellule dendritique coupe le microbe en morceaux compris entre 30 et 50 acides aminés. Ces morceaux vont être présentés aux lymphocytes T CD4+ auxiliaires grâce au complexe majeur d'histocompatibilité de type II (MCH II). C'est la présentation de l'antigène. Deuxième étape : l'activation de la cellule T CD4+ auxiliaire par la synapse immunologique. L'activation de la cellule T CD4+ se fait grâce à la synapse immunologique. Des molécules d'adhésion immobilisent la cellule dendritique au lymphocyte TCD4+. La cellule dendritique présente un peptide à la cellule T CD4+. La protéine CD4 se fixe sur un domaine du MCH II. Enfin, des co-récepteurs sont produits par la cellule dendritique après stimulation des récepteurs de reconnaissance de motifs moléculaires. L'ensemble représente la synapse immunologique : la cellule T CD4+ est avertie d'une espèce particulière de microbe par le MCH II de la cellule dendritique à travers les récepteurs de reconnaissance de motifs moléculaires de cette cellule dendritique. En fonction du signal de famille de pathogène donné par la cellule dendritique lors de la présentation de l'antigène, des cytokines de types différentes vont être émises par la cellule dendritique et activent de façon spécifique les lymphocytes T CD4+ notamment en Th1, Th2. Chaque groupe est spécialisé d'une famille de pathogènes (virus, ver, bactérie). Troisième étape : l’activation des lymphocyte B par la reconnaissance de l’antigène ayant activé la cellule T CD4+ auxiliaire. Le même microbe qui a été reconnu par la cellule dendritique se fixe sur les récepteurs des cellules B. Cette fixation va entraîner une activation et un processus aboutissant à la présentation de peptides microbiens par les complexes majeurs d'histocompatibilité de type II (MCH II) au récepteur du T CD4+ : c'est le premier signal. Le lymphocyte T CD4+ va reconnaître que ce peptide est le même que celui présenté par la cellule dendritique : c'est le deuxième signal. En fonction du type de CD4+ (Th1, Th2), le TCD 4+ va synthétiser des cytokines, principalement des interleukines, qui à leur tour vont déterminer le type d’anticorps sécrétés. Le lymphocyte B naïf se transforme en lymphocyte B activé. Il va commencer à produire des anticorps A, G ou E. Ces anticorps vont rejoindre le site de l'infection par les canaux lymphatiques aboutissant au canal thoracique se jetant dans l'aorte et vont atteindre le site de l'infection. Un groupe de lymphocytes à mémoire est aussi créé. Résumé du fonctionnement d'une réaction de l'organisme face à une invasion bactérienne ou virale. Mécanismes de défense non spécifique (innée). Première étape. Libération des molécules anti-microbiennes du système inné. L'introduction d'un agent infectieux, comme un virus, déclenche dans les minutes qui suivent la libération de peptides anti-microbiens et de cytokines par les cellules de l'épithélium cutané. Deuxième étape. Mobilisation des cellules présentes dans les vaisseaux sanguins. Les molécules citées ci-dessus vont aller se fixer sur les récepteurs PRR des macrophages, des mastocytes et de la cellule dendritique. Les mastocytes vont relâcher des granules d'histamine qui ont des capacités vasodilatatrices, ce qui va dilater les parois des vaisseaux sanguins et donc ralentir la vitesse de la circulation sanguine pour permettre au granulocytes de traverser la paroi vasculaire. Les macrophages eux, vont relâcher des chimiokines qui vont se fixer sur les récepteurs PRR des granulocytes et vont les attirer dans le vaisseau sanguin. Les cellules dendritiques vont capturer un microbe et migrer jusqu'aux vaisseaux lymphatiques et aux ganglions, où ils vont présenter une molécule MHC II au lymphocyte T4. Troisième étape. Mise en action des granulocytes présents dans les tissus. Grâce à la dilatation des vaisseaux produite par les mastocytes et grâce aux chimiokines, les granulocytes présents dans les tissus vont traverser la paroi vasculaire. Les granulocytes neutrophiles vont phagocyter, les ganulocytes basophiles vont relâcher de l'histamine, qui va déclencher la réaction inflammatoire, et les granulocytes éosinophiles vont se lier à la paroi du parasite et libérer des enzymes qui vont causer des dommages importants à celui-ci. Mécanismes de défense spécifique (adaptative). Première étape. Présentation la molécule MHC II au lymphocyte T4. Les cellules dendritiques capturent un microbe et migrent jusqu'aux vaisseaux lymphatiques et aux ganglions, où ils vont présenter une molécule MHC II au lymphocyte T4. Deuxième étape. Activation des lymphocytes B par les lymphocytes T4. Si l'inflammation n'est pas contrôlée par le système inné, les lymphocyte T4 vont activer les lymphocytes B spécifiques au microbe à l'aide d'une cytokine, l'interleukine 2. Les lymphocytes B vont alors produire des anticorps. Troisième étape. Activation des lymphocytes T8. Les peptides anti-microbiens qui sont libérés en premier par les cellules de l'épithélium cutané vont se fixer aux récepteurs du lymphocyte qui va alors s'activer. Il va libérer tout d'abord de la perforine, une protéine qui va créer des pores dans la paroi des cellules infectées. Il va ensuite libérer du granzime, une protéase à sérine qui va pénétrer par ces pores et induire l'apoptose (mort de la cellule). Quatrième étape. Neutralisation du microbe. Les anticorps vont se fixer sur les antigènes de la bactéries ou de virus. Cela s'appelle l'opsonisation. Ensuite les anticorps présentent le microbe aux macrophages. Les macrophages activent la phagocytose grâce aux récepteurs FCR. Mémoire immunologique. Chaque individu acquiert en vieillissant une « mémoire immunologique ». Elle conserve un certain temps les traces de « lutte » passée contre des pathogènes ou parasites, et des cellules spécifiques, permettant une réaction immunitaire plus rapide et efficace. Cette mémoire se constitue de manière naturelle, ou à l'aide de vaccins mais semble se dégrader avec l'âge (phénomène d'immunosénescence). En effet, l'exposition antérieure à un antigène modifie la vitesse, la durée et l'intensité de la réaction immunitaire. La réaction immunitaire première consiste en la production de cellules effectrices des lymphocytes lors d'une première exposition à l'antigène. Lors d'une seconde exposition au même antigène, la réaction immunitaire secondaire sera plus rapide et efficace car l'organisme aura conservé en mémoire certains lymphocytes de la première attaque. C'est le principe de la vaccination : on injecte un antigène à la personne pour qu'elle se crée une « "mémoire humorale" », qui sera directement efficace lors d'une éventuelle attaque ultérieure. Une étude en 2015, basée sur la comparaison de la santé de « vrais » et « faux » jumeaux (210 jumeaux au total, de 8 à 82 ans, suivis pour plus de 200 paramètres de leur système immunitaire, ce qui est une première en nombre de paramètres d'intérêt immunologique), confirme qu'après la naissance, l'environnement a plus d'effets que nos gènes sur le fonctionnement et l'efficacité de notre immunité, notamment via l'exposition antérieure de l'organisme à des agents pathogènes (et/ou à des vaccins). Les réponses différentes des vrais jumeaux à la vaccination anti-grippale montrent aussi que les réactions (production d'anticorps) ne dépendent pratiquement pas des traits génétiques mais presque entièrement de l'éducation immunitaire de chacun, et donc de nos relations antérieures à l'environnement microbien et parasitaire (dans ce cas liées à des contacts précédents avec diverses souches du virus de la grippe). Face au cytomégalovirus, qui sommeille dans une fraction importante de la population humaine (ne causant que rarement des symptômes), les conclusions sont les mêmes. La meilleure compréhension des mécanismes globaux de l'immunité pourrait peut-être à l'avenir permettre de réduire les problèmes de rejet de greffe car la compatibilité entre un receveur et un donneur ne provient pas que de l'ADN, mais aussi d'enzymes et de facteurs d'immunité qu'on commence à rechercher dans le domaine de la biologie adaptative (via l'immunoséquençage notamment). À l'échelle d'une vie, l'évolution du système immunitaire peut être comparée aux mécanismes complexes en jeu à d'autres échelles dans l'évolution adaptative. De même, des vaccins plus "personnalisés" pourraient être imaginés. Maladies du système immunitaire. Le système immunitaire peut se dégrader en réagissant excessivement ou insuffisamment. Maladie aiguë. L'absence de régulation du système inné peut aboutir au choc cytokinitique. Maladie chronique. S'il s'attaque aux cellules de l'organisme qui ne sont pas pathologiques (par mauvaise reconnaissance), il va alors se créer une maladie auto-immune qui va se caractériser par une inflammation continue de certains tissus ou par la nécrose complète de certains tissus (par exemple le diabète de type I). S'il y a un défaut du système immunitaire, dans ce cas les pathogènes ou les cancers pourront se développer plus aisément. Maladie génétique. Notons l'existence d'une maladie impliquant le système immunitaire adaptatif. Il s'agit du "Bare Lymphocytes Syndrome" (). Les patients souffrant de cette maladie ne peuvent présenter d'antigène à la surface des cellules présentatrices d'antigène et il ne peut donc pas y avoir production d'anticorps. Cette maladie a notamment permis des avancées en biologie moléculaire en permettant l'identification par complémentation d'un facteur de transcription essentiel, le transactivateur de classe II (CIITA). |
Système GPS |
Serment d'Hippocrate Le serment d’Hippocrate est un serment traditionnellement prêté par les médecins, chirurgiens-dentistes et les sages-femmes en Occident avant de commencer à exercer. Le texte original de ce serment, probablement rédigé au , appartient aux textes de la Collection hippocratique, traditionnellement attribués au médecin grec Hippocrate. Le serment d'Hippocrate peut être considéré comme le texte fondateur de la déontologie médicale. Dans sa forme historique, ce serment n'a pas de valeur juridique, les médecins étant soumis à des codes nationaux régulièrement actualisés. Dans ses formes modernes, la prestation d'un serment médical a gardé sa valeur symbolique. Le texte d'origine. Traduction par Émile Littré du serment d'origine : En 1839, paraît à Paris, chez l'éditeur Jean-Baptiste Baillière, le premier tome des Œuvres complètes d'Hippocrate édition critique en français, avec le texte grec en regard, traduction d'Émile Littré. Ce dernier a placé dans ce premier tome, les textes éthiques, et en premier de ces textes, celui intitulé "Le Serment." Il s'agit d'un texte très court, sans présentation, ni commentaire, tel qu'on peut le lire ci-dessus. On peut comparer la version de Littré avec une version plus moderne, qui serait plus proche du grec ancien, celle de Jacques Jouanna. Toutefois, la version de Littré reste une référence, par sa fidélité à l'original, et sa qualité littéraire (langue française du ). Contexte historique. Les textes hippocratiques sont un ensemble de textes d'auteurs différents (dont Hippocrate lui-même) rédigés sur une période d'un siècle à peu-près, probablement autour de 440-360 av. J.-C. On sait peu de choses sur la datation exacte du Serment, ni pourquoi, ni dans quel but il a été rédigé, ni même qui étaient précisément les prestataires de ce serment. En Grèce antique, l'exercice de la médecine n'était pas règlementé comme aujourd'hui. L'art de soigner était entièrement libre, depuis les prêtres-guérisseurs des temples et sanctuaires, jusqu'aux exorcistes et rebouteux. De ce vaste ensemble émergent des communautés familiales spécialisées dans l'art médical. Ce sont les Asclépiades, qui se transmettent savoirs et pratiques, de père en fils, par apprentissage dès l'enfance. Hippocrate appartenait à l'une de ces familles qui faisaient partie de l'élite culturelle, au contact des grands courants philosophiques et scientifiques grecs. "Le Serment" semble se placer au moment où ces communautés familiales s'élargissent aux étrangers (par adoption ou contre rémunération) pour leur enseigner la médecine. Les Asclépiades se seraient séparés des prêtres-guérisseurs, pour envisager les maladies comme un phénomène naturel et logique, et non pas comme une colère divine. Ce ne sont pas des athées : la nature est bien d'origine divine, mais la nature elle-même est soumise à des règles autonomes, accessibles à la raison humaine. « Le médecin-philosophe est l'égal des Dieux » (Hippocrate. "De la Bienséance", 5). Ces médecins sont itinérants, pratiquant la médecine de cités en cités, la plupart des cités grecques de cette époque ne dépassant guère quelques milliers d'habitants. Venant de l'extérieur, le médecin doit inspirer la confiance en offrant des marques de respect. Notamment en transposant le respect des sanctuaires sacrés à celui du domicile du malade. Analyses et commentaires. Selon A. Debru, presque chaque mot du Serment a fait l'objet de controverses et de nouvelles hypothèses. Ce serment commence par une invocation aux Dieux, puis il se compose de deux parties bien distinctes et sans transition. La première concerne les devoirs de l'élève envers son maître, cette partie a l'allure d'un contrat (engagement contractuel). La deuxième concerne les devoirs envers les malades, avec des obligations et des interdits, cette partie a l'allure d'un code ou d'une table de commandements. Enfin le texte se termine par une louange et une malédiction, selon la teneur de l'engagement. Devoirs envers le maître. L'invocation aux Dieux se comprend aisément. Apollon est Dieu et médecin en tant que père d'Asclépios (Esculape), le héros guérisseur, lui-même père de deux filles, Hygie, déesse de la santé, et Panacée, déesse des soins. L'engagement au sein d'une famille (réelle ou symbolique) de médecins se fait sous l'égide d'une famille divine. Les médecins hippocratiques étaient appelés Asclépiades car ils prétendaient descendre d'Asclépios. La première partie montre la force de la relation maître-élève en médecine, elle équivaut à la relation père-fils. Le respect du maître relève de la piété filiale. C'est une vieille idée de l'antiquité qui a longtemps persisté : dans certains métiers, on ne peut être bon que de père en fils, car seul l'apprentissage dès l'enfance permet d'acquérir les dispositions nécessaires. Le nouveau-venu ou le tard-venu dans le domaine médical souffrait d'un préjugé défavorable. L'ouverture de l'enseignement médical à l'extérieur de la famille doit tenir compte de ce préjugé. L'élève est vraiment un nouveau fils, puisqu'il s'engage à pourvoir, si nécessaire, aux besoins du maître et à l'enseignement gratuit des enfants du maître. Son insertion professionnelle est aussi une insertion générationnelle. Cette partie du serment se présente comme un contrat associatif entre maître et élève, c'est l'expression d'une libre volonté entre individus privés. Ce n'est pas une loi, ou un règlement imposé, de la Cité qui s'appliquerait à des citoyens. Ce type d'engagement est différemment interprété par les historiens. Selon Edelstein, la force quasi mystique et religieuse de cet engagement n'a qu'un seul équivalent en Grèce antique : le rituel d'initiation des Pythagoriciens qui, eux aussi ont une relation maître-élève analogue. C'est un des arguments qui font dire à que le Serment d'Hippocrate serait imprégné de pythagorisme. D'autres, comme Debru, pensent que cette partie du serment ne reflète qu'une confrérie professionnelle, une guilde qui prend sa place dans la société. Devoirs envers les malades. Le bien du malade, au physique et au moral, est la priorité du médecin. Celui-ci doit faire ce qui est utile et avantageux pour le malade. Le régime. Cela commence par la direction du régime (diététique). Selon la doctrine hippocratique, un régime approprié peut corriger le déséquilibre des humeurs. Les avis divergent sur le sens de « je m'abstiendrai de tout mal et de toute injustice », il faudrait lire « je les écarterai de tout mal et de toute injustice », c'est-à-dire, non seulement proposer ce qui est bon, mais aussi interdire ce qui est mauvais pour le malade. Selon Edelstein, les Pythagoriciens définissent les appétits du corps comme des conséquences des tendances de l'âme. Le médecin doit aider le malade à lutter contre des désirs malsains et incontrôlés d'une nourriture qui ne lui convient pas. L'interdiction du poison. L'interdiction du poison a fait l'objet d'un débat. Cela a été interprété comme l'interdiction du meurtre ou de la complicité d'assassinat, ou encore comme une mesure de sécurité pharmaceutique (remèdes dangereux). Les commentateurs modernes considèrent qu'il s'agit bien de l'interdiction de faciliter le suicide assisté. Il existait dans l'antiquité païenne, ce que Danielle Gourevich appelle le suicide philosophique rationnel, qu'elle décrit ainsi : le candidat au suicide (faisant partie de l'élite intellectuelle) s'informe et réfléchit, il prend l'avis de médecin sur la gravité et le pronostic de sa maladie. Le médecin ainsi consulté sait parfaitement qu'il s'agit de suicide. Le candidat discute avec sa famille et ses amis. Il prend sa décision, les réunit, fait un dernier sermon sur les valeurs de sa vie, et avale une coupe de poison, fournie par son médecin. L'Histoire a retenu le nom de Thrasyas de Mantinée, un médecin qui aurait inventé une « drogue de la mort douce », à base de pavot et de cigüe. Edelstein passe en revue toutes les écoles philosophiques grecques et leur positionnement sur le suicide. Une seule pose un interdit absolu, sans aucune exception : celle des Pythagoriciens. Il explique ainsi pourquoi ce passage du serment ne correspond pas à ce qu'on sait de son cadre social. L'auteur du serment ferait partie d'un groupe isolé et minoritaire. L'interdiction de l'avortement. Cette interdiction est contradictoire avec d'autres textes hippocratiques ("De la nature de l'enfant", "De la nature de la femme") où le médecin conseille ou participe à des manœuvres abortives. interprète ce passage comme une interdiction des pessaires en tant que moyens, mais pas de l'avortement en lui-même. La quasi-totalité des commentateurs considère qu'il s'agit bien d'une interdiction, par principe, de l'avortement. Mais les avis divergent encore, car il existe plusieurs théories antiques du fœtus (du statut de l'embryon). Selon l'une, le fœtus ne nait que de la semence paternelle, la mère n'étant qu'un réceptacle (le sol qui reçoit la graine). Le fœtus ne prendrait vie que lors de son animation (lorsque la mère en perçoit les mouvements), ce qui correspond à peu près au de grossesse. L'interdiction du Serment ne concernerait que les avortements tardifs. En fait la théorie dominante des textes hippocratiques est celle de l'union des semences paternelles et maternelles, où le fœtus croît sous l'harmonie du chaud (chaleur de la mère) et du froid (respiration de la mère). Le fœtus est vivant dès sa conception. Cette théorie est aussi celle des Pythagoriciens. Edelstein fait remarquer que les interdictions du poison et de l'avortement s'enchaînent en une seule phrase, aussitôt suivies d'un appel à l'innocence et à la pureté du médecin. Il en conclut qu'il s'agit plus que de simples interdits éthiques, mais bien de véritables tabous, conformes au Pythagorisme. L'interdiction de la taille. La taille était l'opération chirurgicale qui consistait à extraire un gros calcul (la pierre) de la vessie (lithiase vésicale). De nos jours, dans les pays développés, la lithiase vésicale est devenue une maladie rare (contrairement à la lithiase rénale ou urétérale), mais elle se rencontre encore dans les pays les plus pauvres. Elle était très fréquente dans l'antiquité, où elle touchait principalement les enfants en étant liée à des carences alimentaires et vitaminiques, surtout au moment du sevrage ; la maladie n'apparaissant aux yeux des médecins antiques que des années plus tard. L'opération se pratiquait donc le plus souvent chez le grand enfant, ou le très jeune adulte. Elle nécessitait de la part de l'opérateur du sang-froid, de la dextérité, et de la rapidité. Un opérateur doué et chanceux peut l'effectuer en une minute. Cette opération dite « taille par le petit appareil » sera délaissée à partir du après J.-C. Les avis divergent sur les raisons d'interdiction d'une opération commune à l'époque. Émile Littré pensait qu'il s'agissait de ne pas prendre le risque de castration (en fait de vasectomie, section d'un canal déférent) ; Debru, le risque mortel d'infections. La plupart des commentateurs y voient plus simplement l'avertissement de ne pas aller au-delà de ses compétences : il faut laisser cette opération « à ceux qui s'en occupent ». L'expression a donné à penser qu'il existait des chirurgiens spécialistes dès cette époque, mais cela peut vouloir dire aussi qu'il faut laisser cette opération à « ceux qui en ont l'expérience », ou à « ceux qui osent en assumer le risque ». Pour Edelstein, l'auteur du Serment ne fait que respecter un tabou pythagoricien : l'interdiction d'inciser. Pour les autres, il s'agit tout aussi bien d'éviter de léser le malade (« d'abord ne pas nuire ») que d'éviter d'y laisser sa réputation. Contrôler sa conduite. Au domicile du patient, le médecin maitrise sa conduite par la force de ses vertus. Dans le texte hippocratique "Du Médecin", cela passe d'abord par l'attitude qui convient pour plaire au malade. Le médecin doit être d'aspect propre et avenant « en ayant une physionomie réfléchie, sans austérité ; autrement il paraitrait arrogant et dur ; d'un autre côté [il ne faut pas] se laisser aller au rire et à une gaieté excessive […] ce ne sont pas de petits rapports que ceux du médecin avec les malades ; les malades se soumettent au médecin, et lui, à toute heure, est en contact avec des femmes, des jeunes filles, des objets précieux ; il faut, à l'égard de tout cela, garder les mains pures » ("Du Médecin", 1). Le Serment met en valeur ce refus d'abuser de la situation (méfaits, faveurs sexuelles). Le médecin sait résister à la tentation tout en restant accessible. C'est ce qu'on appellerait aujourd'hui « la neutralité bienveillante », qui s'applique ici à tous, libres ou esclaves. Dans d'autres textes hippocratiques, on retrouve ce refus de distinguer entre riches et pauvres, concitoyens et étrangers, comme le fameux « S'il y a lieu de secourir un homme étranger et pauvre, c'est surtout le cas d'intervenir ; car là où est l'amour des hommes est aussi l'amour de l'art ». La discrétion sur ce que le médecin voit ou entend, peut être comprise comme une façon de préserver la confiance du malade et de sa famille. Cependant le texte précise « même en dehors de l'exercice de ma profession », Edelstein s'en étonne pour en conclure qu'il ne s'agit pas là d'une discrétion de précaution, mais bien d'un devoir de secret. en toutes circonstances. Attitude qui serait à mettre en parallèle avec les pratiques de silence et de secret des Pythagoriciens. Pour d'autres commentateurs, il s'agit d'un moyen d'asseoir la réputation sociale du médecin. Enfin, le Serment se termine sur une louange et une imprécation, avec l'espérance d'une réputation éternelle, mais bien terre à terre, et dans la mémoire des hommes. Selon Edelstein, le "Serment" peut être compris comme un véritable manifeste Pythagoricien (rituel initiatique, importance du régime, divers tabous, abstinence sexuelle, silence et secret, etc.) d'une faible minorité de médecins. Cette interprétation, vraie ou fausse, est devenue moins importante aujourd'hui. Un autre aspect émerge, celui d'un texte de défense professionnelle, dans un contexte précaire, où les médecins, pour exister, doivent surtout compter sur leur image et leur réputation. Le serment à travers les âges. Antiquité païenne. La renommée d'Hippocrate existait de son vivant et grandit après sa mort. Son œuvre sera abondamment commentée et reprise tout au long des siècles suivants. Mais le Serment, lui, aura un faible impact sur la réalité des pratiques médicales de l'antiquité, surtout dans le monde romain. Pline l'Ancien se vantait de ce que les Romains ont vécu pendant six siècles sans avoir besoin de médecins, c'est-à-dire de professionnels prétendant posséder un savoir réfléchi. A ses yeux, le médecin est une invention grecque. Les premiers médecins Grecs arrivent à Rome vers le av. J.-C. Pas plus que les Grecs, les Romains n'ont de législation précise sur l'enseignement ou la pratique de la médecine. Il n'existe pas de règles, ni de sanctions. Les médecins se répartissent tout au long de l'échelle sociale : du médecin de haut rang, médecin-ami d'un riche et puissant personnage, au sorcier-guérisseur de campagne, en passant par le médecin-fonctionnaire des gladiateurs. Du au apr. J.-C., les interdits du Serment ne sont pas appliqués : la plupart des médecins fournissent du poison, des remèdes abortifs, et pratiquent l'opération de la taille. La littérature latine forge même l'image de l'anti-Hippocrate, du médecin marron, assassin, fraudeur, menteur, voleur et séducteur. Néron avait ses médecins-bourreaux qu'il envoyait pour aider au « suicide » de ses ennemis. Lorsqu'une femme ou son médecin était condamnés pour avortement, c'était pour avoir lésé les droits du père. En effet, le fœtus appartient au père, qui dispose du droit de vie et de mort sur le nouveau-né, la naissance étant le seul moyen d'en vérifier le sexe. Cependant, il existe toujours des médecins hippocratiques fidèles à l'esprit du Serment. On cite plusieurs cas de médecins qui ont préféré se suicider plutôt que d'aider au suicide demandé (cas du médecin de l'Empereur Hadrien). Par leurs écrits, des médecins entretiennent et développent une réflexion éthique, comme Scribonius Largus, Soranos d'Ephèse, Celse, Galien… avec des inflexions nouvelles. L'avortement reste interdit mais avec des exceptions liées à la santé de la mère (grossesse à risque). Aux valeurs hippocratiques de justice, pureté, discrétion… s'ajoutent celles de compassion et d'empathie. Mais ces dernières peuvent vite se transformer en complaisance, surtout avec les malades du sommet de l'échelle sociale. Le Serment d'Hippocrate se retrouve dans une position fragile, voire impossible. C'est alors que de nouvelles croyances surgissent dans le cadre du monothéisme juif. Le Serment va servir de pont entre le savoir médical et la foi en un Dieu unique et créateur. Monde juif. Dans le monothéisme juif (et plus tard chrétien et musulman), le monde a été créé par un Dieu unique, la nature procède de sa parole. De même, l'homme a été créé à l'image de Dieu. Ce Dieu parle aux hommes pour leur inculquer sa Loi. Si la maladie et la guérison viennent de Dieu, les trois religions doivent résoudre le conflit, du moins la tension, entre le fatalisme de la maladie et le devoir de soigner. Dans le monde juif, les pratiques de soins sont étroitement liées aux pratiques religieuses. Outre la Bible, le Talmud ( av. J.-C. au apr. J.-C.), et différents autres textes rabbiniques énoncent les exigences rituelles de pureté (séparation du pur et de l'impur, purifications, régime alimentaire…), ainsi que les devoirs envers les malades. Ces devoirs s'accompagnent d'interdits concernant l'avortement, l'infanticide (exposition des nouveau-nés), le suicide autant de contenus qui ne sont pas contradictoires avec l'éthique du Serment d'Hippocrate. Dans le Talmud apparaissent des distinctions entre le prêtre chargé de dire le pur et l'impur (le « cohen »), « hygiène préventive » selon Isidore Simon, et un médecin plus professionnel, chargé des techniques de soins (le « rophé »). Au contact du monde gréco-romain et des doctrines hippocratiques, une évolution apparaît. Au proche-Orient, à l'époque pré-islamique, des juifs étudient aussi la médecine dans les écoles du Nestorianisme (Antioche, Alexandrie, Ninive…). La maladie reste toujours perçue comme d'origine divine, mais soigner devient noble en soi. Le premier serment post-Hippocratique est le serment d'Assaf. Assaf Harofe aurait vécu à Tibériade en Palestine, à une date indéterminée, entre le et le apr. J.-C., pour enseigner la médecine en Syrie. Son serment est connu comme manuscrit du apr. J.-C. Il s'agit d'un pacte entre maître et élèves, faisant référence à Hippocrate et Galien. La guérison est l'œuvre de Dieu, le médecin n'est qu'un instrument dans la main de Dieu, mais c'est un instrument autonome qui cherche les remèdes dans la nature, car si le mal est d'origine divine, le remède l'est aussi. Assaff reprend le triangle hippocratique du médecin, de la maladie et du malade, pour ré-affirmer avec Hippocrate que le médecin aide le malade dans sa lutte contre la maladie. Le médecin doit soigner gratuitement les pauvres, ne commettre aucun crime dans sa pratique, ni infliger d'infirmités. Isaac Israeli (), dans son "Guide du Médecin" ou "Morale médicale", traite de la noblesse de la médecine. L'homme est à l'image de Dieu, mieux connaitre l'homme pour le soigner, c'est mieux connaitre l'œuvre de Dieu. Il en est de même pour la nature, création de Dieu. Le médecin prépare l'action de la nature, « il est celui qui enlève les pierres du chemin » de la guérison. Israeli donne une grande place à l'aspect spirituel (« psychologique ») de la relation médecin-malade. Ainsi, selon lui, promettre la guérison a, en soi, une valeur thérapeutique. L'éthique de la médecine hébraïque est finalement contenue dans le serment de Maïmonide (médecin du ), mais il s'agit d'un texte d'un médecin juif de Berlin, rédigé en 1783, qui se serait inspiré de la prière des médecins de Zahalon (médecin juif de Rome du ). Il existe, de toute façon, une continuité éthique, faite de prières et de serments, qui intègre ou recycle le Serment d'Hippocrate aux préoccupations des communautés médicales juives. Monde musulman. L'islam apparaît en Arabie au . La nouvelle religion doit se confronter à la mentalité païenne des tribus nomades bédouines, à leur morale faite d'honneur et d'hospitalité, mais aussi de vengeance guerrière, de polygamie et d'infanticides (exposition des nouveau-nés de sexe féminin), et dont la médecine est de type magique (djinns et démons). Dans les centres urbains les juifs et les chrétiens entretiennent leurs savoirs traditionnels. En Perse et en Égypte, les musulmans rencontrent la culture de langue syriaque (langue sémitique) qui transmet le savoir gréco-romain. Ils vont réaliser un vaste travail de synthèses et de compromis pour appuyer leur foi nouvelle. La morale coranique prend en compte les idéaux des philosophes grecs, la distinction pur/impur de la tradition hébraïque, des éléments de la morale chrétienne (nestorienne), Cette morale met en avant les devoirs et l'humilité à l'égard de Dieu, et la fraternité des croyants. Il existe une médecine prophétique, populaire, qui insiste sur la dimension spirituelle, la foi et le fatalisme, qui tente de réunir toutes les opinions, authentiques ou non, de Mahomet sur la santé et les maladies. Le Coran et ses versets peuvent avoir en eux-mêmes une valeur magique thérapeutique. Il existe aussi une médecine plus ouverte et plus professionnelle, représentée par des médecins cultivés (philosophie grecque et médecine gréco-romaine). Au fur et à mesure de la conquête musulmane, tout le savoir connu (y compris indien, voire chinois) est pris en compte. Le plus important, et le plus ancien, texte d'éthique médicale est celui de Ruhawi (Ishaq ibn 'Ali al-Ruhawi, ), auteur de "Adab al-Tabib" ("Morale pratique du médecin"), qui se réfère à Aristote, Platon, Hippocrate et Galien. En 20 chapitres, l'auteur cherche à montrer la dignité de la médecine, conçue comme une aide aux malades avec l'aide de Dieu. Le médecin est « le gardien du corps et de l'âme ». Forces du corps et forces morales vont de pair. Le médecin doit être au malade, ce qu'un bon gouvernant est à son pays. Le médecin doit être pieux, sensible, lettré, il agit sans hâte. Il agit par la crainte de Dieu, qui lui donne la force d'être clément et miséricordieux, vrai et utile pour le malade. Le médecin reste humble face à Dieu, et digne devant les hommes. Ruhawi critique les soignants indignes : les charlatans et les empiriques non-lettrés qui lèsent le petit-peuple, et les médecins mondains qui flattent leurs malades riches et puissants, pour profiter d'une vie de cour. Pour lui, devenir médecin nécessite une prédisposition vertueuse. Il suggère de faire passer un examen aux élèves, basé non seulement sur le savoir médical, mais aussi sur les idées et les forces morales du candidat. De même qu'il existe une tradition islamique de la mémoire des actes et des paroles du Prophète, il existe une tradition des actes et des paroles des grands médecins, où Hippocrate et Galien sont en position prééminente. La personne même d'Hippocrate est mise en valeur (ce que ne font ni les juifs ni les chrétiens). C'est le médecin-modèle, l'ancêtre exemplaire qui sera considéré comme tel dans le monde arabe jusqu'au . L'image retenue est celle d'un Hippocrate, sage et modéré, ferme et courageux dans ses valeurs morales, qui méprise l'argent, et qui tient tête aux puissants qui veulent l'utiliser ou le corrompre. Bien entendu, les musulmans (comme les juifs et les chrétiens) vont adapter le Serment d'Hippocrate, en supprimant les références aux Dieux païens, le naturalisme trop terrestre, et la recherche de renommée. Selon J.-C. Sournia on ne connait pas de serment musulman, mais selon G. Strohmaier un serment d'Hippocrate adapté a pu être prêté par les futurs médecins, probablement à Bagdad à partir du . Ibn al-Ukhuwwa (mort en 1329) est un muthasib (inspecteur fonctionnaire de la cité et des marchés), auteur d'un ouvrage où il énumère les devoirs de sa fonction, notamment de vérifier les médecins en les questionnant sur leurs études faites, leurs instruments, en leur faisant prêter le serment d'Hippocrate. Toutefois, comme cela n'est formulé par aucune loi, il s'agirait plus d'un idéal à atteindre que d'une obligation. Monde chrétien. Origines. Dans les Évangiles, Jésus apparaît comme un guérisseur, faiseur de miracles. Il rend la vue aux aveugles, et il fait marcher les paralytiques. Plus exactement, c'est la foi en Jésus qui guérit, mais Jésus est aussi souffrant sur la croix, il est sauveur par son corps meurtri et humilié. Pour les premiers chrétiens, le corps est un problème : une source de péchés et de désirs à réprimer. Il y a aussi la souffrance rédemptrice, la résurrection de la chair, l'immortalité de l'âme… autant de concepts apparemment étrangers à la doctrine hippocratique. Au maximum, quand l'Église deviendra riche et influente, un mouvement monastique ascétique se produira en réaction. Des moines iront affronter les démons dans les déserts, la maladie apparaissant même nécessaire et désirable pour leur salut. Toutefois, les médecins hippocratiques (enseignants et élèves éduqués aux écoles de Cos) n'ont pas été écartés de la vie quotidienne des païens convertis à la foi chrétienne. Selon O.Tomkin, malgré le mouvement ascétique, il se produit une infiltration de la médecine hippocratique, dans le monde chrétien, dès le apr. J.-C. Les pères de l'Église qui élaborent une doctrine chrétienne de la nature humaine, vont aussi se servir du savoir et du comportement hippocratique, le rendant compatible avec la foi en Jésus-Christ. Déjà dans le Didaché, on trouve le concept judéo-chrétien (et hippocratique) du respect de la vie (interdit du meurtre, de l'avortement, de l'abandon des nouveau-nés). Au Origène cherche une synthèse entre foi chrétienne et philosophie grecque. Toutes les sagesses et connaissances (y compris médicales) doivent être attribuées à Dieu. Saint Jérôme se réfère à Hippocrate comme modèle de vertus et d'étiquette (langage, habillement, manières, discrétion). Saint Basile et Saint Jean Baptiste parlent de l'utilité de la médecine, des plantes médicinales, de la nécessité de combattre la maladie. Le corps est la demeure (voire le temple) de l'âme, et mérite le respect en tant que tel. Une distinction est créée entre médecine du corps et médecine de l'âme qui entrent en résonance, chacune prenant modèle sur l'autre. Le Christ reste le médecin suprême de l'âme, en retour le médecin chrétien du corps reçoit un peu de prestige du Christ. Le naturalisme hippocratique est reconnu par l'Église, comme un ensemble de principes d'ordre et de règles, d'observation et de méditation personnelle, principes créés et voulus par Dieu. Cassiodore (490-585) mentionne les serments sacrés des hommes de l'art de médecine. En Occident, on trouve une médecine monastique (pratiquée dans les couvents et les monastères), faite de rituels, prières, et plantes médicinales. Les moines-médecins sont engagés dans les soins aux pauvres. Ils accomplissent l'œuvre de Dieu car « ce que Hippocrate dit, c'est ce que Dieu permet ». Le malade est objet d'amour car il reproduit l'image du Christ souffrant et nécessiteux. Le Serment d'Hippocrate est cité ou reproduit dans de nombreux manuscrits médicaux anonymes du , y compris jusqu'en Europe du Nord. La présentation du texte en forme de croix (voir illustration en début d'article) montre l'intégration chrétienne d'un texte païen (l'invocation aux Dieux étant remplacée par l'invocation à Dieu). Du Moyen Âge aux Lumières. Toutefois les mondes juifs, chrétiens et musulmans ne sont pas séparés, ils s'imbriquent et s'influencent mutuellement, ce sont ces influences conjointes qui touchent l'occident après le avec la création de l'école de médecine de Salerne, puis celle des Universités de Médecine, comme celle de Montpellier. Durant le , cinq conciles restreignent puis interdisent la pratique médicale aux religieux (trop de moines s'absentent de leurs monastères pour apprendre la médecine et la pratiquer à titre privé). À partir du , la médecine devient peu à peu entièrement laïque (les médecins sont laïques, mais les Universités de médecine sont patronnées par l'évêque local). C'est la médecine scolastique, qui voit la séparation progressive de la médecine et de la chirurgie. La médecine dite « art libéral » est enseignée à l'Université, alors que la chirurgie dite « art manuel » s'enseigne entre compagnon et apprenti. Dans les Universités françaises, selon C. Allix, on ne prêtait pas de serment identique ou analogue à celui d'Hippocrate. En revanche, les chirurgiens organisés en confréries ou compagnonnages pratiquaient des serments rituels. La première version imprimée du serment d'Hippocrate est la traduction latine du grec de Fabio Calvo. Elle se trouve dans la première édition des Œuvres d'Hippocrate ("Hippocratis Octoginta volumina…") imprimée à Rome en 1525. En Allemagne, les universités de médecine se dotent de statuts faisant prêter un serment d'Hippocrate, incluant la loyauté envers l'Université et ses Autorités (Heidelberg et Iéna, en 1558). Après la Renaissance, une multitude de théories et de systèmes médicaux rivalisent avec la médecine hippocratique, mais les idéaux du Serment gardent leur prestige. En Angleterre, sous la période élisabéthaine (), apparaissent les premières règlementations professionnelles des médecins qui s'appuient directement sur le Serment d'Hippocrate. On connait 4 versions anglaises du Serment, ce sont les premières adaptations modernes. Aux idéaux hippocratiques se superposent des préoccupations sociales. Ainsi « enseigner gratuitement les enfants du maître » est changé en « soigner gratuitement les pauvres ». Le Serment engage l'intégrité et la dignité de la profession médicale, en retour l'État assure la régulation des activités des médecins et sanctionne les illégaux. Au , cette dignité ne résiste guère à la réalité sociale. Les médecins de Molière sont bien une réalité, puisqu'un médecin, Samuel Sorbière (1610-1670), rédige un petit ouvrage au titre significatif "Avis à un jeune Médecin sur la manière dont il doit se comporter en la pratique de la médecine, vu la négligence que le public a pour elle, et les plaintes qu'on fait des médecins". Au , des médecins des Lumières citent toujours le Serment d'Hippocrate, mais avec ce commentaire « existe-t-il un païen plus honnête ? », façon ironique de laisser entendre qu'il existe des chrétiens plus malhonnêtes. Temps modernes. La Révolution française détruit radicalement l'Ancien Régime. Les fondations d'un nouveau monde médical sont posées sous l'Empire (commencées sous le Directoire, et terminées sous la Restauration). Médecine et chirurgie sont réunifiées, enseignées dans des hôpitaux publics. La génération médicale révolutionnaire, qui rejette toutes les vieilles théories et anciens systèmes, a vraiment l'impression de repartir de zéro : « Supposons que rien n'est encore fait, que tout est à faire », tel est le mot de François Magendie. La médecine est refondée par la méthode anatomoclinique et la physiologie expérimentale. Les doctrines d'Hippocrate et de Galien sont totalement rejetées. En moins d'un demi-siècle, la Grande-Bretagne et l'Allemagne adoptent cette révolution médicale, suivis par le monde entier. Pourtant Hippocrate reste encore debout. L'Hippocrate doctrinaire, celui des 4 humeurs, est oublié, mais l'Hippocrate clinicien, celui qui observe les malades sans idées préconçues, est un précurseur prestigieux pour les médecins Français. L'Hippocrate environnemental, celui qui observe les airs, les lieux et les eaux où se trouvent les malades, est un modèle non moins prestigieux pour les médecins Anglais. Le Serment d'Hippocrate lui, se ritualise, il s'imprime à la fin des thèses de doctorat. En France, la Faculté de Montpellier est la première à faire un long serment d'Hippocrate en latin, au nom de Dieu, en 1804, puis en français au nom de « l'Être suprême » en 1872. Elle sera imitée par la plupart des autres facultés, celle de Paris d'abord, puis Strasbourg, qui adopteront des versions plus courtes (parfois réduites à une seule phrase) du Serment de Montpellier. Le Serment a du mal à entrer dans la modernité. Par exemple, dans son ouvrage sur l'histoire française de la contraception et de l'avortement au , A. McLaren met bien les médecins comme acteurs du débat, mais sans jamais citer une morale hippocratique. Les médecins ne font pas appel à une morale, mais à leur savoir : ils sont là pour justifier médicalement l'ordre social dominant, notamment l'infériorité de la femme, et son incapacité foncière à prendre des décisions qui doivent rester sous le contrôle de la société masculine. Les limites du Serment sont d'autant plus apparentes que l'on utilise un nouveau vocabulaire : les termes d'éthique et de déontologie. En Angleterre, Thomas Percival (1740-1804) est le premier médecin à rédiger un code moderne d'éthique médicale. En 1803, il publie "Medical Ethics, or a Code of Institutes and Precepts, Adapted to the Professional Conduct of Physicians and Surgeons". Ce code aura une grande influence dans les pays anglophones, il sera adopté par les médecins américains dès 1847, et périodiquement révisé aux États-Unis. Il en est de même pour le Canada et l'Australie. En France, le médecin M. Simon réalise un travail analogue en 1845, "Déontologie médicale ou des devoirs et des droits des médecins dans l'état actuel de la civilisation", mais son impact sera plus limité. Contrairement aux pays anglo-saxons, la France du et de la République n'a pas un ensemble fiable et écrit de consignes éthiques, ni de règlementation précise sur la pratique médicale. Le Code Napoléon ne prévoit pour les professionnels de santé qu'un seul article, l'article 378 du code pénal, sur le secret médical. La loi s'applique surtout aux médecins au courant des faits biologiques et sexuels de leurs patients. Au départ, il s'agissait, pour le législateur, de préserver la réputation des familles, et d'assurer la transmission des biens (héritages). Le médecin remplace le curé en tant que gardien de secret. Pour défendre leurs intérêts et leur réputation, les médecins anglais s'associent sur le modèle du club de gentlemen, en France ils doivent le faire sur le modèle du syndicat. De fait, la déontologie française d'origine répond d'abord aux besoins intra-professionnels des médecins (entre eux et avec les autres professionnels de santé) et seulement indirectement aux intérêts des patients. Cette déontologie restant informelle, les syndicats médicaux français proposent la création d'un Conseil de l'Ordre dès la fin du . Il sera créé sous le régime de Vichy, le 7 octobre 1940, dissous à la Libération et recréé par l'Ordonnance du 24 septembre 1945, signée par le ministre communiste de la Santé François Billoux (premier gouvernement de Gaulle). Ce nouvel Ordre, plus autonome, est chargé de rédiger un code de déontologie qui sera inscrit dans la loi en 1947. Depuis cette date, tous les médecins français ont l'obligation légale de se conformer à ce code, périodiquement révisé. Le Serment d'Hippocrate n'est plus qu'un symbole rituel, mais qui garde son prestige. Au cours de l'histoire, il apparait comme un nucleus, un noyau sans cesse retaillé, qui cristallise autour de lui toutes les nouvelles préoccupations d'une époque ou d'une civilisation. Ce que l'on croit comprendre du serment d'Hippocrate diffère souvent d'une période ou d'un contexte à l'autre. Même les médecins criminels nazis, au cours de leur procès, se sont situés par rapport au serment, en étant indignés que l'on puisse rejeter leur interprétation. Serments contemporains. Dans le monde. Après la Seconde Guerre mondiale, l’« Association médicale mondiale » (AMM) est créée en 1947, prenant la suite de l’Association professionnelle internationale des Médecins d'avant-guerre. C'est une organisation internationale officielle sur les problèmes d'éthique médicale. Sa première mission a été de formuler un équivalent moderne du serment d’Hippocrate, connue comme la Déclaration de Genève ou serment de Genève (1948). Elle a aussi élaboré un Code international d’éthique médicale (1949) puis un « Manuel d’éthique médicale ». La Déclaration ou Serment de Genève a été amendé plusieurs fois, sa dernière révision (octobre 2020, pour la version française uniquement) est la suivante : « En qualité de membre de la profession médicale, Je prends l'engagement solennel de consacrer ma vie au service de l’humanité ; Je considérerai la santé et le bien-être de mon patient comme ma priorité ; Je respecterai l’autonomie et la dignité de mon patient ; Je veillerai au plus grand respect de la vie humaine ; Je ne permettrai pas que des considérations d’âge, de maladie ou d’infirmité, de croyance, d’origine ethnique, de genre, de nationalité, d’affiliation politique, de race, d’orientation sexuelle, de statut social ou tout autre facteur s’interposent entre mon devoir et mon patient ; Je respecterai les secrets qui me seront confiés, même après la mort de mon patient ; J'exercerai ma profession avec conscience et dignité, dans le respect des bonnes pratiques médicales ; Je perpétuerai l’honneur et les nobles traditions de la profession médicale ; Je témoignerai à mes professeurs, à mes collègues et à mes étudiants le respect et la reconnaissance qui leur sont dus ; Je partagerai mes connaissances médicales au bénéfice du patient et pour les progrès des soins de santé ; Je veillerai à ma propre santé, à mon bien-être et au maintien de ma formation afin de prodiguer des soins irréprochables ; Je n'utiliserai pas mes connaissances médicales pour enfreindre les droits humains et les libertés civiques, même sous la contrainte ; Je fais ces promesses sur mon honneur, solennellement, librement ». Dans les années 1990, plus de 110 pays font prêter un serment dans les facultés de médecine. À part l'Extrême-Orient et l'Australie, on retrouve un peu partout un serment inspiré du Serment d'Hippocrate ou du Serment de Genève. Au niveau européen, il n'y a pas encore d'harmonie entre les codes nationaux de déontologie médicale. Des conférences internationales travaillent à l'unification européenne du droit médical (Principes d'éthique médicale européenne, en 1987). Il n'existe pas de serment européen, la référence restant le serment mondial de Genève (ci-dessus). En France. Les médecins sont soumis au code de déontologie, inscrit dans le Code de santé publique, qui a force de loi. Toutefois les facultés de médecine font encore généralement réciter un serment aux nouveaux médecins (dans les années 1990, un serment médical est prêté dans au moins 25 facultés de médecine sur 37). Ce serment moderne, le plus souvent toujours appelé "serment d'Hippocrate" même s'il s'en éloigne, s'inspire généralement du texte d'origine et a pour principal objectif de rappeler aux nouveaux médecins dans un cadre solennel qu'ils sont liés à des obligations légales, morales et éthiques. On peut aussi considérer son énonciation, comme un rite de passage du statut d'étudiant à celui de médecin, de valeur morale, mais sans portée juridique. De plus, lors de l'inscription à l'Ordre, les médecins s'engagent sous serment et par écrit, à respecter le code de déontologie médicale. Les médecins français sont responsables, devant la loi, du respect de ce code. Les médecins militaires possèdent un règlement de déontologie qui leur est propre. Serment du Conseil de l'Ordre des médecins (2012) : Serment d'Hippocrate, tel qu'il est prêté à la Faculté de médecine de Montpellier : Pays francophones. En Belgique. Les jeunes diplômés médecins prononcent un serment lors de l'inscription à l'Ordre des médecins, dont la version de juillet 2011 est : Au Canada. Serment professionnel des médecins, en usage au Québec depuis le 15 décembre 1999 : En Suisse. Les médecins suisses sont soumis à un code de déontologie, il n'y a pas de serment au niveau fédéral. Le symbolisme du serment n'existe que dans une petite minorité de cantons. Musique. Plusieurs partitions reposent sur une partie du texte du serment : |
Inclusion (mathématiques) En mathématiques, l’inclusion est une relation d'ordre entre ensembles. On dit qu'un ensemble est inclus dans un ensemble si tous les éléments de sont aussi éléments de . On dit dans ce cas que est un sous-ensemble ou une partie de , ou encore que est sur-ensemble de . Cette relation n'est pas symétrique "a priori", car il peut y avoir des éléments du deuxième ensemble qui n'appartiennent pas au premier. Plus précisément, il y a inclusion dans les deux sens entre deux ensembles si et seulement si ces deux ensembles sont égaux. L'inclusion se note majoritairement avec le symbole « ⊂ » introduit par Schröder, même si d'autres auteurs réservent ce symbole à l'inclusion stricte (c'est-à-dire excluant le cas d'égalité), suivant ainsi la norme ISO. L'inclusion au sens large peut alors être notée avec le symbole « ⊆ » de Felix Hausdorff, par analogie avec les symboles de comparaison numériques. Pour lever l'ambiguïté, l'inclusion stricte peut aussi être notée « ⊊ », à ne pas confondre avec la négation de l'inclusion, qui se note « ⊄ » ou « ⊈ ». Tous ces symboles peuvent être réfléchis pour représenter les relations réciproques. Définitions. Soient deux ensembles et . Par définition, est inclus (au sens large) dans si tout élément de est un élément de , est inclus (au sens strict) dans si de plus . Terminologie et notation. Inclusion au sens large. En notation symbolique, l’inclusion au sens large est notée ou ; par définition (« » désigne l'implication logique) : On peut aussi définir l'inclusion au sens large à partir de l'intersection ou de la réunion : La relation peut se lire : et peut aussi s'écrire , qui se lit : Sont également utilisés « contient » et « est contenu dans », qui peuvent par ailleurs signifier formula_1. Certains auteurs, tels que Paul Halmos et George Boolos, recommandent d'utiliser systématiquement « inclut » et jamais « contient » pour traduire , afin d'éviter toute confusion avec l'appartenance. Inclusion au sens strict. L’inclusion au sens strict est notée qui est le symbole de l'inclusion stricte selon la norme de l'Organisation internationale de normalisation (qui mentionne toutefois l'autre usage), ou , en particulier quand l'inclusion au sens large est notée . L'usage du symbole pour l'inclusion stricte s'explique par l'analogie avec le symbole . Variantes d'écriture : formula_2 formula_3. et peut aussi s'écrire , qui se lit : On dit que formula_4 est un sous-ensemble non trivial d'un ensemble formula_5 quand formula_6 mais formula_7 et formula_8. Définition en compréhension. Une propriété des éléments d'un ensemble définit un sous-ensemble de celui-ci. Ainsi, en reprenant l'un des exemples ci-dessus, la propriété « être pair » définit, sur l'ensemble des entiers naturels N, l'ensemble 2N des entiers pairs. On dit que l'ensemble a été défini par compréhension et on note : Toute propriété (quand on l'exprime dans un langage précis on parle de "prédicat" de ce langage) définit par compréhension un sous-ensemble d'un ensemble donné. Ensemble des parties. L'ensemble de tous les sous-ensembles d'un ensemble "E" donné est appelé ensemble des parties de "E", et noté habituellement « formula_9("E") », ou (écriture gothique) « formula_10("E") », voire simplement « "P"("E") » (lire dans tous les cas « "P" de "E" »). On a ainsi : Par exemple si "A" = { "a", "b" }, alors formula_9("A") = { Ø, { "a" }, { "b" }, "A" }. Dans ce cas on aura par exemple "a" ∈ "A", donc {"a"} ⊆ A, c'est-à-dire {"a"} ∈ formula_9("A"). Les propriétés de l'ensemble des parties, en particulier celles ayant trait à la cardinalité, sont détaillées dans l'article ensemble des parties d'un ensemble. Pour le cas fini, qui relève de la combinatoire, voir aussi l'article combinaison. Fonction caractéristique. Un sous-ensemble "A" d'un ensemble "E" peut être défini par sa "fonction caractéristique" formula_14, définie par : vaut 1 si est élément de , et 0 sinon : et donc ( étant à valeurs dans {0, 1}) Réciproquement toute fonction de "E" dans {0, 1} définit un sous-ensemble de "E" qui est {"x" ∈ "E" | ("x") = 1}. On a donc une correspondance bijective entre les sous-ensembles de "E" et les fonctions de "E" dans {0, 1}, c'est-à-dire entre formula_9("E") et Définition en théorie des types. En formula_18, une formulation de la théorie des types, l'inclusion est représentée par le terme formula_19défini comme l'abréviation du terme formula_20 Exemples. Par exemple l'ensemble des entiers naturels non nuls est inclus dans l'ensemble des entiers naturels , de même que l'ensemble des entiers naturels pairs , mais n'est pas inclus dans car , mais : On peut remarquer que, comme il existe des entiers naturels non nuls qui ne sont pas pairs, 1 par exemple, n'est pas non plus inclus dans : . On dit alors que ces deux ensembles ne "sont pas comparables pour l'inclusion". Propriétés de l'inclusion. L'ensemble vide est l'ensemble qui n'a pas d'éléments, et on le note Ø. Proposition (ensemble vide). L'ensemble vide est sous-ensemble de tout ensemble, c'est-à-dire que pour tout ensemble "A" : Démonstration : nous devons démontrer que Ø est un sous-ensemble de A, c'est-à-dire que tous les éléments de Ø sont des éléments de A, mais il n’existe pas d’éléments de Ø. Pour qui a un peu la pratique des mathématiques, l'inférence « Ø n’a pas d’éléments, donc tous les éléments de Ø sont des éléments de A » est évidente, mais cela peut être dérangeant pour le débutant. Il peut être utile de raisonner différemment (par l’absurde). Si nous avions supposé que Ø n'était pas un sous-ensemble de A, nous aurions pu trouver un élément de Ø n’appartenant pas à A. Comme il n’existe pas d’élément de Ø, c’est impossible et donc Ø est par conséquent un sous-ensemble de A. Nous avons aussi la proposition suivante. Proposition (réflexivité). Tout ensemble est inclus dans lui-même, c'est-à-dire que pour tout ensemble "A" : On dit que l'inclusion est une relation réflexive. Pour le prouver, il suffit de reprendre la définition de l’inclusion. Une autre propriété qui elle aussi repose seulement sur la définition de l'inclusion est la transitivité. Proposition (transitivité). Pour trois ensembles quelconques A, B et C, si A est un sous-ensemble de B et B est un sous-ensemble de C, alors A est un sous-ensemble de C, c'est-à-dire que : de même Contrairement aux propositions précédentes, qui se démontrent de façon purement logique, en revenant aux définitions, la propriété d'antisymétrie repose sur la notion même d'ensemble : c'est en fait la simple traduction d'une propriété fondamentale des ensembles, dite propriété d'extensionnalité, à savoir que deux ensembles sont égaux si et seulement s'ils ont les mêmes éléments. Proposition (antisymétrie). Deux ensembles A et B sont égaux si et seulement si A est un sous-ensemble de B et B est un sous-ensemble de A, c'est-à-dire : Quel que soit l’ensemble "E", l’inclusion munit donc son ensemble des parties formula_9("E") d’une relation d'ordre, qui n'est plus un ordre total dès que "E" possède au moins deux éléments. En effet si "a" et "b" sont deux éléments distincts de "E", les singletons {"a"} et {"b"} sont des parties de "E" qui ne se comparent pas pour l'inclusion. Cet ordre a toujours un plus petit élément, Ø l'ensemble vide, et un plus grand élément, l'ensemble "E". Cet ordre n'est donc pas total en général mais a d'autres propriétés remarquables. Proposition (intersection finie). Pour deux ensembles "A" et "B" quelconques, on peut définir l'intersection de "A" et "B", qui est l'ensemble des éléments communs à "A" et à "B", noté "A" ∩ "B". Cet ensemble est le seul à être inclus dans "A" et dans "B", et à inclure tout ensemble inclus à la fois dans "A" et dans "B" : On dit que l'ensemble "A" ∩ "B" est la borne inférieure de "A" et "B" pour l'inclusion. On a une propriété analogue (on dit duale, en un sens précis) pour la réunion. Proposition (réunion finie). Pour deux ensembles "A" et "B" quelconques, on peut définir la réunion de "A" et "B", qui est l'ensemble des éléments appartenant à "A" ou à "B", noté "A" ∪ "B". Cet ensemble est le seul à inclure à la fois "A" et "B", et à être inclus dans tout ensemble incluant à la fois "A" et "B" : On dit que "A" ∪ "B" est la borne supérieure de "A" et "B" pour l'inclusion. Pour tout ensemble "E" l'inclusion munit donc formula_9("E") d'une structure d'ordre que l'on appelle un treillis. Du fait des propriétés de distributivité de la réunion vis-à-vis de l'intersection, et de l'intersection vis-à-vis de la réunion, ce treillis est dit distributif. Des propriétés des intersections et réunions binaires, on pourrait déduire facilement un résultat analogue pour les intersections et réunions finies, mais on a un résultat plus fort : Proposition (intersection et réunion quelconques). Pour une famille quelconque d'ensembles ("Ai")"i" ∈ "I", on peut définir l'intersection des éléments de la famille, ∩"i" ∈ "I""Ai", et leur réunion ∪"i" ∈ "I""Ai". L'intersection des "Ai" est le plus grand des ensembles inclus dans chacun des "Ai", la réunion des "Ai" est le plus petit des ensembles incluant tous les "Ai". Le treillis de l'inclusion sur formula_9("E") est dit complet. Il s'agit même d'une algèbre de Boole, puisque tout sous-ensemble de "E" a un complémentaire dans "E". Proposition (complémentaire). Soit "E" un ensemble. On appellera complémentaire d'un sous-ensemble "A" de "E", le sous-ensemble de "E" constitué des éléments de "E" qui ne sont pas dans "A", et on le notera formula_24. On a : On montre alors que : Théorie axiomatique des ensembles. En théorie des ensembles, dans la théorie des ensembles de Zermelo ou de Zermelo-Fraenkel, l'inclusion n'est pas une notion primitive. elle est définie à partir de l'appartenance comme indiquée au début de l'article. Comme déjà mentionné, des propriétés de l'inclusion, comme la réflexivité et la transitivité, sont des conséquences purement logique de cette définition et l'antisymétrie de l'inclusion est exactement l'axiome d'extensionnalité. L'existence d'un plus petit élément (ensemble vide) se montre par compréhension (voir axiome de l'ensemble vide). Il n'y a pas de plus grand élément pour l'inclusion dans l'univers de la théorie des ensembles : s'il existait un ensemble incluant tous les ensembles on pourrait, en utilisant le schéma d'axiomes de compréhension, dériver le paradoxe de Russell. L'existence d'une borne inférieure (intersection) se démontre par compréhension. L'existence d'une borne supérieure (réunion) dans le cas d'un ensemble d'ensembles, nécessite un axiome spécifique, l'axiome de la réunion. À chaque fois l'axiome d'extensionnalité est utile pour démontrer l'unicité. L’existence de l'ensemble des parties d'un ensemble nécessite également un axiome spécifique, l’axiome de l'ensemble des parties, et son unicité est encore une fois assurée par l’axiome d'extensionnalité. L'appartenance et l'inclusion sont en général bien distinctes dans les mathématiques ordinaires. En théorie des ensembles une notion très utile est celle d'ensemble transitif : un ensemble dont tous les éléments sont aussi des sous-ensembles ! En particulier Les ordinaux sont des ensembles transitifs. La restriction de l'inclusion à un ordinal définit un bon ordre (et donc un ordre total), l'ordre strict correspondant est l'appartenance. Si on introduit la notion de classe (que la notion de classe soit ou non formalisée dans la théorie, voir l'article correspondant), comme celle-ci correspond à la notion de prédicat, on peut définir de façon tout à fait analogue l'inclusion entre classes. La classe de tous les ensembles est maximale pour l'inclusion. On peut définir l'intersection et la réunion de deux classes, et donc d'un nombre fini de classes par conjonction et disjonction, le passage au complémentaire, par négation. Le complémentaire d'un ensemble dans une classe propre, en particulier dans la classe de tous les ensembles, ne peut cependant être un ensemble (par réunion). Il n'est pas question par contre non plus d'ensemble, ou même de classe, des parties d'une classe propre, celles-ci pouvant être elles-mêmes des classes propres. |
Langues sames Les langues sames (ou « laponnes », terme d'origine scandinave qui est considéré comme péjoratif, en same du Nord : "sámegiella" ou "sápmelaš" ou encore "sápmi" ou "sámi") sont une famille de langues qui fait partie de la famille des langues finno-ougriennes. Elles sont parlées par environ Samis exclusivement en Laponie, une vaste région transnationale allant du centre de la Suède à l'extrémité de la péninsule de Kola (Russie), en passant par le nord de la Norvège et de la Finlande. Classification. Le same ( ) se subdivise en neuf aires linguistiques (plus deux langues éteintes), parfois considérées comme des variantes dialectales d'une même langue. Certains spécialistes (hors du conseil same et des institutions linguistiques norvégiennes et suédoises) les considèrent toutefois aujourd’hui comme des langues à part entière. Les langues sames sont classées de la manière suivante : Histoire. En 1948, les spécialistes des dialectes sames K. Bergsland et I. Ruong décident de réformer l'écriture du same du nord en vue de préserver la langue. Les Saami de Finlande dont la tradition écrite est plus marquée décident de rester à l'écart de cette réforme et choisissent de conserver leur orthographe basée sur leur propre phonétique. Et les Saamis de la péninsule russe de Kola utilisant un alphabet cyrillique adapté n'étaient pas concernés par cette réforme. Depuis 1979, le same du nord est officiellement employé par les trois pays nordiques et promu par les différentes administrations scolaires, les radios, la télévision et la presse écrite. Les institutions sami comme le conseil saami ou la Fédération nationale des Saami de Suède en ont fait leur langue officielle. Elle apparaît aussi dans la signalisation routière locale. Écriture. Rasmus Rask, après avoir discuté avec Nils Vibe Stockfleth, définit, en 1832 dans "Ræsonneret lappisk sproglære", une orthographe du same du Nord basée sur le principe de transparence orthographique, c’est-à-dire d’un graphème par son. Nils Vibe Stockfleth, inspiré par Rask, reprend ce principe dans ces ouvrages linguistiques et sa traduction de l’Ancien Testament en same du Nord, remplaçant quelques graphèmes. Jens Andreas Friis, aidé de Hans Jacobsen Hætta et de locuteurs sames, retravaille et termine la traduction du Nouveau Testament de Stockfleth, et publie plusieurs ouvrages. Friis publie aussi un Ancien Testament avec Hætta et Just Knud Qvigstad en 1895. Konrad Nielsen publie plusieurs grammaires et dictionnaires. Depuis 1948, les langues sames des pays nordiques sont écrites au moyen de l'alphabet latin, complété de quelques lettres. Cet alphabet a subi quelques modifications en 1985. Les caractères supplémentaires sont : N. B. : Si le est simplement redoublé "ii" à l'écrit, le "á" représente une voyelle longue mais a une aperture différente de son homologue court : á = (très ouvert, comme en finnois, entre ê et a dans "bar"), mais a = , avec une couleur postérieure comme dans "pâte". Plus rarement : Les résidents de la Péninsule de Kola utilisent un alphabet cyrillique adapté : ainsi, un conte bilingue (sames de Kildin et du Nord) pour enfants, publié en 1994, est titré ("Mon ami"), où l'on voit l'utilisation des macrons et de signes employés dans d'autres langues non-slaves. Exemples en same du Nord. Il est difficile de trouver un cours de same (les meilleurs sont en norvégien bokmål, mais de bons cours de base sont également disponibles en anglais auprès du groupement d'éditeurs Davvi Girji o.s). Par ailleurs, il existe en français une introduction à la langue et à la culture same (du Nord, essentiellement) : "Parlons lapon". |
Ensemble flou La théorie des sous-ensembles flous est une théorie mathématique du domaine de l’algèbre abstraite. Histoire. Elle a été développée par Lotfi Zadeh en 1965 afin de représenter mathématiquement l'imprécision relative à certaines classes d'objets et sert de fondement à la logique floue. Présentation. Les sous-ensembles flous (ou parties floues) ont été introduits afin de modéliser la représentation humaine des connaissances, et ainsi améliorer les performances des systèmes de décision qui utilisent cette modélisation. Les sous-ensembles flous sont utilisés soit pour modéliser l'incertitude et l'imprécision, soit pour représenter des informations précises sous forme lexicale assimilable par un système expert. Définition. En théorie des ensembles classique, une partie formula_1 d'un ensemble formula_2 est usuellement associée à sa fonction caractéristique. Celle-ci s'applique sur les éléments "x" de formula_2. Elle prend la valeur 0 si "x" n'appartient pas à formula_1 et 1 si "x" appartient à formula_1. On souhaite définir une partie floue formula_1 de formula_2 en attribuant aux éléments "x" de formula_2 un degré d'appartenance, d'autant plus élevé qu'on souhaite exprimer avec certitude le fait que "x" est élément de formula_1. Cette valeur vaudra 0 si on souhaite exprimer que "x" de façon certaine n'est pas élément de formula_1, elle vaudra 1 si on souhaite exprimer que "x" appartient à formula_1 de façon certaine, et elle prendra une valeur comprise entre 0 et 1 suivant qu'on estime plus ou moins certain l'appartenance de "x" à formula_1. On est donc amené à définir une partie floue de la façon suivante : une partie floue (ou sous-ensemble flou) d'un ensemble formula_2 est une application de formula_2 dans [0,1]. Plus généralement, si formula_15 est un treillis complet, distributif et complémenté, on définit une partie L-floue comme étant une application de formula_2 dans formula_15. Si formula_18, on retrouve la définition précédente de partie floue, et si formula_19, on retrouve la notion usuelle de partie de E. Opérations. En observant comment les opérations usuelles se comportent vis-à-vis des fonctions caractéristiques de parties, on étend ces opérations aux fonctions d'appartenance des parties floues. Réunion. Soient formula_53 une famille de parties floues d'un ensemble formula_2 indexées selon un ensemble formula_55, données par leur fonction d'appartenance formula_56. On définit la réunion formula_57 de ces parties au moyen de la fonction d'appartenance suivante : Intersection. De même, on définit l'intersection de ces parties au moyen de la fonction d'appartenance suivante : Réunion et intersection restent distributives l'une par rapport à l'autre. Complémentaire. Le complémentaire d'une partie floue donnée par sa fonction d'appartenance formula_57 est la partie floue dont la fonction d'appartenance est formula_63. Le complémentaire d'une intersection reste égal à la réunion des complémentaires, et le complémentaire d'une réunion est l'intersection des complémentaires. Le complémentaire du complémentaire redonne la partie initiale. Cependant, la réunion d'une partie floue et de son complémentaire ne donne pas toujours l'ensemble formula_2, et l'intersection d'une partie floue et de son complémentaire ne donne pas l'ensemble vide. En effet, considérons, par exemple, la partie floue formula_65 de formula_2 donnée par la fonction d'appartenance: formula_67 Cette partie floue est égale à son complémentaire car sa fonction d'appartenance vérifie formula_68. On déduit alors de formula_69 que formula_70 Image réciproque. Soient formula_2 et formula_65 deux ensembles et formula_73 une application de formula_2 dans formula_65. Considérons une partie floue de formula_65 donnée par sa fonction d'appartenance formula_57. On appelle image réciproque de cette partie floue par formula_73 la partie floue de formula_2 donnée par la fonction d'appartenance suivante, notée formula_80 : Image directe. Soient formula_2 et formula_65 deux ensembles et formula_73 une application de formula_2 dans formula_65. Considérons une partie floue de formula_2 donnée par sa fonction d'appartenance formula_57. On appelle image directe de cette partie floue par formula_73 la partie floue de formula_65 donnée par la fonction d'appartenance suivante, notée formula_91 : Ensemble complet flou complet. Cette opération a été introduite en 2017 par Javier Perez-Capdevila comme suit: Étant donné les ensembles flous, W1 = {(w11, f (w11)), (w12, f (w12),…, (w1i, f (w1i)}, W2 = {(w21, f (w21)), (w22, f (w22),…, (w2j, f (w2j)}, ..., Wm = {(wm1, f (wm1)), (wm2, f (wm2),…, (wmk, f (wmk)} si on obtient à partir de ces ensembles un ensemble M = {(m1, f (m1)), (m2, f (m2),…, (mn, f (mn)}, tel que chaque mi, i = 1, 2,…, n, est une combinaison d'éléments appartenant à chaque Wk, k = 1, 2,…, m, chaque élément de chaque Wk fait partie d'au moins un mi, et les valeurs de f (mi) sont la moyenne arithmétique des valeurs de fonction des éléments qui forment chaque mi, l'ensemble M est appelé "ensemble complet flou complet". Topologie floue. Dès 1968, Chang a appliqué la théorie des ensembles flous à la topologie, donnant naissance à la topologie floue. Définition. Soit formula_2 un ensemble. Une topologie floue est donnée par une collection formula_94 de fonctions d'appartenance vérifiant les propriétés suivantes : Les éléments de formula_94 sont les ouverts flous. Leurs complémentaires sont les fermés flous. La propriété (i) exprime que l'ensemble formula_2 et l'ensemble vide sont des ouverts flous, la propriété (ii) qu'une intersection finie d'ouverts flous est un ouvert flou et la propriété (iii) qu'une réunion quelconque d'ouverts flous est un ouvert flou. Par exemple, étant donné un espace formula_2 muni d'une topologie formula_103 au sens usuel, on peut lui associer une topologie floue naturelle formula_104 en prenant pour formula_94 la collection des fonctions semi-continues inférieurement à valeurs dans [0,1]. La topologie floue ainsi définie est dite engendrée par la topologie initiale formula_103 de formula_2. Réciproquement, si formula_94 est une topologie floue définie sur formula_2, on peut lui associer une topologie formula_110 au sens usuel, à savoir la topologie la moins fine rendant toutes les fonctions de formula_94 semi-continues inférieurement. Notions topologiques. On peut alors introduire des notions plus complexes de topologie floue. Continuité. Ainsi une fonction est continue floue si et seulement si l'image réciproque d'un ouvert flou de l'ensemble d'arrivée est un ouvert flou de l'ensemble de départ. Les fonctions constantes sont continues floues si et seulement si la topologie floue de l'espace de départ contient tous les ouverts flous définis par des fonctions d'appartenance constantes. Compacité. Par analogie à la notion topologique usuelle, un espace topologique flou est compact si, de tout recouvrement par des ouverts flous, on peut extraire un recouvrement fini. Si l'image d'un compact par une application continue floue est compacte, en revanche, le théorème de Tychonoff n'admet qu'une version limitée : seul le produit fini de compacts en topologie floue est compact. Plus généralement, soit formula_15 un treillis complet, distributif et complémenté d'élément maximum 1, soit formula_113 un nombre cardinal et soit formula_114 une famille de compacts en topologie L-floue, où formula_55 est de cardinal formula_113. Alors le produit des formula_117 est compact pour la topologie produit L-floue si et seulement si 1 vérifie la propriété suivante : pour toute famille formula_118 d'éléments de formula_15 strictement inférieurs à 1, formula_120 est strictement inférieur à 1 (théorème de Tychonoff pour la topologie L-floue). Dans le cas où formula_19, donnant la topologie usuelle, cette propriété est vérifiée pour tout cardinal formula_113 et un produit quelconque de compacts est compact. Mais si formula_123, donnant la topologie floue, la propriété n'est vérifiée que pour les cardinaux finis. Lowen a proposé une autre définition des compacts en topologie floue. En effet, si la topologie floue comprend toutes les fonctions d'appartenance constantes, il n'existe pas de compact au sens précédent : les fonctions formula_124 sont telles que formula_125 donc ces fonctions définissent un recouvrement de l'espace mais il n'en existe pas de sous-recouvrement fini. Un espace formula_2 est compact pour la topologie floue au sens de Lowen si, pour toute fonction d'appartenance constante formula_127, tout formula_128 et toute famille d'ouverts flous formula_129 telle que formula_130, il existe une sous-famille finie formula_131 telle que formula_132. Avec cette définition, un espace muni d'une topologie formula_103 usuelle est compact si et seulement s'il est compact muni de la topologie floue formula_104 engendrée par formula_103, et un produit quelconque d'espaces compacts est compact (théorème de Tychonoff pour la topologie floue au sens de Lowen). Enfin, on montre que le théorème de Tychonoff pour la topologie L-floue et le théorème de Tychonoff pour la topologie floue au sens de Lowen sont, comme le théorème de Tychonoff usuel, équivalents à l'axiome du choix. |
Sculpture La sculpture est une activité artistique qui consiste à concevoir et réaliser des formes en volume, en relief, soit en ronde-bosse (statuaire), en haut-relief, en bas-relief, par modelage, par taille directe, par soudure ou assemblage. Le terme de sculpture désigne également l'objet résultant de cette activité. Le mot sculpture vient étymologiquement du latin « "sculpere" » qui signifie « tailler » ou « enlever des morceaux à une pierre ». Cette définition, qui distingue « sculpture » et « modelage », illustre l'importance donnée à la taille de la pierre dans la civilisation romaine. Au , on parle d'« ymagier » et la plupart du temps, le travail du sculpteur est un travail d'équipe avec un maître et des tailleurs de pierre, comme il est traité dans l'art roman et l'architecture romane. Plusieurs équipes travaillent simultanément sur les grands chantiers des cathédrales. Histoire. Les plus anciennes sculptures réalisées par l'homme et ayant traversé le temps sont de petites figurines rudimentaires taillées, en pierre ou en os, qui servaient probablement à des pratiques magiques, d'ex-voto, d'échanges, de rituels qui permettaient de réaliser des transactions avec des forces surnaturelles ou sociales. La "Vénus de Lespugue", sur ivoire de mammouth, en est un bel exemple. Certaines sculptures de taille plus imposante ont survécu aux millénaires qui nous séparent de leur créateur comme les bisons d'argile crue retrouvés dans la grotte du Tuc d'Audoubert en Ariège, les bas reliefs de l’abri sous roches du Roc-aux-Sorciers dans la Vienne ou les monolithes sculptés de Göbekli Tepe en Turquie. Il est probable que des objets modelés, en terre, ont aussi existé, mais en l'absence de techniques de pérennisation (cuisson), cela reste une hypothèse. D'autres sculptures, comme celles du Roc-aux-Sorciers, représentent des animaux sauvages, sans doute des représentations de l’alimentation des peuples de chasseurs-cueilleurs du Magdalénien. Bien que cet usage, chamanique sans doute, ait décliné, la représentation humaine reste un thème fréquent des sculpteurs. Selon les époques et les civilisations, les artistes ont exécuté ces figurines de manière réaliste, ou bien, au contraire, ont pris une plus grande liberté pour interpréter leur sujet. En Occident, la sculpture a tardivement été dissociée de la peinture. À Paris, ces deux catégories d'artistes, que l'on distingue nettement aujourd'hui, appartenaient au Moyen Âge à la même communauté de métier des peintres et tailleurs d'images. En effet, avant l'invention des représentations en perspective moderne, le relief d'une image de grand format était rendue par un traitement en bas-relief du plan du tableau, comme sur les sculptures des églises romanes et des cathédrales gothiques (par exemple sur la cathédrale Notre-Dame de Paris dont les couleurs disparues viennent d'être retrouvées). En France, c'est avec la création des académies de peinture et de sculpture, en 1648, et d'architecture, en 1671, que les deux métiers deviennent officiellement distincts, même si, à la Renaissance, beaucoup d'artistes restent aussi bien peintres que sculpteurs. Au , on distingue encore le « sculpteur » qui taille des matériaux solides : la pierre, le bois ou l'ivoire, pour créer une forme unique originale, et le « statuaire » qui réalise des modèles en terre (argile), en plâtre ou en cire destinés à être reproduits (technique indirecte de la « taille avec mise aux points ») ou moulés (technique de la « fonte à cire perdue » pour être coulés en métal, en bronze) le plus souvent. Techniques. Taille, modelage, assemblage, stéréolithographie. Pour créer une œuvre, plusieurs manières peuvent être envisagées, voire combinées entre elles. Matériaux. Les matériaux utilisés en sculpture nécessitent un savoir-faire plus ou moins simple à acquérir. La terre, que l'on peut aisément modeler, le bois tendre que l'on peut tailler sans trop d'effort sont certainement les plus employés. Mais n'oublions pas les matériaux qu'emploient les enfants, le sable des châteaux de sable, les poupées de chiffon ou les petits objets en pâte à sel, en pâte à modeler ou en pâte Fimo, aujourd'hui. Certaines de ces sculptures seront éphémères, en sable, mais aussi celles réalisées avec des fruits comme la courge d'Halloween. D'autres restent fragiles, comme la terre sèche, même additionnée de fibres, ou certains coquillages simplement usés. Le tressage de matières végétales fibreuses permet des réalisations où le degré de technicité peut devenir beaucoup plus élevé. Simplement avec de la paille, qui brille comme de l'or, des jeunes filles Songhaï ont fait leurs superbes colliers, si fragiles, de minuscules sculptures-bijoux. Les matériaux tendres, qui peuvent être usés, peuvent être d'origine animale comme l'os et l'ivoire, ou végétale comme le bois, avec des essences plus ou moins dures, ou, au contraire, flexibles et aisément assemblées entre elles ou à d'autres matières, fibres, plumes, fleurs et feuilles. La couleur naturelle des matériaux est souvent couverte partiellement ou totalement par d'autres couleurs, éventuellement sur un enduit qui transforme l'aspect de surface d'un matériau. Le bois pouvant être imprégné de matières minérales colorées qui le protègent des insectes, après un long séjour dans la terre. Le plâtre a été utilisé dès l'Antiquité pour le moulage. Les Romains de la République conservaient ainsi une galerie d'ancêtres par l'empreinte de leurs visages. Ce qui a donné lieu, sous l'Empire, à leur transposition dans des matériaux luxueux, marbres divers, qui ont soulevé l'indignation des contemporains. Rodin a fait un usage particulièrement créatif du plâtre. La Porte de l'Enfer en est un excellent exemple. Le plâtre reste une matière relativement fragile. Sous des climats très secs, comme dans les oasis du Xinjiang, ou dans des lieux maintenus à l'abri de l'humidité, comme à l'époque de Nara au Japon, dans les bâtiments bouddhistes, ou dans des ateliers d'artistes occidentaux la terre crue, ou terre sèche, a longtemps été retenue pour certaines sculptures. Mais elle reste très fragile. Enfin certaines sculptures ont été réalisées pour durer. La terre cuite, qu'elle serve en poterie utilitaire aux formes recherchées et ornées ou pour des usages autres, comme une certaine « danseuse » néolithique de Haute Égypte, mondialement célèbre. La nature des ingrédients dont on compose la terre avant cuisson, le travail de préparation, le revêtement (la glaçure, l'émail) et surtout la température de cuisson elle-même, ont fait l'objet d'une recherche très méthodique en Chine pour aboutir à des grès (céramique) puis à la porcelaine, d'une résistance remarquable. Les "mingqi" chinois peuvent prendre toutes les formes, habitations, figurines, objets, êtres fantastiques. Les pierres les plus dures, les plus vitreuses, comme le jade, étant les plus difficiles à travailler, leur travail relève de la prouesse de personnes possédant un savoir hautement spécialisé et pouvant y consacrer leur vie. Ces matériaux sont donc, pour une part, d'origine minérale, pierre calcaire, grès, marbre, granite, quartzite et quelques-uns ont une très longue histoire, les silex, par exemple ont fait l'objet d'un travail inouï qui en fait de véritables sculptures. Les excentriques en silex maya en sont un bon exemple. Mais le plus ancien dépôt funéraire, néandertalien (Sima de los Huesos, Espagne), est « tout simplement » un magnifique biface en quartzite rouge et jaune de . C'est probablement la nature et la couleur du matériau qui lui ont donné toute sa valeur. Les arts du métal se sont développés très tôt avec l'or, puis le cuivre (on parle de culture chalcolithique), travaillés par martelage et fonderie. Le bronze, comme l'étain, a bénéficié de différentes méthodes de moulage, à la cire perdue ou avec . Ils font l'objet d'un travail secondaire de retouche, d'assemblage et de polissage. D'autres matériaux, aussi, font l'objet de moulage. Ainsi le ciment ou le béton, mais ces matériaux peuvent également être travaillés en taille directe dans la période de prise. L'acier est beaucoup plus utilisé que l'aluminium en raison des problèmes techniques propres à la soudure de l'aluminium. Le sculpteur Richard Serra a largement utilisé la qualité des métaux qu'il utilise, comme de gigantesques plaques d'acier Corten, ou des configurations mettant en œuvre les propriétés du plomb, pour en faire éprouver « physiquement » la sensation de poids au spectateur. Le textile est utilisé sur des statuettes en bois, souvent peintes, depuis l'Antiquité. Les statuettes funéraires égyptiennes en ont préservé quelques exemplaires, alors que le , en Italie, en voyait l'usage constant dans les innombrables ex-voto sculptés, portraits en pied ou même équestres qui étaient encore d'usage à l'époque de Donatello. Plus récemment, l'artiste Robert Morris a utilisé le mouvement naturel d'un feutre très épais, découpé, retombant sous son poids pour générer des formes sensuelles. La sculpture moderne et contemporaine utilise encore ces matériaux, mais également le verre et les miroirs, des matériaux bruts, la glace et l'eau, les cristaux liquides et d'autres matériaux fabriqués par l'homme, tels que les matières plastiques, et en particulier les PMMA (polymétacrylate de méthyle) connus sous des noms déposés comme Plexiglas ou Altuglas, ainsi que n'importe quel objet trouvé. Le papier mâché est également un matériau extrêmement économique, et les techniques de réalisation de sculptures avec ce matériau sont simples à mettre en œuvre. L'utilisation du chocolat n'est pas exclue. Par ailleurs, le monde de la cuisine se plaît à créer ce qui ressemble à de la sculpture, par jeu. Dans ses derniers écrits, Joan Miró affirmait qu'à l'avenir, on pourrait imaginer des sculptures utilisant les gaz comme matériaux. Lui faisant écho, Louis Leygue, dans son discours de réception de Nicolas Schöffer à l'Académie des beaux-arts, définissait ainsi la sculpture : On assiste ainsi, avec la multiplication des musées et des publications savantes, à une redécouverte de matériaux oubliés au fil des siècles. Si certains métaux, comme l'or, ont fasciné les hommes c'est que cette matière jouait avec la lumière. Le poli idéal que recherchait Brancusi se joue aussi de la lumière dans les photographies qu'il a réalisées de ses propres sculptures. La lumière est une qualité de certains « matériaux ». De même, lorsqu'un sculpteur réalise une fontaine, l'eau est partie prenante des « matériaux » avec lequel il doit travailler, et même le mouvement qui est donné à l'eau. Le mouvement est alors une qualité du matériau « eau ». Jean Tinguely a su introduire le rapport entre ses assemblages d'objets de rebut, leurs mouvements heurtés et l'eau en mouvement avec les sons que la sculpture produit. Après László Moholy-Nagy ("Modulateur Espace Lumière", 1929), Nicolas Schöffer et bien d'autres artistes tels Marta Pan, ont été intéressés par les rapports de l'architecture et de la sculpture. Les deux premiers considérant la lumière comme un matériau autant que le mouvement. Marta Pan a réalisé ainsi des sculptures monumentales intégrées dans l’architecture des espaces publics et urbains, comme "La Perspective" dans le parc des Sources de la Bièvre à Guyancourt. Nicolas Schöffer souhaitait réaliser une « Tour Lumière Cybernétique » en 1963, en interaction avec le quartier de La Défense, à Paris. L'espace, dont la qualité est d'être habité, pour Nicolas Schöffer, est un matériau au même titre que le mouvement qui anime ses sculptures. Les artistes du Land art ont, pour leur part, souhaité sortir des galeries d'art et des musées, avec les conventions et contraintes que cela supposait, tout en réalisant ou en nous montrant des « sculptures » qui rompent avec les traditions récentes. Les « matériaux » sont, ici, nombreux : matériaux naturels, comme la spirale en remblai de basalte / le Grand Lac Salé, dans Spiral Jetty de Robert Smithson (1970) où la dimension du temps est essentielle. Tandis que pour James Turrell, c'est encore la lumière, naturelle, dans des espaces généralement construits en pleine nature (le Roden Crater). L'échelle, souvent monumentale de ces sculptures, prend en compte le paysage où les œuvres s'inscrivent, et la dimension temporelle sur de longues durées : la spirale, en basalte noir, de Robert Smithson, était pensée comme soumise aux fluctuations du lac, la spirale noire se borde alors de sel blanc, jusqu'à sa disparition dans les eaux salées, pendant les périodes de hautes-eaux, et sa réapparition, toute blanche, quelques années plus tard. Pour Dominique Gonzalez-Foerster, la littérature, le cinéma, la musique sont des matériaux qu'elle utilise comme avec des ciseaux, en sélectionnant des fragments pour ses installations. Il faut alors considérer qu'avec des réalisations comme celles de Brancusi et de Robert Smithson, , la sculpture est à envisager dans un « champ élargi », selon l'expression retenue par Rosalind Krauss et où l'installation a sa place. Ainsi, des sculpteurs contemporains ont ouvert la voie à des recherches nouvelles, associant des matériaux traditionnels à d'autres après réflexion sur leur pratique et sur l'histoire que leur en proposaient les musées, les manuels d'histoire de l'art et les archéologues. Pour d'autres ce furent les nouvelles technologies, les nouveaux matériaux et jusqu'aux « hautes technologies » qui leur offrirent de nouveaux matériaux. La réflexion sur la création contemporaine amène certains à une position radicalement opposée à ce qu'ils jugent comme des « dérives » encouragées par d'importants mécènes. Lesquels considèrent comme sculpture des créations qui soulèvent de vifs débats, en raison du choix des soi-disant « matériaux » mis en œuvre. Ainsi, une œuvre de Damien Hirst — artiste célèbre dans les années 1990 et qui réalisait des installations où il traite du rapport entre l'art, la vie et la mort — est composée d'une vitrine dans laquelle un véritable veau, avec un disque d'or entre les cornes, est conservé dans du formol. Des références culturelles nombreuses sont sollicitées, entre autres les références aux dieux de l'Égypte ancienne, le dieu taureau Apis, la déesse Hator et Isis. Les débats suscités par cette œuvre semblent indiquer que tout ne peux pas être considéré comme « matériaux » pour certains. Se poserait alors la question, à propos des « matériaux » artistiques, de la permanence de tabous dans les sociétés contemporaines, qu'il faudrait bien prendre en compte si l'on considère qu'une œuvre s'adresse à des publics. Formes. On distingue deux grandes catégories de sculptures : le "relief" et la "ronde-bosse". Relief. Le relief est une sculpture qui demeure attachée à un arrière-plan, se dressant hors de cet arrière-plan. Selon le degré de projection des figures au-dessus du plan, les reliefs sont qualifiés différemment : le "relief écrasé" ("stacciato relievo") : dont le relief est très faible. Les contours des figures sont finement incisés ( certains reliefs assyriens). Ronde-Bosse. La ronde-bosse est une sculpture conçue de façon à pouvoir être observée de tous les côtés, ou presque tous les côtés. La ronde-bosse repose souvent sur le sol ou sur un socle. Elle est parfois logée dans une niche. On remarquera Michel-Ange jouant avec ces deux principes et exécutant des statues dont les personnages émergent du bloc (de marbre) mais pas complètement. Sculpture extrême. Dès le début du , on note chez plusieurs artistes une forte envie de se dissocier du naturalisme, réalisme et l'art figuratif : (Brancusi). Si Brancusi est l’incontestable fondateur de la sculpture moderne et le maître de la réduction afin de parvenir à la forme artistique pure, Marcel Duchamp est « l'inventeur » des ready-made. Brancusi suit, systématiquement, l’esprit primordial et les principes fondamentaux de la forme, la dégageant des aspects éphémères, accidentels ou contingents. Le ready-made est un objet trouvé considéré pour son caractère esthétique comme une œuvre d'art. La « réalisation » d'un ready-made consiste, en effet, à choisir un objet manufacturé et le désigner, donc le définir, comme œuvre d'art. La démarche initiée par Brancusi et Duchamp a donné naissance à une grande partie de pratiques artistiques modernes et contemporaines telles que le non-figuratif, l'assemblage, l'accumulation, l'installation, le in-situ, le Concept Hundertwasser, le Concept Gaudi, le Concept Botarro, et plusieurs autres. Sculpture éphémère. Chaque année, au début de février, se déroule à l'occasion du festival de la neige de Sapporo un grand concours de sculpture sur glace. En France, l'équivalent est le festival de Valloire, et au Québec, celui du Carnaval de Québec. Les sculptures de sable en bord de mer sont souvent éphémères. |
Liste de sculpteurs Moyen Âge. En Europe, le Moyen Âge connaît principalement deux grandes périodes artistiques : l'art roman, puis l'art gothique. Renaissance. Par tendance. Baroque. Le Baroque se développe principalement en Italie et en Espagne. Réalisme. Le Réalisme est plutôt une tendance de Flandre et de Hollande. Classicisme. Le Classicisme français voit aussi se fondre en lui le Baroque et le Réalisme. |
Stéganographie La stéganographie est un domaine où l'on cherche à dissimuler discrètement de l'information dans un media de couverture (typiquement un signal de type texte, son, image, vidéo, etc.). Elle se distingue de la cryptographie qui cherche à rendre un contenu inintelligible à autre que qui-de-droit. Lorsqu'un acteur extérieur regarde un contenu cryptographié il peut deviner la nature sensible de l'information qui lui est cachée. L'intérêt de la stéganographie réside précisément dans la possibilité de communiquer en échangeant des contenus d'apparence anodines de telle sorte à ne pas éveiller de soupçons. Pour prendre une métaphore, la stéganographie consisterait à enterrer son argent dans son jardin là où la cryptographie consisterait à l'enfermer dans un coffre-fort — cela dit, rien n'empêche de combiner les deux techniques, de même que l'on peut enterrer un coffre dans son jardin. C'est un mot issu du grec ancien / (« étanche ») et / (« écriture »). Histoire. Dans ses "Histoires", l'historien grec Hérodote (484-445 av. J.-C.) rapporte ainsi une anecdote qui eut lieu au moment de la seconde guerre médique. En 484 av. J.-C., Xerxès, roi des Perses, décide de préparer une armée gigantesque pour envahir la Grèce (Livre VII, 5-19). Quatre ans plus tard, lorsqu'il lance l'offensive, les Grecs sont depuis longtemps au courant de ses intentions. C'est que Démarate, ancien roi de Sparte réfugié auprès de Xerxès, a appris l'existence de ce projet et décide de transmettre l'information à Sparte (Livre VII, 239) : Un autre passage de la même œuvre fait également référence à la stéganographie : au paragraphe 35 du livre V, Histiée incite son gendre Aristagoras, gouverneur de Milet, à se révolter contre son roi, Darius, et pour ce faire, En Chine, on écrivait le message sur de la soie, qui ensuite était placée dans une petite boule recouverte de cire. Le messager avalait ensuite cette boule. Dès le , Pline l'Ancien décrit comment réaliser de l'encre invisible (ou « encre sympathique »). Les enfants de tous les pays s'amusent à le faire en écrivant avec du lait ou du jus de citron : le passage de la feuille écrite sous une source chaude (fer à repasser chaud, flamme de bougie...) révèle le message. Dans son ouvrage "Cryptographia oder Geheime Schrifft-münd-und Würkliche Correspondendentz" (1684), Johannes Balthasar Friderici nous montre un dessin apparemment anodin (page de gauche) mais il contient un message secret. Ce dernier est codé par les fenêtres de l'immeuble : WIR HABEN KEIN PULVER MEHR (nous n'avons plus de poudre) avec la correspondance visible sur la page de droite : Durant la Seconde Guerre mondiale, les agents allemands utilisaient la technique du micropoint de "Zapp", qui consiste à réduire la photo d'une page en un point d'un millimètre ou même moins. Ce point est ensuite placé dans un texte normal. Le procédé est évoqué dans une aventure de Blake et Mortimer, "S.O.S. Météores". Il reçoit aussi une belle illustration dans le film de Claude Pinoteau, "Le Silencieux". Un couple célèbre d'artistes de music-hall des années 1960, Myr et Myroska, communiquait les yeux bandés, en apparence par « transmission de pensée » et, en réalité, par un astucieux procédé stéganographique à base de phrases codées (dont, en particulier, des variantes de la phrase : « Myroska, êtes-vous avec moi ? »). Un article paru dans "USA today" en 2002 évoque la possible utilisation de techniques stéganographiques par Oussama Ben Laden. La secte Boko Haram semble y avoir eu en effet recours. Cette affirmation a pu servir à justifier la politique sécuritaire américaine. Cependant, l'usage de la stéganographie par les groupes terroristes est évoqué comme un fait dans le Rapport à l'Assemblée Nationale de Jean-Jacques Urvoas. En 2011, le ver informatique Duqu utilise la stéganographie. Méthodes. Supposons, pour notre exemple, que, durant la Seconde Guerre mondiale, une résistante, Alice, doive envoyer tous les jours le nombre de bateaux en rade de Marseille à son correspondant à Paris, Bob. Ils conviennent qu'Alice enverra tous les jours à Bob les prix moyens de divers fruits observés sur le marché de Marseille. Il faut, bien sûr, qu'un agent ennemi, Wendy, Création d'un contenu ad hoc. Alice peut envoyer un message contenant : Bob découvrira qu'il y a, ce jour-là, 132 bateaux. La technique informatique citée ci-dessus comme "Codage sous forme d'une apparence de spam" s'apparente à cette méthode. L'avantage de la méthode est qu'Alice pourra envoyer à Bob une information très longue. Toutefois, la méthode ne peut être utilisée qu'une seule fois car Wendy pourra rapidement se rendre compte du procédé. Modifications mineures d'un contenu existant. Alice peut envoyer un message contenant : Les techniques informatiques décrites ci-dessous dans les rubriques "Usage des bits de poids faible d'une image (LSB)" et "Modulation fine d'un texte écrit" correspondent à cette technique. L'avantage de la méthode est qu'Alice pourra envoyer à Bob une information relativement longue. Toutefois, Wendy pourrait comparer les prix transmis avec les prix réels (dans le cas du procédé LSB, faire une comparaison bit à bit), pourrait s'étonner d'une précision superflue, pourrait interdire une trop grande précision (cf. plus bas : "stérilisation"). Dissimulation dans un élément annexe au contenu. Alice peut, le lundi, envoyer un message contenant : et, le mardi, dans un ordre différent (Alice étant fantasque), mais avec des prix parfaitement exacts : Le contenu réel du message est dissimulé dans la variation de l'ordre des fruits par rapport à l'ordre de la veille. L'inconvénient de la méthode est que le message est relativement limité en taille. Si Alice se limite à 5 fruits, elle peut transmettre chaque jour à Bob une valeur comprise entre 1 et 120 (factorielle de 5). L'avantage réside dans la difficulté pour Wendy de repérer l'existence du procédé stéganographique. Une technique informatique correspondante consiste à maintenir une image intacte mais à y incorporer une table des couleurs ou "palette" construite dans un ordre qui paraît arbitraire. Le contenu caché peut être une clef donnant accès à un message plus long. En outre, le contenu doit normalement inclure un procédé (généralement un checksum) permettant de vérifier sa validité. L'image qui sert de vecteur à un contenu caché peut être un extrait d'une image connue mais ne peut jamais être sa reproduction exacte, au risque de permettre par comparaison de révéler l'utilisation d'une technique stéganographique. Contre-mesures. Cette technique est à risque mesuré dans la mesure où il s'applique à l'information. Son point faible réside donc dans la transmission et la diffusion de cette information. Une société qui désire contrer l'usage de la stéganographie essayera d'empêcher, de modifier ou de détruire la transmission, la diffusion ou le message lui-même. Par exemple, en interdisant tous contenus arbitraires, abstraits, interprétables, nuancés, fantaisistes, fantasques, poétiques, etc. Elle imposera le respect de critères formels stricts. Ou, au contraire, s'efforcera, dans le secret, de stériliser toutes les informations (cf. paragraphe sur l'imagerie) à des points clés de la transmission des informations (offices postaux, …). Ce risque de manipulations est encore plus grand avec l'informatique dans la mesure où les interventions humaines sont moins nombreuses assurant ainsi la discrétion des mesures de coercition et les possibilités d'intervention plus grandes (piratage, cheval de Troie…). La destruction systématique de toute information ou des diffuseurs ou récepteurs est sans doute le plus vieux procédé dont la fiabilité n'est pas assurée (de par sa non-exhaustivité dans la pratique ; l'information étant humainement vitale). Dans l'exemple ci-dessus, elle supprimera l'usage de décimales, imposera un ordre alphabétique, interdira les messages dont le contenu ou la langue ne sont pas compris par un préposé, etc. De nos jours, la stéganographie peut être utilisée à deux fins distinctes : les communications humaines (humains à humains) et machines (machines à machines). Dans les deux cas de figure, il faut au strict minimum qu'il y ait deux parties : un émetteur et un receveur. Cependant, les deux peuvent ne pas se trouver dans le même « espace-temps ». Autrement dit, rien n'empêche de communiquer une information à un tiers n'existant pas encore. Il n'est donc pas improbable de trouver des messages dissimulés jadis. La problématique des contre-mesures à adopter prend alors une tout autre dimension. La transmission de l'information étant naturelle et vitale à toute société humaine, il n'est pas envisageable de la détruire intégralement (d'où son efficacité limitée intrinsèquement). En revanche, dans le cas des communications machines, des moyens efficaces et terriblement dangereux existent (tels que le nucléaire via la destruction de tout dispositif électronique par ondes électromagnétiques…). Cette contre-mesure extrémiste mettrait à mal toute la société visée. La stéganographie peut être utilisée comme moyen de coercition dans le cadre de communications machines. Par exemple, les virus informatiques et certaines techniques de piratage peuvent en revêtir une forme. La technique du trojan en est également une. Si l'on occulte les possibilités extrémistes, le meilleur moyen coercitif reste la modification de toute information transmise entre humains ou machines par interventions discrètes ou radicales et non leur destruction. Contre « contre-mesures ». La coercition a l'inconvénient d'engendrer systématiquement des moyens de la contourner, et ce, sans fin envisageable (de par la nécessité de l'information). La redondance de l'information, des transmissions ou de la diffusion reste le moyen de lutte le plus simple. L'autre est de ne pas cacher l'information ou de la noyer. Par exemple, cacher de l'information inutile dans un message ouvert utile : le réflexe étant alors de se focaliser sur l'information cachée plutôt que d'admettre l'évidence du message en clair. Actuellement, à la vue de la quantité du flot continu d'informations qui inonde nos sociétés modernes, il est mathématiquement impossible d'empêcher l'utilisation de la stéganographie qui a l'avantage de pouvoir revêtir d'innombrables formes cumulatives. Techniques rendues possibles par l'ordinateur. Message transporté dans une image. Usage des bits de poids faible d'une image. Lorsque l'on veut cacher un message dans une image, on recherche comment la modifier de manière aussi discrète que possible afin d'y dissimuler l'information à transmettre. Une des techniques les plus connues pour réaliser ce stratagème est appelée LSB pour least significant bit. Elle consiste à modifier le bit de poids faible des pixels qui constituent l'image. Rappelons qu'une image numérique est un ensemble de points, que l'on appelle pixels, et dont on code la couleur, par exemple, à l'aide d'un triplet d'octets (RVB). Chaque octet indique l'intensité de la couleur correspondante --- rouge, vert ou bleu (Red Green Blue). Il y a en tout 256 teintes différentes. Quand on modifie le bit de poids faible d'un octet, on passe d'une teinte "n" à une teinte immédiatement supérieure ("n+1") ou inférieure ("n-1"). Il s'agit d'un changement de teinte qui n'est pas perceptible à l'œil nu. En effet, un bleu très légèrement plus foncé ou très légèrement plus clair ressemble au bleu non modifié. Exemple. Donnons un exemple, considérons l'image Chaque entrée de ce tableau représente un pixel couleur, nous avons donc une toute petite image 2×2. Chaque triplet de bits (0 ou 1) code la quantité de l'une des trois couleurs primaires du pixel (une image couleur au format JPEG est constituée de groupes de 8 bits, appelés octets, mais on n'utilise ici que 3 bits pour clarifier l'exemple). Le bit le plus à droite de chaque triplet est le fameux bit de poids faible qu'on appelle LSB en anglais. Si on souhaite cacher le message 111 111 101 111, l'image est modifiée de la façon suivante : le bit de poids faible du i octet est mis à la valeur du i bit du message ; ici on obtient : D'autres techniques similaires sont possibles. Par exemple, l'encodage du message peut être basé sur le mode de colorisation TSL (Teinte Saturation Lumière) plutôt que RVB (Red Green Blue / Rouge Vert Bleu). Mais toutes ces techniques ont l'inconvénient d'entrainer une déformation - voire une perte - des informations de l'image et sont facilement détectables soit par comparaison avec l'image originelle, soit par analyse linéaire simple (de la parité par exemple !). Ces techniques de stéganographie très basiques s'appliquent tout particulièrement au format d'image BMP, format sans compression destructive, avec codage des pixels entrelacé sur comme énoncé ci-dessus. Réciproquement, tout procédé de compression-décompression d'images avec pertes ou de redimensionnement de l'image est susceptible de détruire un message stéganographique codé de ces façons. On parle alors de "stérilisation". Un pays totalitaire pourrait "stériliser" à tout hasard toute image BMP entrant ou sortant de son territoire, moyennant les ressources techniques nécessaires. Manipulation de la palette de couleurs d'une image. Certains formats graphiques tels que GIF ou PNG permettent le stockage des couleurs de l'image par référence à une palette de couleurs insérée dans le même fichier. Ainsi, au lieu de stocker bleu, blanc, rouge dans une image du drapeau français, on trouve dans un format de fichier la description de l'objet la suite couleur1, couleur2, couleur3 ainsi qu'une palette qui définit que couleur1 est le bleu, couleur2 le blanc et couleur3 le rouge. La même image peut être stockée de la façon suivante : couleur2, couleur3, couleur1 avec une palette qui définit que couleur2 est le bleu, couleur3 est le blanc et couleur1 est le rouge. Ces deux images sont visuellement identiques, mais leur stockage est différent. Pour une image contenant 256 couleurs uniques dans sa palette, on a factorielle 256 (formula_1) façons de stocker cette image. En utilisant un code connu entre l'émetteur et le récepteur de l'image, on peut donc communiquer un message de petite taille (formula_2, soit un peu moins de bits), caché dans la permutation des couleurs de la palette de l'image. Message caché dans les images compressées. Le format JPEG est très répandu sur internet étant donné qu'il permet de compresser des images efficacement et donc de gagner en bande-passante. De ce fait, il est logique d'imaginer qu'une image compressée en JPEG peut servir de couverture pour un attaquant. Le principe de la compression JPEG consiste à effacer les hautes fréquences de l'image, c'est-à-dire, les parties bruitées de l'image qui sont les plus intéressantes à exploiter pour incruster un message. De ce fait, la capacité d'insertion dans une image JPEG est réduite par rapport à cette même image non compressée si on travaille dans le domaine spatial, c'est-à-dire le domaine naturel des images sous forme de grilles de pixels. Néanmoins, plutôt que de cacher un message dans l'image directement, il paraît intéressant de le faire de façon encore plus discrète en le cachant dans les coefficients de cette image, c'est-à-dire en travaillant dans le domaine JPEG. L'algorithme de compression JPEG commence par découper l'image en blocs de 8 fois 8 pixels. On calcule ensuite, pour chaque bloc, sa transformée en cosinus discrète (DCT). Cela permet en particulier de séparer les composantes de l'image les plus importantes de celles qui se voient le moins. On peut notamment retirer plus ou moins de détails suivant la place que l'on souhaite gagner (quantification). Après la quantification, on arrondit les coefficients quantifiés. Il y a donc deux grandes sources de pertes : l'étape de quantification et l'étape d'arrondi. Une fois les coefficients JPEG obtenus, on peut les modifier de manière à communiquer de l'information. Pour pouvoir détecter ce message, il faudra que l'attaquant ait l'idée d'aller les inspecter à la place des pixels obtenus après décompression avec les coefficients trafiqués. L'image décompressée est une image qui peut présenter quelques artéfacts, mais pour un adversaire, il est difficile de savoir si ceux-ci sont dus à de la stéganographie ou à des choix de compression. Optimisation de l'emplacement du message caché dans une image. Quand on cherche à cacher subtilement un message dans une image, tous les emplacements possibles (pixels ou aux coefficients DCT) ne se valent pas. En pratique, il est courant de construire un coût de distorsion modélisant à quel point il est coûteux de modifier un emplacement donné du point de vue de l'acteur souhaitant cacher son message. Le coût de distorsion le plus intuitif est celui qui impose un coût uniforme sur tous les emplacements possibles. Néanmoins, elle n'est pas la plus intéressante en pratique. Si on considère la méthode LSB, il paraît naturel de préférer modifier des pixels provenant de zone présentant beaucoup de textures (c.a.d. de détails) plutôt que de modifier des pixels dans des zones uniformes de l'image. Par exemple, changer un pixel placé au milieu d'un ciel parfaitement bleu se voit d'un coup d'œil. Il n'est pas donc pas adapté de travailler avec un coût de distorsion uniforme pour cette méthode. Dans la littérature, beaucoup de chercheurs se sont penchés sur la recherche du meilleur coût de distorsion possible. Message transporté dans un texte. Modulation fine d'un texte écrit. Décaler une lettre de quelques pixels ne pose aucun problème sur une imprimante à laser et c'est pratiquement invisible à l'œil nu. En jouant sur les interlettrages d'un texte très long et à raison de deux valeurs d'espacement correspondant à 1 et 0, il est possible de transmettre un message sous forme papier, qui ne révélera son vrai sens qu’une fois analysé par un scanner ayant une bonne précision. Historiquement, le procédé fut utilisé dès les années 1970 en utilisant non pas des imprimantes laser, mais des imprimantes à marguerite "Diablo", qui permettaient de jouer sur l'espacement des caractères au 1/120 de pouce près. Marquage de caractères. Une technique similaire — mais plus facilement détectable — consiste à marquer certains caractères d'un document. Des points peuvent par exemple être placés sous les lettres d'un texte afin de dissimuler un message. Étalées sur un texte de plusieurs pages, ces marques peuvent s'avérer relativement efficaces vis-à-vis d'un œil non-averti. Un ordinateur n'est pas indispensable à la mise en œuvre de cette technique. Codage sous forme d'une apparence de "spam". N'importe quel texte de spam peut servir de base à de la stéganographie, sur la base d'un codage binaire simple de quasi synonymes. Par exemple pactole = 1, fortune = 0 ; richesse = 1, aisance = 0 ; succès = 1, réussite = 0 ; etc. Des sites du Web proposent à titre de curiosité ce genre de codage et de décodage. Des textes écrits en "langue de bois" ou en "style administratif" se prêtent particulièrement bien à l'exercice. Message transporté dans un son. Dans les formats sonores, il existe à peu près les mêmes possibilités de cacher des messages que dans les images. Dans un fichier sonore au format MIDI, il n'existe pas de palette de couleurs mais bien différentes pistes qui peuvent être permutées. Dans un fichier sonore avec compression sans perte, on peut cacher de l'information dans des variations imperceptibles du son, les bits faiblement significatifs. Toutefois, la baisse de qualité peut être davantage perceptible dans un fichier audio que sur une image. Dans un fichier sonore avec compression avec perte, on peut cacher de l'information dans les choix de compression. Il est possible de coder un message sous la forme d'une image et de convertir cette dernière en son. En analysant le son à l'aide d'un spectrogramme, le message peut être visualisé. Certaines entreprises se servent de sons émis dans des fréquences inaudibles par l'oreille humaine (ultrasons) pour pister les utilisateurs de leurs produits. L'entreprise indienne Silverpush a ainsi mis en place un système où à chaque fois qu'une publicité de la marque était visualisée sur ordinateur, un ultrason était émis. Captés par une application sur le téléphone portable de l'internaute, ces sons permettent de retracer précisément les usages et les habitudes de cette personne sans qu'elle ne s'en rende compte. De manière plus générale, il est possible de transmettre des données (une image, un document, un fichier audio...) en les convertissant en un signal audio dans des fréquences inaudibles, et en les mélangeant à un fichier audio en apparence anodin (une chanson par exemple). Autres possibilités. Il est aussi possible de cacher des informations dans bien d'autres types de fichiers couramment échangés sur des réseaux telle la vidéo ou bien dans des textes (ce fut une des premières formes de la stéganographie) ou encore dans des zones d'un disque dur inutilisées par le système de fichiers. Des informations peuvent aussi être cachées sur d'autres supports que des supports informatiques. Outre de l'information, il est aussi possible de cacher des fichiers malveillants (virus, malwares) dans d'autres types de fichiers. Ainsi en 2019 sont apparus des virus cachés dans des fichiers audio de type .wav. Usage. La stéganographie est exploitable dans de nombreux domaines. Elle trouve ainsi comme application commerciale le "watermarking" (apposition de filigranes électroniques), technique permettant de « tatouer » un fichier électronique (pour y introduire notamment des informations utiles à la gestion des droits d'auteur). Dans ce contexte particulier, l'information n'est pas cachée à un adversaire comme en stéganographie étant donné que l'on souhaite précisément pouvoir la retrouver pour authentifier le fichier électronique. Il ne faut pas confondre le "watermarking", par essence invisible à l'œil nu, avec le fait que certains formats de fichiers offrent la possibilité d'inclure des méta-informations. Si la cryptographie, qui permet de protéger la vie privée et l'activité industrielle sans cacher cette protection, est souvent maltraitée par les États totalitaires et les sociétés démocratiques à tendance sécuritaire, il n'en va pas nécessairement de même pour la stéganographie, qui est pourtant une technique beaucoup mieux adaptée à une activité criminelle éventuelle. |
Sarcophage Un sarcophage est une cuve destinée à recueillir un cadavre ou un cercueil. Le plus souvent sculpté dans la pierre et placé au-dessus du sol, il est parfois enterré. Comme objet funéraire, le sarcophage est présent dans des cultures et civilisations diverses et éloignées les unes des autres ; il ne semble donc lié à aucun courant religieux particulier. Par homologie, le terme de sarcophage est parfois utilisé dans d'autres domaines, notamment pour désigner certaines enceintes de confinement. Étymologie. Le mot français "sarcophage" vient du latin "sarcophagus" désignant le tombeau. Il s'agit d'un emploi substantivé de l'adjectif "sarcophagus" (du grec "σαρκοφάγος" (σάρξ, "sarx" désignant la chair, φαγεῖν "phagein", manger) et veut dire « mangeur de corps ou de chair ». Une pierre calcaire (d'où l'expression "lithos sarkophagos", λίθος σαρκοφάγος) était utilisée pour des sépultures antiques et qui, d'après les croyances de l'époque, hâtait la disparition des chairs (détruisait les cadavres non incinérés) ; "sarx", "sarcos" signifie « chair, viande » ; "phagein" sert à compléter le verbe "esthein" qui signifie « manger, dévorer ». Le mot sarcophage, après avoir apparemment désigné dans l'Antiquité tous les réceptacles funéraires, donne en français vers l'an 1050 le mot "cercueil" (par une forte réduction phonétique, "sarqueu" au , serqueu au ), qu'on utilise pour parler d'un coffre allongé dans lequel on dépose le corps avant de l'ensevelir, alors que le mot sarcophage est utilisé dès le pour désigner les cercueils en pierre. En Égypte ancienne, le sarcophage est nommé « "neb ânkh" », ce qui en traduction littérale signifie « maître de la vie », et sa forme symbolise une barque. Par extension, le terme de sarcophage est également utilisé pour dénommer les structures servant au confinement de sites très sensibles, comme celui servant au confinement du réacteur de la centrale nucléaire de Tchernobyl après la catastrophe nucléaire en 1986, ou celui présent sur l'atoll d'Eniwetok, lieu d'essai de la première bombe H. Le peintre Frédéric Halbreich désigne par ce nom les châssis sur lesquels il peint et qu'il fabrique à cet effet. Types de sarcophages. Sarcophages égyptiens. Dans l'Égypte antique, un sarcophage forme la couche externe de protection d'une momie d'une personne de haut rang social et est généralement composé d'une cuve extérieure et de l'emboîtement de cuves intérieures (autres sarcophages ou cercueils le plus souvent en bois). Il est souvent orné de représentations peintes ou sculptées du défunt, à l'exception du sarcophage de l'Ancien Empire. La cuve est rectangulaire avec couvercle plat ou voûté ou imite la forme du corps (sarcophage momiforme ou anthropoïde), elle a pour matériau la pierre (calcaire, albâtre, granit, basalte, quartzite, etc.), le métal (argent, or pour les souverains) ou le bois, peut être plaquée d'or, de pierres semi-précieuses. Sarcophages grecs. Les sarcophages minoens, tel celui d'Aghia Triada, sont richement décorés et percés de trous dans leurs fonds, sans doute pour permettre aux liquides de s'évacuer. Les sont des cuves en terre cuite, peintes, rappelant parfois la forme anthropoïde des sarcophages orientaux. Le a une décoration typique de l'époque avec des représentations symboliques de la victoire. Traduisant des influences grecques et perses, il est sans doute le plus beau et le plus grand sarcophage de la période lycienne classique . Sarcophages étrusques. Pendant l'ère étrusque en Italie pré-romaine, suivant les époques, le sarcophage est à destination traditionnelle (inhumation) ou cinéraire (même forme mais de taille plus réduite pour les cendres du mort obtenues par crémation). Sarcophages romains. Les sarcophages romains aux cuves rectangulaires sont aussi bien en pierre, en plâtre qu'en plomb. Ils servaient à enterrer les morts issus de familles fortunées. Les sarcophages sont souvent ornés de scènes et de décorations sculptées. Sarcophages médiévaux. L'inhumation au Moyen Âge se réalise essentiellement sur une bière (du francisque "bëra", « civière ») du au avant d'être progressivement remplacée par le cercueil en bois, les sarcophages (aux cuves souvent trapézoïdales et dont un gisant repose parfois sur le couvercle de la cuve) étant destinés à cette époque aux personnages au statut social élevé. Selon le Dictionnaire historique de la langue française, . À partir du , la peur de la décomposition des chairs et de la disparition des corps voit la réemergence du cercueil ou du sarcophage en plomb qui permettent une meilleure conservation du corps, le sarcophage en plomb devenant à la mode au chez les personnes de haut rang social. Sarcophages modernes et contemporains. Si dans de rares cas, des sarcophages sont encore confectionnés pour des particuliers, l'acception la plus courante est celle des ouvrages de grandes dimensions servant au confinement de zones susceptibles de contaminer l'environnement, appelées dans certains cas enceinte de confinement. Si le plus célèbre est le sarcophage de Tchernobyl, il en existe d'autre : |
Sarcophage paléochrétien Un sarcophage paléochrétien est un sépulture sculptée dans la pierre, datant du christianisme ancien (art paléochrétien), entre les et s. L'influence des conditions sociales et matérielles sur la sculpture funéraire paléochrétienne. La production des sarcophages romains à décor sculpté se répand largement dès le début du , à la suite de l'abandon progressif de l'incinération en faveur de l'inhumation (qui dans le courant du s'impose dans tout l'Empire), tout en restant un moyen de l'ensevelissement réservé aux familles fortunées à cause de son coût. Dans le contexte de la grande crise économique, politique, sociale et religieuse du , « la petite paix de l'Église » (introduite par l'édit de tolérance sous Gallien en 260 et qui assure au christianisme la tranquillité jusqu'au tournant du siècle) permet au christianisme de gagner les classes supérieures de la société (restées l'un des derniers bastions du paganisme). Les chrétiens fortunés, souvent présents dans l'armée, dans la haute administration et jusque dans l'entourage de l'empereur, sont les commanditaires des sarcophages qui apparaissent dans la deuxième moitié du et dont le traitement plastique suit les tendances contemporaines du décor sculpté. Ces nouveaux commanditaires sont souvent des provinciaux installés à Rome, qui sont en partie à l'origine de l'évolution du style artistique. Leur goût pour « l'art plébéien » (plus expressif et individuel à cause du lien étroit avec les réalités de la vie quotidienne), qui se mêle à la tradition hellénistique, fait naître dans les ateliers de sculpture romains une nouvelle expression artistique. Les premières manifestations de sculpture d'inspiration chrétienne s'inscrivent dans ce mouvement. André Grabar décèle dans ce mouvement les caractéristiques suivantes : « schématisation du dessin, simplification des formes tendant souvent à s'approcher d'une figure géométrique simple ; concentration sur un petit nombre de traits expressifs qu'on maintient et souligne, tandis que l'on réduit ou supprime d'autres traits, sacrifiés pour la clarté de l'ensemble; insensibilité à l'espace et à la corrélation, qui définit les dimensions des objets instables dans le même espace; insensibilité à la forme plastique, au poids. » Dès la deuxième moitié du , la production des sarcophages est surtout concentrée à Rome, où elle restera importante jusqu'au début du . Cependant il existe aussi des ateliers régionaux, comme ceux de Marseille et de Carthage. Ce sont souvent les mêmes ateliers qui produisent des œuvres chrétiennes et celles qu'on peut appeler « païennes » (mais qui généralement sont simplement « profanes »). C'est pour cette raison que le décor des sarcophages chrétiens reste conforme aux pratiques de l'époque. Le marbre utilisé pour la confection des sarcophages sculptés venait principalement de Carrare ou de Grèce (Proconnèse, île de Marmara ; Aliki de Thasos, Paros), ou encore d'Asie Mineure. Le matériau pouvait aussi bien être importé en bloc qu'après avoir été travaillé en partie, voire exécuté en œuvre finie dans les ateliers près des carrières. Ces importations de sarcophages finis ou ébauchés apportaient à Rome différentes solutions formelles, qui participèrent à la création de différents types de sarcophages. Les trois types de sarcophages « païens » les plus courants sont utilisés aussi pour réaliser des sarcophages chrétiens : 1) à frise, 2) à colonnes; 3) à strigiles (ce dernier type, qui dérive de la cuve pour la fermentation du vin, à l'origine en forme de baignoire ornée de têtes de lion par lesquelles l'on faisait couler le vin, était décoré de scènes dionysiaques et de cannelures parallèles en forme de "s"). Le "clipeus", portant le portrait du défunt ou une épigraphe, apparaît très rapidement sur les sarcophages chrétiens. Souvent, l"'imago clipeata" prend la forme d'une coquille, à l'exemple des œuvres « païennes ». Mais ces types évolueront avec le temps. Celui à strigiles perd rapidement sa forme ovale, mais reste pour l'essentiel fidèle à la disposition originelle du décor. Le type à frise, dont les côtés peuvent être composés de personnages juxtaposés ou comporter de petites scènes à des hauteurs différentes, s'organisera en registres horizontaux avec un "clipeus" au centre. Dans le courant du , le type à colonnes se complexifie dans son ornement architectural (parfois remplacé par des éléments végétaux), jusqu’à prendre une forme qui associe la division en bandes horizontales des registres et la division verticale par éléments architecturaux, comme le sarcophage de l'ancien consul Junius Bassus daté de 359. L'iconographie des sarcophages chrétiens, son origine et les principes de son utilisation. Les images chrétiennes qui apparaissent à cette époque ne sont pas liées à la nécessité de propager le christianisme, mais répondent plutôt à un goût pour la représentation figurée qui est profondément enraciné dans le monde méditerranéen. Il est difficile de cerner le moment où certaines formes, dans l'art funéraire, deviennent des manifestations de la foi chrétienne, à cause de ce phénomène qu'Henri-Irénée Marrou appelle la "pseudomorphose" (en cristallographie, le terme désigne l'état d'un minéral qui, après un changement de composition chimique, conserve sa forme cristalline primitive au lieu de cristalliser selon sa substance nouvelle): les images des premiers sarcophages chrétiens et des sarcophages païens sont puisées dans le même répertoire. On peut distinguer deux approches. La première est une reprise sans modification des motifs existants : pour représenter des images allégoriques d'idées abstraites, les artisans ont recours à des scènes qui servent à représenter des idées semblables dans l'art païen. C'est le cas par exemple des motifs bucoliques qui, par leur univers champêtre, peuvent évoquer la paix éternelle (l'âge d'or = paradis). Le pasteur ou le criophore symbolisant la philanthropie dans l'art païen, ou encore l'Orphée en berger, sont investis de l'idée chrétienne du Bon Pasteur, le Christ conducteur d'hommes, qui va chercher la brebis égarée, l'allégorie de l'âme chrétienne. L'orante (ou dans certains cas son pendant masculin) qui symbolisait la piété sera la personnification de la foi chrétienne ou l'évocation d'un chrétien ordinaire. Elle est souvent représentée sous les traits de la défunte pour montrer que celle-ci avait été une bonne chrétienne (le geste de prière debout paumes de main tournées vers le ciel est repris par les chrétiens). Il n'est pas possible d'identifier ces représentations comme étant chrétiennes tant qu'elles figurent seules sur les sarcophages, mais elles acquièrent une connotation chrétienne quand elles se trouvent associées à des scènes bibliques. La deuxième approche consiste à reprendre des modèles formels existants dans l'art païen ou profane pour présenter une nouvelle narration. Le meilleur exemple est l'histoire de Jonas, un des thèmes bibliques les plus anciens et les plus fréquents, souvent représenté en plusieurs scènes sur les sarcophages. Dans la première scène du cycle, qui est généralement réduite à la représentation du bateau, ce dernier est une transposition du motif funéraire de la barque avec des Amours ailés (ou des enfants) remplacés par des marins. Le poisson des scènes suivantes est représenté en monstre-dragon qui faisait partie du cortège de Neptune dans le décor des sarcophages païens (d'où la présence de Neptune à côté de la barque sur le sarcophage de Santa Maria Antica). Jonas lui-même en repos dans la quatrième scène est représenté d'après le modèle de Dionysos sous la treille ou à l'image du berger Endymion endormi. Dans les cas où seule cette dernière scène est représentée, c'est la coloquinte qui permet d'identifier le personnage comme étant Jonas. Les premières illustrations des scènes bibliques apparaissent dans la deuxième moitié du . Le choix des scènes vient probablement des prières pour les mourants (et des liturgies funéraires) qui se référaient aux exemples de salut accordé par Dieu dans l'Ancien et le Nouveau Testament. En s'appuyant sur ces exemples, les fidèles souhaitent que leurs demandes d'intervention divine, exprimées dans les prières, soient en quelque sorte prolongées sur les parois de leurs tombes. Cela explique pourquoi les sarcophages richement décorés étaient souvent enterrés, les scènes représentées étaient adressées à Dieu et non à la contemplation des fidèles. Les thèmes vétérotestamentaires qui prédominent au début sont mêlés aux univers pastoraux. Au , ils cèdent peu à peu la place dominante aux sujets néotestamentaires. Parmi les scènes de l'Ancien Testament qui reviennent le plus souvent figurent celle de Jonas (déjà mentionnée), les trois Hébreux dans la fournaise (), Daniel entre les lions (), Noé (, , ), Moïse et la source miraculeuse (), le sacrifice d'Isaac (), et moins systématiquement l'histoire de Suzanne (), Adam et Ève créés par Dieu () ou dans la scène du péché originel (), la remise de la Loi à Moïse sur le mont Sinaï (). L'iconographie de plusieurs de ces scènes n'est pas figée et peut varier, des personnages sont rajoutés, comme l'ange et le serviteur dans la représentation des Hébreux. Les scènes les plus fréquentes du Nouveau Testament, qui se multiplient dès le début du sont les miracles du Christ: la multiplication des pains (), le miracle de Cana (), la guérison de l'aveugle (), de l'hémorroïsse (, ) et de l'infirme (), la résurrection de Lazare (). Les scènes de l'Adoration des Mages (), la Nativité () et le Baptême du Christ (), qui rappellent l'importance de l'Incarnation pour la Rédemption, sont porteuses d'un message du salut aussi bien individuel que collectif. Des éléments apocryphes s'insèrent dans le récit, tels le bœuf et l'âne dans la Crèche. Pierre, distingué dans l'assemblée des disciples, trouve rapidement sa place dans le décor, probablement à cause de son importance pour Rome : les scènes les plus courantes étant celles de son arrestation (avec deux soldats en « bonnet pannonien », en usage dans l'armée romaine au ) et l'annonce du reniement () Mais dans le courant du , le répertoire s'élargit : les scènes des vies de Pierre et de Paul, le Christ parmi les apôtres, différents moments du cycle de la Passion, l'entrée dans Jérusalem ( ; ; ), le lavement des pieds (), Jésus devant Pilate et le lavement des mains (). Dans la scène de Crucifixion le Christ est représenté couronné de lauriers, avec au pied de la croix deux soldats-gardiens. Sarcophage dit de « la Remise de la Loi » ("Traditio Legis"), fin du , musée du Louvre. Ces différentes scènes et personnages sont répartis sur les parois sans chronologie ou lien direct, c'est l'ordre de l'ensemble qui semble diriger le plus cet agencement. La scène de Daniel entre les lions, à la composition symétrique, se place souvent dans le centre (par exemple sous le médaillon), le sacrifice d'Isaac et la remise de la Loi, dessinant des diagonales, s'insèrent à côté du médaillon. La source miraculeuse et la résurrection de Lazare se trouvent dans les extrémités des cuves, en raison de la verticalité de leur composition. La scène des trois Hébreux dans la fournaise est régulièrement placée sur le bandeau du couvercle à cause de son horizontalité. L'art chrétien présente à ses débuts davantage d'unité, aussi bien dans l'art des sarcophages que dans celui des catacombes, l'iconographie étant la même dans les grandes lignes. Il n'y a pas non plus de différence importante entre les sarcophages romains et provinciaux des et s. Mais la manière simple et expressive des premiers sarcophages, exécutés dans le style plébéien, s'effacera au devant le courant qu'on a appelé le « classicisme constantinien ». Le bas-relief, se rapprochant de la ronde-bosse, retrouve alors son élégance, et le traitement poli accentue la sérénité des personnages qui vient remplacer le naturel des expressions du . |
Signature numérique La signature numérique est un mécanisme permettant d'authentifier l'auteur d'un document électronique et d'en garantir la non-répudiation, par analogie avec la signature manuscrite d'un document papier. Elle se différencie de la signature écrite par le fait qu'elle n'est pas visuelle, mais correspond à une suite de caractères. Elle ne doit pas être confondue avec la signature électronique manuscrite. Fonctions de la signature. Un mécanisme de signature numérique doit présenter les propriétés suivantes : Pour cela, les conditions suivantes doivent être réunies : En pratique, l'essentiel des procédures de signature numérique existantes s’appuie sur la cryptographie asymétrique, dans le reste de l'article nous nous placerons dans ce cas le plus courant. Les exemples d'échanges de données sont illustrés par les personnages Alice et Bob. Fonctionnement de RSA. L'un des algorithmes de signature est RSA. Il est basé sur l'asymétrie entre la clé publique et la clé privée. Pour un algorithme de chiffrement asymétrique, la clé publique sert à chiffrer (tout le monde peut envoyer un message confidentiel) et la clé privée à déchiffrer (seul le destinataire peut le lire). Comme pour DSA, il n'y a pas de différence mathématiques entre la clé privée et la clé publique, il est possible d'utiliser la clé privée pour chiffrer et la clé publique pour déchiffrer, donc à l'inverse du chiffrement asymétrique. Ainsi, seul le détenteur de la clé privé peut chiffrer un message pour obtenir ce qui tiendra le rôle de signature et tout le monde pourra essayer de déchiffrer la signature pour voir si le résultat obtenu correspond bien au message initial. Par contre, pour plus de commodité et pour éviter les mauvais rares cas mathématiques, on préfère chiffrer non pas le message original mais son empreinte. Préparation du message signé. Alice prépare le message signé, pour cela : Alice transmet Msigné, le message signé, à Bob par un canal non sécurisé. Réception du message signé. Bob réceptionne le message signé. Pour vérifier l'authenticité du message : Dans le cas où la signature est authentique, DSm et H(M) sont égaux car, de par les propriétés du chiffrement asymétrique : DSm=D(Kpb,SM)=D(Kpb,C(Kpr,H(M)))=H(M). Le message est alors authentifié. Protection contre les attaques. Supposons qu'une adversaire appelée Mallory souhaite envoyer un message malveillant M' à Bob en se faisant passer pour Alice. Mallory connaît les éléments D, H et Kpb qui ne sont pas secrets. Pour que Bob soit trompé et authentifie le message comme provenant d'Alice, Mallory doit être en mesure de générer à partir de ces éléments une signature falsifiée SM' qui soit telle que : D(Kpb,SM')=H(M'). La tâche que Mallory doit effectuer est donc d'inverser la fonction de déchiffrement D pour la clé publique Kpb, c'est-à-dire trouver C, sans connaître la clé privée Kpr. Les chiffrements asymétriques sont précisément conçus et choisis pour que cette opération soit mathématiquement difficile (voire impossible). Vulnérabilités. Du point de vue théorique la résistance du dispositif de chiffrement va dépendre de la force du chiffrement asymétrique retenu et de la taille des clés choisies. Les normes en œuvre sont généralement considérées comme mathématiquement sûres. Du point de vue pratique : Déclinaisons. Historiquement, les premières signatures ont été individuelles. Ont été introduites par la suite : Des variantes existent comme les "K parmi N", où la signature est considérée comme valable si K membres du groupe parmi les N définis ont signé. Ce système sera utilisé par exemple lorsque l'autorisation de plusieurs services sera nécessaire pour déclencher un dispositif d'une gravité dépassant les prérogatives de chacun d'eux. Tel serait le cas par exemple pour une procédure de mise sur écoute téléphonique nécessitant les accords à la fois d'une instance autorisée de l'exécutif "et" d'une instance autorisée du législatif. On interdit ainsi l'usage de renseignements d'États à des fins personnelles, puisque le déblocage nécessite une coordination externe qui sera donc elle-même tracée. Valeur légale. Union européenne. La législation européenne définit les conditions d'interopérabilité technique et légale des signatures numériques au sein de l'Union. La signature numérique est officiellement reconnue en Europe depuis janvier 2000 (directive 1999/93/CE) mais c'est depuis le , date d'entrée en vigueur du règlement eIDAS (identification électronique et services de confiance), que sa valeur légale minimale est identique au sein de toute l'Union européenne (et quelques pays partenaires: Liechtenstein, Norvège et Islande). Ce règlement précise notamment que la signature électronique qualifiée bénéficie du même statut et des mêmes effets juridiques que son équivalent manuscrit. Trois niveaux de signature sont reconnus, simple, avancé et qualifié. Le règlement définit en effet : Le règlement eIDAS définit de façon similaire la notion de "cachet électronique", qui peut également être de niveau avancé voire qualifié. Techniquement identique à une signature électronique, un cachet électronique s'en distingue au niveau de son certificat qui identifie une personne légale (typiquement une organisation), non une personne physique. Dans le même contexte, la notion d"'horodatage électronique" est également définie comme étant un ensemble de données électroniques qui, associées à d'autres, établissent une preuve de l'existence des secondes à un instant particulier. Cet horodatage électronique peut être de niveau qualifié. En terme d'interopérabilité légale, le règlement eIDAS établit notamment les éléments suivants: Afin que chacun puisse vérifier si une signature électronique, un cachet électronique ou un horodatage électronique est "qualifiée", chaque pays membre doit rendre disponible une liste d'autorités de confiance (autorités de certification, autorités de certification des temps) qui mentionne au moins toutes les autorités qualifiées. L'inclusion d'autorités de confiance non qualifiées est optionnelle. La Commission européenne publie une liste reprenant ces listes de confiance nationales ainsi qu'un outil permettant de visualiser, parcourir et sonder leur contenu. Outre une interopérabilité légale, le règlement eIDAS et ses décisions d'exécution définissent aussi des éléments d'interopérabilité technique tels que des formats de signature électronique avancée que les services publics se doivent de reconnaître. Ces formats sont basés sur les standards techniques de l'ETSI. Depuis le , c'est la version électronique du "Journal officiel de l'Union européenne" qui a valeur légale. Cette édition électronique est publiée sous forme d'une collection de documents au format PDF correspondant à toutes les versions linguistiques d'un même numéro, à laquelle s'ajoute un document XML assurant l'intégrité de l'ensemble. Ce document XML, qui contient un hash de chaque document PDF membre de ladite collection, est signé par une personne autorisée de l'Office des publications de l'Union européenne au moyen d'une signature électronique qualifiée horodatée, selon le format technique XAdES. France. Depuis 2000, la signature électronique d'un document a en France la même valeur légale qu'une signature manuscrite, conformément aux textes suivants : Selon ce décret, un dispositif sécurisé de création de signature électronique doit être certifié conforme aux exigences définies plus haut : La transposition complète de la directive européenne 1999/93/CE a toutefois nécessité un processus plus long. Depuis 2010, d'autre part, le concept de signature numérique, définie comme la conservation sous forme numérique d'une signature manuscrite produite via un écran tactile, a été introduite dans le droit français par du code de procédure pénale. Le référentiel général de sécurité définit les règles que les administrations et collectivités doivent respecter en matière de sécurité des systèmes d'information. En particulier, les annexes du précisent le format des certificats électroniques que les administrations doivent utiliser pour mettre en œuvre la signature électronique au sein des téléservices. Les infrastructures de gestion de certificats conformes au référentiel sont certifiées selon une méthode appelée « qualification ». Ces infrastructures de gestion de certificats sont appelées Autorité de Certification. Tiers de confiance, elles garantissent l'identité électronique de l'entreprise et de ses collaborateurs. Belgique. Le législateur belge a transposé en 2001 la directive européenne du 13 décembre 1999 sur un cadre communautaire pour les signatures électroniques. Cette transposition en droit belge s'est faite par l'adoption de deux lois : la Loi du 20 octobre 2000 introduisant l’utilisation de moyens de télécommunication et de la signature électronique dans la procédure judiciaire et extrajudiciaire qui modifie notamment du Code civil et la Loi du 9 juillet 2001 fixant certaines règles relatives au cadre juridique pour les signatures électroniques et les services de certification. C'est cette dernière loi qui explique la question des services de certification (P.S.C), leurs rôles et responsabilités. La signature électronique fait désormais partie du droit belge et a la même valeur juridique que la signature manuscrite. Bien qu’elle ait fait couler beaucoup d’encre du côté de la doctrine, on peut considérer qu’elle fait aujourd'hui l’objet d’une réglementation claire et rationnelle. L’ère de l’Internet et de l’électronique étant arrivée au sein du domaine juridique et il était logique que la signature y trouvât sa place. L’objectif premier de la directive européenne 1999/93/CE du 13 décembre 1999 sur un cadre communautaire pour les signatures électroniques était de favoriser les échanges commerciaux au-delà des frontières, d’instaurer une certaine confiance dans ces transactions et de conférer à l’ensemble une valeur juridique équivalente à celle de la signature manuscrite. Depuis février 2019, l'application ITSME permet la signature électronique qualifiée selon le règlement européen eIDAS, elle est disponible sur les plates-formes de Connective, Doccle, Isabel Group et Luxtrust. Suisse. La signature numérique (appelée signature "électronique" dans les textes législatifs) est reconnue en droit suisse depuis 2003. Elle équivaut, de ce fait, à la signature écrite qu'exige la loi pour certaines formes de contrat. Peu utilisée en pratique, le secrétariat d'État à l'économie (SECO) lance en mai 2010 la « SuisseID » pour promouvoir et faciliter l'accès à cette technologie pour les entreprises et les particuliers. Censé faciliter les transactions d'affaire par voie électronique, le système permet aussi, depuis 2011, la commande par internet de documents officiels (notamment du casier judiciaire ou d'un extrait de l’office des poursuites) auprès des administrations publiques, conformément à la volonté de mise en place d'une « cyberadministration » pour faciliter l'accès à de tels documents et réduire la bureaucratie. Québec. La loi concernant le cadre juridique des technologies de l'information dispose que . |
Système de positionnement par satellites Un système de positionnement par satellites également désigné sous le sigle GNSS (pour "Géolocalisation et Navigation par un Système de Satellites") est un ensemble de composants reposant sur une constellation de satellites artificiels permettant de fournir à un utilisateur par l’intermédiaire d'un récepteur portable de petite taille sa position 3D, sa vitesse 3D et l'heure. Cette catégorie de système de géopositionnement se caractérise par une précision métrique, sa couverture mondiale et la compacité des terminaux, mais également par sa sensibilité aux obstacles présents entre le terminal récepteur et les satellites. Certains systèmes d'augmentation et de fiabilisation de portée régionale ou mondiales, gratuits ou payants, permettent de fiabiliser le système et d'améliorer les performances (DGPS, EGNOS, " (A-GNSS)). Le premier système de positionnement par satellites est développé par les États-Unis avec TRANSIT à usage uniquement militaire en 1964 puis avec le (GPS), devenu opérationnel en 1995, qui fixe les principes de fonctionnement repris par les systèmes de navigation par satellites développés par d'autres pays. Le système GPS repose sur une constellation d'une trentaine de satellites qui permet à un utilisateur, situé sur n'importe quel point du globe, d'avoir toujours au minimum quatre satellites à portée, dans l'hypothèse d'un environnement dégagé (« " »). Le terminal de l'utilisateur calcule sa position grâce au signal émis par chacun des satellites. À ce stade, la communication est mono-directionnelle, c'est-à-dire qu'il n'y a pas d'émission de signaux du terminal vers les satellites, ce qui implique que le système ne reçoit aucune information de la part de l'utilisateur. Celui-ci est donc le seul à connaître sa position calculée. L'URSS, à la suite des États-Unis, développe GLONASS entré en fonction en 1996 et qui, après une période d'éclipse liée à l'éclatement de l'Union soviétique, est redevenu opérationnel en 2010. L’Union européenne avec le système Galileo et la Chine avec le système Beidou-2 (COMPASS) développent leur propre système qui est devenu opérationnel en 2012 et mettent en orbite Beidou-3 en 2020. Le Japon (QZSS) et l’Inde avec l'IRNSS développent de leur côté un système assurant une couverture uniquement régionale dont la Chine dispose également avec Beidou-1 depuis 2003. Après une exploitation purement militaire par les États-Unis, l'utilisation des terminaux GPS (et plus généralement GNSS) s'est généralisée pour répondre aux besoins des professionnels et du grand public (navigation , topographie, géodésie, génie civil, agriculture, synchronisation du temps) Les terminaux permettent souvent d'exploiter les signaux de plusieurs systèmes, dont fréquemment GLONASS, GPS et Beidou, augmentant de ce fait les performances de positionnement grâce à la redondance des satellites. Les terminaux, qui sont des systèmes passifs, peuvent être complétés par des émetteurs de radiolocalisation pour des applications de suivi logistique (APRS), de sauvetage (SAR), de surveillance de trafic maritime (AIS), d’étude océanographique, de biologie () Cette retransmission de la position du terminal par télécommunication est également largement généralisée aux smartphones qui sont aujourd'hui tous munis d'un récepteur GNSS et dont de multiples applications exploitent la position de l'utilisateur. Cette fonction de suivi, ou "", est souvent attribuée à tort au système GNSS lui-même alors qu'il n'y est pour rien. Principes de fonctionnement. Un système de positionnement par satellites fournit à son utilisateur via un récepteur dit GPS (smartphone équipé d'une puce électronique spécialisée ou récepteur GPS spécialisé) : Ces informations sont calculées à partir des mesures de distance à un instant donné entre le récepteur de l'utilisateur et plusieurs satellites artificiels spécialisés (les satellites de navigation) dont les positions dans l'espace sont connues avec précision : En combinant la mesure simultanée de la distance d'au moins quatre satellites, le récepteur est capable par "multilatération" de fournir la position et l'altitude avec une précision de l'ordre du mètre, la vitesse avec une précision de quelques cm/s et le temps avec une précision de l'ordre de la nanoseconde. La précision dépend de très nombreux facteurs, dont la qualité du récepteur, le mode de calcul et l'environnement proche. En termes de position, elle peut descendre à quelques millimètres pour un récepteur conçu pour une utilisation en géodésie utilisant la phase des signaux jusqu'à plusieurs dizaines, voire centaines de mètres pour un récepteur bas de gamme en environnement urbain dense. Le récepteur peut être au sol ou embarqué positionné dans un en déplacement : automobile, navire, avion. Détermination de la trajectoire du satellite. Pour mesurer la distance entre le récepteur et le satellite, la trajectoire précise de ce dernier doit être connue. Celle-ci est reconstituée à partir de deux types de messages envoyés par le satellite au récepteur : Détermination de l'heure. Pour déterminer la distance entre le satellite et le récepteur, connaissant les paramètres de la trajectoire que suit le satellite, il faut théoriquement que l'heure des satellites et du récepteur soit identique. La précision de cette synchronisation est vitale. En effet, compte tenu de la vitesse à laquelle circule le satellite (plusieurs kilomètres par seconde), une désynchronisation de entre l'horloge du satellite et celle du récepteur engendre une erreur de calcul de la position de . A bord du satellite la précision et la stabilité de l'heure du satellite est garantie par l'emport de plusieurs horloges atomiques qui fournissent une heure qui ne dérive que de quelques nanosecondes par jour. Le récepteur, par contre, ne peut pas être équipé d'une horloge aussi précise pour des raisons de coût et d'encombrement (il existe des récepteurs équipés d'horloge atomique mais leur cout et leur encombrement les réserve à des usages très particuliers). L'heure est fournie par un oscillateur à quartz dont la dérive journalière moyenne est de . Pour contourner ce problème lors du calcul de la position, le décalage entre le temps du récepteur et le temps des satellites est traité comme une inconnue et calculé en même temps que les coordonnées du récepteur. Calcul de la position. Pour déterminer sa position, sa vitesse et l'heure, le récepteur calcule la distance à laquelle se trouve le satellite à partir des données de l'éphéméride (formule permettant de calculer la trajectoire du satellite) et l'heure d'émission du signal fournis par le satellite et en se basant sur son horloge interne pour déterminer son heure de réception. Le signal voyage à la vitesse de la lumière C=300 0000 km / s. La distance D entre le récepteur et un satellite est égale à : "D = C x (Heure de réception – Heure d’émission)." Mais ce calcul est entaché d'erreurs - on parle de "pseudo-distance" - du fait principalement de la désynchronisation des horloges mais également parce que différents phénomènes physiques viennent perturber la propagation du signal. Les principales sources d'erreur sont les suivantes : La méthode de trilatération permet théoriquement de calculer position, vitesse et temps en utilisant le signal de trois satellites : la distance à laquelle se situe un satellite positionne l'utilisateur à la surface d'une sphère dont le centre est le satellite. L'intersection de permet d'identifier un point unique dans l'espace. Un quatrième satellite au minimum est néanmoins requis pour permettre de déterminer le décalage des horloges (cf schéma ci-contre) et réduire les incertitudes liées aux autres sources de perturbation du signal, on parle alors de multilatération. Dans la réalité, le récepteur utilise le maximum de satellites dont il reçoit correctement le signal et calcule la solution qui lui semble « optimale », c'est-à-dire la plus vraisemblable compte tenu des erreurs estimées sur chaque pseudo-distance. Système d'augmentation. Pour améliorer la précision de la position calculée et garantir des performances minimales associées à un certain facteur de risque (notion d’"intégrité"), le récepteur peut utiliser des signaux radio supplémentaires émis par des systèmes dits d'augmentation. Ces signaux sont émis par des satellites (généralement en orbite géostationnaire) ou des balises terrestres fixes. Interface avec des applications. Le récepteur GNSS strictement dit, dont la seule fonction est de calculer la position et la vitesse, est souvent couplé à d'autres composants (calculateur, écran…) qui fournissent à l'utilisateur des fonctions de navigation, par exemple la détermination de la route à suivre pour rejoindre un point de coordonnées connues ou le calcul du trajet routier optimal pour se rendre d'un point A à un point B, avec la fourniture des indications nécessaires au conducteur à chaque endroit stratégique. Le récepteur peut également (principalement en navigation aérienne) être interfacé à d'autres moyens de navigation : centrale inertielle, autres senseurs de bord (compas, tachymètre, autres systèmes de radionavigation…) pour augmenter ses performances et la disponibilité de la position finale. Dans le cas du suivi de flotte, le récepteur peut aussi être couplé à un moyen de télécommunication : téléphone cellulaire ou satellitaire, liaison UHF ou VHF, qui retransmet automatiquement la position du mobile à un central. Ce central peut alors contrôler, gérer ou surveiller le déplacement des mobiles. Enfin, dans le contexte de l'Internet mobile, c'est-à-dire de la géolocalisation sur smartphones, les applications faisant usage du positionnement satellitaire sont absolument innombrables et se caractérisent toutes par le couplage du positionnement avec la communication cellulaire, c'est-à-dire généralement par une remontée des positions aux serveurs des applications. Historique. Les systèmes de radionavigation terrestres. Les systèmes satellitaires ont été précédés par les systèmes terrestres de radionavigation, comme le DECCA, le LORAN (') et l’Oméga, qui utilisaient des émetteurs terrestres et non des satellites. Certains de ces systèmes sont encore opérationnels, particulièrement en aéronautique, en raison de leur fiabilité et de leur précision locale, comme le VOR ('), le DME, le TACAN ("), l’ILS ou l’ADF. Tous ces systèmes reposent sur un réseau de stations terrestres qui émettent un signal radio. En analysant le signal de plusieurs stations émettrices, le système de radionavigation détermine la position. Ces systèmes présentent les inconvénients suivants : Les systèmes de navigation par satellites utilisant l'effet Doppler. Le système américain TRANSIT. Le début de l'ère spatiale modifie la donne. Les États-Unis développent Transit, le premier système de positionnement par satellites. Celui-ci est développé pour la marine de guerre des États-Unis par le laboratoire Applied Physics Laboratory de l'université Johns-Hopkins en 1958. Il devient opérationnel en 1964. Le système Transit repose sur l'exploitation de l’effet Doppler de signaux radio émis par des satellites de petite taille (une cinquantaine de kilogrammes) circulant sur une orbite polaire et stabilisés par gradient de gravité. La constellation de satellites Transit compte quatre satellites dans sa configuration opérationnelle. Une fois un des satellites en vue, soit en général après une attente de l'ordre de l'heure, le récepteur Transit parvenait à calculer dans un délai d'une quinzaine de minutes la position avec une précision d'environ 200 mètres. Le système est développé initialement pour obtenir une frappe précise des missiles Polaris embarqués à bord des sous-marins nucléaires lanceurs d'engins américains. Dès 1967 son utilisation se généralise à bord des navires civils américains comme étrangers et une centaine de milliers de récepteurs Transit étaient en fonctionnement au début des années 1990. Les systèmes soviétiques Tsiklon et Parous. Pour répondre aux besoins militaires l'Union soviétique développe à la même époque que les Transit un système baptisé Tsiklon reposant également sur l'analyse de l'effet Doppler affectant le signal radio transmis par une constellation de plusieurs satellites circulant sur une orbite basse. Le système est déclaré opérationnel en 1982 mais il est rapidement remplacé par le système Parous (Tsiklon-B), qui repose sur le même principe technique et permet d'obtenir une meilleure précision (environ 100 mètres). . Le GPS : premier système de navigation moderne. Au début des , les États-Unis décident de concevoir un système plus précis pour répondre à leurs besoins militaires. Les concepts du système GPS sont définis entre 1973 et 1978. Une première phase pré-opérationnelle est atteinte après les lancements de onze satellites dits du d'une durée de vie de qui s'échelonnent entre 1978 et 1985. En 1983, le gouvernement américain décide que le système GPS sera ouvert aux civils dès qu'il deviendra opérationnel. Entre 1989 et 1997, satellites aux durées de vie allongées en () et r () sont lancés. Le système est déclaré opérationnel en . Le signal est alors volontairement dégradé pour l'usage civil (précision de l'ordre de au lieu de ) mais en 2000 le gouvernement américain décide de mettre fin à cette dégradation. Cela permit la navigation routière. Développement des autres systèmes GNSS. Le système soviétique/russe Glonass. L'Union soviétique lance au début des années 1980 le développement d'un système analogue au GPS qui est baptisé GLONASS (", soit « système global de navigation satellitaire »). La mise au point et la maintenance du système est ralenti par la crise économique que traverse la Russie à compter du début des années 1990 : le système devient opérationnel en 1996 mais deux ans plus tard la Russie ne parvient plus à maintenir un nombre de satellites en orbite suffisant. Grâce à la reprise économique du début des années 2000 et à la priorité accordée par le pouvoir à la restauration de ce service, la fréquence de lancement des satellites est accélérée et le système redevient pleinement opérationnel en 2011. L'iPhone 4S et le Samsung deviennent en 2011, les premiers grand public (en dehors du marché russe) à recevoir nativement les signaux GLONASS et à les utiliser pour évaluer le positionnement. Le système européen Galileo. Le projet Galileo, après une phase de définition technique débutée en 1999, est lancé le avec la signature d'un accord entre l'Union européenne et l'Agence spatiale européenne chargée du segment spatial. Une des motivations principales du projet est de mettre fin à la dépendance de l'Europe vis-à-vis du système américain, le GPS. Contrairement à celui-ci, Galileo est uniquement civil. Le projet parvient à surmonter l'opposition de certains membres de l'UE et d'une partie des décideurs américains ainsi que les difficultés de financement (le coût final est évalué à cinq milliards d'euros). Les tests de Galileo débutent fin 2005 grâce aux lancements des satellites précurseurs GIOVE-A et GIOVE-B en et . Les premiers satellites en configuration opérationnelle (FOC) sont lancés en . Au , 26 satellites ont été lancés, dont 22 sont opérationnels. Les premiers services de Galileo sont opérationnels depuis le . Le système chinois Beidou. Le développement du système de positionnement par satellites chinois Beidou remonte au milieu des années 1980. Une première version du système, baptisée Beidou-1, comportant trois satellites, deux opérationnels plus un en secours, est déployée en 2000 et est déclarée opérationnelle en 2003. Ce système régional permettait de déterminer sa position uniquement en Chine et dans les régions avoisinantes avec une précision d'environ ou avec un système de transmissions bidirectionnelles. Un quatrième satellite de secours sera lancé en 2007. La deuxième génération du système, Beidou-2, débute en 2007, avec l'objectif de fournir une couverture mondiale avec une précision de 10 mètres dans sa version civile. Celle-ci est assurée par trois types de satellites : 5 satellites en orbite géostationnaire, trois en orbite géosynchrone inclinée (55°) et 27 en orbite moyenne. Beidou-2 est déclaré opérationnel fin 2012 avec une couverture comprenant la Chine et les pays alentour. Le vingtième et dernier élément Beidou-2 a été mis en orbite en 2019. Les performances à terme de Beidou-2 sont alors comparables aux trois autres systèmes mondiaux opérationnels (GPS, GLONASS et Galileo). La génération Beidou-3, dont le déploiement débute en , est finalisée avec la mise en orbite du dernier satellite mis en orbite le . La constellation comporte désormais trente-cinq satellites, dont trente opérationnels : 3 satellites en orbite géostationnaire, 3 en orbite géosynchrone inclinée à 55°, et 24 en orbite moyenne. Fonctionnement technique détaillé. Signal radio et mesure de la distance. Le satellite de navigation émet un signal radio qui est exploité par le récepteur pour calculer sa position. Ce signal est émis dans une plage de fréquences radio réservée auprès des autorités mondiales de régulation des télécommunications. Le signal radio se situe en UHF dans la bande L autour de 1,5 gigaHertz plus élevée que les fréquences utilisées pour la diffusion de la radio et de la télévision mais moins élevée que celles utilisées par les radars. Chaque satellite émet dans trois fréquences qui sont propres à chaque système de navigation par satellites. Par exemple les satellites Galileo émettent les signaux radio L1 (dans la fréquence 1 575,42 MHz), E6 (1 278,75 MHz) et E5 (1 191,795 MHz). Modulation des signaux. Pour transmettre les informations permettant au récepteur de calculer la position du satellite et sa propre position, l'émetteur radio module la phase de l'onde porteuse du signal radio. Le message d'origine qui est stocké sous forme binaire (suite de 0 et de 1) est transmis sous la forme de saut de phase. Le récepteur détecte ces sauts et reconstitue l'information sous forme binaire. Codage des signaux (cas des systèmes GPS et Galileo). Le récepteur doit pouvoir identifier que les signaux radio reçus dans la fréquence sont en provenance des satellites de navigation et il doit pouvoir identifier chaque satellite. A cet effet les systèmes GPS et Galileo utilisent la technique du CDMA ("Code Division Multiple Access" en français accès multiple par division de code) : chaque satellite est caractérisé par un code (une suite de 0 et de 1) que les récepteurs savent identifier. Le code présente également l'avantage de permettre de développer des applications militaires (signal plus précis comme le PPS du système GPS) dont l'accès est restreint car le code n'est connu que par des récepteurs spécialisés (militaires). Les satellites du système GPS émettent deux types de code : le code dit C/A (Clear Acess) identifiable par tous les récepteurs est émis à la fréquence de 1 milliseconde (=il est répété 1000 fois par seconde) et le code dit P (Precision) réservé aux forces armées des Etats-Unis. De leur côté les satellites du système Galileo émettent trois types de code : un code en accès libre analogue au C/A américain, le code PRS (Public Regulated Service) réservé aux applications gouvernementales et militaires et le code CS (Commercial Service) réservé aux applications commerciales à accès payant. Les signaux radio émis par les satellites de navigation des systèmes GPS et Galileo transmettent différents types de message : almanach (position approximative des satellites de la constellation utilisée pour un premier traitement des signaux reçus), éphémérides (position précise du satellite), correction d'horloge (retard ou avance de l'horloge du satellite par rapport au temps système) et paramètres de correction ionosphérique. Ces données sont transmises avec un débit très faible (50 bits par seconde pour le signal C/A du GPS et 125 bits/seconde pour Galileo) ce qui génère un délai de 12 minutes pour la réception de toutes ces informations par les satellites GPS et cinq minutes par les systèmes Galileo. Les messages sont numérisés (transformés en séquence de 0 et de 1) puis transmis en superposant les séquences binaires du code et celle du message. Par exemple pour le signal C/A des satellites GPS, un bit du message est transmis dans une itération sur 20 du code en inversant les 0 et les 1 si le message comporte un 1 et en ne modifiant pas le code si le message comporte un 0. Les systèmes actuels sont plus directs pour l’utilisateur : le satellite transmet un signal contenant sa position et l’instant exact d’émission. Ce message est superposé au code qui contient la référence temporelle. La synchronisation des signaux est obtenue par des horloges atomiques à bord de chaque satellite. Le récepteur compare l’instant d’arrivée vis-à-vis de son horloge propre, avec l’instant d’émission indiqué et mesure ainsi la distance du satellite. Ces mesures sont répétées sur tous les satellites visibles et permettent de calculer une position en continu. Chaque mesure de distance, quel que soit le système utilisé (constellation basse ou géostationnaire ou balise locale) place le récepteur sur une sphère centrée sur l’émetteur. En utilisant au moins trois émetteurs, ces sphères ont un seul point d’intersection. Ce principe simple se complique cependant : Le récepteur intègre donc ces diverses erreurs, utilisant des corrections et des mesures de divers satellites ou balises, puis des techniques d’intégration et de filtrage comme les filtres de Kalman, pour obtenir le point le plus probable et sa précision estimée, sa vitesse ainsi que le temps universel. Récepteurs. Le récepteur utilisé pour obtenir sa position à l'aide des systèmes de positionnement par satellites remplit quatre fonctions principales : Réception des signaux. Le signal radio est reçu par un ensemble qui comprend une antenne, un préamplificateur et un convertisseur. Généralement les antennes doivent pouvoir capter les signaux venant de n'importe quelle direction (antenne omnidirectionnelle) car la plupart des récepteurs sont mobiles. Le signal reçu est très faible (pas plus puissant que le bruit électromagnétique environnant) et il faut l'amplifier pour pouvoir le traiter (fonction de pré amplification). Un convertisseur diminue la fréquence (plus d'un milliard d'oscillations par seconde) pour permettre le traitement du signal. Traitement des signaux. Le récepteur doit traiter en parallèle les signaux de plusieurs satellites. Chaque signal est traité par un canal distinct. Les récepteurs commercialisés en 2022 peuvent avoir plusieurs centaines de canaux. Les différents systèmes de navigation par satellites. Cahier des charges. Les systèmes sont caractérisés par leurs performances pour les applications souhaitées, principalement : Précision. La précision de la localisation dépend du nombre de satellites reçus et du temps d’intégration, ainsi que de la géométrie des mesures. Les récepteurs les plus simples permettent de localiser en quelques secondes un mobile avec une précision meilleure que . Les récepteurs sophistiqués tels que ceux embarqués sur les avions civils et militaires permettent une précision inférieure au décamètre, voire au mètre. Un récepteur fixe au sol permet, après une intégration sur une période de plusieurs minutes, de connaître la position d’un point avec une précision centimétrique. La position est calculée par rapport au système géodésique en 1984 ), mais les références cartographiques sont souvent basées sur des systèmes géodésiques plus anciens ( ou antérieurs). L'écart entre ces systèmes cartographiques locaux et le système de référence (jusqu'à dans certaines îles océaniques) peut entraîner une erreur de positionnement supérieure à l'imprécision du système. Ces corrections doivent donc être introduites. Intégrité. L'intégrité est le terme officiel de l'Organisation de l'aviation civile internationale (OACI) pour désigner la fiabilité du point fourni : une position utilisée en navigation au large, par exemple, peut être occasionnellement erronée (faible intégrité) sans conséquences graves, si le mobile possède des instruments autonomes, alors qu'une position utilisée pour un atterrissage sans visibilité doit au contraire avoir une intégrité absolue. Couverture et disponibilité. Un système de positionnement par satellites peut avoir une couverture globale ou régionale, il peut être indisponible pendant des périodes plus ou moins longues, avoir des manques de satellites (par exemple GLONASS durant les années 2000). Le but des systèmes combinés comme les GNSS-1 et GNSS-2 est de pallier les défauts de chaque système individuel grâce à des combinaisons et compléments dits d'« augmentation ». Principales spécificités des systèmes de navigation satellitaires existants ou en développement. Les systèmes de positionnement satellitaires avec une couverture globale sont : Les systèmes de positionnement avec une couverture régionale : GPS. Le système GPS, se développe, à partir de 1978 (année de mise en service du premier satellite) et devient disponible librement en 1994 (avec un accès qui n'est alors plus réservé à l'armée américaine) et pleinement opérationnel en 1995 (avec une constellation de ). Il est alors, pendant un an, le seul système de positionnement par satellite, pleinement efficace et fonctionnel. Un an plus tard (1996), le système GLONASS russe devient, lui aussi, pleinement opérationnel. Cependant, entre 1999 et 2010 (à cause de l’obsolescence de GLONASS), le système GPS était redevenu le seul système mondial de navigation satellitaire entièrement opérationnel. En 2015, Il est constitué de (24 à l'origine) en orbite intermédiaire () en six plans orbitaux. Le nombre exact de satellites varie en fonction des remplacements de satellites en fin de vie. GLONASS. Le système de positionnement par satellites russe GLONASS repose sur la même architecture technique que le système américain GPS. Le segment spatial est constitué de 24 satellites circulant sur une orbite moyenne circulaire. Les satellites sont répartis sur trois plans orbitaux. Une des spécificités de Glonass par rapport aux autres systèmes de navigation par satellite est l'inclinaison orbitale élevée (64,8° contre 55/56° pour les systèmes GPS, Galileo et Beidou). Cette caractéristique permet une meilleure couverture des régions polaires qui représentent une fraction importante du territoire de la Russie Galileo. Le segment spatial de Galileo sera constitué à terme de trente satellites dont six de rechange. Chaque satellite, d'une masse d'environ , circule sur une orbite moyenne () dans trois plans orbitaux distincts ayant une inclinaison de 56°. Ces satellites émettent un signal qui leur est propre et retransmettent un signal de navigation fourni par le segment de contrôle de Galileo. Ce dernier est constitué de deux stations chargées également de surveiller l'orbite et l'état des satellites. Les signaux de navigation de Galileo sont compatibles avec ceux du GPS, permettant aux récepteurs de les combiner pour augmenter la précision ainsi que la véracité du point. Beidou. En configuration opérationnelle, la constellation de satellites Beidou comprend 35 satellites : 5 satellites circulent sur une orbite géostationnaire, 3 sur une orbite géosynchrone inclinée et 27 satellites en orbite moyenne distribués sur 3 plans orbitaux. Par ailleurs, 3 satellites de rechange en orbite moyenne seront pré-positionnés. IRNSS. Le système IRNSS (") est un projet de système autonome de navigation régionale construit et contrôlé par le gouvernement indien. Il doit permettre une précision absolue de sur l’Inde et s'étendrait jusqu’à autour de son voisinage. Le but est d'avoir un système entièrement sous contrôle indien, le segment spatial, terrestre et les récepteurs étant développés par l’Inde. Le projet a été approuvé par le gouvernement indien en , avec un objectif de développement en six à sept ans. QZSS. Le système QZSS ("), est développé par le Japon pour un premier lancement en 2008. Il est constitué de trois satellites géostationnaires permettant le transfert de temps et une augmentation du GPS. Il couvrira le Japon et sa région Autres systèmes de positionnement satellitaires. Le système français (DORIS) peut être considéré comme l’inverse des GNSS : à partir de balises au sol, il permet de déterminer avec précision la position d’un satellite. Il est utilisé par exemple sur les satellites d’observation Les systèmes Argos et Cospas-Sarsat ne sont pas à proprement parler des systèmes de navigation, mais de positionnement à distance : le mobile ne contient qu'un émetteur, et la position est connue par le centre de calcul du système. Quoique de précision médiocre (), ils sont utilisés pour la sécurité aérienne et maritime ou le d'animaux, grâce à la simplicité des balises embarquées. Ils fonctionnent, comme le TRANSIT, par mesure d'effet Doppler. Classification des GNSS par l'Organisation mondiale de l'aviation civile. Les systèmes de positionnement par satellites capables de fournir une précision et une intégrité compatible avec les exigences de la navigation aéronautique civile sont définis ainsi par l'OACI : GNSS-1. Le GNSS-1 est la première génération de système de positionnement par satellites, combinant l’utilisation des systèmes GPS et GLONASS, avec des systèmes d’augmentation satellitaires (SBAS) ou terrestres (GBAS). Aux États-Unis, le complément satellitaire est le WAAS, en Europe, c’est EGNOS, et au Japon, le MSAS. Les systèmes complémentaires terrestres (GBAS) sont généralement locaux, comme le " (LAAS). Les performances du GNSS1 sont compatibles avec la navigation « en route » (suivi des couloirs aériens et des espacements) et éventuellement d’approche si un système LAAS est disponible. GNSS-2. Le GNSS-2 est la seconde génération de systèmes, capable de fournir tous les services civils, dont l’exemple le plus avancé est le Galileo européen. Ces systèmes procureront simultanément la précision et l’intégrité nécessaire à la navigation civile dans toutes les phases de vol. Le système GPS en développement doit inclure également la porteuse L5 d’intégrité, le mettant ainsi au niveau GNSS2. Les systèmes d'augmentation de performances. Pour les applications demandant une sécurité absolue du point (atterrissage sans visibilité, anti-collision…) les signaux de navigation sont complétés par un signal dit d’« intégrité » qui permet d’éliminer toute mesure issue d’un émetteur en défaut temporaire ou prolongé. Ce signal d'intégrité est, dans le cas des GNSS actuels, fourni par un système d'augmentation qui surveille en temps réel la santé des satellites, tel le système satellitaire européen EGNOS qui a été développé spécifiquement pour l'aviation civile, mais qui peut, sous certaines conditions, rendre aussi des services en navigation maritime ou terrestre. Les systèmes de positionnement par satellites peuvent être complétés par des systèmes dits d'« augmentation » ou d'« " » qui délivrent en temps réel des corrections permettant d'accroître la précision ainsi que des informations garantissant l'intégrité de ces corrections. Le principe de ces systèmes est qu'une ou plusieurs stations au sol mesurent en permanence l'erreur et transmettent un signal de correction aux utilisateurs. Il existe de nombreux systèmes différents selon les corrections fournies au récepteur. Certains systèmes transmettent des informations sur les sources d’erreur (écarts d’horloge, éphémérides, retards ionosphériques), d’autres fournissent l’écart constaté total (différentiel), d’autres ajoutent des informations issus du véhicule lui-même (vitesse, altitude…). On classe généralement ces systèmes d'augmentation en trois catégories, selon la manière dont la correction est calculée et transmise : Augmentation basée sur des satellites (SBAS). L'augmentation basée sur des satellites (SBAS : ") est un système couvrant un périmètre régional (continent ou pays) qui calcule et diffuse des corrections pour les différentes sources d'erreur affectant les positions transmises par les satellites GPS : écarts sur l'heure, la position du satellite et l'impact de l'ionosphère. Les SBAS permettent d'améliorer la précision de la position fournie par les systèmes GPS en la portant à 1 ou 2 mètres. Il repose sur des stations terriennes qui déterminent ces erreurs en mesurant l'écart entre la position fournie par les satellites GPS et leur position réelle. Des corrections sont alors calculées en temps réel et renvoyées à des satellites géostationnaires qui les diffusent vers les récepteurs GPS équipés pour recevoir ces messages. Les systèmes SBAS, conçus initialement principalement pour le transport aérien, sont désormais utilisés dans de nombreux secteurs du transport : navires, trains, camions, engins agricoles. Différents systèmes SBAS répondant à des normes internationales, ont été développés ou sont en cours de développement dans les différentes régions du monde : Augmentation basée sur des systèmes sol (GBAS). L'augmentation basée sur des systèmes sol GBAS repose sur des corrections calculées et transmises par des équipements terrestres. Dans un aéroport, des récepteurs GPS locaux de référence envoient des données à un système central. Ces données sont utilisées pour former un message de correction, qui est alors transmis automatiquement aux utilisateurs (avions) par l'intermédiaire d'une liaison de transmission de données VHF. Un récepteur embarqué dans l'avion utilise cette information pour corriger les signaux GPS, et peut alors fournir un affichage standard ILS qui est utilisé pour réaliser une approche de précision de la piste d'atterrissage. Augmentation basée sur des systèmes à bord (pour les avions) ABAS. Augmentation basée sur des systèmes à bord (pour les avions) ABAS (") Ces systèmes permettent d'obtenir une précision allant jusqu'au centimètre. Pour la navigation aérienne, l'OACI demande que l'intégrité des systèmes de navigation par satellite soit surveillée, et qu'une alerte soit émise à bord en cas de perte de l'intégrité nécessaire (qui dépend de la phase du vol). Applications. Un usage initial militaire. Les systèmes de navigation satellitaires ont été développés d’abord pour répondre aux besoins des militaires. Ils permettent en effet une précision inégalée dans le guidage des missiles jusqu'à leur but, augmentant leur efficacité et réduisant les risques de dégâts collatéraux. Ces systèmes permettent également aux forces terrestres de se positionner avec précision, réduisant les incertitudes tactiques, aux marines et aux forces aériennes de naviguer avec précision, indépendamment de tout support au sol. . Ainsi, les satellites de navigation agissent en multiplicateur de puissance militaire, et dans les conflits très médiatisés, réduisent les retentissements des pertes civiles. Toute nation ayant des ambitions militaires souhaite donc se doter de ces systèmes. La possibilité de distribuer des signaux de radionavigation inclut également la possibilité de les interdire d’emploi sur certaines zones sans une clé de décryptage. Le signal civil du GPS était muni jusqu’en 1990 d’un code d’étalement aléatoire de précision, pour éviter son emploi militaire (« " »), qui réduisait la précision à au lieu des actuels. Usages civils. Le marché des GNSS est largement dominé par les applications civiles, principalement les applications grand public (les smartphones et tablettes, et ultérieurement les objets connectés en général) et le transport routier, qui se partagent plus de 90 % du marché. L'agriculture et la géomatique se partagent la moitié du segment restant devant les drones et la navigation maritime. Les usages civils des systèmes de positionnement par satellites sont multiples : Enjeux économiques et politiques. Au cours de l'année 2021, le nombre de récepteurs GPS commercialisé est estimé à et selon un rapport de l'Union européenne ce nombre devrait être porté à 3,1 milliards en 2031. A cette date la parc total des récepteurs devrait atteindre 10 milliards. Il s'agit en majorité de téléphones mobiles équipés de composants électroniques permettant de traiter le signal des satellites de navigation.. Le taux d'équipement en 2014 était de par personne en Amérique du Nord (2,5 en 2023), 1,1 en Europe (2,1 en 2023), 0,8 en Russie (2,3 en 2023), 0,5 en Amérique du Sud (1,1 en 2023), 0,4 en Asie (1 en 2023) et 0,2 en Afrique (0,8 en 2023). Une majorité de terminaux a désormais la capacité d'exploiter le signal des satellites de plusieurs systèmes de positionnement : 23 % peuvent utiliser les signaux GPS et GLONASS, 8 % les signaux GPS, GALILEO et GLONASS et 21 % les signaux des quatre systèmes de positionnement ayant une couverture mondiale (GPS, GALILEO, BEIDOU et GLONASS). Les systèmes de positionnement par satellites ont plusieurs répercussions économiques : Pour arriver à ce but, les États cherchent une indépendance vis-à-vis du GPS des États-Unis, afin de développer des applications civiles ou militaires nationales. Le développement d'un système de navigation satellitaire est également un élément de prestige pour les nouvelles nations spatiales (Chine et Inde). Dans cette même optique, la Commission européenne a apporté son soutien à la création du Master GNSS par l'École nationale de l'aviation civile et l'Institut supérieur de l'aéronautique et de l'espace. GPS et protection des données personnelles. La pratique croissante de la géolocalisation d'individus ou de véhicules, d'objets connectés ( et tablettes notamment) ou d'opérations effectuées par des individus (sur un ordinateur en consultant internet ou sur de nombreux terminaux fixe ou mobile de paiement par carte, de distribution d'argent liquide, bornes de contrôle de passage) est source de stockage d'une grande quantité de données personnelles relatives à la position et aux déplacement des personnes, qui s'ils sont mal sécurisés peuvent poser des problèmes de protection de la vie privée. La production de tels fichiers ou le suivi de véhicules ou de personnes par géolocalisation GSM/GPS sont des « traitements de données à caractère personnel », qui nécessitent en France une autorisation ou une déclaration à la CNIL (. La non déclaration de traitement de ce type de données par l'employeur est une faute grave Il existe une différence dans le cas du suivi de véhicule entre un véhicule de société (qui n'est utilisé théoriquement que durant les heures de travail) ou de fonction (qui est un avantage en nature). |
Sommet mondial sur le développement durable Le Sommet mondial sur le développement durable, aussi appelé sommet de la Terre de Johannesbourg ou sommet de Johannesbourg, s'est tenu du au , à Johannesbourg en Afrique du Sud. Sommet mondial du développement durable organisé par les Nations unies, il a réuni plus de cent chefs d'État et environ , parmi lesquelles des délégués, des représentants d'ONG, des journalistes et des entreprises. Objectifs. Cette quatrième édition des Sommets de la Terre visait à faire le bilan du précédent, tenu à Rio de Janeiro en 1992. Centré sur le développement durable, sa finalité était l'adoption d'un plan d'action en décomposés en sur de nombreux sujets : pauvreté et paupérisation, consommation, ressources naturelles et leur gestion, globalisation, respect des Droits de l'homme Thèmes d'études. Certains thèmes particulièrement préoccupants ont été au cœur des débats de ce sommet. Accès à l'eau et stress hydrique. Alors que la consommation mondiale ne cesse de croître, notamment avec l'émergence de Nouveaux Pays Industrialisés (NPI) comme l'Inde et la Chine, les ressources en eau deviennent des facteurs sociaux, économiques et politiques majeurs et critiques, sources de conflits potentiels. Ainsi le Sommet de la Terre 2002 a été le lieu de débats et d'orientations sur la gestion de ces ressources, la nécessité d'une consommation rationnelle, et l'accès des populations démunies à l'eau potable. Un des objectifs fut de réduire d'ici 2015 la population ne disposant pas d'assainissement adéquat des eaux usées. Dossier des énergies. L'énergie fut un autre dossier sensible étudié lors de cette édition. Les pays du Nord, notamment les États-Unis d'Amérique, sont régulièrement montrés du doigt pour leur surconsommation d'énergie, et les NPI peinent à satisfaire leur demande. Les réserves d'énergies fossiles sont menacées d'épuisement dans les prochaines décennies, et les cours du pétrole le rendent prohibitif pour les pays du Sud. Malgré ce contexte de tensions économiques internationales, les énergies renouvelables et leurs utilisations restent confidentielles et hors de prix pour bon nombre de pays émergents. Production agricole. La productivité agricole par l'agriculture intensive suscite quelques remous dans la communauté scientifique et chez les consommateurs. En sus de la régression et de la dégradation des sols, cette méthode de production provoque, par l'usage d'engrais et de pesticides, une pollution des produits finaux et des nappes phréatiques. D'autres systèmes de production agricole ont connu un engouement, telle l'agriculture biologique, mais reste hors de portée des pays du Sud qui peinent parfois à s'auto-suffire. Effondrement de la biodiversité. Sous l'effet de la pression démographique, et des activités humaines, de nombreuses réserves écologiques voient leur surface grignotée ou leur existence menacée par les nécessités économiques des pays. Ainsi de nombreuses espèces végétales, animales, microbiennes et de champignons disparaissent sous l'effet de la déforestation ou de la destruction ou fragmentation de leur milieu. Les États se sont engagés lors de ce sommet à assurer avant 2010 une forte réduction du rythme de perte de biodiversité aux niveaux mondial, régional et national, dont pour contribuer à l’atténuation de la pauvreté, et au profit de toutes les formes de vie sur la planète (« objectif de biodiversité de 2010 »). L'ONU note que cela nécessitera des mesures multi-niveaux, et la mise en œuvre des stratégies et des plans d’action nationaux pour la préservation de la biodiversité, ainsi qu'une allocation de ressources financières et techniques supplémentaires aux pays en développement. Durant ce même sommet, les États de l'Union européenne ont préparé un objectif plus ambitieux : stopper la perte de biodiversité avant 2010 en Europe, et ils se sont mis d'accord, sur l'objectif de reconstitution des ressources halieutiques d'ici 2015, dans un objectif de développement durable. Suites : Santé. Alors que les laboratoires recherchent de nouveaux principes actifs parmi les espèces des pays du Sud, nombre de ceux-ci n'ont toujours pas accès aux pharmacopées des pays développés, privant de soins des populations entières souvent confrontées aux fléaux du Sida et du paludisme. Portée symbolique. Le Sommet de la Terre présente un enjeu symbolique important. Il se veut la preuve du développement d'une culture mondiale de respect de l'écologie mais est marqué, d'un point de vue français, par le cri pessimiste lancé par Jacques Chirac devant l'assemblée plénière : « Notre maison brûle et nous regardons ailleurs. » C'est aussi à cette occasion que le président Chirac proposera de voir dans la culture « le quatrième pilier du développement durable aux côtés de l’économie, de l’environnement et de la préoccupation sociale ». Il vise à démontrer la capacité collective à gérer les problèmes planétaires et à s'opposer à une version unilatérale de la puissance principale, celle des États-Unis. Il affirme la nécessité d'une croissance devant se faire dans le respect de l'environnement, avec le souci de la santé, de l'instruction et de la justice. Des dirigeants politiques importants de la nouvelle démocratie sud-africaine y participent, comme Cheryl Carolus. L'enjeu politique du Sommet est également important puisqu'il s'agit de démontrer que la guerre contre le terrorisme n'est pas l'unique problème mondial actuel. Polémiques. Inertie des grandes puissances. Le gouvernement des États-Unis n'avait pas souhaité participer au Sommet. L'Union européenne indiqua à l'ouverture du Sommet de la Terre qu'elle ne renégocierait pas les accords récemment conclus à Monterrey et à Doha (Qatar). Ces accords portaient sur les montants d'aides publiques au développement (APD) et sur la libération du commerce international. Elle estima que le Sommet de la Terre n'était pas le lieu de négociations pour le démantèlement progressif des subventions des pays développés. Deux dossiers-clés bloquèrent l'adoption d'un Plan d'action : Certains points ont été difficiles à négocier. Ainsi, les États-Unis s'opposèrent à la mention du principe de précaution dans le texte, ainsi qu'à l'évocation, même indirecte, du Protocole sur la biosécurité, qui concerne les organismes génétiquement modifiés (OGM). Ils refusèrent également l'adoption d'objectifs chiffrés sur l'énergie ou la dépollution de l'eau. Libéralisme humanitaire. Les pays du Nord entendirent impliquer les entreprises privées en mettant en place des partenariats entre gouvernements et entreprises privées. L'ONU avait d'ailleurs rendu publique une liste de partenariats, passés avec des entreprises ayant reçu son aval comme respectueuses de l'environnement. Les partenariats sont connus sous le nom de "Type II agreements". Certains, notamment des représentants d'ONG, protestèrent alors contre l'attitude des États-Unis et de l'Union européenne, qui défendaient, selon eux, les intérêts des multinationales. Beaucoup virent cette solution, promue par Washington, comme une manière pour l'État de renoncer à ses responsabilités. Coûts financiers du Sommet. Le coût du Sommet de Johannesbourg atteint d'euros, répartis entre l'Organisation des Nations unies ( d'euros) et l'Afrique du Sud ( d'euros). Catherine Kamping a fait remarquer lors des déclarations de clôture que tandis « qu'un tiers de la planète gagne moins d'un dollar par jour, ils ont passé dix jours dans ce paradis de richesse pour aboutir à des résultats décevants. » |
Standard Generalized Markup Language (« langage de balisage généralisé normalisé » - SGML) est un langage de description à balises, de norme ISO (ISO 8879:1986). Historique. En 1969, , qui est alors chef de projet chez IBM, fait lancer par cette compagnie un langage descriptif, ou "Generalized Markup Language" (Charles Goldfarb, Edward Mosher et Raymond Lorie), destiné à encapsuler l'ancien langage "Script" trop lié physiquement aux possibilités techniques des imprimantes. L'ensemble est commercialisé sous le nom de DCF ("Document Composition Facility"). Un fichier spécial nommé le "profile", ainsi qu'une bibliothèque de macros, indiquent comment seront interprétées les marques. Goldfarb, que ce langage rend vite célèbre, quitte alors cette compagnie pour développer un successeur de GML appelé SGML (""), publié en 1986 comme norme ISO (ISO 8879:1986). Les Communautés européennes s'associent à ce développement novateur dès 1984 et adoptent alors le SGML comme standard pour leurs très nombreuses publications officielles, dans le cadre du projet FORMEX (Formalized Exchange of Electronic Publications). Elles développent aussi Mark-It, le premier parser SGML qui ne souffre pas de restrictions par rapport aux spécifications les plus avancées du SGML. L'un des principes fondamentaux sur lequel repose le SGML est la séparation complète entre la structure logique d'un document (titres, chapitres, paragraphes, illustrations…), qui est identifiée par des balises insérées dans le document lui-même, et sa mise en page, qui dépend du support de présentation (livre, journal, écran, graphique même) et qui est définie en dehors du document dans une ou plusieurs feuilles de style (police, style, taille et couleur des caractères, alignement et espacement des paragraphes…). SGML rationalise les systèmes documentaires d'IBM ; plus de 90 % de la documentation est écrite en GML. Il a beaucoup facilité en France le travail des avionneurs, Airbus reprenant ainsi la documentation de la SNECMA aussitôt affichable sous ses propres normes, et récupérée à leur tour par ses propres clients qui les affichaient à "leurs" normes ; ou par des arsenaux livrant facilement à leurs clients (armée de l'air, marine et armée de terre, et parfois armées étrangères) des documentations à ces normes personnalisées sans aucun surcoût. Ce langage devient notamment un standard de représentation au CERN, qui a besoin d'unifier de façon rigoureuse la présentation des documents de ses équipes mais sans pour autant les déconcentrer en leur imposant des détails techniques de typographie. L'INRIA réalisera un des premiers éditeurs SGML, appelé Grif, avec une interface voisine de celle de Word. HTML, créé par Tim Berners-Lee pour le World Wide Web, est une application de SGML. Normalisation. Depuis la mise en place de la norme ISO 8879 1986 SGML, lorsqu'on analyse un document, il apparaît comme étant composé de trois parties : La DTD ("Définition de Type de Document" en français) définit la structure du document : Chaque DTD définit une classe de documents à laquelle sont rattachées toutes les instances similaires. Feuille de style. Une feuille de style décrit comment sera publié le document. Cela permet, par exemple, de décrire une feuille de style pour le papier (format A4) et une feuille de style pour les écrans (format 4/3) ; l'avantage étant de pouvoir, par exemple, créer une feuille de style pour les écrans (format 16/9) sans réécrire ni la structure ni les instances et bénéficier d'un niveau de réutilisation maximal. Les nouveaux supports matériels ne nécessitent plus que la création de la feuille de style correspondante. Instance. Une instance est un document ou une partie de document balisée selon une DTD. Toutes les instances d'une même DTD appartiennent à la même classe de document. Différences entre le GML ou HTML et une instance SGML bien formée. On notera et cela distinguera les avantages et inconvénients de chaque classe de document : Dans le HTML et le GML il manque la dissociation complète entre les 3 parties : le contenu (instance), la présentation (feuille de style), et la structure (DTD). Pour illustrer les différences, trois exemples : Un exemple d'extrait de document GML ou HTML avec fermeture implicite. <h1>Titre A de niveau 1 <p>Introduction <h2>Titre A de niveau 2 <p>Description des éléments du titre A de niveau 2 <h2>Titre B de niveau 2 <p>Description des éléments du titre B de niveau 2 <h3>Titre A de niveau 3 <p>Description des éléments du titre A de niveau 3 <h1>Titre B de niveau 1 <p>Conclusion Un exemple d'extrait de document GML ou HTML avec fermeture codée dans le document. <h1>Titre A de niveau 1</h1> <p>Introduction</p> <h2>Titre A de niveau 2</h2> <p>Description des éléments du titre A de niveau 2</p> <h2>Titre B de niveau 2</h2> <p>Description des éléments du titre B de niveau 2</p> <h3>Titre A de niveau 3</h3> <p>Description des éléments du titre A de niveau 3</p> <h1>Titre B de niveau 1</h1> <p>Conclusion</p> Un exemple d'extrait d'instance SGML. <H>Titre A de niveau 1 <P>Introduction</P> <H>Titre A de niveau 2 <P>Description des éléments du titre A de niveau 2</P> </H> <H>Titre B de niveau 2 <P>Description des éléments du titre B de niveau 2</P> <H>Titre A de niveau 3 <P>Description des éléments du titre A de niveau 3</P> </H> </H> </H> <H>Titre B de niveau 1 <P>Conclusion</P> </H> |
Sphinx (homonymie) Sphinx, ou Sphynx (du grec ancien ) (au féminin sphinge ou sphynge) est un nom d'origine grecque désignant notamment une créature légendaire : le sphinx. Mythologie et Antiquité. Dans la mythologie égyptienne, un sphinx est une chimère avec un corps de lion et une tête d'homme : Dans la mythologie grecque, le Sphinx est une créature féminine malfaisante associée au mythe d’Œdipe : |
Substance active d'un produit phytopharmaceutique Les substances actives d'un produit phytopharmaceutique sont définies par la directive 91/414/CEE du , comme suit : "les substances ou micro-organismes, y compris les virus exerçant une action générale ou spécifique :" Les substances sont définies comme "les éléments chimiques et leurs composés tels qu'ils se présentent à l'état naturel ou tels que produits par l'industrie, incluant toute impureté résultant inévitablement du procédé de fabrication". Les végétaux sont "les plantes vivantes et les parties vivantes de plantes, y compris les fruits frais et les semences". |
Syntaxe La syntaxe est, à l'origine, la branche de la linguistique qui étudie la manière dont les mots se combinent pour former des phrases ou des énoncés dans une langue. On distingue la syntaxe, qui concerne les expressions [les mots], de la sémantique, qui concerne ce qui est visé par les expressions [le sens, la signification/les choses]. Le terme a un sens similaire en informatique, bien qu'il s'applique à une terminologie différente. Ainsi, la syntaxe dicte la grammaire formelle d'un langage, c'est-à-dire des règles d'agencement des "lexèmes" (en informatique, ce sont des entités lexicales d'un langage informatique) en des "termes" plus complexes, souvent des programmes. Dans la théorie des langages formels, ce qui joue le rôle de lexème est en général appelé "lettre" ou "symbole", et les termes produits sont appelés "mots". D'un point de vue purement linguistique, la syntaxe étudie : Histoire ancienne. Les œuvres sur la grammaire ont été écrites bien avant que les principes de la syntaxe moderne ne soient définis. En Inde ancienne, l’"Aṣṭādhyāyī" de Panini (vers le ) est souvent cité comme un exemple d’une œuvre prémoderne qui frise la sophistication d’une théorie syntactique moderne. À l’ouest, le courant de pensée qui est connu comme la « grammaire traditionnelle » a commencé avec les œuvres de Denys le Grammairien. Pendant des siècles, le travail en syntaxe était dominé par un cadre connu comme la "grammaire générale", ce qui a été exposé d’abord en 1660 par Antoine Arnauld dans un livre du même nom. Ce système fonctionnait sous la supposition que la langue est un reflet direct des processus mentaux et ainsi il existe une seule manière la plus naturelle d’exprimer une pensée. Cependant, au , avec le développement de la linguistique historique, les linguistes ont commencé à réaliser la diversité des langues humaines et à questionner les suppositions fondamentales en ce qui concerne la relation entre le langage et la logique. Il est devenu évident qu’il n’existe pas une façon plus naturelle d’exprimer une idée, et ainsi la logique ne pouvait plus être invoquée comme base pour étudier la structure du langage. La grammaire de Port-Royal a calqué l’étude de la syntaxe sur celle de la logique. (D’ailleurs, de grandes parties de la "Logique de Port-Royal" étaient copiées ou adaptées de la "Grammaire générale".) Les catégories syntactiques étaient identifiées avec celles de la logique, et chaque phrase était analysée comme « sujet – copule – prédicat ». Initialement, cette opinion a été adoptée par les premiers linguistes comparatifs comme Franz Bopp. Le rôle central de la syntaxe dans le cadre de la linguistique théorique est devenu évident seulement au . Séquençage du sujet, verbe et objet. Une caractéristique fondamentale de la syntaxe d’une langue est la séquence dans laquelle le sujet (S), le verbe (V) et l’objet (O) apparaissent dans les phrases. La grande majorité des langues placent le sujet en premier lieu, soit dans la séquence SVO, soit dans la séquence SOV. Les autres séquences possibles sont VSO, VOS, OVS, et OSV, ces trois derniers sont plus rares. Théories. Plusieurs approches théoriques de la syntaxe coexistent. Un courant de pensée, fondé dans les œuvres de Derek Bickerton, voit la syntaxe comme une branche de la biologie, parce que ce courant conçoit la syntaxe comme l’étude de la connaissance linguistique qu’incarne l’esprit humain. D'autres linguistes (p. ex. Gerald Gazdar) ont un point de vue plus platonicien, parce qu’ils considèrent la syntaxe comme l’étude d’un système formel abstrait. D'autres encore (p. ex. Joseph Greenberg) considèrent la syntaxe comme un système taxonomique dont le but est d’atteindre de grandes généralisations à travers des langues. Les courants de syntaxe principaux comprennent : |
Stethorus Le genre Stethorus comprend des insectes coléoptères prédateurs de la famille des Coccinellidae, dont les larves et les adultes ont pour proies principalement les acariens sur les arbres fruitiers, la vigne, les grandes cultures, et les forêts. Liste d'espèces. Selon : |
Scymnus Scymnus est un genre d’insectes coléoptères prédateurs, de la famille des Coccinellidae, dont les larves et les adultes ont pour proies principalement les pucerons vivant sur les arbres fruitiers, la vigne et dans les forêts. Selon les classifications, ce genre est classé dans la sous-famille des Scymninae ou des Coccinellinae (tribu des Scymnini dans les deux cas). Liste d'espèces. Selon : Selon : Selon : |
Saturne (planète) Saturne est la sixième planète du Système solaire par ordre d'éloignement au Soleil, et la deuxième plus grande par la taille et la masse après Jupiter, qui est comme elle une planète géante gazeuse. Son rayon moyen de est environ neuf fois et demi celui de la Terre et sa masse de est plus grande. Orbitant en moyenne à environ du Soleil (), sa période de révolution vaut un peu moins de tandis que sa période de rotation est estimée à . La caractéristique la plus célèbre de la planète est son système d'anneaux proéminent. Composés principalement de particules de glace et de poussières, ils sont observés pour la première fois en 1610 par Galilée et se seraient formés il y a moins de . Saturne est la deuxième planète possédant le plus grand nombre de satellites naturels observés, avec contre les , associés à des centaines de satellites mineurs dans son cortège. Sa plus grande lune, Titan, est la deuxième plus grande du Système solaire (derrière Ganymède, lune de Jupiter, toutes deux avec un diamètre plus grand que celui de Mercure) et c'est la seule lune connue à posséder une atmosphère substantielle. Une autre lune remarquable, Encelade, émet de puissants geysers de glace et serait un habitat potentiel pour la vie microbienne. L'intérieur de Saturne est très probablement composé d'un noyau rocheux de silicates et de fer entouré de couches constituées en volume à 96 % d'hydrogène qui est successivement métallique puis liquide puis gazeux, mêlé à de l'hélium. Ainsi, elle ne possède pas de surface solide et est la planète ayant la densité moyenne la plus faible avec . Un courant électrique dans la couche d'hydrogène métallique donne naissance à sa magnétosphère, la deuxième plus grande du Système solaire mais beaucoup plus petite que celle de Jupiter. L'atmosphère de Saturne est généralement terne et manque de contraste, bien que des caractéristiques de longue durée puissent apparaître comme un hexagone à son pôle nord. Les vents sur Saturne peuvent atteindre une vitesse de , soit les deuxièmes plus rapides du Système solaire après ceux de Neptune. Elle a été explorée par quatre sondes spatiales : "Pioneer 11", "Voyager 1" et "2" puis "Cassini-Huygens" (du nom de deux astronomes ayant grandement fait avancer les connaissances sur le système saturnien au ). Observable à l'œil nu dans le ciel nocturne grâce à sa magnitude apparente moyenne de 0,46 , elle est connue depuis la Préhistoire et a ainsi longtemps été la planète la plus éloignée du Soleil connue. Aussi, son observation a inspiré des mythes et elle porte le nom du dieu romain de l'agriculture Saturne (Cronos dans la mythologie grecque), son symbole astronomique ♄ représentant la faucille du dieu. Caractéristiques physiques. Masse et dimensions. Saturne a la forme d'un ellipsoïde de révolution : la planète est aplatie aux pôles et renflée à l'équateur, conséquence de sa rapide rotation sur elle-même et d'une composition interne extrêmement fluide. Par convention, la surface de la planète est définie comme l'endroit où la pression atmosphérique est égale à et est utilisée comme point de référence pour les altitudes. Ses rayons équatoriaux et polaires diffèrent de près de 10 % avec contre , ce qui donne un rayon moyen volumétrique de . Cela revient un aplatissement de 0,098, le plus grand des planètes géantes . Saturne est la deuxième planète la plus massive du Système solaire, d'une masse moindre que Jupiter, mais supérieure à celle de Neptune et supérieure à celle d'Uranus. Jupiter et Saturne représentant respectivement et la masse terrestre, les deux planètes possèdent 92 % de la masse planétaire totale du Système solaire. La gravité de la surface le long de l'équateur, , vaut 90 % de celle à la surface de l'équateur terrestre. Cependant, la vitesse de libération à l'équateur est de , soit environ trois fois plus que sur Terre. Saturne est la planète la moins dense du Système solaire avec , soit environ 70 % de la densité de l'eau. En effet, bien que le noyau de Saturne soit considérablement plus dense que l'eau, la densité moyenne est abaissée en raison de son importante atmosphère. Pour illustrer cela, il est parfois évoqué que s'il existait un océan assez grand pour la contenir, elle flotterait. En réalité, il serait évidemment impossible d'avoir une planète avec un océan suffisamment profond et la cohésion de Saturne ne serait pas maintenue car elle est gazeuse, son noyau très dense coulerait donc en conséquence. Structure interne. Saturne est classée comme une géante gazeuse car elle est principalement composée d'hydrogène et d'hélium. Ainsi, les modèles planétaires standards suggèrent que l'intérieur de Saturne est similaire à celui de Jupiter, avec un noyau rocheux entouré d'hydrogène et d'hélium ainsi que de traces de substances volatiles . Le noyau rocheux serait d'une composition similaire à la Terre, constitué de silicates et de fer, mais plus dense. Il est estimé à partir du champ gravitationnel de la planète et des modèles géophysiques des planètes gazeuses que le noyau doit avoir une masse allant de 9 à 22 masses terrestres, atteignant un diamètre d'environ . Celui-ci est entouré d'une couche d'hydrogène métallique liquide plus épaisse, suivie d'une couche liquide d'hydrogène moléculaire et d'hélium qui se transforme progressivement en gaz en fonction de la croissance de l'altitude. La couche la plus externe s'étend sur et se compose de gaz. Aussi, la majeure partie de la masse de Saturne n'est pas en phase de gaz car l'hydrogène devient liquide lorsque la densité est supérieure à , cette frontière étant atteinte à la surface d'une sphère correspondant à 99,9 % de la masse de Saturne. Saturne possède une température interne très élevée, atteignant en son cœur et irradiant, comme Jupiter, plus d'énergie dans l'espace qu'elle n'en reçoit du Soleil . L'énergie thermique de Jupiter est générée par le mécanisme de Kelvin-Helmholtz de compression gravitationnelle lente, mais un tel processus à lui seul n'est pas suffisant pour expliquer la production de chaleur de Saturne car elle est moins massive. Un mécanisme alternatif ou supplémentaire serait la génération de chaleur par la de gouttelettes d'hélium dans les profondeurs de Saturne. Au fur et à mesure que les gouttelettes descendent à travers l'hydrogène de densité inférieure, le processus libérerait ainsi de la chaleur par frottement et laisserait les couches externes de Saturne appauvries en hélium. Ces gouttelettes descendantes peuvent s'être accumulées dans une coquille d'hélium entourant le noyau. Cette immiscibilité de l'hydrogène et de l'hélium, prévue théoriquement depuis les années 1970, a été vérifiée expérimentalement en 2021. Il est également suggéré que des pluies de diamants se produisent à l'intérieur de Saturne, tout comme au sein de Jupiter et des géantes de glace Uranus et Neptune. Cependant, étant donnée sa distance au Soleil, la température de Saturne descend rapidement jusqu'à atteindre à puis à , pour une température effective de . Atmosphère. Composition. La haute atmosphère de Saturne est constituée à 96,3 % d'hydrogène et à 3,25 % d'hélium en volume. Cette proportion d'hélium est significativement plus faible que l'abondance de cet élément dans le Soleil. La quantité d'éléments plus lourds que l'hélium (appelée métallicité) n'est pas connue avec précision, mais les proportions sont supposées correspondre aux abondances primordiales issues de la formation du Système solaire ; la masse totale de ces éléments est estimée à 19 à celle de la Terre, une fraction significative étant située dans la région du noyau de Saturne. Des traces de méthane , d'éthane , d'ammoniac , d'acétylène et de phosphine ont également été détectées. Le rayonnement ultraviolet du Soleil provoque une photolyse du méthane dans la haute atmosphère, conduisant à la production d'hydrocarbures, les produits résultants étant transportés vers le bas par les tourbillons de turbulence et par diffusion. Ce cycle photochimique est modulé par le cycle saisonnier de Saturne. Couches de nuages. De manière similaire à Jupiter, l'atmosphère de Saturne est organisée en bandes parallèles, même si ces bandes sont moins contrastées et plus larges près de l'équateur. Ces bandes sont causées par la présence de méthane dans l'atmosphère planétaire, celles-ci étant plus d'autant plus foncées que la concentration est grande. Le système nuageux de Saturne n'est observé pour la première fois que lors des missions "Voyager" dans les années 1980. Depuis, les télescopes terrestres ont progressé et permettent de pouvoir suivre l'évolution de l'atmosphère saturnienne. Ainsi, des caractéristiques courantes sur Jupiter, comme les orages ovales à longue durée de vie, sont retrouvées sur Saturne ; par ailleurs, la nomenclature utilisée pour décrire ces bandes est la même que sur Jupiter. En 1990, le télescope spatial "Hubble" observe un très grand nuage blanc près de l'équateur de Saturne qui n'était pas présent lors du passage des sondes Voyager, et en 1994 une autre tempête de taille plus modeste est observée. La composition des nuages de Saturne varie avec la profondeur et la pression croissante. Dans les régions les plus hautes, où les températures évoluent entre et et la pression entre 0,5 et , les nuages se composent de cristaux d’ammoniac. Entre 2,5 et se trouve de la glace d’eau à des températures de à . Ces nuages s’entremêlent à des nuages de glace d’hydrosulfure d’ammonium comprise entre 3 et , avec des températures de à . Enfin, les couches inférieures, où les pressions sont comprises entre 10 et et les températures de à , contiennent une région de gouttelettes d'eau avec de l'ammoniaque (ammoniac en solution aqueuse). Dans les images transmises en 2007 par la sonde "Cassini", l'atmosphère de l'hémisphère nord apparaît bleue, de façon similaire à celle d'Uranus. Cette couleur est probablement causée par diffusion Rayleigh. Tempêtes. Les vents de Saturne sont les deuxièmes plus rapides parmi les planètes du Système solaire, après ceux de Neptune. Les données de "Voyager" indiquent des vents d'est allant jusqu'à (). La tempête observée en 1990 est un exemple de Grande tache blanche, un phénomène unique mais de courte durée se produisant une fois par année saturnienne, soit toutes les terrestres, à l'époque du solstice d'été de l'hémisphère nord. De grandes taches blanches sont précédemment observées en 1876, 1903, 1933 et 1960. La dernière Grande tache blanche est observée par Cassini en 2010 et 2011. Lâchant de larges quantité d'eau de façon périodique, ces tempêtes indiquent que la basse atmosphère saturnienne contiendraient plus d'eau que celle de Jupiter. Pôle Nord : Hexagone de Saturne en 2016.Pôle Sud : Vue en infrarouge révélant le vortex chaud. Un système ondulatoire hexagonal persistant autour du vortex polaire nord vers une latitude d'environ +78° est noté pour la première fois grâce aux images de "Voyager". Les côtés de l'hexagone mesurent chacun environ de long, soit plus du diamètre de la Terre. La structure entière tourne avec une période d'un peu plus de , ce qui correspond à la période des émissions radio de la planète et est supposé être la période de rotation de l'intérieur de Saturne. Ce système ne se décale pas en longitude comme les autres structures nuageuses de l'atmosphère visible. L'origine du motif n'est pas certaine mais la plupart des scientifiques pensent qu'il s'agit d'un ensemble d'ondes stationnaires dans l'atmosphère. En effet, des formes polygonales similaires ont été reproduites en laboratoire par rotation différentielle de fluides. Au pôle sud, les images prises par le télescope spatial Hubble indiquent de 1997 à 2002 la présence d'un courant-jet, mais pas d'un vortex polaire ou d'un système hexagonal analogue. Cependant, la NASA signale en novembre 2006 que "Cassini" avait observé une tempête analogue à un cyclone, stationnant au pôle sud et possédant un œil clairement défini. Il s'agit du seul œil jamais observé sur une autre planète que la Terre ; par exemple, les images de la sonde spatiale "Galileo" ne montrent pas d'œil dans la Grande Tache rouge de Jupiter. Aussi, la thermographie révèle que ce vortex polaire est chaud, le seul exemple connu d'un tel phénomène dans le Système solaire. Alors que la température effective sur Saturne est de , les températures sur le vortex atteignent jusqu'à , faisant de lui probablement le point le plus chaud de Saturne. Celui-ci ferait près de près de de large, une taille comparable à celle de la Terre, et connaîtrait des vents de . Il pourrait être vieux de plusieurs milliards d'années. De 2004 à 2009, la sonde "Cassini" observe la formation, le développement et la fin de violents orages, dont la tempête du Dragon ou encore des lacunes dans la structure nuageuse formant des . Les orages de Saturne sont particulièrement longs ; par exemple, un orage s'est étalé de novembre 2007 à juillet 2008. De même, un très violent orage débute en janvier 2009 et dure plus de huit mois. Ce sont les plus longs orages observés jusque-là dans le Système solaire. Ils peuvent s'étendre sur plus de de diamètre autour de la région appelée « allée des tempêtes » située à 35° au Sud de l'équateur. Les décharges électriques provoquées par les orages de Saturne émettent des ondes radio dix mille fois plus fortes que celles des orages terrestres. Magnétosphère. Saturne possède un champ magnétique intrinsèque qui a une forme simple et se comporte comme un dipôle magnétique, presque aligné avec l'axe de rotation de la planète et dont le pôle nord magnétique correspond au pôle sud géographique. Il est découvert en 1979 par la sonde "Pioneer 11" lorsqu'elle mesure son intensité : sa force à l'équateur est d'environ (), soit un vingtième du champ de Jupiter et légèrement plus faible que le champ magnétique terrestre. En conséquence, la magnétosphère de Saturne est la deuxième plus grande du Système solaire mais reste beaucoup plus petite que celle de Jupiter. La magnétopause, frontière entre la magnétosphère de Saturne et le vent solaire, se trouve à seulement environ vingt fois le rayon de Saturne (soit ) du centre de la planète, tandis que la queue magnétique s'étire derrière sur des centaines de fois le rayon saturnien.Très probablement, le champ magnétique est généré de la même manière que celui de Jupiter avec des courants de convection dans la couche d'hydrogène métallique liquide créant un effet dynamo. Cette magnétosphère est efficace pour détourner les particules du vent solaire. L’interaction de la magnétosphère de Saturne et des vents solaires, comme dans le cas de la Terre, produit des aurores boréales sur les pôles de la planète dans le domaine du visible, de l’infrarouge et de l’ultraviolet. La magnétosphère de Saturne est remplie de plasma originaire de la planète et de ses satellites naturels, notamment d'Encelade qui éjecte jusqu’à de vapeur d’eau par ses geysers situés à son pôle sud ou de l'atmosphère de Titan dont les particules ionisées interagissent avec la magnétosphère. Par ailleurs, il se trouve à l’intérieur de la magnétosphère une ceinture de radiation, similaire à la ceinture de Van Allen pour la Terre, qui contient des particules d’énergie pouvant atteindre la dizaine de mégaélectronvolts. Formation. Le mécanisme de formation le plus communément adopté pour la formation des planètes est le modèle d'accrétion de cœur à partir du disque d'accrétion. Les planètes géantes, comme Saturne, se forment au-delà de la ligne des glaces, zone au-delà de l’orbite de Mars où la matière est suffisamment froide pour que différents types de glaces restent à l'état solide. Elles grandissent jusqu'à devenir suffisamment massives pour pouvoir commencer à accumuler du gaz hélium-hydrogène provenant du disque, les éléments les plus légers mais aussi les plus abondants. Ce phénomène s'emballant, il est estimé que Jupiter et Saturne auraient accumulé la majeure partie de leur masse en seulement . La masse significativement plus réduite de Saturne par rapport à Jupiter s'expliquerait par le fait qu'elle se serait formée quelques millions d'années après Jupiter, alors qu'il y avait moins de gaz disponible dans son environnement. Deux caractéristiques de Saturne sont surprenantes dans le contexte des schémas classiques de formation des planètes : son obliquité d'environ 26,7°, trop élevée pour être expliquée par un impact, et la présence d'imposants anneaux vieux d'environ d'années. L'éloignement rapide de Titan, encore observé aujourd'hui, pourrait avoir dans un premier temps augmenté l'obliquité jusqu'à 36° lors du passage par une résonance de précession avec Neptune. Un événement soudain aurait alors décalé la résonance, l'éloignement de Titan ayant alors pour conséquence de résuire l'obliquité jusqu'à sa valeur actuelle. Cet événement pourrait être la disparition d'un satellite dénommé Chrysalis, dont la déstabilisation de l'orbite expliquerait aussi la formation des anneaux par une rencontre rasante avec Saturne. Caractéristiques orbitales. Orbite. Le demi-grand axe de l'orbite de Saturne autour du Soleil est de de kilomètres (soit ). Avec une vitesse orbitale moyenne de , sa période de révolution est d'environ et demi ( terrestres). L'orbite elliptique de Saturne est inclinée de 2,48° par rapport au plan orbital de la Terre, l'écliptique. Les distances au périhélie et à l'aphélie sont respectivement de 9,195 et , en moyenne, du fait de son excentricité orbitale de 0,054. Rotation. De façon similaire à Jupiter, les caractéristiques visibles sur Saturne tournent à des vitesses différentes en fonction de la latitude et ainsi ont toutes des périodes de rotation propres. Par convention, plusieurs systèmes sont définis, avec chacun leur période de rotation. Le premier, ayant une période , correspond à la zone équatoriale s'étendant entre le bord nord de la ceinture équatoriale méridionale et le bord sud de la ceinture équatoriale boréale. Les régions polaires nord et sud sont également rattachées au premier système. Le deuxième concerne toutes les autres latitudes et possède quant à lui par convention une période de rotation de . Finalement, un troisième système s'appuie sur la rotation des émissions radio de Saturne, notamment détectées par "Voyager 1" et "Voyager 2" car les ondes émises par Saturne sont à des fréquences basses bloquées par l'atmosphère terrestre, et a pour période de rotation . Cette valeur était alors considéré comme égale à la période de rotation interne de la planète, même si celle-ci restait inconnue. En approchant de Saturne en 2004, "Cassini" constate cependant que la période de rotation radio de Saturne avait augmenté sensiblement depuis les précédents survols, à environ sans que la cause exacte du changement ne soit connue. En mars 2007, il est ensuite observé que la variation de la période des émissions radio de la planète ne correspondait en réalité pas à la rotation de Saturne mais était causée par des mouvements de convection du disque de plasma entourant Saturne, lesquels sont indépendants de la rotation. Ceux-ci pourraient être la conséquence de la présence des geysers de la lune Encelade. En effet, la vapeur d'eau émise dans l'orbite de Saturne par cette activité se charge électriquement et induit une traînée sur le champ magnétique de Saturne, ralentissant légèrement sa rotation par rapport à celle de la planète. En 2019, une étude avance que les variations saisonnières pourrait être une variable de confusion en ce qui concerne la mesure de la période de rotation. En effet, contrairement à Jupiter dont la période de rotation est connue depuis longtemps grâce aux mesures radio et qui a une inclinaison de l'axe de 3°, Saturne a une inclinaison de 27° et connaît donc des saisons. Cette variation de l'énergie solaire reçue affecterait le plasma autour de Saturne et donc sa période de rotation en créant une traînée. La même année, la NASA avance que la période de rotation de Saturne, d'après les dernières données captées par la sonde Cassini, est de . Cette valeur a été obtenue en observant des perturbations dans ses anneaux. Cependant, en 2020, le NASA "Fact Sheet" de la planète indique toujours comme période de rotation la valeur du troisième système retournée par "Voyager", à savoir ou . Cortège de Saturne. Lunes. En 2020, sont connus, étant nommés et les ayant une désignation provisoire. En outre, il existe des preuves de dizaines à centaines de satellites mineurs avec des diamètres allant de 40 à présents dans les anneaux de Saturne, qui ne peuvent cependant pas être considérés comme des lunes. La plupart des lunes sont petites : un diamètre inférieur à et en ont un compris entre 10 et . Seules sept sont suffisamment massives pour avoir pu prendre une forme sphéroïdale sous leur propre gravité : Titan, Rhéa, Japet, Dioné, Téthys, Encelade et Mimas (par masse décroissante). Avec Hypérion, qui pour sa part possède une forme irrégulière, ces huit lunes sont dites . Traditionnellement, les de Saturne sont nommés d'après des Titans de la mythologie grecque ou des personnages associés au dieu Saturne. Les autres sont tous des satellites irréguliers ayant une orbite bien plus éloignée et fortement inclinée par rapport au plan équatorial de la planète ainsi qu'une taille inférieure à trente kilomètres, à l'exception de Phœbé et Siarnaq. Ils sont quant à eux nommés d'après des géants des mythologies inuits, nordiques et celtes. Titan est le plus grand satellite de Saturne, représentant environ 96 % de la masse en orbite autour de la planète, anneaux compris. Découvert par Christian Huygens en 1655, il s'agit de la première lune observée. Il est le deuxième plus grand satellite naturel du Système solaire après Ganymède et le seul doté d'une atmosphère majeure constituée principalement de diazote dans laquelle une chimie organique complexe se produit. C'est également le seul satellite avec des mers et lacs d'hydrocarbures. Le satellite, principalement composé de roche et de glace d'eau, voit son climat modeler sa surface de façon similaire à ce qui se produit sur Terre, faisant qu'il est parfois comparé à une . En juin 2013, des scientifiques de l'Instituto de Astrofísica de Andalucía signalent la détection d'hydrocarbures aromatiques polycycliques dans la mésosphère de Titan, un possible précurseur de la vie. Ainsi, il s'agit d'un possible hébergeur de vie extraterrestre microbienne et un possible océan souterrain pourrait servir d’environnement favorable à la vie. En juin 2014, la NASA affirme avoir des preuves solides que l'azote dans l'atmosphère de Titan proviendrait de matériaux dans le nuage d'Oort, associés aux comètes, et non des matériaux qui ont formé Saturne. La deuxième plus grande lune de Saturne, Rhéa, possède son propre système d'anneaux et une atmosphère ténue. Japet, quant à elle, est remarquable par sa coloration et par sa longue crête équatoriale. Avec, Dioné et Téthys, ces quatre lunes sont découvertes par Jean-Dominique Cassini entre 1671 et 1684. William Herschel découvre ensuite Encelade et Mimas en 1789. La première, dont la composition chimique semble similaire aux comètes, est notable car elle émet de puissants geysers de gaz et de poussières et pourrait contenir de l'eau liquide sous son pôle Sud. Ainsi, elle est également considérée comme un habitat potentiel pour la vie microbienne. La preuve de cette possibilité inclut par exemple des particules riches en sel ayant une composition « semblable à un océan » qui indique que la majeure partie de la glace expulsée d'Encelade provient de l'évaporation d'eau salée liquide. Un survol de "Cassini" en 2015 à travers un panache sur Encelade relève la présence de la plupart des ingrédients nécessaires à soutenir des formes de vie pratiquant la méthanogenèse. Mimas, quant à elle, est responsable de la formation de la division de Cassini et son apparence fait qu'elle est régulièrement comparée à l"'Étoile de la mort" de la saga "Star Wars". En octobre 2019, une équipe d'astronomes du Carnegie Institution for Science observent , ce qui fait de Saturne la deuxième planète du Système Solaire ayant le plus de satellites naturels connus avec , derrière devançant Jupiter et ses . Anneaux planétaires. Une des caractéristiques les plus connues de Saturne est son système d'anneaux planétaires qui la rend visuellement unique. Les anneaux forment un disque dont le diamètre est de près de avec les anneaux principaux s'étendant d'environ depuis l'équateur de la planète et ayant une épaisseur de seulement quelques dizaines de mètres. Aussi, ils conservent toujours la même inclinaison que l'équateur de la planète. Ils sont principalement composés de glace d'eau (95 à 99 % de glace d'eau pure selon les analyses spectroscopiques), avec des traces d'impuretés de tholin et un revêtement de carbone amorphe. Bien qu'ils semblent continus vus depuis la Terre, ils sont en fait constitués d'innombrables particules dont la taille varie de quelques micromètres à une dizaine de mètres et ayant chacun une orbite et une vitesse orbitale différente. Si les autres planètes géantes ont également des systèmes d'anneaux, celui de Saturne est le plus grand et le plus visible du Système solaire avec un albédo de 0,2 à 0,6, pouvant même être observé depuis la Terre à l'aide de jumelles. Ils sont aperçus pour la première fois le par le savant italien Galilée grâce à une lunette astronomique de sa fabrication. Celui-ci interprète ce qu'il voit comme deux mystérieux appendices de part et d'autre de Saturne, disparaissant et réapparaissant au cours de l'orbite de la planète vu depuis la Terre. Bénéficiant d'une meilleure lunette que Galilée, le hollandais Christian Huygens est le premier à suggérer en 1655 qu'il s'agit en fait d'un anneau entourant Saturne, expliquant ainsi les disparitions observées par le fait que la Terre passe dans le plan de celui-ci. En 1675, Jean-Dominique Cassini découvre qu'il y en a réalité plusieurs anneaux en une division entre ceux-ci ; à ce titre la séparation observée, située entre les anneaux A et B, est baptisée « division de Cassini » en son honneur. Un siècle plus tard, James Clerk Maxwell démontre que les anneaux ne sont pas solides mais en réalité composés d'un très grand nombre de particules. Les anneaux sont nommés de façon alphabétique dans l'ordre de leur découverte. Ils sont relativement proches les uns des autres, espacés par souvent étroites où la densité de particule diminue grandement. Ces divisions sont causées pour la plupart par l'interaction gravitationnelle des lunes de Saturne, notamment des satellites bergers. Par exemple, Pan se situe dans la division d'Encke et Daphnis se situe dans la division de Keeler, qu'ils auraient respectivement créés par leurs effets . La division de Cassini, quant à elle, semble formée par l’attraction gravitationnelle de Mimas.L'abondance en eau des anneaux varie radialement, l'anneau le plus externe A étant le plus pur en eau glacée ; cette variance d'abondance peut être expliquée par un bombardement de météorites. Les anneaux A, B et C sont les plus visibles et ainsi considérés comme . Les anneaux D, E, F et G, quant à eux, sont plus ténus et ont été découverts plus tardivement. Une partie de la glace dans l'anneau E provient des geysers de la lune Encelade. En 2009, un anneau beaucoup plus lointain est mis en évidence par le satellite Spitzer en infrarouge. Ce nouvel anneau, appelé anneau de Phœbé, est très ténu et est aligné avec une des lunes de Saturne : Phœbé. Il est ainsi supposé que la lune en serait l'origine et partage son orbite rétrograde. Il n'existe pas de consensus quant au mécanisme de leur formation, mais deux hypothèses principales sont principalement proposées concernant l'origine des anneaux. Une hypothèse est que les anneaux sont les restes d'une lune détruite de Saturne et la deuxième est que les anneaux sont restés du matériau nébulaire originel à partir duquel Saturne s'est formée. Si ces modèles théoriques supposent que les anneaux seraient apparus tôt dans l'histoire du Système solaire, les données de la sonde "Cassini" indiquent cependant qu'ils pourraient s'être formés beaucoup plus tard et leur âge est ainsi estimé à environ d'années en 2019. De plus, ils pourraient disparaître d'ici d'années. À la suite de ces découvertes, le mécanisme privilégié pour expliquer l'apparition des anneaux est qu'une lune glacée ou une très grande comète aurait pénétré la limite de Roche de Saturne. Autre entourage de Saturne. Un astéroïde troyen d'une planète est un astéroïde situé aux alentours d'un des deux points stables de Lagrange (L ou L) du système Soleil-planète, c'est-à-dire qu'ils sont situés à 60° en avance ou en retard sur l'orbite de la planète. Cependant, Saturne ne possède aucun astéroïde troyen connu contrairement à la Terre, Mars, Jupiter, Uranus et Neptune. Il est supposé que des mécanismes de résonance orbitale, notamment la résonance séculaire, sont à l'origine de l'absence de troyen pour Saturne. Observation. Si Uranus est visible à l'œil nu dans de très bonnes conditions et dans un ciel très sombre, Saturne est souvent considérée comme la planète la plus éloignée du Soleil et de la Terre visible à l'œil nu de façon générale. Dans le ciel nocturne, la planète apparaît comme un point lumineux brillant et jaunâtre avec sa magnitude apparente moyenne de 0,46 . La majeure partie de la variation de magnitude est due à l'inclinaison du système d'anneau par rapport au Soleil et à la Terre. En effet, la magnitude la plus brillante -0,55 se produit à peu près au moment où le plan des anneaux est le plus incliné, et la plus faible magnitude 1,17 se produit au moment où il l'est le moins. De plus, Saturne et ses anneaux sont mieux visibles lorsque la planète est proche de l'opposition, à une élongation de 180° par rapport au Soleil. Une opposition saturnienne se produit presque chaque année car la période synodique de Saturne est de mais a un impact moindre que la position des anneaux sur sa visibilité. Par exemple, lors de l'opposition du , Saturne est apparue à son plus brillant en raison d'une orientation favorable de ses anneaux par rapport à la Terre, même si la planète était pourtant plus proche lors de l'opposition suivante fin 2003. Afin de pouvoir obtenir une image nette des anneaux de Saturne, il est nécessaire d'utiliser des jumelles puissantes ou un petit télescope. Lorsque la Terre traverse le plan des anneaux, ce qui se produit deux fois par année saturnienne (environ tous les terrestres), les anneaux disparaissent brièvement de la vue du fait de leur épaisseur de quelques centaines de mètres en moyenne. Une telle « disparition » se produira pour la prochaine fois en 2025, mais Saturne sera trop proche du Soleil pour pouvoir l'observer. Par ailleurs, il est également possible d'observer des caractéristiques majeures à l'aide d'un télescope amateur, comme les grandes taches blanches qui apparaissent près du solstice d'été de l'hémisphère nord. Il faut environ à Saturne pour réaliser une orbite complète et terminer un circuit entier de l'écliptique devant les constellations de fond du zodiaque. De temps en temps, Saturne est occultée par la Lune . Comme pour toutes les planètes du Système solaire, les occultations de Saturne se produisent en « saisons ». Les occultations saturniennes ont lieu tous les mois pendant environ , suivis d'environ cinq ans pendant lesquels aucune activité de ce genre n'est enregistrée. L'orbite de la Lune étant inclinée de plusieurs degrés par rapport à celle de Saturne, les occultations ne se produiront que lorsque Saturne est près de l'un des points du ciel où les deux plans se croisent . Histoire des observations. Avant les télescopes. Saturne est connue depuis les temps préhistoriques et est au début de l'Histoire enregistrée comme un personnage majeur dans diverses mythologies. Depuis l'Antiquité et avant la découverte d'Uranus en 1781, elle est la planète la plus éloignée du Soleil connue et marque ainsi la limite extrême du Système solaire dans l'esprit des astronomes. Dans l'Égypte antique, elle symbolise la divinité Horus sous le nom de "Hor-ka-pet" () tandis que les sumériens l'appellent "Lubat-saguš" (). Les astronomes babyloniens observent et enregistrent systématiquement les mouvements de Saturne depuis au moins le , l'appelant "Kajamanu". En grec ancien, la planète est connue sous le nom de "Phainon", puis à l'époque romaine comme , le dieu de l'agriculture, dont la planète tire son nom moderne. Les romains considèrent le dieu Saturne comme l'équivalent du Titan Cronos ; en grec moderne, la planète conserve d'ailleurs le nom de "Kronos" (). Par ailleurs, le nom grec reste utilisé en forme adjectivale, notamment pour les astéroïdes kronocroiseur. L'astronome grec Claude Ptolémée fonde ses calculs de l'orbite de Saturne sur des observations qu'il réalise alors qu'elle est en opposition et suppose qu'elle est très froide en raison de son éloignement au Soleil, qu'il situe alors entre Vénus et Mars. Dans l'astrologie hindoue, Saturne est connue sous le nom de « Shani » et juge les hommes en fonction de leurs actions. La culture chinoise et japonaise antique désigne Saturne comme «l'étoile de la terre» () dans la cosmologie Wuxing des cinq éléments. En hébreu ancien, Saturne s'appelle «Shabbathai» et son ange est Cassiel. L’étoile des Rois mages, ou étoile de Bethléem, est parfois évoquée comme ayant été une nova, supernova ou encore la comète de Halley, ces hypothèses ayant finalement été mises de côté car aucun de ces phénomènes ne s'est déroulé durant le règne d’Hérode. Ainsi, l'explication actuelle est que l'intense lumière ait été produite par une conjonction entre Jupiter et Saturne au cours de l'année Recherches au télescope à partir du. En 1610, Galilée, après avoir découvert quatre lunes de Jupiter grâce à une lunette astronomique de sa conception, décide d'utiliser son nouvel instrument pour observer Saturne. En le braquant sur la planète, il observe pour la première fois ses anneaux mais ne comprend pas leur nature à cause de la trop faible résolution de sa lunette (grossissement de 20) : il les voit et les dessine comme deux très larges lunes entourant Saturne. Dans une lettre, il décrit la planète comme . En 1612, la Terre passant dans le plan des anneaux , ceux-ci disparaissent de sa vue : cela le surprend mais lui permet de comprendre que Saturne est en réalité un corps unique ; il est par ailleurs le premier de l'histoire à avoir observé cet événement astronomique. Il ne comprend toutefois pas l'origine de cette disparition, et écrit même, en référence à l'origine mythologique du nom de l'astre, que Saturne aurait . Puis, en 1613, ils réapparaissent sans que Galilée ne puisse émettre non plus une hypothèse quant à ce qu'il observe. En 1616, il dessine à nouveau les anneaux, cette fois-ci comme des anses autour de la planète. Il écrit alors : . En 1655, Christian Huygens, disposant d'un télescope avec un grossissement de 50, découvre près de Saturne un astre qui sera nommé plus tard Titan. Par ailleurs, il postule pour la première fois que Saturne serait entourée d'un anneau solide, formé de . Trois ans plus tard, dans son livre "Systema Saturnium", il explique le phénomène de disparition des anneaux observé auparavant par Galilée. En 1660, Jean Chapelain spécule que ces anneaux seraient composés d'un très grand nombre de petits satellites, ce qui passe inaperçu car la majorité des astronomes pensent alors que l'anneau est solide. En 1671 et 1672, pendant un phénomène de disparition des anneaux, Jean Dominique Cassini découvre Japet puis Rhéa, les deux plus grandes lunes de Saturne après Titan. Plus tard, en 1675 et 1676, il détermine que l'anneau est composé de plusieurs anneaux, séparés par au moins une division ; la plus large d'entre elles sera plus tard nommée la division de Cassini d'après lui. Finalement, il découvre en 1684 deux nouvelles lunes : Téthys et Dioné. Il nomme alors les quatre lunes découvertes "Sidera Lodoicea" (« les étoiles de Louis ») en l'honneur du roi de France . Aucune autre découverte d'importance n'est faite pendant un siècle jusqu'aux travaux de William Herschel . En 1780, il rapporte un trait noir sur l'anneau B, une division qui est probablement la même que celle observée par Johann Franz Encke en 1837 et qui prendra le nom de ce dernier en tant que division d'Encke. En 1789, lors d'une disparition des anneaux, il identifie deux autres lunes : Encelade et Mimas. Cette observation lui permet de plus de confirmer que la planète est aplatie aux pôles, ce qui était seulement suspecté auparavant, et de faire la première estimation de l'épaisseur des anneaux, à environ . Finalement, il détermine en 1790 la période de rotation des anneaux comme étant de , une valeur très proche de la réalité. Pierre-Simon de Laplace, avec les lois de Kepler, fournit ensuite une première estimation de la distance de la planète au Soleil à . Aussi, à partir de sa taille apparente, il évalue le diamètre de la planète à et le diamètre des anneaux à . En 1848, William Cranch Bond et son fils George Phillips Bond observent pour la première fois Hypérion, un satellite en résonance orbitale avec Titan, découverte également réalisée indépendamment deux jours plus tard par William Lassell . L'année suivante, Edouard Roche suggère que les anneaux se seraient formées quand un satellite aurait approché Saturne et qu'il se serait décomposé à cause des forces de marées ; un concept qui prendra ensuite le nom de limite de Roche. Dans les années 1850, plusieurs observations sont faites à travers l'anneau C, tout juste découvert par le père et le fils Bond, mettant à mal la théorie d'anneaux solides. En 1859, James Clerk Maxwell publie son livre "" dans lequel il avance que les anneaux sont en réalité composés d'un , toutes orbitant autour de Saturne indépendamment ; ces travaux lui vaudront le prix Adams. Cette théorie est prouvée correcte en 1895 par des études spectroscopiques menées par James Keeler et William Campbell à l'observatoire Lick, dans lesquelles ils observent que les parties internes des anneaux orbitent plus rapidement que les parties externes. En 1872, Daniel Kirkwood parvient à définir que les divisions de Cassini et d'Encke sont en résonance avec les quatre lunes intérieures alors connues : Mimas, Encelade, Téthys et Dioné. Lors de la deuxième partie du , la photographie se développe et Saturne est alors une cible de choix : de nombreux astrophotographes allant de Warren de la Rue à John Rogers Commons en passant par les frères Paul-Pierre et Prosper-Mathieu Henry la prennent alors en image, le mérite de la première photographie réussie étant partagé entre Commons et les frères Henry. En 1899, William Henry Pickering découvre Phoebé, un satellite irrégulier n'étant pas en rotation synchrone et ayant une orbite rétrograde. Il s'agit du premier de ce type trouvé et, par ailleurs, il s'agit de l'unique lune de Saturne découverte depuis une observation terrestre sans profiter d'une disparition des anneaux. Au puis au , la majorité des informations concernant la planète sont ensuite connues grâce aux différentes missions d'exploration spatiale. Les événements où la Terre croise le plan des anneaux restent cependant utilisés pour l'observation terrestre. Par exemple, en 1966, l'observatoire Allegheny photographie ce qui sera ensuite appelé l'anneau E et que les lunes Janus et Épiméthée sont découvertes ; puis, en 1979 et 1980, trois nouvelles autres le sont par des équipes distinctes : Télesto, Calypso et Hélène. Le télescope spatial "Hubble" suit également l'activité du système saturnien en continu, renvoyant parfois des images remarquables comme un quadruple transit observé en 2009. Exploration. Survols. Dans le dernier quart du , Saturne est visitée par trois sondes spatiales de la NASA qui réalisent un survol de celle-ci : "Pioneer 11" en 1979, "Voyager 1" en 1980 et "Voyager 2" en 1981. Après avoir utilisé l'assistance gravitationnelle de Jupiter, "Pioneer 11" effectue le premier survol de Saturne en septembre 1979 et passe à environ du sommet des nuages de la planète, se glissant entre l'anneau interne et les couches hautes de l'atmosphère. La sonde prend des photographies en basse résolution de la planète et de quelques-uns de ses satellites, bien que leur résolution soit trop faible pour discerner des détails de leur surface. La sonde spatiale étudie également les anneaux de la planète, révélant le fin anneau F et confirmant l'existence de l'anneau E ; aussi, le fait que les divisions dans les anneaux sont montrées comme brillantes lorsque vues avec un angle de phase élevé par la sonde révèle la présence d'un matériau fin diffusant la lumière et qu'elles ne sont donc pas vides. De plus, "Pioneer 11" fournit de nombreuses données sur la magnétosphère et l'atmosphère de Saturne ainsi que la première mesure de la température de Titan à . Un an plus tard, en novembre 1980, "Voyager 1" visite à son tour le système saturnien. La sonde renvoie les premières images en haute résolution de la planète, de ses anneaux et de ses lunes, dont Dioné, Mimas et Rhéa. "Voyager 1" effectue également un survol de Titan, accroissant les connaissances sur l'atmosphère de cette lune, notamment qu'elle est impénétrable dans les longueurs d'onde visibles et la présence de traces d'éthylène et d'autres hydrocarbures. Ce dernier survol a pour conséquence de profondément changer la trajectoire de la sonde et de l'éjecter hors du plan de l'écliptique. Près d'un an plus tard, en août 1981, "Voyager 2" poursuit l'étude. Passant à du centre de la planète le , elle prend des gros plans des lunes et apporte des preuves d'évolution de l'atmosphère et des anneaux grâce à ses caméras plus sensibles que les sondes précédentes. Malheureusement, pendant le survol, la plateforme de caméra orientable reste coincée pendant plusieurs jours, impliquant que certaines photographies ne peuvent pas être prises selon l'angle prévu et entraînant la perte d'une partie des données réalisées. L'assistance gravitationnelle de Saturne est finalement utilisée pour diriger la sonde vers Uranus puis vers Neptune, faisant de cette sonde la première et la seule à avoir visité ces deux planètes. Le programme "Voyager" permet de nombreuses découvertes comme celle de plusieurs nouveaux satellites orbitant près ou dans les anneaux de la planète, dont Atlas et les satellites bergers Prométhée et Pandore (les premiers jamais découverts), ou de trois nouvelles divisions dans les anneaux, ensuite respectivement appelées Maxwell, Huygens et Keeler. Par ailleurs, l'anneau G est découvert et des sont observées sur l'anneau B. "Cassini–Huygens". "Cassini-Huygens" est une mission d'exploration du système saturnien de la NASA en collaboration avec l'Agence spatiale européenne et l'Agence spatiale italienne, intégrée au programme "Flagship". Lancée le , la sonde spatiale est composée de l'orbiteur "Cassini" développé par la NASA et de l'atterrisseur "Huygens" développé par l'ESA . Elle se place en orbite autour de Saturne en juillet 2004, l’atterrisseur se posant sur Titan en janvier 2005 et l'orbiteur continuant son étude jusqu'au où il se désintègre dans l'atmosphère de Saturne pour éviter tout risque de contamination des satellites naturels. "Huygens" collecte des informations et réalise un flot de photographies durant la descente et après son atterrissage. Malgré des problèmes de conception et la perte d'un canal de communication, l'atterrisseur parvient à se poser près d'un lac d'hydrocarbures pour y réaliser des mesures. "Cassini" continue quant à lui d'orbiter autour de Saturne et poursuit l'étude scientifique de la magnétosphère et des anneaux de Saturne, en profitant de ses passages à faible distance des satellites pour collecter des données détaillées sur ceux-ci et obtenir des images de qualité du système saturnien. En ce qui concerne les lunes de Saturne, "Cassini" permet d'affiner la connaissance de la surface de Titan et sur la composition de son atmosphère, de découvrir les geysers d'Encelade faisant d'elle un endroit propice à l'apparition de la vie, d'obtenir les premières images détaillées de Phœbé et de découvrir six nouvelles lunes nommées, parmi lesquelles Méthone et Pollux par exemple. L'orbiteur analyse en détail la structure des anneaux de Saturne, en photographiant même un nouveau auparavant inconnu situé à l'intérieur des anneaux E et G, et observe des formations étonnantes de l'atmosphère de la planète géante à ses pôles . Par ailleurs, les données collectées sur les anneaux de Saturne au cours des dernières orbites permettent d'estimer leur âge : ceux-ci seraient apparus il y a moins de d'années et devraient disparaître d'ici d'années. En somme, la sonde spatiale "Cassini" réalise au cours de sa mission autour de Saturne et effectue de Titan, et de la planète dans des conditions ayant permis d'effectuer des investigations poussées. de données scientifiques sont collectées et plus de sont prises. La mission "Cassini-Huygens" remplit tous ses objectifs scientifiques et est ainsi considérée comme un grand succès grâce aux nombreuses données de qualité produites. Missions futures. L'exploration à l'aide d'une sonde spatiale d'une planète aussi lointaine que Saturne est très coûteuse en raison de la vitesse importante nécessaire à un engin spatial pour y parvenir, de la durée de la mission et de la nécessité de recourir à des sources d'énergie capables de compenser le rayonnement solaire plus faible comme des panneaux solaires photovoltaïques de très grande taille ou un générateur thermoélectrique à radioisotope. En 2008, la NASA et l'Agence spatiale européenne étudient la mission "Titan Saturn System Mission" (TSSM), comprenant un orbiteur ainsi qu'un atterrisseur et une montgolfière destinés à étudier Titan, mais ce projet est abandonné l'année suivante. Une mission moins coûteuse dans le cadre du programme "Discovery" est aussi envisagée, "Titan Mare Explorer" (2011), mais n'est finalement pas retenue. Cependant, devant l'intérêt scientifique de Saturne et de ses lunes (notamment Titan et Encelade qui pourraient abriter la vie), des successeurs à Cassini-Huygens sont proposés dans le cadre du programme New Frontiers de la NASA. Ainsi, en 2017, cinq missions sont en cours d'évaluation : un engin spatial qui effectuerait un sondage en plongeant dans l'atmosphère de Saturne ("SPRITE"), deux missions qui analyseraient de manière précise les matériaux éjectés par les geysers d'Encelade en survolant cette lune à plusieurs reprises et détermineraient la présence éventuelle d'indices de formes de vie ("ELSAH" et "ELF") et enfin deux missions destinées à étudier en profondeur Titan, la première en orbite ("Oceanus") et la deuxième, plus audacieuse sur le plan technique, au moyen d'un drone effectuant des vols de plusieurs dizaines de kilomètres à la surface de la lune en exploitant sa faible gravité et la forte densité de son atmosphère ("Dragonfly"). Finalement, seule la mission "Dragonfly" est sélectionnée en 2019 pour un départ prévu en 2026 et une arrivée sur Titan en 2034. Dans la culture. Science-fiction. Saturne est présente dans de nombreuses œuvres de science-fiction et sa représentation a évolué en fonction des connaissances sur la planète. Parmi les premières œuvres touchant à la science-fiction évoquant Saturne se trouve notamment "Micromégas" (1752) de Voltaire. À l'époque, elle est la planète la plus éloignée du Soleil connue et sa structure gazeuse est inconnue. Ainsi, la planète est décrite comme solide et habitée par des géants de deux kilomètres de hauteur, ayant et une espérance de vie de ; le secrétaire de l' accompagne ensuite le personnage principal Micromégas sur Terre. Un siècle plus tard, dans "Hector Servadac" (1877), Jules Verne fait passer les aventuriers près de Saturne en chevauchant une comète. L'auteur la décrit et la dessine alors comme rocheuse avec une surface solide déserte et possédant et . Après que la science moderne a révélé que la planète n'a pas de surface solide et que son atmosphère et sa température sont hostiles à la vie humaine, sa représentation évolue en conséquence. Aussi, ses anneaux planétaires et son vaste système de lunes deviennent un cadre plus courant pour la science-fiction, par exemple dans "La Voie martienne" (1952) d’Isaac Asimov ou dans "La Zone du Dehors" (2007) d'Alain Damasio. Des villes flottantes dans l'atmosphère de Saturne sont également envisagées, comme dans "Accelerando" (2005) de Charles Stross. Au cinéma, elle est notamment représentée dans "Beetlejuice" (1988) de Tim Burton, où elle est peuplée de vers de sable gigantesques, ou sert de décor dans "Interstellar" (2014) de Christopher Nolan, la NASA ayant envoyé quatre astronautes près de la planète dans le but d’atteindre un trou de ver. Musique. est le de l'œuvre pour grand orchestre "Les Planètes", composée et écrite par Gustav Holst entre 1914 et 1916. Par ailleurs, "Saturn" est une chanson du groupe de rock américain Sleeping at Last. Symbolisme. Son symbole « », d'origine ancienne représenterait la faucille du dieu Saturne ou serait dérivé de la lettre grecque "kappa" minuscule, initiale du grec ancien . Néanmoins, l'Union astronomique internationale recommande de substituer au symbole « » l'abréviation , correspondant à la lettre latine S majuscule, initiale de l'anglais "". |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.